Sunteți pe pagina 1din 16

PROGNOZA STRUCTURII UNOR FENOMENE UTILIZND LANURI MARKOV CAP.1 LANURI MARKOV 1.1.

Definiii:
n lumea real, exist o multitudine de fenomene din diferite domenii cum ar fi management, economie, structuri sociale care nu pot fi caracterizate in mod determinist, fiind necesar parcurgerea aleatorie.De aceea, n studierea acestor fenomene se utilizeaz procesele stochastice.

Marelui matematician rus Andrei Markov i sunt datorate procesele care i poart numele i care au deschis calea spre numeroase aplicaii ale teoriei probabilitilor i n special a proceselor aleatoare. Proprietatea Markov care este aparent restrictiv, stipulnd c probabilitatea unui eveniment prezent depinde numai de trecutul cel mai recent, permite ca n memoria recent s fie nglobat ntrega evoluie istoric. n matematic, un proces Markov, sau un lan Markov, este un proces stochastic care are proprietatea c, dat fiind starea sa prezent, strile viitoare sunt independente de cele trecute. Aceast proprietate se numete proprietatea Markov. Cu alte cuvinte, starea curent a unui astfel de proces reine toat informaia despre ntreaga evoluie a procesului. ntr-un proces Markov, la fiecare moment, sistemul i poate schimba sau pstra starea, n conformitate cu o anumit distribuie de probabilitate. Schimbrile de stare sunt numite tranziii. Un exemplu simplu de proces Markov este parcurgerea aleatoare a nodurilor unui graf, tranziiile fiind trecerea de la un nod la unul din succesorii si, cu probabilitate egal, indiferent de nodurile parcurse pn n acel moment. Definiia 1. Se numete proces stochastic un experiment aleator care const dintr-o suit de subexperimente aleatoare. O clas special de astfel de procese este reprezentat de lanurile Markov. Multe experimente aleatoare se desfoar n etape. De aceea, un astfel de experiment poate fi considerat ca fiind o secven de subexperimente i fiecare rezultat al experimentului este determinat de rezultatele subexperimentelor (n ordine). Aadar, un proces stochastic este o mulime indexat de variabile aleatoare, {Xt}, unde t parcurge o mulime T numit mulimea indicilor pozitivi T = N, iar Xt reprezint o caracteristic cantitativ sau calitativ a sistemului cercetat.

Avem o succesiune de experimente cu aceleai rezultate posibile. Prin urmare, se va considera c t este un moment de timp care ia valorile 1, 2, 3, , n. Aceast succesiune red secvena de experimente. Pentru fiecare moment, rezultatele posibile vor fi notate 1, 2, , m (m - numr finit). Cele m rezultate posibile vor fi numite strile n care se poate afla sistemul la un moment dat. Unitatea de msur pentru momentele de timp succesive t depinde de sistemul studiat. Dintre tipurile de astfel de secvene l putem meniona pe acela n care probabilitile rezultatelor la un moment dat sunt independente de rezultatele experimentelor precedente (de exemplu: aruncarea repetat a unui zar, extragerile unei bile din urn cu revenire). Un alt tip de secven este acela n care probabilitile rezultatelor la un moment dat depind de rezultatele din experienele anterioare (de exemplu: extragerile succesive din urn fr revenire). n cazul acestui din urm tip de experiment se pot distinge dou subcazuri extreme: y y O extrem e reprezentat de faptul c probabilitile rezultatelor la un moment dat depind de rezultatele tuturor experimentelor precedente din secven; cealalt extrem a nivelului de dependen este atunci cnd probabilitile rezultatelor la un moment dat depind doar de rezultatele experimentului precedent. n aceast situaie secvena de experimente se numete proces (lan) Markov. Definiia 2. Un proces Markov sau lan Markov este o succesiune de experimente n care fiecare experiment are m rezultate posibile E1, E2,,Em, iar probabilitatea fiecrui rezultat depinde doar de rezultatul experimentului precedent. Definiia 3. Se spune c un proces stochastic are proprietatea lui Markov dac este ndeplinit egalitatea: P(Xt+1= j/X1 = k1, , Xt-1 = kt-1, Xt = i) = P(Xt+1 =j/Xt = i), pentru t =1, 2, ,n i pentru orice succesiune k1, k2, kt-1, i, j de stri din mulimea celor m stri posibile ale sistemului. Fie 2 evenimente, A i B.Notm P(A/B) probabilitatea evenimentului A condiionat de evenimentul B.

Proprietatea lui Markov arat faptul c probabilitatea condiionat a oricrui eveniment viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, , Xt-1 = kt-1 i starea prezent Xt = i, este independent de strile trecute i depinde doar de starea prezent a procesului. Exist o larg varietate de fenomene care sugereaz o comportare n maniera unui proces Markov. Ca i exemple, am redat urmtoarele situaii: y y y probabilitatea ca o persoan s cumpere un produs de o anumit marc (detergent, bere, cosmetice, nclminte etc.) poate depinde de marca aleas la cumprtura precedent; probabilitatea ca o persoan s aib cazier poate depinde de faptul c prinii au avut sau nu cazier; probabilitatea ca starea de sntate a unui pacient s se mbunteasc, s se nruteasc sau s rmn stabil ntr-o zi poate depinde de ceea ce s-a ntmplat n ziua precedent. Evoluia unui proces Markov poate fi descris prin intermediul unei matrice. Matricea de tranziie este un instrument foarte eficient pentru reprezentarea comportamentului unui proces Markov. Definiia 4. Fie un proces Markov care are m rezultate posibile mutual exclusive E1, E2, , Em. Forma general a unei matrici de tranziie pentru acest gen de experimente are forma: Starea Viitoare

Starea Curent

=P

O dat cu modelarea sistemului, acesta poate fi n una din cele m stri curente posibile. O stare corespunde unui rezultat al experimentului.La finalul experimentului, sistemul se poate afla n una din cele m stri. Matricea de tranziie este formata din elemente pij care reprezinta probabilitatea conditionata ca sistemul sa se modifice de la starea initiala i la starea viitoare j. Observaii

1. Pij cu i = j reprezint probabilitatea ca sistemul s rmn n aceeai stare dup efectuarea experimentului, iar Pij cu i j reprezint probabilitatea ca sistemul s treac dintr-o stare n alta. 2. Matricea de tranziie este o matrice ptratic de ordin m. Proprieti Elementele matricei de tranziie trebuie s satisfac urmtoarele: 1. 0 pij 1, i,j = 1,,m (pentru c este vorba de probabiliti),

2.

, i=1,2,m. Suma pe linie trebuie s dea 1 pentru c E1, E2,Em este un sistem Proprietatea 2 asigur c, dat fiind o stare curent i a sistemului, sistemul va trece cu

complet de evenimente. siguran ntr-o stare j din cele m posibile dup efectuarea experimentului.

1.2. Proprieti de baz ale lanurilor Markov


Informaiile despre tranziiile de la o stare la alta n cadrul unui lan Markov pot fi reprezentate prin matricea de tranziie (ntr-un pas). Ea este format din elementele pij probabilitatea de trecere ntr-un pas de la starea i la starea j (i, j = 1, 2, , m). Se poate vorbi, atunci, i de probabilitile de tranziie n exact k pai i de o matrice format din acestea. Se vor face urmtoarele notaii: y pij(k) - probabilitatea condiionat de efectuare a tranziiei din starea i n starea j n exact k pai. y P(k) - matricea de tranziie n k pai. Teorema 1. Fie P matricea de tranziie ntr-un pas a unui lan Markov. Atunci, matricea P(k) de tranziie n k pai este: P(k)=PP.P=Pk
de k ori

Relaia din teorema 1 exprim o proprietate de baz a lanurilor Markov prin care acestea se deosebesc de alte procese stochastice.
4

Conform proprietii 2 a matricei de tranziie P, suma probabilitilor de pe fiecare linie a acesteia trebuie s dea 1. Aceast proprietate rmne valabil i n cazul matricei de tranziie n k pai P(k) = Pk. Un vector poate fi reprezentat ca o matrice linie (vector linie) sau ca o matrice coloan vector coloan). Definiia 5. Un vector linie (q1, q2, , qn) care are proprietile a) 0qi1

b)

=1

se numete vector de probabilitate sau vector stochastic. O matrice ale crei linii sunt vectori stochastici se numete matrice stochastic. Rezult c fiecare linie a matricei de tranziie P este un vector de probabilitate. Acelai lucru se poate spune i despre liniile matricei de tranziie n k pai P(k) = Pk. De asemenea, matricele P i Pk sunt matrice stochastice.

1.3. Lanuri Markov regulate


Deoarece lanurile Markov sunt procese stochastice, nu se poate ti cu exactitate ce se ntmpl n fiecare stare; de aceea, sistemul trebuie descris n termeni de probabilitate. Definiia 6. Fie un lan Markov cu m stri. Un vector de stare pentru lanul Markov este un vector de probabilitate X = x1 x2 xn . Coordonatele xi ale vectorului de stare X trebuie interpretate ca probabilitatea ca sistemul s se afle n starea i. Atunci cnd se tie cu siguran c sistemul este ntr-o anumit stare, vectorul de stare are o form particular. Astfel, dac se tie sigur c sistemul este n starea a i-a, vectorul de stare va avea a i-a component egal cu 1, iar restul 0. X = [0 0 0 i 0]. Comportamentul unui lan Markov poate fi descris printr-o secven de vectori de stare. Starea iniial a sistemului poate fi descris printr-un vector de stare notat X0 . Dup o tranziie sistemul poate fi descris printr-un vector X1, iar dup k tranziii, prin vectorul de stare Xk. Relaia dintre aceti vectori poate fi sumarizat prin urmtoarea teorem: Teorema 2.
5

Fie un proces Markov cu matricea de tranziie P. Dac Xk i Xk+1 sunt vectori de stare care descriu un procesul dup k i k+1 tranziii, respectiv, atunci

n particular: 

Deci, vectorul de stare Xk care descrie sistemul dup k tranziii e produsul ntre vectorul strii iniiale X0 i matricea Pk. Observaie. X0, X1, X2, Xk, sunt toi vectori linie 1 m. Dac intereseaz studierea unui proces stochastic dup un numr mare de tranziii, atunci este util studierea comportrii generale a acestuia pe termen lung. Pentru anumite tipuri de lanuri Markov acest lucru este posibil. n general pentru un lan Markov cu m stri, posibilitatea ca sistemul s se afle n starea j dup k tranziii depinde de starea din care s-a pornit. Astfel, p1j(k) este probabilitatea ca sistemul s fie n starea j dup k tranziii dac iniial se afl n starea 1. Semnificaii similare avem pentru p2j(k), , pmj(k). Nu exist nici un motiv ca aceste probabiliti s fie (sau s ne ateptm s devin) egale. Dar, pentru anumite lanuri Markov exist o probabilitate strict pozitiv qj asociat cu starea j astfel nct dup k tranziii probabilitile pij(k) devin, toate, foarte apropiate de qj.Cu alte cuvinte, sperana ca sistemul s ajung n starea j dup k tranziii (unde k este suficient de mare) este cam aceeai, indiferent de starea din care se pleac. Lanurile Markov care au o astfel de comportare pe termen lung formeaz o clas aparte care este definit dup cum urmeaz. Definiia 7. Un lan Markov cu matricea de tranziie P se numete regulat dac exist un ntreg k pozitiv astfel nct Pk s aib toate elementele strict pozitive.

CAP. 2 ALGORITM DE REZOLVARE A UNUI FENOMEN REDAT PRIN LANUL MARKOV


6

Elementele structurale pot fi reprezentate printr-un vector

S t' ! st1 ,...sti ,...stm

A, care pentru

si fiecare t ! 1, n i pentru fiecare i ! 1, m , t variaz ntre 0 i 1, iar suma elementelor structurale


este 1, pentru orice t. Etape: 1. Se vor calcula diferenele de ordinul nti ale vectorului Elementele structurale ale fiecrui vector diferen

St

astfel:

(S t / t 1 S t  S t 1

(S t / t 1

au proprietatea c suma valorilor

pozitive este egal cu suma absolut a valorilor negative. 2. n etapa a doua, matricile de trecere pariale sunt construite pentru fiecare pereche de perioade consecutive de timp, t/t-1. Matricele de trecere sunt matrice ptratice de forma

MTPt / t 1 m v m

, unde elementele de pe diagonala principal sunt date de relaia:

mtp tii/ t 1 ! min s ti 1 , s ti i ! 1, m , . Celelalte elemente, care nu se afl pe diagonala principal,


sunt obinute prin relaia: mtptij/ t 1 ! (s ti / t 1 v este pozitiv. n aceast formul diferen (s tj/ t 1

i !1

 (s tij/ t 1

, unde

(sti / t 1

este negativ, iar

(stj/ t 1

m i !1

 (s tij/ t 1 este suma valorilor pozitive ale vectorului

(S t / t 1

. Sintetic, elementele matricii

MTPt / t 1 m v m

pot fi determinate astfel:

mtp tij/ t 1

min s ti1 , s tj , daca i j (s tj/ t 1 i , dac i { j i (s ti / t 1 (st / t 1 v m ij i 2  (s t / t 1 0, pentru celelalte elemente

0 i (st j/ t 1 " 0

i, j ! 1, m
3. Matricea de trecere total MTT m v m se determin prin nsumarea elementelor matricilor pariale de trecere:
7

mtt ij ! t ! 2 mtp tij/ t 1

4. Matricea probabilitilor de trecere MP m v m se calculeaz prin raportarea fiecrui element al matricii de trecere total la suma liniei pe care se afl respectivul element: mtt ij

mp !

ij

m j!2

mtt ij

5. n ultima etap a algoritmului se obine prognoza elementelor structurale pentru p perioade viitoare prin multiplicarea transpusei matricii MP m v m , ridicat la puterea k, cu vectorul elementelor structurale pentru ultima perioad: ! (MP ) p v S S n p n

n continuare se va realiza un studiu de caz ce presupune prognozarea numrului de produse vndute de ctre cele mai mari companii de telefonie mobil, pe piaa din Romnia, pe baza datelor din ultima perioad. Prognozare care se va baza pe utilizarea lanurilor Markov. S-a observat faptul c alegerea unei anumite mrci este influenat de ultima opiune pe care consumatorul a ales-o. Pentru obinerea rezultelor dorite se vor urmri cele cinci etape enunate anterior, etape n care pentru realizarea calculelor ne vom folosi de programul Matlab. Vectorul strilor n acest analiz este: S = {Nokia, Samsung, LG, Sony Ericsson, HTC, Alcatel, Motorola, Blackberry, Apple} n urmtorul tabel se d evoluia istoric a numrului uniti vndute pentru fiecare companie n parte: FIRMA PRODUCTOARE Numrul de produse vndute n 2008 [sute] NOKIA SAMSUNG 322 1554
8

Numrul de produse vndute n 2009 [sute] 357 1529

Numrul de produse vndute n 2010 [sute] 365 1236 1044 4319 Total

LG SONY ERICSSON HTC ALCATEL MOTOROLA BLACKBERRY APPLE

651 1298 1283 665 393 768 2031

671 1493 1216 655 382 826 1984

558 1463 901 551 314 696 1459

1880 4254 3400 1871 1089 2290 5474

1. Abateri: (S 2009 / 2008 ! S 2009  S 2008 FIRMA 2009 2008 Abatere Abatere + N 357 322 35 35 S 1529 1554 -25 LG 671 651 20 20 SE 1493 1298 195 195 HTC 1216 1283 -67 AL 655 665 -10 MOT 382 393 -11 BB 826 768 58 58 APP 1984 2031 -47 308 Suma

Abateri: (S 2010 / 2009 ! S 2010  S 2009 FIRMA 2010 2009 Abatere Abatere + N 365 357 8 8 S 1236 1529 -293 LG 558 671 -113 SE 1463 1493 -30 HTC 901 1216 -315 AL 551 655 -104 MOT 314 382 -68 BB 696 826 -130 APP 1459 1984 -525 8 Suma

2. n continuare se vor calcula matricile de trecere de la un an la altul: Matricea de trecere din anul 2008 n anul 2009:

TR2009 / 2008 m v m
9

i i - elementele de pe diagonala principal vor fi: min(S 2 008 , S 2009 )

- atunci cnd , i , elementul din matrice va fi egal cu valoare absolut din :




- iar n rest elementele vor fie gale cu 0. FIRMA N S LG SE HTC AL M BB APP 322 2.8409 0 0 7.6136 1.1363 1.25 0 5.3409 N 0 1529 0 0 0 0 0 0 0 S 0 1.6233 651 0 4.3506 0.6493 0.7142 0 3.0519 LG 0 SE HTC 0 AL 0 0 0 0 0 655 0 0 0 MOT 0 0 0 0 0 0 382 0 0 0 4.7077 0 0 1.8831 2.0714 768 8.8506 BB APP 0 0 0 0

15.8279 0 0 1298 6.3311 6.9642 0 0 0

42.4188 1216 0 0 0

12.6168 0 0 0 0 1459

29.7564 0

Matricea de trecere din anul 2009 n anul 2010:

TR2010 / 2009 m v m
i i - elementele de pe diagonala principal vor fi: min(S 2 010 , S 2009 )

- atunci cnd , i , elementul din matrice va fi egal cu

valoare absolut din :

- iar n rest elementele vor fie gale cu 0. FIRMA N N 357 0 S 0 LG 0


10

SE

HTC 0

AL 0

MOT 0 0

BB

APP 0

S LG SE HTC AL M BB APP

293 113 30 315 104 68 130 525

1236 0 0 0 0 0 0 0

0 558 0 0 0 0 0 0

0 0 1463 0 0 0 0 0

0 0 0 901 0 0 0 0

0 0 0 0 551 0 0 0

0 0 0 0 0 314 0 0

0 0 0 0 0 0 696 0

0 0 0 0 0 0 0 1459

3. n cea de a treia etap se va calcula matricea de trecere total, care reprezint suma matricilor de trecere pariale calculate n etapa anterioar. FIRMA N S LG SE HTC AL M BB APP N 679 295.8 113 30 322.6 105.1 69.3 130 530.3 0 2765 0 0 0 0 0 0 0 S LG 0 1.6 1209 0 4.4 0.6 0.7 0 3.1 0 15.8 0 2761 42.4 6.3 7 0 29.8 SE HTC 0 0 0 0 2117 0 0 0 0 AL 0 0 0 0 0 MOT 0 0 0 0 0 696 0 0 0 4.7 0 0 12.6 1.9 2.1 1464 8.9 BB APP 0 0 0 0 0 0 0 0 2918 Total 679 3082.9 1322 2791 2499 1319.9 775.1 1594 3490.1

1206 0 0 0 0

4. n cea de a patra etap se calculeaz matricea probabilitilor de trecere prin raportarea fiecrui element al matricii de trecere total la suma liniei pe care se afl respectivul element: FIRMA N S LG SE HTC 1 0.095 0.085 0.010 0.129 N 0 0.9 0 0 0 S 0 0 0.91 0 0.001 LG 0 0 0 0.989 0.016
11

SE

HTC 0 0 0 0 0.84

AL 0 0 0 0 0

MOT 0 0 0 0 0 0 0 0 0

BB

APP 0 0 0 0 0

0.005

AL M BB APP

0.079 0.089 0.081 0.15

0.004 0.009 0 0.008

0.9 1

0 0.89 0 0

0.001 0.002 0.91 0.002

0 0 0

0 0 0

0 0 0

0 0 0

0 0 0.83

Probabilitile de tranziie sunt ntre cele nou opiuni sunt urmtoarele: N FIRMA N S LG SE HTC AL M BB APP 100% 9.59% 8.54% 1.07% 12.91% 7.96% 8.94% 8.1% 15.19% 0 90% 0 0 0 0 0 0 0 0 0.0005% 91.46% 0 0.17% 0.0004% 0.0009% 0 0.0008% 0 0.0051% 0 98.93% 1.69% 0.47% 0.90% 0 0.85% 0 0 0 0 84.71% 0 0 0 0 0 0 0 0 0 91.37% 0 0 0 0 0 0 0 0 0 89.79% 0 0 0 0.0015% 0 0 0.5% 0.14% 0.26% 91.9% 0.25% 0 0 0 0 0 0 0 0 100% 100% 100% 100% 100% 100% 100% 100% S LG SE HTC AL MOT BB APP Total

83.6% 100%

Valorile de pe diagonala principal reprezint probabilitile ca consumatorul s opteze pentru aceeai marc de telefon mobil. 5. n ultima etap a algoritmului se obine prognoza elementelor structurale pentru anul 2011 prin multiplicarea transpusei matricii probabilitilor de trecere, cu vectorul elementelor structurale pentru ultima perioad, i anume vectorul corespunztor anului 2010. Matricea de trecere total reprezint doar preferina actual i imediat urmtoare a cumprtorilor pentru o anumit marc de telefon mobil. FIRMA N S LG SE HTC AL MOT BB APP

12

N S LG SE HTC AL M BB APP

1 0.095 0.085 0.010 0.129 0.079 0.089 0.081 0.15

0 0.9 0 0 0 0

0 0 0.91 0 0.001 0

0 0 0 0.989 0.016 0.004 0.009 0 0.008

0 0 0 0 0.84 0

0 0 0 0 0 0.9 1

0 0 0 0 0 0 0.89 0 0

0 0 0 0 0.005 0.001 0.002 0.91 0.002

0 0 0 0 0 0

0 0 0

0 0 0

0 0 0

0 0 0

0 0 0.83

FIRMA

Numrul de produse vndute n anul 2010 [sute]

N S LG SE HTC AL M BB APP

365 1236 558 1463 901 551 314 696 1459

Prognoza privind numrul de produse din anul 2011 se obine nmulind cele dou matrici de mai sus i este prezentat n tabelul urmtor: FIRMA Numrul de produse prognozate pentru anul 2011 [sute]
13

N S LG SE HTC AL M BB APP

365 1147 542 1451 840 540 331 669 1289

CAP. 3 CONCLUZII
Dei utilizarea lanurilor Markov reprezint o modalitate destul de satisfctoare n previzionarea alegerii unei anumite mrci de ctre consumatori, acest model are cteva limitri: y Consumatorii nu cumpr ntotdeauna produse n aceleai intervale i nu cumpr ntotdeauna aceeai cantitate de produse. Aceasta nseamn c n viitor dou sau mai multe mrci pot fi cumprate n acelai timp; y Consumatorii ntotdeauna ptrund sau prsesc anumite piee i de aceea pieele nu sunt niciodat stabile; y Probabiliile de tranziie ca un consummator s treac de la o marca i la o marc j, nu sunt constante pentru toi cumprtorii, aceste probabiliti se pot schimba de la cumprtor la cumprtor i din timp n timp. Aceste probabiliti se pot schimba n acord cu media de timp dintre situaile de cumprare; y y Timpul ntre diferite situaii de cumprare poate fi o funcie a ultimei mrci cumprate; Celelalte ramuri din mediul de marketing precum promovarea, reclama, concurena etc. nu au fost incluse n acest model.

14

Bibliografie:

1. Negrea Romeo: Material curs Modelare statistic i Stohastic, Universitatea Politehnica din Timioara, 2010. 2. Ariadna Lucia, Pletea Liliana Popa: Teoria Probabilitii, Universitatea Tehnic Gh. Asachi, Iai, 1999.

15

3. Phillip E. Pfeifer and Robert L. Carraway: Modeling customer relationships as markov chains, Journal of Interactive Marketing, 14(2), Spring 2000, 43-55. 4. http://facultate.regielive.ro/proiecte/matematica/lantul_markov-141286.html 5. http://facultate.regielive.ro/cursuri/economie/previziune_economica-6297.html 6. http://ro.wikipedia.org/wiki/Lan%C8%9B_Markov 7. Cenua Gheorghe: Teoria Probabilitilor, Bilbioteca digital ASE. 8. Uslu Aypar et. al.: Analysis of Brand Loyalty with Markov Chains , School of Economic And Administrative Science

16

S-ar putea să vă placă și