Sunteți pe pagina 1din 16

PROGNOZA STRUCTURII UNOR FENOMENE UTILIZND LAN URI MARKOV CAP.1 LAN URI MARKOV 1.1.

Defini ii:
n lumea real , exist o multitudine de fenomene din diferite domenii cum ar fi management, economie, structuri sociale care nu pot fi caracterizate in mod determinist, fiind necesar parcurgerea aleatorie.De aceea, n studierea acestor fenomene se utilizeaz procesele stochastice.

Marelui matematician rus Andrei Markov i sunt datorate procesele care i poart numele i care au deschis calea spre numeroase aplica ii ale teoriei probabilit ilor i n special a proceselor aleatoare. Proprietatea Markov care este aparent restrictiv , stipulnd c probabilitatea unui eveniment prezent depinde numai de trecutul cel mai recent, permite ca n memoria recent s fie nglobat ntrega evolu ie istoric . n matematic , un proces Markov, sau un lan Markov, este un proces stochastic care are proprietatea c , dat fiind starea sa prezent , st rile viitoare sunt independente de cele trecute. Aceast proprietate se nume te proprietatea Markov. Cu alte cuvinte, starea curent a unui astfel de proces re ine toat informa ia despre ntreaga evolu ie a procesului. ntr-un proces Markov, la fiecare moment, sistemul i poate schimba sau p stra starea, n conformitate cu o anumit distribuie de probabilitate. Schimb rile de stare sunt numite tranziii. Un exemplu simplu de proces Markov este parcurgerea aleatoare a nodurilor unui graf, tranziiile fiind trecerea de la un nod la unul din succesorii s i, cu probabilitate egal , indiferent de nodurile parcurse pn n acel moment. Defini ia 1. Se nume te proces stochastic un experiment aleator care const dintr-o suit de subexperimente aleatoare. O clas special de astfel de procese este reprezentat de lan urile Markov. Multe experimente aleatoare se desf oar n etape. De aceea, un astfel de experiment poate fi considerat ca fiind o secven de subexperimente i fiecare rezultat al experimentului este determinat de rezultatele subexperimentelor (n ordine). A adar, un proces stochastic este o mul ime indexat de variabile aleatoare, {Xt}, unde t parcurge o mul ime T numit mul imea indicilor pozitivi T = N, iar Xt reprezint o caracteristic cantitativ sau calitativ a sistemului cercetat.

Avem o succesiune de experimente cu acelea i rezultate posibile. Prin urmare, se va considera c t este un moment de timp care ia valorile 1, 2, 3, , n. Aceast succesiune red secven a de experimente. Pentru fiecare moment, rezultatele posibile vor fi notate 1, 2, , m (m - num r finit). Cele m rezultate posibile vor fi numite st rile n care se poate afla sistemul la un moment dat. Unitatea de m sur pentru momentele de timp succesive t depinde de sistemul studiat. Dintre tipurile de astfel de secven e l putem men iona pe acela n care probabilit ile rezultatelor la un moment dat sunt independente de rezultatele experimentelor precedente (de exemplu: aruncarea repetat a unui zar, extragerile unei bile din urn cu revenire). Un alt tip de secven este acela n care probabilit ile rezultatelor la un moment dat depind de rezultatele din experien ele anterioare (de exemplu: extragerile succesive din urn f r revenire). n cazul acestui din urm tip de experiment se pot distinge dou subcazuri extreme: y y O extrem e reprezentat de faptul c probabilit ile rezultatelor la un moment dat depind de rezultatele tuturor experimentelor precedente din secven ; cealalt extrem a nivelului de dependen este atunci cnd probabilit ile rezultatelor la un moment dat depind doar de rezultatele experimentului precedent. n aceast situa ie secven a de experimente se nume te proces (lan ) Markov. Defini ia 2. Un proces Markov sau lan Markov este o succesiune de experimente n care fiecare experiment are m rezultate posibile E1, E2,,Em, iar probabilitatea fiec rui rezultat depinde doar de rezultatul experimentului precedent. Defini ia 3. Se spune c un proces stochastic are proprietatea lui Markov dac este ndeplinit egalitatea: P(Xt+1= j/X1 = k1, , Xt-1 = kt-1, Xt = i) = P(Xt+1 =j/Xt = i), pentru t =1, 2, ,n i pentru orice succesiune k1, k2, kt-1, i, j de st ri din mul imea celor m st ri posibile ale sistemului. Fie 2 evenimente, A i B.Not m P(A/B) probabilitatea evenimentului A condi ionat de evenimentul B.

Proprietatea lui Markov arat faptul c probabilitatea condi ionat a oric rui eveniment viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, , Xt-1 = kt-1 i starea prezent Xt = i, este independent de st rile trecute i depinde doar de starea prezent a procesului. Exist o larg varietate de fenomene care sugereaz o comportare n maniera unui proces Markov. Ca i exemple, am redat urm toarele situa ii: y y y probabilitatea ca o persoan s cumpere un produs de o anumit marc (detergent, bere, cosmetice, nc l minte etc.) poate depinde de marca aleas la cump r tura precedent ; probabilitatea ca o persoan s aib cazier poate depinde de faptul c p rin ii au avut sau nu cazier; probabilitatea ca starea de s n tate a unui pacient s se mbun t easc , s se nr ut easc sau s r mn stabil ntr-o zi poate depinde de ceea ce s-a ntmplat n ziua precedent . Evolu ia unui proces Markov poate fi descris prin intermediul unei matrice. Matricea de tranzi ie este un instrument foarte eficient pentru reprezentarea comportamentului unui proces Markov. Defini ia 4. Fie un proces Markov care are m rezultate posibile mutual exclusive E1, E2, , Em. Forma general a unei matrici de tranzi ie pentru acest gen de experimente are forma: Starea Viitoare

Starea Curent

=P

O dat cu modelarea sistemului, acesta poate fi n una din cele m st ri curente posibile. O stare corespunde unui rezultat al experimentului.La finalul experimentului, sistemul se poate afla n una din cele m st ri. Matricea de tranzi ie este formata din elemente pij care reprezinta probabilitatea conditionata ca sistemul sa se modifice de la starea initiala i la starea viitoare j. Observa ii

1. Pij cu i = j reprezint probabilitatea ca sistemul s r mn n aceea i stare dup efectuarea experimentului, iar Pij cu i alta. 2. Matricea de tranzi ie este o matrice p tratic de ordin m. Propriet i Elementele matricei de tranzi ie trebuie s satisfac urm toarele: 1. 0 pij 1, i,j = 1,,m (pentru c este vorba de probabilit i), j reprezint probabilitatea ca sistemul s treac dintr-o stare n

2.

, i=1,2,m. Suma pe linie trebuie s dea 1 pentru c E1, E2,Em este un sistem Proprietatea 2 asigur c , dat fiind o stare curent i a sistemului, sistemul va trece cu

complet de evenimente. siguran ntr-o stare j din cele m posibile dup efectuarea experimentului.

1.2. Propriet i de baz ale lan urilor Markov


Informa iile despre tranzi iile de la o stare la alta n cadrul unui lan Markov pot fi reprezentate prin matricea de tranzi ie (ntr-un pas). Ea este format din elementele pij probabilitatea de trecere ntr-un pas de la starea i la starea j (i, j = 1, 2, , m). Se poate vorbi, atunci, i de probabilit ile de tranzi ie n exact k pa i i de o matrice format din acestea. Se vor face urm toarele nota ii: y pij(k) - probabilitatea condi ionat de efectuare a tranzi iei din starea i n starea j n exact k pa i. y P(k) - matricea de tranzi ie n k pa i. Teorema 1. Fie P matricea de tranzi ie ntr-un pas a unui lan Markov. Atunci, matricea P(k) de tranzi ie n k pa i este: P(k)=PP.P=Pk
de k ori

Rela ia din teorema 1 exprim o proprietate de baz a lan urilor Markov prin care acestea se deosebesc de alte procese stochastice.
4

Conform propriet ii 2 a matricei de tranzi ie P, suma probabilit ilor de pe fiecare linie a acesteia trebuie s dea 1. Aceast proprietate r mne valabil k pa i P(k) = Pk. Un vector poate fi reprezentat ca o matrice linie (vector linie) sau ca o matrice coloan vector coloan ). Defini ia 5. Un vector linie (q1, q2, , qn) care are propriet ile a) 0qi1 i n cazul matricei de tranzi ie n

b)

=1

se nume te vector de probabilitate sau vector stochastic. O matrice ale c rei linii sunt vectori stochastici se nume te matrice stochastic . Rezult c fiecare linie a matricei de tranzi ie P este un vector de probabilitate. Acela i lucru se poate spune i despre liniile matricei de tranzi ie n k pa i P(k) = Pk. De asemenea, matricele P i Pk sunt matrice stochastice.

1.3. Lan uri Markov regulate


Deoarece lan urile Markov sunt procese stochastice, nu se poate ti cu exactitate ce se ntmpl n fiecare stare; de aceea, sistemul trebuie descris n termeni de probabilitate. Defini ia 6. Fie un lan Markov cu m st ri. Un vector de stare pentru lan ul Markov este un vector de probabilitate X = x1 x2 xn . Coordonatele xi ale vectorului de stare X trebuie interpretate ca probabilitatea ca sistemul s se afle n starea i. Atunci cnd se tie cu siguran c sistemul este ntr-o anumit stare, vectorul de stare are o form particular . Astfel, dac se tie sigur c sistemul este n starea a i-a, vectorul de stare va avea a i-a component egal cu 1, iar restul 0. X = [0 0 0 i 0]. Comportamentul unui lan Markov poate fi descris printr-o secven de vectori de stare. Starea ini ial a sistemului poate fi descris printr-un vector de stare notat X0 . Dup o tranzi ie sistemul poate fi descris printr-un vector X1, iar dup k tranzi ii, prin vectorul de stare Xk. Rela ia dintre ace ti vectori poate fi sumarizat prin urm toarea teorem : Teorema 2.
5

Fie un proces Markov cu matricea de tranzi ie P. Dac Xk i Xk+1 sunt vectori de stare care descriu un procesul dup k i k+1 tranzi ii, respectiv, atunci

n particular: 

Deci, vectorul de stare Xk care descrie sistemul dup k tranzi ii e produsul ntre vectorul st rii ini iale X0 i matricea Pk. Observa ie. X0, X1, X2, Xk, sunt to i vectori linie 1 m. Dac intereseaz studierea unui proces stochastic dup un num r mare de tranzi ii, atunci este util studierea comport rii generale a acestuia pe termen lung. Pentru anumite tipuri de lan uri Markov acest lucru este posibil. n general pentru un lan Markov cu m st ri, posibilitatea ca sistemul s se afle n starea j dup k tranzi ii depinde de starea din care s-a pornit. Astfel, p1j(k) este probabilitatea ca sistemul s fie n starea j dup k tranzi ii dac ini ial se afl n starea 1. Semnifica ii similare avem pentru p2j(k), , pmj(k). Nu exist nici un motiv ca aceste probabilit i s fie (sau s ne a tept m s devin ) egale. Dar, pentru anumite lan uri Markov exist o probabilitate strict pozitiv qj asociat cu starea j astfel nct dup k tranzi ii probabilit ile pij(k) devin, toate, foarte apropiate de qj.Cu alte cuvinte, speran a ca sistemul s ajung n starea j dup k tranzi ii (unde k este suficient de mare) este cam aceea i, indiferent de starea din care se pleac . Lan urile Markov care au o astfel de comportare pe termen lung formeaz o clas aparte care este definit dup cum urmeaz . Defini ia 7. Un lan Markov cu matricea de tranzi ie P se nume te regulat dac exist un ntreg k pozitiv astfel nct Pk s aib toate elementele strict pozitive.

CAP. 2 ALGORITM DE REZOLVARE A UNUI FENOMEN REDAT PRIN LAN UL MARKOV


6

Elementele structurale pot fi reprezentate printr-un vector

S t' ! st1 ,...sti ,...stm

A, care pentru

si fiecare t ! 1, n i pentru fiecare i ! 1, m , t variaz ntre 0 i 1, iar suma elementelor structurale


este 1, pentru orice t. Etape: 1. Se vor calcula diferen ele de ordinul nti ale vectorului Elementele structurale ale fiec rui vector diferen

St

astfel:

(S t / t 1

(S t / t 1

au proprietatea c suma valorilor

pozitive este egal cu suma absolut a valorilor negative. 2. n etapa a doua, matricile de trecere par iale sunt construite pentru fiecare pereche de perioade consecutive de timp, t/t-1. Matricele de trecere sunt matrice p tratice de forma

MTPt / t 1 m v m

, unde elementele de pe diagonala principal

sunt date de rela ia:

mtp tii/ t 1 ! min ti 1 , s ti i ! 1, m s , . Celelalte elemente, care nu se afl pe diagonala principal ,


sunt ob inute prin rela ia: mtptij/ t 1 ! (s ti / t 1 v este pozitiv . n aceast diferen formul (s tj/ t 1

i !1

 (s tij/ t 1

, unde

(sti / t 1

este negativ , iar

m i !1

 (s tij/ t 1 este suma valorilor pozitive ale vectorului

(S t / t 1

. Sintetic, elementele matricii

MTPt / t 1 m v m

pot fi determinate astfel:

3. Matricea de trecere total MTT m v m se determin prin nsumarea elementelor matricilor par iale de trecere:
7

mtp tij/ t 1

s i , s j , daca i j min t 1 t (s tj/ t 1 i , dac i { j i (s ti / t 1 (st / t 1 v m ij i 2  (s t / t 1 0 , pentru celelalte elemente

0 i (st j/ t 1 " 0

i, j ! 1, m

S t  S t 1

(stj/ t 1

mtt ij ! t ! 2 mtp tij/ t 1

4. Matricea probabilit ilor de trecere MP m v m se calculeaz

prin raportarea fiec rui

element al matricii de trecere total la suma liniei pe care se afl respectivul element: mtt ij

mp !

ij

m j!2

mtt ij

5. n ultima etap a algoritmului se ob ine prognoza elementelor structurale pentru p perioade viitoare prin multiplicarea transpusei matricii MP m v m , ridicat elementelor structurale pentru ultima perioad : S n  p ! (MP ) p v S n la puterea k, cu vectorul

n continuare se va realiza un studiu de caz ce presupune prognozarea num rului de produse vndute de c tre cele mai mari companii de telefonie mobil , pe pia a din Romnia, pe baza datelor din ultima perioad . Prognozare care se va baza pe utilizarea lan urilor Markov. S-a observat faptul c alegerea unei anumite m rci este influen at de ultima op iune pe care consumatorul a ales-o. Pentru ob inerea rezultelor dorite se vor urm ri cele cinci etape enun ate anterior, etape n care pentru realizarea calculelor ne vom folosi de programul Matlab. Vectorul st rilor n acest analiz este: S = {Nokia, Samsung, LG, Sony Ericsson, HTC, Alcatel, Motorola, Blackberry, Apple} n urm torul tabel se d evolu ia istoric a num rului unit i vndute pentru fiecare companie n parte: FIRMA PRODUC TOARE Num rul de produse vndute n 2008 [sute] NOKIA SAMSUNG 322 1554
8

Num rul de produse vndute n 2009 [sute] 357 1529

Num rul de produse vndute n 2010 [sute] 365 1236 1044 4319 Total

LG SONY ERICSSON HTC ALCATEL MOTOROLA BLACKBERRY APPLE

651 1298 1283 665 393 768 2031

671 1493 1216 655 382 826 1984

558 1463 901 551 314 696 1459

1880 4254 3400 1871 1089 2290 5474

1. Abateri: (S 2009 / 2008 ! S 2009  S 2008 FIRMA 2009 2008 Abatere Abatere + N 357 322 35 35 S 1529 1554 -25 LG 671 651 20 20 SE 1493 1298 195 195 HTC 1216 1283 -67 AL 655 665 -10 MOT 382 393 -11 BB 826 768 58 58 APP 1984 2031 -47 308 Suma

Abateri: (S 2010 / 2009 ! S 2010  S 2009 FIRMA 2010 2009 Abatere Abatere + N 365 357 8 8 S 1236 1529 -293 LG 558 671 -113 SE 1463 1493 -30 HTC 901 1216 -315 AL 551 655 -104 MOT 314 382 -68 BB 696 826 -130 APP 1459 1984 -525 8 Suma

2. n continuare se vor calcula matricile de trecere de la un an la altul: Matricea de trecere din anul 2008 n anul 2009:

TR2009 / 2008 m v m
9

i i - elementele de pe diagonala principal vor fi: min(S 2008 , S 2009 )

- atunci cnd

, elementul din matrice va fi egal cu

valoare absolut din :




- iar n rest elementele vor fie gale cu 0. FIRMA N S LG SE HTC AL M BB APP 322 2.8409 0 0 7.6136 1.1363 1.25 0 5.3409 N 0 1529 0 0 0 0 0 0 0 S 0 1.6233 651 0 4.3506 0.6493 0.7142 0 3.0519 LG 0 SE HTC 0 AL 0 0 0 0 0 655 0 0 0 MOT 0 0 0 0 0 0 382 0 0 0 4.7077 0 0 1.8831 2.0714 768 8.8506 BB APP 0 0 0 0

15.8279 0 0 1298 6.3311 6.9642 0 0 0

42.4188 1216 0 0 0

12.6168 0 0 0 0 1459

29.7564 0

Matricea de trecere din anul 2009 n anul 2010:

TR2010 / 2009 m v m
i i - elementele de pe diagonala principal vor fi: min(S 2010 , S 2009 )

- atunci cnd

, elementul din matrice va fi egal cu

valoare absolut din :




- iar n rest elementele vor fie gale cu 0. FIRMA N N 357 0 S 0 LG 0


10

SE

HTC 0

AL 0

MOT 0 0

BB

APP 0

S LG SE HTC AL M BB APP

293 113 30 315 104 68 130 525

1236 0 0 0 0 0 0 0

0 558 0 0 0 0 0 0

0 0 1463 0 0 0 0 0

0 0 0 901 0 0 0 0

0 0 0 0 551 0 0 0

0 0 0 0 0 314 0 0

0 0 0 0 0 0 696 0

0 0 0 0 0 0 0 1459

3. n cea de a treia etap se va calcula matricea de trecere total , care reprezint suma matricilor de trecere par iale calculate n etapa anterioar . FIRMA N S LG SE HTC AL M BB APP N 679 295.8 113 30 322.6 105.1 69.3 130 530.3 0 2765 0 0 0 0 0 0 0 S LG 0 1.6 1209 0 4.4 0.6 0.7 0 3.1 0 15.8 0 2761 42.4 6.3 7 0 29.8 SE HTC 0 0 0 0 2117 0 0 0 0 AL 0 0 0 0 0 MOT 0 0 0 0 0 696 0 0 0 4.7 0 0 12.6 1.9 2.1 1464 8.9 BB APP 0 0 0 0 0 0 0 0 2918 Total 679 3082.9 1322 2791 2499 1319.9 775.1 1594 3490.1

1206 0 0 0 0

4. n cea de a patra etap se calculeaz matricea probabilit ilor de trecere prin raportarea fiec rui element al matricii de trecere total la suma liniei pe care se afl respectivul element: FIRMA N S LG SE HTC 1 0.095 0.085 0.010 0.129 N 0 0.9 0 0 0 S 0 0 0.91 0 0.001 LG 0 0 0 0.989 0.016
11

SE

HTC 0 0 0 0 0.84

AL 0 0 0 0 0

MOT 0 0 0 0 0 0 0 0 0

BB

APP 0 0 0 0 0

0.005

AL M BB APP

0.079

0.004

0.9 1

0.001

0.089 0.081 0.15

0 0 0

0 0 0

0.009 0 0.008

0 0 0

0 0 0

0.89 0 0

0.002 0.91 0.002

0 0 0.83

Probabilit ile de tranzi ie sunt ntre cele nou op iuni sunt urm toarele: N FIRMA N S LG SE HTC AL M BB APP 100% 9.59% 8.54% 1.07% 12.91% 7.96% 8.94% 8.1% 15.19% 0 90% 0 0 0 0 0 0 0 0 0.0005% 91.46% 0 0.17% 0.0004% 0.0009% 0 0.0008% 0 0.0051% 0 98.93% 1.69% 0.47% 0.90% 0 0.85% 0 0 0 0 84.71% 0 0 0 0 0 0 0 0 0 91.37% 0 0 0 0 0 0 0 0 0 89.79% 0 0 0 0.0015% 0 0 0.5% 0.14% 0.26% 91.9% 0.25% 0 0 0 0 0 0 0 0 100% 100% 100% 100% 100% 100% 100% 100% S LG SE HTC AL MOT BB APP Total

83.6% 100%

Valorile de pe diagonala principal reprezint probabilit ile ca consumatorul s opteze pentru aceea i marc de telefon mobil. 5. n ultima etap a algoritmului se ob ine prognoza elementelor structurale pentru anul 2011 prin multiplicarea transpusei matricii probabilit ilor de trecere, cu vectorul elementelor structurale pentru ultima perioad , i anume vectorul corespunz tor anului 2010. Matricea de trecere total reprezint doar preferin a actual i imediat urm toare a

cump r torilor pentru o anumit marc de telefon mobil. FIRMA N S LG SE HTC AL MOT BB APP

12

N S LG SE HTC AL M BB APP

1 0.095 0.085 0.010 0.129 0.079

0 0.9 0 0 0 0

0 0 0.91 0 0.001 0

0 0 0 0.989 0.016 0.004

0 0 0 0 0.84 0

0 0 0 0 0 0.9 1

0 0 0 0 0 0

0 0 0 0 0.005 0.001

0 0 0 0 0 0

0.089 0.081 0.15

0 0 0

0 0 0

0.009 0 0.008

0 0 0

0 0 0

0.89 0 0

0.002 0.91 0.002

0 0 0.83

FIRMA

Num rul de produse vndute n anul 2010 [sute]

N S LG SE HTC AL M BB APP

365 1236 558 1463 901 551 314 696 1459

Prognoza privind num rul de produse din anul 2011 se ob ine nmul ind cele dou matrici de mai sus i este prezentat n tabelul urm tor: FIRMA Num rul de produse prognozate pentru anul 2011 [sute]
13

N S LG SE HTC AL M BB APP

365 1147 542 1451 840 540 331 669 1289

CAP. 3 CONCLUZII
De i utilizarea lan urilor Markov reprezint o modalitate destul de satisf c toare n

previzionarea alegerii unei anumite m rci de c tre consumatori, acest model are cteva limit ri: y Consumatorii nu cump r ntotdeauna produse n acelea i intervale i nu cump r

ntotdeauna aceea i cantitate de produse. Aceasta nseamn c n viitor dou sau mai multe m rci pot fi cump rate n acela i timp; y Consumatorii ntotdeauna p trund sau p r sesc anumite pie e i de aceea pie ele nu sunt niciodat stabile; y Probabili ile de tranzi ie ca un consummator s treac de la o marca i la o marc j, nu

sunt constante pentru to i cump r torii, aceste probabilit i se pot schimba de la cump r tor la cump r tor i din timp n timp. Aceste probabilit i se pot schimba n acord cu media de timp dintre situa ile de cump rare; y y Timpul ntre diferite situa ii de cump rare poate fi o func ie a ultimei m rci cump rate; Celelalte ramuri din mediul de marketing precum promovarea, reclama, concuren a etc. nu au fost incluse n acest model.

14

Bibliografie:

1. Negrea Romeo: Material curs Modelare statistic din Timi oara, 2010.

i Stohastic , Universitatea Politehnica

2. Ariadna Lucia, Pletea Liliana Popa: Teoria Probabilit ii, Universitatea Tehnic Gh. Asachi, Ia i, 1999.

15

3. Phillip E. Pfeifer and Robert L. Carraway: Modeling customer relationships as markov chains, Journal of Interactive Marketing, 14(2), Spring 2000, 43-55. 4. http://facultate.regielive.ro/proiecte/matematica/lantul_markov-141286.html 5. http://facultate.regielive.ro/cursuri/economie/previziune_economica-6297.html 6. http://ro.wikipedia.org/wiki/Lan%C8%9B_Markov 7. Cenu a Gheorghe: Teoria Probabilit ilor, Bilbioteca digital ASE. 8. Uslu Aypar et. al.: Analysis of Brand Loyalty with Markov Chains , School of Economic And Administrative Science

16