MARKOV
1.1. Definiţii:
În lumea reală, există o multitudine de fenomene din diferite domenii cum ar fi management,
economie, structuri sociale care nu pot fi caracterizate in mod determinist, fiind necesară parcurgerea
aleatorie.De aceea, în studierea acestor fenomene se utilizează procesele stochastice.
Marelui matematician rus Andrei Markov îi sunt datorate procesele care îi poartă numele
şi care au deschis calea spre numeroase aplicaţii ale teoriei probabilităţilor şi în special a
proceselor aleatoare. Proprietatea Markov care este aparent restrictivă, stipulând că probabilitatea
unui eveniment prezent depinde numai de trecutul cel mai recent, permite ca în memoria recentă
să fie înglobată întrega evoluţie istorică. În matematică, un proces Markov, sau un lanț
Markov, este un proces stochastic care are proprietatea că, dată fiind starea sa prezentă, stările
viitoare sunt independente de cele trecute. Această proprietate se numește proprietatea Markov.
Cu alte cuvinte, starea curentă a unui astfel de proces reține toată informația despre întreaga
evoluție a procesului. Într-un proces Markov, la fiecare moment, sistemul își poate schimba sau
păstra starea, în conformitate cu o anumită distribuție de probabilitate. Schimbările de stare sunt
numite tranziții. Un exemplu simplu de proces Markov este parcurgerea aleatoare a nodurilor
unui graf, tranzițiile fiind trecerea de la un nod la unul din succesorii săi, cu probabilitate egală,
indiferent de nodurile parcurse până în acel moment.
Definiţia 1. Se numeşte proces stochastic un experiment aleator care constă dintr-o suită de
subexperimente aleatoare. O clasă specială de astfel de procese este reprezentată de lanţurile Markov.
Multe experimente aleatoare se desfăşoară în etape. De aceea, un astfel de experiment
poate fi considerat ca fiind o secvenţă de subexperimente şi fiecare rezultat al experimentului
este determinat de rezultatele subexperimentelor (în ordine).
Aşadar, un proces stochastic este o mulţime indexată de variabile aleatoare, {Xt}, unde t
parcurge o mulţime T numită mulţimea indicilor pozitivi T = N, iar Xt reprezintă o caracteristică
cantitativă sau calitativă a sistemului cercetat.
1
Avem o succesiune de experimente cu aceleaşi rezultate posibile. Prin urmare, se va
considera că t este un moment de timp care ia valorile 1, 2, 3, …, n. Această succesiune redă
secvenţa de experimente. Pentru fiecare moment, rezultatele posibile vor fi notate 1, 2, …, m (m
- număr finit). Cele m rezultate posibile vor fi numite stările în care se poate afla sistemul la un
moment dat. Unitatea de măsură pentru momentele de timp succesive t depinde de sistemul
studiat.
Dintre tipurile de astfel de secvenţe îl putem menţiona pe acela în care probabilităţile
rezultatelor la un moment dat sunt independente de rezultatele experimentelor precedente (de
exemplu: aruncarea repetată a unui zar, extragerile unei bile din urnă cu revenire).
Un alt tip de secvenţă este acela în care probabilităţile rezultatelor la un moment dat
depind de rezultatele din experienţele anterioare (de exemplu: extragerile succesive din urnă fără
revenire). În cazul acestui din urmă tip de experiment se pot distinge două subcazuri extreme:
O extremă e reprezentată de faptul că probabilităţile rezultatelor la un moment dat
depind de rezultatele tuturor experimentelor precedente din secvenţă;
cealaltă extremă a nivelului de dependenţă este atunci când probabilităţile rezultatelor la
un moment dat depind doar de rezultatele experimentului precedent. În această situaţie
secvenţa de experimente se numeşte proces (lanţ) Markov.
Definiţia 2. Un proces Markov sau lanţ Markov este o succesiune de experimente în care fiecare
experiment are m rezultate posibile E1, E2,…,Em, iar probabilitatea fiecărui rezultat depinde doar
de rezultatul experimentului precedent.
Definiţia 3. Se spune că un proces stochastic are proprietatea lui Markov dacă este îndeplinită
egalitatea:
P(Xt+1= j/X1 = k1, …, Xt-1 = kt-1, Xt = i) = P(Xt+1 =j/Xt = i),
pentru t =1, 2, …,n şi pentru orice succesiune k1, k2, …kt-1, i, j de stări din mulţimea celor m
stări posibile ale sistemului.
Fie 2 evenimente, A şi B.Notăm P(A/B) – probabilitatea evenimentului A condiţionată de
evenimentul B.
2
Proprietatea lui Markov arată faptul că probabilitatea condiţionată a oricărui eveniment
viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, …, Xt-1 = kt-1 şi starea prezentă Xt = i, este
independentă de stările trecute şi depinde doar de starea prezentă a procesului.
Există o largă varietate de fenomene care sugerează o comportare în maniera unui proces
Markov. Ca şi exemple, am redat următoarele situaţii:
probabilitatea ca o persoană să cumpere un produs de o anumită marcă (detergent, bere,
cosmetice, încălţăminte etc.) poate depinde de marca aleasă la cumpărătura precedentă;
probabilitatea ca o persoană să aibă cazier poate depinde de faptul că părinţii au avut sau nu
cazier;
probabilitatea ca starea de sănătate a unui pacient să se îmbunătăţească, să se înrăutăţească
sau să rămână stabilă într-o zi poate depinde de ceea ce s-a întâmplat în ziua precedentă.
Evoluţia unui proces Markov poate fi descrisă prin intermediul unei matrice.
Matricea de tranziţie este un instrument foarte eficient pentru reprezentarea
comportamentului unui proces Markov.
Definiţia 4. Fie un proces Markov care are m rezultate posibile mutual exclusive E1, E2, …, Em.
Forma generală a unei matrici de tranziţie pentru acest gen de experimente are forma:
Starea Viitoare
Starea Curentă =P
O dată cu modelarea sistemului, acesta poate fi în una din cele m stări curente posibile. O
stare corespunde unui rezultat al experimentului.La finalul experimentului, sistemul se poate afla
în una din cele m stări.
Matricea de tranziţie este formata din elemente p ij care reprezinta probabilitatea
conditionata ca sistemul sa se modifice de la starea initiala i la starea viitoare j.
Observaţii
3
2. Matricea de tranziţie este o matrice pătratică de ordin m.
Proprietăţi
Fie P matricea de tranziţie într-un pas a unui lanţ Markov. Atunci, matricea P(k) de tranziţie în k
paşi este:
P(k)=P∙P∙….∙P=Pk
de k ori
Relaţia din teorema 1 exprimă o proprietate de bază a lanţurilor Markov prin care
acestea se deosebesc de alte procese stochastice.
Conform proprietăţii 2 a matricei de tranziţie P, suma probabilităţilor de pe fiecare linie a
acesteia trebuie să dea 1. Această proprietate rămâne valabilă şi în cazul matricei de tranziţie în
k paşi P(k) = Pk.
4
Un vector poate fi reprezentat ca o matrice linie (vector linie) sau ca o matrice coloană
vector coloană).
Definiţia 5. Un vector linie (q1, q2, …, qn) care are proprietăţile
a) 0≤qi≤1
b) =1
se numeşte vector de probabilitate sau vector stochastic.
O matrice ale cărei linii sunt vectori stochastici se numeşte matrice stochastică.
Rezultă că fiecare linie a matricei de tranziţie P este un vector de probabilitate. Acelaşi
lucru se poate spune şi despre liniile matricei de tranziţie în k paşi P(k) = Pk. De asemenea,
matricele P şi Pk sunt matrice stochastice.
Definiţia 6. Fie un lanţ Markov cu m stări. Un vector de stare pentru lanţul Markov este un
vector de probabilitate X = şx1 x2 … xnţ . Coordonatele xi ale vectorului de stare X trebuie
interpretate ca probabilitatea ca sistemul să se afle în starea i.
Atunci când se ştie cu siguranţă că sistemul este într-o anumită stare, vectorul de stare are
o formă particulară. Astfel, dacă se ştie sigur că sistemul este în starea a i-a, vectorul de stare va
avea a i-a componentă egală cu 1, iar restul 0. X = [0 0 0 … i … 0].
Comportamentul unui lanţ Markov poate fi descris printr-o secvenţă de vectori de stare.
Starea iniţială a sistemului poate fi descrisă printr-un vector de stare notat X0 . După o tranziţie
sistemul poate fi descris printr-un vector X1, iar după k tranziţii, prin vectorul de stare Xk. Relaţia
dintre aceşti vectori poate fi sumarizată prin următoarea teoremă:
Teorema 2.
Fie un proces Markov cu matricea de tranziţie P. Dacă Xk şi Xk+1 sunt vectori de stare care
descriu un procesul după k şi k+1 tranziţii, respectiv, atunci
5
În particular:
Deci, vectorul de stare Xk care descrie sistemul după k tranziţii e produsul între vectorul
stării iniţiale X0 şi matricea Pk.
Observaţie. X0, X1, X2, …Xk, … sunt toţi vectori linie 1 × m.
Dacă interesează studierea unui proces stochastic după un număr mare de tranziţii, atunci
este utilă studierea comportării generale a acestuia pe termen lung. Pentru anumite tipuri de
lanţuri Markov acest lucru este posibil.
În general pentru un lanţ Markov cu m stări, posibilitatea ca sistemul să se afle în starea j
după k tranziţii depinde de starea din care s-a pornit. Astfel, p1j(k) este probabilitatea ca sistemul
să fie în starea j după k tranziţii dacă iniţial se află în starea 1. Semnificaţii similare avem
pentru p2j(k), …, pmj(k). Nu există nici un motiv ca aceste probabilităţi să fie (sau să ne aşteptăm
să devină) egale. Dar, pentru anumite lanţuri Markov există o probabilitate strict pozitivă qj
asociată cu starea j astfel încât după k tranziţii probabilităţile pij(k) devin, toate, foarte apropiate
de qj.Cu alte cuvinte, speranţa ca sistemul să ajungă în starea j după k tranziţii (unde k este
suficient de mare) este cam aceeaşi, indiferent de starea din care se pleacă.
Lanţurile Markov care au o astfel de comportare pe termen lung formează o clasă aparte
care este definită după cum urmează.
Definiţia 7. Un lanţ Markov cu matricea de tranziţie P se numeşte regulat dacă există un întreg k
pozitiv astfel încât Pk să aibă toate elementele strict pozitive.
6
S 't =[ s1t ,. .. sit ,. . . stm ] , care
Elementele structurale pot fi reprezentate printr-un vector
Etape:
2. În etapa a doua, matricile de trecere parţiale sunt construite pentru fiecare pereche de
perioade consecutive de timp, t/t-1. Matricele de trecere sunt matrice pătratice de forma
MTPt /t−1 ( m×m ) , unde elementele de pe diagonala principală sunt date de relaţia:
j
Δst/t−1
mtpijt /t−1= Δsit/t−1× m
principală, sunt obţinute prin relaţia: ∑i=1 + Δsijt/t−1 , unde Δsit /t +1 este
m
negativă, iar Δstj/t−1 este pozitivă. În această formulă ∑i=1 + Δsijt/t−1 este suma valorilor
j
Δst/t−1
{
{
mtpijt/t−1=¿ min ( sit−1 ,stj) ,dacai=j ¿ |Δsit/t−1× m
∑i=2 +Δs
ij
t/t−1
|,dacăi≠jşiΔsit/t−1<0şiΔst/t−1
j
>0 ¿ ¿¿¿
i, j=1,m
7
3. Matricea de trecere totală MTT ( m×m) se determină prin însumarea elementelor
matricilor parţiale de trecere:
m
mtt ij=∑t =2 mtpijt/t −1
ij
mtt
mpij= m
∑ j=2 mttij
5. În ultima etapă a algoritmului se obţine prognoza elementelor structurale pentru p perioade
^ n+ p =( MP ' ) p ×Sn
S
elementelor structurale pentru ultima perioadă: .
S = {Nokia, Samsung, LG, Sony Ericsson, HTC, Alcatel, Motorola, Blackberry, Apple}
8
[sute] 2009 [sute] 2010 [sute]
NOKIA 322 357 365 1044
SAMSUNG 1554 1529 1236 4319
LG 651 671 558 1880
SONY ERICSSON 1298 1493 1463 4254
HTC 1283 1216 901 3400
ALCATEL 665 655 551 1871
MOTOROLA 393 382 314 1089
BLACKBERRY 768 826 696 2290
APPLE 2031 1984 1459 5474
1. Abateri:
ΔS 2009/2008 =S2009 −S2008
Abateri:
ΔS 2010/2009 =S2010 −S2009
TR 2009/2008 ( m×m )
i i
- elementele de pe diagonala principală vor fi: min (S 2008 , S 2009 )
9
- atunci când i≠ j , ∆ Si2009/ 2008 <0 şi ∆ S2009/
j
2008 >0, elementul din matrice va fi egal cu valoare
S i2009/2008∗∆ S 2009/2008
j
absolută din : ∆
∑ ∆ Sij2009/ 2008 >0
- iar în rest elementele vor fie gale cu 0.
TR 2010/2009 ( m×m )
i i
- elementele de pe diagonala principală vor fi: min (S 2010 , S 2009 )
i j
S 2010/2009∗∆ S 2010/2009
absolută din : ∆
∑ ∆ Sij2010/ 2009 >0
- iar în rest elementele vor fie gale cu 0.
10
APP 525 0 0 0 0 0 0 0 1459
3. În cea de a treia etapă se va calcula matricea de trecere totală, care reprezintă suma
matricilor de trecere parţiale calculate în etapa anterioară.
11
M 8.94% 0 0.0009% 0.90% 0 0 89.79% 0.26% 0 100%
BB 8.1% 0 0 0 0 0 0 91.9% 0 100%
APP 15.19% 0 0.0008% 0.85% 0 0 0 0.25% 83.6% 100%
12
Prognoza privind numărul de produse din anul 2011 se obţine înmulţind cele două matrici
de mai sus şi este prezentată în tabelul următor:
CAP. 3 CONCLUZII
Consumatorii întotdeauna pătrund sau părăsesc anumite pieţe şi de aceea pieţele nu sunt
niciodată stabile;
Timpul între diferite situaţii de cumpărare poate fi o funcţie a ultimei mărci cumpărate;
Celelalte ramuri din mediul de marketing precum promovarea, reclama, concurenţa etc.
nu au fost incluse în acest model.
13
Bibliografie:
2. Ariadna Lucia, Pletea Liliana Popa: “Teoria Probabilităţii”, Universitatea Tehnică “Gh.
Asachi”, Iaşi, 1999.
14
3. Phillip E. Pfeifer and Robert L. Carraway: “Modeling customer relationships as markov
chains”, Journal of Interactive Marketing, 14(2), Spring 2000, 43-55.
4. http://facultate.regielive.ro/proiecte/matematica/lantul_markov-141286.html
5. http://facultate.regielive.ro/cursuri/economie/previziune_economica-6297.html
6. http://ro.wikipedia.org/wiki/Lan%C8%9B_Markov
8. Uslu Aypar et. al.: “Analysis of Brand Loyalty with Markov Chains ”, School of Economic
And Administrative Science
15