Sunteți pe pagina 1din 5

Procese stohastice si aplicatiile lor in stiinta medicala

Timpul, viata si riscul sunt doar trei din elementele de baza in procesele empirice studiate in biostatistica si cercetarea medicala. Riscul la nastere, riscul de imbolnavire, riscul mortii si alte riscuri actioneaza continuu asupra omului cu diferite grade de intensitate si diferite frecvente. Cercetari avansate asupra proceselor stohastice au facut posibila studierea sistematica a acestor riscuri pe o populatie formata din indivizi umani, din punct de vedere probabilistic. Dintre cei care au pus bazele teoriei proceselor stohastice sau cei care au avut rezultate remarcabile in aceasta teorie trebuie mentionati Andrey Markov (matematician rus 1856-1922), Andrey Nicolaevich Kolmogorov (matematician rus ce este considerat si parintele teoriei probabilitatilor 1903-1987), Sydney Chapman (matematician englez si geofizician 1888-1970) etc. In continuare voi prezenta notiunea de proces stohastic in prima definitie. Definitia 1 Un proces stohastic {X(t),t } este o familie de variabile aleatoare indexata dupa t ce descrie un proces empiric,a carui dezvoltare este guvernata de legi de probabilitate. De cele mai multe ori parametrul t este interpretat ca timp. In functie de multimea T, putem avea procese stohastice discrete, daca T este numarabila sau finita si putem avea procese stohastice in timp continuu daca T=[t, ). Procesele stohastice discrete le vom nota de obicei cu { ,n=1,2,...}, iar cele in timp continuu cu {X(t),t 0}. X(t) sau se numeste starea procesului la momentul t sau n, iar cu S vom nota multimea acestor stari notate de obicei cu i, j. De exemplu cand vom avea o relatie de forma =i, vom spune ca sistemul se afla in starea i la momentul n. Voi introduce acum notiunea de lant Markov, notiune ce a fost introdusa dupa cum si numele sugereaza de catre matematicianul Andrey Markov si care are o mare importanta si utilitate practica, dupa cum se va vedea in exemplele ce urmeaza.

Lanturi Markov
Voi incepe prin prezentarea unui exemplu relevant, si care va ajuta la o mai buna intelegere a notiunii de lant Markov. Exemplu: Presupunem ca aruncam un zar cu 6 fete. Vom nota probabilitatea de a obtine fata cu numarul 1 cu p (0,1), neinteresandu-ne de aceasta data ce valoare are aceasta probabilitate. Se considera acum un sir de aruncari ale zarului consecutive, presupuse independente. Notam cu numarul cumulativ de obtineri al fetei 1 dupa n aruncari consecutive. Evident { ,n=1,2,..} sunt
1

variabile aleatoare si nu sunt independente, dar daca se da , de exemplu = i, atunci fie cu probabilitatea 1-p, fie cu probabilitatea p. Deci procesul are proprietatea ca probabilitatile ca sistemul sa se afle intr-o anumita stare la un momentul viitor n+1, nu depinde decat de starea in care se afla sistemul in prezent, adica la momentul n, nu si de celelalte stari din trecut in care s-a aflat sistemul . Aceasta proprietate conform careia nu se tine cont de starile trecute in care s-a aflat sistemul, ci doar de cea prezenta pentru a calcula probabilitatea ca sistemul sa se afle in o anumita stare din viitor se numeste proprietate Markov. Definitia 2: Procesul stohastic discret { se zice lant Markov daca P( ) = P( ), pt orice stari i, j, , k=0,...,n-1. Definitia 3: P( ) = (n,n+1) se numesc probabilitatile de trecere intr-un pas din starea i in starea j la momentul n, pentru orice i,j=1,2,... Definitia 4: Daca probabilitatile (n,n+1) nu depind de timpul n, atunci se zic stationare, iar lantul se zice omogen si aceste probabilitati vor fi notate simplu . Observatia 1: 1. Pentru orice stari, probabilitatile de trecere intr-un pas satisfac

=1,

i,j si

, ceea ce inseamna ca sistemul aflandu-se in starea i, va trebui sa

treaca in alta stare j

sau va ramane in starea i cu probabilitatea 1. 2. Se poate forma cu aceste probabilitati o matrice P= numita matricea probabilitatilor de trecere intr-un pas, matrice ce are suma pe fiecare linie egala cu 1. 3. O astfel de matrice nenegativa ce are suma pe linii egala cu 1 se numeste matrice stohastica, iar daca are si suma pe coloana egala cu 1 se numeste matrice dublu stohastica. Se pot defini in mod analog cu , probabilitatile de trecere in m pasi:

Definitia 5: Probabilitatile de trecere in m pasi sunt definite astfel: , iar se va numi matricea probabilitatilor de trecere in m pasi.

Rezultatul urmator este de mare importanta si reprezinta unul din rezultatele de baza in teoria proceselor stohastice: Ecuatiile Chapman-Kolmogorov: sau in scriere matriceala . Justificare euristica: Presupunem ca sistemul se afla initial in starea i. Acesta poate trece in starea j in m+n pasi, si aceasta probabilitate dorim sa o calculam. Sistemul poate ajunge din starea i in starea j trecand prin anumite stari intermediare k. Astfel plecand din starea i, sistemul poate ajunge in starea k in m pasi cu probabilitatea si din starea k in starea j
2

dupa n pasi cu probabilitatea . Dar avem mai multe stari k intermediare, si deci vom avea o suma de produse de probabilitati. Deci sistemul poate ajunge din starea i in starea j dupa n+m pasi trecand prin toate starile intermediare k, adica in m pasi trece in k si din k trece in n pasi in j. Definitia 6: Vectorul ( ) unde =P{ } se numeste repartitia sistemului

la momentul n, sau distributia de probabilitatea a lui Are loc urmatoarea relatie: = = sau . se numeste repartitia initiala sau distributia initiala si e notata de obicei cu Deci repartitia sistemului la momentul n se poate calcula cu ajutorul repartitiei initiale si al matricei probabilitatilor de tecere in n pasi.

Aplicatie: Legea Hardy-Weinberg de echilibru in genetica


Godfrey Hrold Hardy (1877-1947) a fost un matematician englez ce a avut rezultate in teoria numerelor si analiza matematica, iar Wilhelm Weinberg a fost un medic german specializat in ginecologie si obstretica. Ambii au formulat legea de echilibru in genetica la inceputul secolului 20, independent unul de celalalt. In continuare voi prezenta exact la ce se refera aceasta lege, dar inainte de aceasta voi defini cateva notiuni simple de genetica necesare pentu a intelege la ce se refera aceasta lege. Alelele rerezinta forme diferite ale unei gene, iar geotipul reprezinta compozitia genetica la un individ determinata in raport cu o anumita trasatura, in acest caz compozitia in alele relevanta pentru trasatura de referinta. Se considera acum o populatie bilogica in care fiecare individ se presupune ca are genotipul AA, Aa sau aa, unde A si a sunt doua alele. Se presupune ca distributia de probabilitate initiala a genotipurilor (AA,Aa,aa) este (d 2h r), d+2h+r=1. De asemenea se presupune ca probabilitatile aparitiei alelelor A si a sunt p, respectiv q, unde p = d+h si q=p+h. In continuare voi descrie procesul de ereditate, in conditiile presupuse de HardyWeinberg cum ca incrucisarea genelor are loc aleator. Vom numerota cele trei genotipuri cu 1, 2 si 3 astfel: AA-1, Aa-2 si aa-3. pij problema ca un copil sa aiba genotipul j dat fiind ca unul din parinti are genotipul i De exemplu: p12= p{copil are ca genotip Aa| mama are genotip AA} = p {tatal are gena a|mama are genotip AA}= p {tatal are gena a} = q Deci P =( ).

Pentru linia 1: din moment ce unul din parinti are genotipul AA => genotipul pentru copil e fie AA, fie Aa; vom avem deci o gena A fixata, iar probabilitatea ca ce-a de-a doua gena sa fie

A este p si cea de-a doua sa fie a este q, sub legea lui Hardy-Weinberg.Vom avea deci genotipul AA cu probabilitatea p, Aa cu probabilitatea q si aa cu probabilitatea 0. Pentru linia 3: probabilitatile se calculeaza in mod analog cu linia 1. Pentru linia 2: unul din parinti are geotipul Aa, deci cu probabilitatea copilul va avea o gena A fixata si cu aceeasi probabilitate va avea o gena a fixata. In primul caz (gena A fixata), probabilitatea ca cea de-a doua gena sa fie A este p, iar ca aceasta sa fie a este q. In cazul doi, analog. Vom avea deci probbilitatea aparitiei geotipului AA, conform celor doua cazuri este 1/2 p, probabilitatea aparitiei genotipului Aa este 1/2p+1/2q=1/2(p+q)=1/2, iar pentru genotipul aa probabilitatea va fi 1/2q. Voi nota acum cu =probabilitatea ca generatia k sa aiba genotipul i, i=1,2,3. Distributia de probabilitate a geotipului pentru generatia 0 este data la inceput: ( ) = (d 2h r). Folosind ultima relatie prezentata in paragraful anterior,se poate calcula distributia de probabilitate a genotipului pentru generatia 1: ( )=( ) P=(d 2h r) ( )= q(h+d)+p(h+r) )=

(dp+hp dq+h+rp hq+qr)=(p(h+d) dq+h(p+q)+rp q(h+r) )=( =( 2pq ) Pentru generatia 2 vom avea: ( )= ( ) P=( 2pq )(

)=

=( p )=( +pq(p+q)+ )= =( ) =( 2pq(p+q) )=( 2pq ) si aceasta distributie este aceasi cu cea pentru generatia 1. In mod analog vom avea aceeasi distribuitie 2pq si pentru generatiile 3,4,.... Legea lui Hardy-Weinberg de echilibru in genetica ne spune deci ca, presupunand ca incrucisarea genelor are loc in mod aleator, oricare ar fi distributia de probabilitate initiala(pentru generatia 0 in cazul nostru, a parintilor) (d 2h r), prima generatie va avea distributia de probabilitate a genotipului ( 2pq ) si aceasta va ramane in echilibru pentru totdeauna (aceeasi pentru restul generatiilor viitoare).

Procese Markov in timp continuu

Definitia 7: Procesul stohastic in timp continuu { ,t } se numeste proces Markov in timp continuu, daca P( =j| )= P( =j| , .

Definitia 8: P( =j| = se vor numi probabilitatile de trecere din starea i in starea j, iar daca acestea nu depind de s procesul Markov se va numi omogen, iar aceste probabilitati le vom nota cu

S-ar putea să vă placă și