Sunteți pe pagina 1din 330

Introduccin V. S.

Pugachev
ala Teora
de las Probabilidades

B. c.

n~rA'IEn

BBe.n;emre
B TOOpmo
BepORTHOCTei

V. S. PUGACHEV

Introduccin
a la Teora
de las Probabilidades

F;DITOR fA L .\fil\ MOSCU

CDU fi l!l.21=60

Traducido del

m~o

por
A. Sa1uojvlov

lmpre>"<> en In

vnss
1973

@ T raduccin nl cspnol 11:ditol"ial

022:\-28t,
ou (01)-1:1

~fir.

!9711

Contenido

Pr6"1110 . . . . . . . . .
Cap f1ulo J. Probabilidad d~ un aconcimienlo . .
~ 1.1. Objeto de la Teorla de las Probabilidades. Significado do
los m&todos ostadlstlcos . . . . . . . . . . . . . . . .
1.2. Fund amentos experimentales de la 'l'corln do las Proha.bli<iades
. .. .. . . . . . . . . . . . ..
1.3. Probabilidad ael uconlecimiento y sus 11ropicclades
1 k Ropetiejn do los experimentos . . . . . . . . . . . . . .
Capitulo 2. /lfa11t.1 ud., alratol"lns . . . . . . . . . . . . . . .
2.1. t'uncin de d istribuci n y densidad ele probabilidad de una
magDilud alca\oria . . . . . . . . . . . . . . . . . .
2.2. Aplicacin de 18!1 u11clo11es impulsivas y gencralizaci6o
de la nocin de d cnsida1l de prob:ibilidad . . . . . . . .
2.S. Momentos de una magnitud aleatoria . . . . . . . . . .
2.4. Func.in carar.toristlca de una magnitud ~ lntnria
2.5. Ley normal du distr ih11ctn (I,ey de Ga11~s) . . . .
:t.U. Ley de Poisson . . . . . . . . . . . . . . . . .
Capitulo 8. Magnitudes aleaturlas 11tcl(lrfale$ . .
3.1. Funcin de distribucin y densidad do probnbilidail de un

vector aleat.orio . . . . . . . . . . . . . . . . . . . .
3.2. Funciones condicinnolcs de distribucin y tlen.!idades condicionales de la probabilidad . . . . . . . . . . . . . .
S.3. Leyes de distribucin de las fttnciones ele magnitnd~s alc.1t<>ri a~
3.4. Momentos de un ver.t.or alonto.rio . . . . . . .
3 . ~. Puncin cMacterlst ka de un vector aleatorio . . . . .
f\.6. Lny normal bidimensional ue d istribucin . . . . . . .
!-1.7. Magnitudes nlentoriM complojas . . . . . .
.

3.8. Propiedades de l~s e~porauias mntemitioos . . . . . . .


3.\1. l'ropicd at!cs de las disporsioncs y clo los momentns 110 <".orre-

laci6n . . . . . . . . . . . . . . . . . . . . . . . .
3.10. Determinacin de loMm1ime111os do l as funciones do las magnitudes alt>aL<>riu . . . . . . . . . . . . .
:u l. DistriLuciu nor mal polidimen~ional . . . . .
Capittcfo 4. Cara<l.rstlc<ts dt /unciones aleaiori11J . . . . .
4. l. Leyes do distriL11du d~ una magnitud fllentori:i . . . .
lt.2. l~speranza malcm:tica y funcin correlatha do una fondn
aleatoria . . . . . . . . . . . . . . . . . . . . . . .
~ 4.3. Propiedad.is do la fu11r.i11 correlativ11 . . . . .
4.4. Func.in <:Ol'rolaliva recproca y sus propieJRtl~s
~ '1.f> . Adicin do fu11r.ir111cs nleat,.Tins . . . . . . . .
4.6. Derlv~c1n de 1111~ fnur.i{m a)()atorla . . . . . .
4.7. Integracin de una fundn aleatoria . . . . . . .
i 4.8. Secuencias Hlentoriu. Procesos aleatorios mark<1vi:inos

7
11

13

25
35

39

80
87

!19
iO'.l
115
t!Q

124
1~7

1al

137

t ~O

l f>~

15f>
15\)

11'l
176

180
181

HlS
188

6
Capitulo 5.

Funcl11rt~1

alt:atorias uiaclonaria.r

. . . . . . . .

Hl3

:i. l. Dcfiuiciu y 1.ropicrlades prinril'al"" <I las unrlciru:s lea


~orias

eslac.iouarins

. . . . . . . . . . . . . .

5.2. Elructuru d o una func in ufoaviriu <'Slnci onaria . .


5.3. Dcscorn,..siciu ~peclrul do una fuurln alr111nri11 cslal'io
Dariu ~n forma compJrju . . . . . . . . . . . . . . .
5.4. Nocin de ruido blanco . . . . . . . . . . . . . . . .
f>.f,, l1uu.,., it1nes al eo.torios estncional'iais or~d icas . . . . . . .
!Ui. Den~ftlud espec t1AI recproca de dos funciJn~s ~stncionari AS
y c 11lzad11S cst!leionorlamnulc . . . . . . . . . . . . .
&.7. St.~uoncias al~atoriu cstaciona.ri~ . . . . . . .
Ca.pilulo 6. llr.m:sentacio11e~ raw11lca1 de i 1t11cio11'1 11katorio.R
0.1. Ti pos de 1cp1eso11tac.icmcs cannica~ . . . . . .
tl.2. Dcseomposic.iu ('llnnica de una fuorilu alcat.oria . .
li.3. Frmula para el t.bmino residual de 111 d~ompo~irin M
nDfl\

, -

(l.~. Con~uuccill

de la closcomposici11 coonica llB 11n11 funcin


aleal.ori11 sogn In descnml()Sirin cau611ica do su fondn
correllttiva . . . . . . . . . . . , . . . . . . . . , .
~ r..r,. Rcprt'llentncin ~annica iut.<:gral do unm funcin .1leatoria
0.fi. l\cpr~;;entacin C~ ll(>nica UlWgTaJ do UJll\ funcin aleatoria
estacionaria . . . . . . . . .
. . . . . . . . .
Cvpitu lo 7. :;ntropla e tn/ormacn 111c " '"lltlcnc m la$ 111ap1il11dtR

a/,atorlas

. . . . . . . . . . . . . . .

1.1. Medicin d o la i nd Nermi nocin clf> fenmenos nlealorios.


l\orin de untro11o . . . . . . . . . . . . - . . . .
7.2. Entropa ele nnn mognit.ll d nleal11r io. f1trnpa co t1dic.ional
mNlin
. . . . . . . . . .... . _ ... . ..
J 7 .:~. P rnpiedaI extrcmnl de In distribucin norn1ol . . . . . .
7.4. Juformncin quo se eonUcno en las megoituMs aleatorios

npltulo 8. Dct1r111i11oci611 de In. cnrnrtufticn .,ttJ.dfstlcas U(!n lo


res11//ados de .rl'rinmitos . . . . . . . . . . .

8.1. Dclcnuinaciu di\ lns probabilidades J e 1tcnnlrdwientos. lrui


fa ndl'l11es de d i~trihucin y l as densi1lades de prohllbidad
~ 1\.2. Detcrruinaciu 1lc los momentos ele magnitudQS aleatorias
~ 8.3. D1t.ermi 1111cin 111 l"s 11w 111c11to ele f1111r ion<"\ RlcntmiRs cstn
r.iouarinH . . . . . . . . . . . . . . . . . . . . .
8.4. DelCl'minacin de lo mon1c11t <' <lo funciones aleatorias
no cstacionarfas . . . .
Suplementos
.. . .. .. . .
1- Algunas integrales J pf!nidns . . . .
2. Tabln de los valores de la fullco de I.o>lac"
u

<D (1.i)=

'_ rI e--.~ dz ...

112n

262

21i8

2.H
'..!78

2!I
284
291

2!l:>

298

298

31)"

306

3l2
316
316
322

Prlogo

Este li bro ofrece una exposicin elemental de la Teora rle fas


Probabilidades y la Teora de Funciones Aleatorias en el volumen
necesario para o.similar los fundamentos de la moderna Teorio de
Procesos de Mando, R adiotcnica Terica y Tcnica de C'lcul o.
El presente libro se b asa en las conferencias repetd nmente l e<lAI! por
ol autor du r11ote los ltimos diez aos.
IM primer captulo se dedica a lo expo:;icin de los conceptos
fund amentales de l a Teora de las Probabiffades y l a deduccin de
l ns frmulas para calcular las probabilidades de acontecimientos
compuestos segn los datos para 111s probabilidades rle acont.ecimie nLos ms simples.
Eu el segundo capitulo se trata de l as mugnitudes aleatorias
escatares y sus caractersticns principales: funciones de distribucin,
deMidndes de pro bahilidnd , momentos, en particular, espersrnzns
mater.nticas y dispersiones, funciones car actersticas; se exnminan
diferentes tipos de leyes de clistri bucin que se oucventran en los
prohlcmas prcticos; se 11naliza es11ecinlmente 111 ley normal !le dis trib11ci1Sn.
'1':11 el torcer cnptulo :;o estudia n las magnit11dcs nlcatorias vectori11los y sus caractersticas principales. Se introrluccn las nociones
acerc11 de lati funciones condicionales de disl-ribuci611 y la densidad
de probabilidad, aceren de la espera nza matemtic11 y 111 mahi7. correlativa de un vector aleatorio. Se dan ltls defin iciones de las magr1it11dcs n.leulorias depenilientes e indepenrlientes, correlacionadas y no
corrclacion11dAs. Se exauiinan l as propiedades fundameotAICS de
los momentos de primer y segundo orden. En particular, se deducen
l as frmulas que determinan las esperonzas matemticas, dispersiones y momentos de corrol ucin rle las funciones lineales de las mngn iludes a leatorias por los datos de las esperanzas matemticas, dispersiones y moment os de correlacin de las mng11itudes-argume1Jt.os.
Se examinan las leyes normales do distribucin, bi<limensionol y
poli1l inicnsional, y sus propicdnclcs fo 11d arncnta lcs.

Pr6lo110

En el cuarto captulo se exponen los conceptos principales de


Ja Teora de Funciones Aleatori as. Se dan lns definiciones de la w1ci11 11lentoria y sus caracterlsticas fundamentales: las leyes de distrib ucin dti diferent es rdenes, de la esperanza lllatemtica y l a funcin correlativa. Se da lo definicin de la funcin de correlacin
mutun de dos funciones aleatorias. Se esti1dian las propiedades principales de las funciones correlativas y de correlacin mutua. Se
examinan la.s operaciones lineales fundamentales de la Algebra
y del Anlisis sobre las funciones aleatorias: adicin, derivacin
e integracin. Como un caso pllTticular se analizan las secuencias
aleatorias, sus esperanzas matemt icas y !unciones correlativas.
Se dan las definiciones de l a cadena m lll'koviana y el proceso aleatorio markoviano.
J~n el quinto captulo se exponen los fundamentos de la Teora
de Funciones Aleatorias Estacionarias. Se presta especial atencin
a las representaciones espectrales de las magnitudes aleatorias
estacionarias. Se introducen las nociones de densidad espectral y deu.<1idad espectral recproca. Se da la definicin del ruido bl anco y se
e:1tudia11 sus propiedades fu.ndamentales. Se examinan las propiedades ergdicas de las funciones aleat orias estaciooarias. Se es poneu
los elon1entos de l a 'feori a de Secuencias Aleatori as Estacionarias.
El sexto captulo trata de los fundamentos de la Teora de Representaciones Cannicas do Funciones Aleatori~. Se analizan las
descomposiciones cannicas y las representaciones cannicas integrales.
En el sptimo captulo so dan las definiciones de la entropa de
una magnitud aleatoria y la cantidad de iuformacin que se contiene
en una magnitud aleatorin sobre otra m agnitud aleatoria. Se exa
mi}t'all las propiedades principales de la entropa y 111 cantidad de
informacin. Se demuestra la propiedad extrema! do la distribucin
norinaJ.
En el lt.imo, octavo captulo se exponen los procedimientos
ms simples plll'a determinar las probabilidades de acontecimientos y las caractersticas probabilistas fun1lamontales de magnitudes
aleatorias y funciones aleatorias sego los datos experimenta!llS.
En pal'ticular se examinan las cuestiones acerca de l a determinacin
de la estimacin estadstica de esperanzas matemticas, funciones
correlativas y densidades espectrales de las funciones aleatorias

PrlOf!o

estacionarias ergdicas. Se expone tambin el mtodo de determinacin de las esperanzas matemticas y funciones correlativas, basado
sobre la diferenciacin de sus realizaciones obtenidas experimentalmente.
El libro est destinado a los estudiantes de los centros de enseanza tcnfoa superior, los postgraduados e ingenieros que deseen conocerla Teora de los Probabilidades en el volumen necesario para el
estudio de los fundamentos de la Teora de Procesos de Mando, lo.s
princi pos tericos de la Radiotcnica, la Teoria de precisin de los
dispositivos de medicin y de clculo, la Teora de Informacin y la
Teora de Comunicacin.
Para alcanzar Ja finalidad prefijada, el autor trataba de incluiren el libro solamente lo requerido para comprender los fundamentos.
de las materias arriba mencionadas, evitando todo lo superfluo, es
decir, lo que no halla uso directo en estas asignaturas. Esto explica
tambin la ausencia en el libro de una parte tan amplia e importante
de In Teora do las Probabilidades como la ley de grandes nmeros
y los tcore111as lmite. Solamente sobre ejemplos elementales se demuestran dos teoremas principales simples, referentes a la ley de grandes
nmeros y se revela el sentido de esta ley y su importancia para
las aplicaciones prcticas de la Teora de las Probabilidades.
El libro contione gran cantidad de ejemplos que ilustran el uso
prctico de los mtodo; de la Teora do las Probabilidades. Muchos
de estos ejemplos se torn an dircct.amente de aquello8 campos de la.
tcnica para cuyo estudio el libro prepara al lector. Tales ejemplos
dan al loctor los conocimientos necesarios para el estudio posterior
de la1< aplicaciones Lcrdcas especiales de los mtodos estadsticos
Los lectores que deseen conocer la Teora de las Probabilidades en
menor volumen pueden omitir algunos captulos y prrafos.
Asi, por cjompJo, los lectores que deseen estudinr slo los conceptos principales de la Teora de lns Probabilidndei; y ele la Estad stica Matemtica pueden limitarse 1\ leer los primeros tres captulos y los primeros <los prrafos del octavo captulo. En este caso
se pnedeu omitir los 2.4, 3.5 y 8.11.
Los que deseco estudiar solamente los conceptos fundamentales
de la Teora de las Probabilidades y tener una idea de las funciones
aleatorias pueden aadir a los capitulos y prrafos citados los primeros cuatro prrafos del cuarto captulo.

10

Pnlo{lt>

Los lectores qua deseen estudiar los conceptos principales de la


Teora tle .lns Probabilidades y de la Teora de Funciones Aleatorios
Estacionarias pueden limitarse a leer los primeros tres captulos
(con exclusin eventual de .los 2.4, 3 .5 y 3.1.1), los primeros cuatro
prrafo:; del cuarto captulo, el caitulo qui11to y los primeros tres
prrafos <lel octavo captulo .
.Finalrncnte, los que deseen estudiar los mtodos expuestos en
este .libro, solvo la Teora de repre:sent.aciones cannicas de las fu11
cio11es aleatorias, pueden omitir el sexto cnptulo sin que se dificulte
ln com1Jrensin de los dos l.limos captulos. Sin embargo, el autor
i10 recomienda hacerlo, puesto qnc nctuolmcnto slo el mtodo de
representaciones cannicas de las funciones aleatorias ofrece la
posi.hilidad do enfocar desde un mnto <le vista nico el C!studio de
la moderna Teora Estadstica de los sistemas automticos r>timos.
El libro puede servir de base para 1rn ctmo semestral de la Teora
de laf< Probabilidades, que comprende 60-70 hora., de conferencias,
en los centros de enseanza tcnica st1pt1rior de especialidades correspondientes.
Al autor le gustara expresar un profundo reconocimiento a
J. N. Sinizin por su ayuda y cortesn inapreciables en la preparacin
de cstl.l libro. El autor agradece tambin a E. S. Ventzel, L. A. OvChRrnv y E. S. Kochetkov que han ledo atentamente el original
y con sus observaciones crticns y discusiones han c-0ntri bu.ido
.a mejornrlo esenc.ialmonte.
V.

S . P 1igachev

CAl'fTULO 1

Probabilidad de un acontecimiento

1.1. Objeto de la Teora de las Probabilidades.


Significado de los mtodos estadsticos
Cada fenmeno del mundo que nos rodea se l~alla enlnzpdo., Jil,s
o meuos estrechamente, con un conjunto lnfipito de otros .hechos.
Toda ciencia estudia solamente cierto nmero finito ele vinculos.
De tnl modo se establecen las regularidudcs fnndamontales de los fenmenos estudiados que reflejan las conexiones intornas principales
inherentes n e~tos ltimos, En principio, es imposible llegar a c.;onocer t.oda la diversidad iofinita de rdaciones existentes en cuilquie.r
ftinmeno dado.
En cada otopa del conocimienCo humano siem.pre queda sin estudiar u11 a multitud infinita de vnculos propios a un cierto (eumeno.
En cunsecueucia, cada regularidad puede reflejar solamente t111
nmero finito de relaciones fundamentales, debido a lo cual las
leyes se cumplen sin precisin, con ciertas desviacioues. Las dasviaciones de lo regular originadas por \lna infinidad de vuculos
no previstos en el fenmeno dado, se llaman fen6ment>s a.leatorios.
De este modo, la ca~uaH<larl existe objetivamente en el 1nnndo
que nos rodea, porquo en principio no es posible revdar todos los
nexos 11ccidentnles entre el fenmeno cst11diado y la m11ltiplicidad
iufini tu de otros St1cesos.
A medida que va desarrollndose la ciencia, llcgau a ser co110chias nucvus leyes, o sea, las conexiones que tiene el fenmeno
estudiado con tlistintos factores. Por eso, las fronteras entre lo regular y lo casual no permanecen inalterables sino que cambian a medida
quo crece el conocimiento humano. Lo qne en un 11cro<lo del desarrollo do Ja ciencia os accidental puede hacerse regular en otro porfodo.
Y al contrario, en los fenmeno:; cousid.erarlos como estrictamente
regulares en una etapa del desarrollo de la cienci~, a consecllcncia de
los perfeccionamientos en la tcnica del experimento y las Axigencias ms rigurosas en lo que se refiere a la precisin durante el examen de las dependencias, se descubren desviaciones ac.;cidontales <le
las leyes y surge la necesidad de 1.enerllls en cue11tn.
Si el fenmeno dado se observa un a sola vez, no se p11edc predeoir d.o nntom:ino cul ser justamente ln desviaci<'n accident al rlc
lo regular. As , por ejemplo, al efoctuar cualquier medicin, es ioiposihfo rever cul ser el error do In misma. Sin embargo, si t~I llmcro

12

Cap. 1 l'robubilld,.d d< '"' oco11vclmirulu

de observaciones del fenmeno dado se hace grande, en l as mismRS


desviaciones accidentales se descubren ciertas regularidades que
pueden ser estudiadas y utilizadas para determiuar la inHuencia
de la!! desviaciones mencionadas sobre el curso de los fenmenos
>or esll1diar. As pues, aparece la posibilidad de i nvcstigar fen6menos aleatorios frecuentes, es decir, tales fenmenos aleatorios que
prtcticamente pueden ser observados un nmero ilimitado de veces en
las mismas condiciones. La Teora de las Probabilidades es precisarnente la ciencia que estudia las regularidades en los fenmenos
aleatorios frecuentes.
J,a historia del desarrollo de la ciencia pone en relieve que muchas
ramas de la ciencia en cierta etapa de su desarrollo se ven obligados
a tener en consideracin las de:sviaciones aleatorias con respecto
a lo regular e investigar la influencia de las mismas sobre el curso
de lo~ procesos que se estudian.
En la etapa inicial, cada ciencia aplicada e!!tudia solamente
las regularidades fundamenta les de los fenmenos examinados.
Con ello, a causa de l a imperfeccin y b11ja precisin do lo.s
instrumentos de medida, as como por reducidas exigencias a la
precisin de las dependencias obtenidas, no se revelan fenmenos
aleatorios ni aparece la necesidad de tenerlos en cuenta. Pero,
a medida que se desarrolla cualquier rnma do l a ciencia siempre
surge, en cierta etapa, la necesidad de tener en coni;i<leracin los
clesvincioncs accidentales y su influencia sobre el cnrso de los
fe11n1enos por estudiar. A causa de eso, toda rama aplicada de la
ciencia Liene que acudir a la Teora rle las Probabilidades y cada
da se am1>lan ms los cam pos de aplicacin do los mtodos probabil!stu:os o como l'e 1es suele llamar estadisticns. As, por ejem pi o,
antes en IR Hidrodimmien y la Aerodinmica se e.'lludiaban solamc111 0 111:; regularidades fundamentales, mas en la tercera dcada
de nuestro siglo, al descubrir que los fenr:oenos de turb\1lencia
poclnn ser estudiarlos con xito valindos d!l los mtodos estadsticos, apnreci la teora estadlstica de turbulencia.
Antes, In teora de iegulacin nutomtica y r;1diotcnica estud la'ban solamente las regularidades principales que se empleaban
en lo prctica de proyeccin de las unidades indnstriales correspondientes. Sin embargo, durante los ltimos <los decenios los
miodos estadsticos se usan ampliamente en In teora de regulacin automtica y en Ja radiotcnica. Se puede decir que toda la
teora moderna de recepcin de las seales de radio es una teora
estadstica; en el campo de la automatir.aoi6n los mtodos estad[sticos han llegado a ser uno de los principales instrumentos de
investigacin sin los cuales muchos probleUaS de la teora moderna
de regulacin automtica y de la teora de direccin (Ciberntica),
no pueden ser resueltos.

J .2. Fundamentos experimenta/e.

13

1.2. Fundamentos experimentales de Ja Teora


de las Probabilidades

Cada ciencia se basa sobre algunos hechos experimentales que


sirven para formar los conceptos fundamentales de la misma. Estos
hechos y conceptos se utilizan para desarrollar la teocia cientfica
y para obtener determinadas conclusiones prcticas. Y por Iiil, las
conclusiones de la ciencia se comprueban por la prctica. La coincidencia de las conclusiones cientficas con los resultado.s prctico.s es
el criterio de validez de uoa teora cientica.
Examinemos cmo se pueden estudiar experimentalmente los
fenmenos aleatorios y caractcri zar los resultados de este estudio.
Para ello daremos la definicin de algunas .nociones iniciales.
Se llama experimento (prueba) a cada real'izacin de condiciones
y acciones determinadas en las cuales se observa el fenmeno aleatorio quo se estudia. Pueden servir de ejemplos, la medicin de
cierta magnitud o el tiro contra un objetivo determillado, el regist ro ile la seal de salida de un sistema automtico durante cierto
l apso de tiempo, la eleccin al azar de algn objoto que se halla e1l
un conjunto de objetos semejantes.
El r esultado del experimento puede ser caracterizado cualitativa
y cuantitativamente. Cualquier caracterstica cualitativa del resultado del experimento se llama acontecimiento (sur.esll). Por C'jeinplo,
el hecho de que al medir cierta mngnit.ucl e'I resultado de la medicin
sea igual al nmero dado o menor que ste, es un acontecimiento.
Tambin son acontecimientos. el impacto o el fallo al producir un
disparo.
El acontecimiento .se rlenomina cierto, si ste so produce obligatoriamente como resultado del oxporimento en cuestin. Se llama
tmposible al acontecimiento que no puede suco1ler como res1J.ltado
del experimento dado. Se denomina aleatorio al acontecimiento que,
como resultado del experimonto dado, puodc ocurrir o no.
Cualquie1 caractel.'stica cnantitativn del experimento se llama
magnitud aleatoria. De e jemplos pueden servir el resultado de la
medicin de cierta magnitud y las coordenadas do los puntos de
impacto al producir un disparo. Tambin son magnitudes aleatorias
las ordenadas de la curva que se obtiene Al reg-istrar una variable
por ejemplo, la seal 1le salida de 11.n sistema nutomiit.ico.
Examinemos la sucesin de n experimentos iguales. Supongamos
que, como resultado de cada experimento, se registra la llegalla o no
\legadn de un acontecimiento .4. ~n esta .sucesin, unn caracterstica natural <lel acontecimiento A es la frecuencia de sn prod uccin,
es decir, la relacin entre el n6mero de veces que este acontecimiento
se prod.11ce y el nmero de todos los experimentos realizados. Designando l a frccnencia del acontecimiento A por P " (A), se fJUede

Ca p. 1 P robabilidad dt un aeonlccin1itnlo

escribir

P (A) =~
11

(1.2.1)

donde m es el nmero de veces que se produC<3 el acontccimionto A


al realizar n experimentos.
Estudiemos las propiedades fundamentales de las frecuencias
de los aconteeimientos. Ante todo, est~ cloro que la frecuencia de
cuolquier acontecimiento representa una fraccin propia o es igual
a cero o a Ju unidad:
O ~ P * (A)~

1.

(1.2.2)

Llamaremos tncompo.ttbl6s, en el experimento dado, a doi; ucontecimiento A y B, si en este experimento la produccin de ullo de
ellos excluye la aparicin del otro. Do ejemplo puede servir el in1 pacto
o el follo al producirse un solo tiro. Es necesario seiialar que la nocin
de compatibilidad o incompatibilidad de acontecimientos siempre
est relacional.la con qu experimento precisamente se tiene en cuenta.
Los mismos acontecimientos A y B pueden. resultar in complllibles
en un experimento y compatibles en otro. A.si, por ejemplo, el impacto y el follo son acontecimientos incompatibles, si el experimento
consis te eu producir 11n solo tiro y son compntibles si In pruebn ]lrev
vario.!! tiros.
Abora bien, supougumos que los acontecimiontci!\ A y B sou
incompatibles en el experimento dado y que sta se repite n vece.
S11pong11mos que para nosotros no tiene ninguna importancia, cul
ser el aconteciJniento que llegnr: A H. Con otrns palabras. no~
interesa un acontecimiento compuesto que consis te en q11e ocurra
el acontecimiento A o el aconteci miento B , indiferentemente de
cul de ellos precisamente. Supongamos q11e en calidad de exierimento compramos un billete de loter a con el fin de ganar uro coche
o una moto. Sea el acontecimiento A la ganancia de un coche y el acontecimiento B, la ganancia de una molo. En este caso nos interesa 1111
acontecimiento compuesto que consiste en que ganarem.os un medio
de transporte, indiferentemente de cul de ellos: uri coche o uno moto.
E s evidente que, en este caso, Jos acontecimien tos A y B son incompatibles, porque un billete pl!ede ganar un solo premio.
Supongamos que como resultado de n Oi!:perimentos se produjo
m veces el acontecimiento A y l veces el acontecimiento B. Por consiguiente, el acontecimiento compuesto t A B se produjo m + l
veces y su frecuencia es igual o

P (AoB)= rn.+l .
11

(1.2.;i)

Mos eu el caso en cuestin, la.s frecuencias de los ncontecimientos


A y B equivalen respectivamente a m/ny lln. Por lo tonto, In iguAI-

.~

1.2. Fund(1met1tos :r.>trlmtntole.<

15

dad (1.2.3) se puede escribir as:


P* (A o B) = P* (A)+ J> (B).

(1.2.4)

Esta frmula expresa el teorema <le adicin de frecuencias que dice:


la Frecuencia del surgimiento de uno de dos acontecimientos incompatibles, no importa precisamente de cul se trata, es igual a la .s uma
de l as frecuencias de estos aC'ontecimientos.
Un acontecimiento compuesto que representa la produccin por lo
menos de uno devariosacontecimientosAi, A 2 , ., An, sellamasuina

Fig. 1.2.i.

Fig. 1.'.l.2.

o unin de estos acontecimientos. En las fgs. 1.2.1 y 1.2.2 se n111estra


la suma de dos acontecimientos como el campo contorneado 1ior
una lnea gruesa. La fig. 1.2.1 corresponde nl caso cuando los acontecimientos A y B son compatibles y la fig. 1.2.2, al caso cuando A
y B son incompatibles.
Segn la definicin de la suma de acoll'tecimientos, el aco11Lecimiento A o B se puede escricir tambin on In forma 11
B y li1
iguald1;1.d (1.2.4) que oxprosn el teorema rle adicin de frecuencias,
se pueile escribir as.:
P* (A<+ B) = P* (A)+ .P* (B).
( 1.2.5)

El teorema ie adici.n do frecuencas es vlido 111ra cualquier


nmero de acontecimientos incompatibles. Los acontecirnicotos
A 1, ., An se llaman incompatibles si ningn par de ellos pueden
producirse juntos. Si los acontecimientos A., ... , A,. son incompatihles, E'Jltonces:
.,..

.P ("~ A1) =
i= l

1l

Lo P (A).
i.:....t

(1.2.Ci)

E1' fcil demostrar oRta frmula directamente, igual que para


el ca~o de dos acontecimien t os incompatibles, o bien aplicando el
mtodo de induccin matemt.ica.
La frmula (1..2.6) expresa el teorema general de adicin ele
frecuencias: la frecuencia de produccin de uno de los acontecimientos incompntibles, no importa preci11amente de cu[tl se tratn, es
igual n In snmn rle las frecnencias de estoR sucesos.

16

<:ap. 1 l'robabilidod de un aconUclmltnto

En algunos casos, :>urge la uccosidnd de examinar varios acontceiroienlos 011 correlacin, por ejemplo. cuando hay que determinar,
cmo iortuye la aparicin o no aparicin de un uconLccimicnto sobre
la frecuencia del surgimiento do otro. En este caso, ndems de la
frecue11ci11 del acontecimiento /1, para toda la serie de experimentos
realizados, se calc11la tambin la frecuencia del acontecimiento A
teniontlo en cuenta slo aquellas pruebas q:ue han llevado a la produccin de otro acontecimiento .8 que .nos interesa. Con otras palabras. aritos de determinar la frccucncin del acontecimiento A se
seleccionan slo aquellos e.'l:perimcmtoR en Jos que ha sucedido el
acontecimiento B siJt tomar en consideracin los clcms. La frecuencia riel acon tecimiento A calculada slo po ra aquellas pruebas ea las
que ie ho producido el acontecimiento B se llama frecuencia condictonnl del ucoutecimicnt-0 A con respecto al ncontccimiento B y se
designa por p (A 1B). Si nl efectuar n experimentos el acontecimiento B ha sucedido l veces y eJ acontecimiento A ha sucedido junto
con el ncontecimieot-0 B k veces, entonces la frecuencia condicional
del 11contecimieuto A con respecto 11 8 es igual n
11

P (A 1B) = T .

(1.2.7)

'Puesto que las fracciones l/n y k/n representan respectivamente la


fr.ecoeD cia de l acontecimiento B y la de la produccin conjunta de
los ncontecimientos A y B, ln Crmulu (1.2.7) puede ser 1!$Crita as:

P*(AJB)=P~(;)B).

(1.2.8)

De 111odo a11logo se determina ln frecuencia condicional del


acontecimiento B con rospecto a 11, como la frecuencia <lel acontecimiento 1J calculada tenfondo en cuenta slo aquellas pruebas en
111s que se ho producido el acontocimicnLo A:
p (B JA) --

P (A y n)
P (A)

(1 2 9)
.

Las frmulas (1.2.8) y (1.2.9), que se puode11 escribir en Ja forma


P * (A y B) = p (A) P (B 1 A) =
= p (8) P (A J B),
(1.2 10)
expresan el t eorema de multiplicacin do frecuencias que diC<1: la
frecuencia de la produccin conjunta de dos acontecimientos es
igual a la frecuencia de uno de ellos multiplicada por la frecuencia
condicional del otro con respecto al pr imero.
El acontecimiento que representa la llegada a la vez de varios
acontecimientos suele llamarse producto o lntersecci6n de estos ltimos. En la fig. 1.2.3 el producto de los acontecimientos A y B
se muestro como la parte comn (sorobreoda) de los campos corres-

l 1.2. Pundamentos

e,r.perimenta,le.~

li

pondientes. Valindose de la definicin del producto de acontecimientos, el aconteaimiento .A y B1> se puede presentar cmo el
producto AB. Entonces el teorema de m ultiplicacin de frecuencias,
expresada por la frmula (1.2.10). se escribir en la forma

p (AB)

p (A) p (B 1 A)

p (B) p

CA

1 B).

(1 .2. fi:)

(jJ

Comparando la frecuencia condicional del a.contecir.nient o A respecto al B con la del acontecimiento A tomada en tod' l serie de
experimentos efectuados (lla mada corrientet.nente
incondicional), se puede estimar la correlacin
de los acontecimientos A y B. Si al realiz'ar un
gran n mero de pruebas l a frecu encia condicional
8
A
jfl-:..
tlel acontecimiento A respecto al B es aproximadameute igual a la incondicional del acontecimiento A, esto quiere decit- que el nmero to tal
de veccti que sucede el nco11 tecimieot.0A se divide
ms o rnenos proporcionalmente entre aqu ellos
Fig. t.:i .:i
experimentos en los que el acontocimiento B se
ha producido y ncu e!los en los que ste no se hn prod 11ch)(i. f;Lo
puede :iervir corno indicio de que el acontecimiento A no d cpcutle
del B. Si la frecuencia condicional del acoutecimicnt.o A respecto al
B se diferencia considerablemcrJtc do la frecuencia inl'.ondicional
<lcl acor1tccirn iento A, esto puede servir ele indicio dl:l q11 u hay
cier ta relacin en tre l os acontecimientos A y B.
Aplicando el mtodo de induccin 111atemtica, St> puede extender el teorem11 de multiplicacin de Irecuencius par!l un 1rmero
arbitrnrio de acontecimientos. Como resultado se obtiene que
p (AiA2 ... An) =
= p (A,) P* (Ai 1A,) . . J> (An 1A 1A2 . '. An-1)
(i.2.12)
cou ello, el orden de numeracin de los acontecbn icut.os no tiene
importancia y puede ser estahlecido arbit rariamente.
Ahora bien, pasemos al problema cl el e~tudio experimental de
magui tuues aleator ias. De acuerdo con la defi nicin general dada,
~e ll11111a aleatoria toda maguitud que, como resultado de un experimento, no toma ms que un valor cualquiera, y como res11l tado de
varios experimen tos, puede tomar valores tliferentas. Calln valor
que mede ser tomado poi- la 111ng11iiud aleatoria, como cousecuencin
del experimento, se llama s11 valor posible. Designaremos a las mag nitudes aleatori as con letras maysculas, principalmente con las ltimas l eLras del alfabe to lalino, y a sus valores posibles, con las minsculas correspondientes. Por ejemplo, a l as magnitudes aleatorias la~
designaremos con l as letras X, Y, Z y s11s valores posibles , con las
letras x, y, z respectivamente. Con t oda rn agnit.ud aleatoria X so

18

Cu p. 1 Pro/Ja bllidad de un acontect11ilent.o

puetle eolaiar el aconLecimiento A que reprt!Senta el cumplimiento


de la desigualdad X < x, donde x es el nmero dado. Entonces, se
puede determinar la frecuencia del acontecimiento A para diferentes
valores de x. Co100 resultado obtendremos la funcin ,
(1.2.13)
F (x) = P* (X <x),
llamada ordinariamente funcin estadstica da distribucin de lu
magnitud aleatoria X. Para estudiar las propiedades de la unci11
estadstica de distribucin, supongamos que, como resultado de
F(;-;J
f

---------------------.---___.
1

--

,- -

'I

1
1

1
1

1
1
1

' :1

-t1

1
1
1

fig. i.2.4

n experimentos, la .magnitucl aleatoria X ha tomado ciertos valores


que numeraremos en el orden de no decrc~\ruiento : x., x 2 , , x.
(fig. 1.2/1). Es evidente que para todo valor de x en el intonulo
de xh < x ~ xk+" el nmero de experimentos en lo~ que ha siilo
cump\idn la desigunldad X< x es igual a k. Por consig\lie11Le,
(1.2.14)

Para todo valor de x ~ x,, el nmero de experimentos en los que ha


1a dosi.riaidad X < x. es igual a cero y para ~ualquicr
v~lor. de x > x,,, el numero de experimentos en los queha sido cu1n,plida' la,desi.gu~ldad X < x es igual a n. Por lo tanto, la iuuci11
estadist~ca de distribuci. n de la magnitud aleatoria X representa
unt(' fui:icii6'n escalonad~, igual a cero en todos los p11ntos del eje numric9 quehallan a l a i)quierda de todos los puntos x,, . .. x ..
correspndiontes a los valores que ha tomado la magnitud aleatoria
X como res'ultado d9 los experimentos efectuados; e igual a la unidad
en todos los puntos del eje numrico que se encuentran a la derecha
de t.odos los puntos x., . . .. x,. (fig. 1.2.4). Si el punto x pasa .a
travs de un punto ualquiera x,, .. , Xn cp1e nd coincide con ninsi~ ~wnplida

se

-~

1.2. Fundamento.< experimt11tales

19

g.tn otro de estos puntos, la funcin estadistica de distri}~ucj~n ~e


incrementa de un salto en 1/n. S i l puntos cualesquiera de los ~ 4 , .
... , xn coinciden, entonces, a l pasar el p unto x a travs de. 1i\l
punto mltiplo de l , la funcin estadstica de distribucin se
incrementa de un salto en l/n.
Lt1 funcin estadstica de distrfucin es una caracterstica
co.m pleta de los resultados de la observacin de una magnitud aleatoria en la serie dada de experimentos. Sin em.b argo, a veces,es' con"
veoiente limitarse a una caracterstica ms si mple, aunqe li se'a
completa, de la magnitud aleatoria, valindose de varios rnmeros.
En la serie dada de experimentos, la caracterstica numrica ois
simple de la magnitud aleatoria X es su valor medio aritmtico .,

"

mx=n

1 "''
.c.i X .

(1.2.15)

i =1

En caso de cue l valores cualesquiera, de x ,, . .. , x. tomados


por la magnitud aleatoria X como resultado de n experimentos,
coincidan, el coeficiente de este valor general de x, en la frmula
(1.2.15) es igual a la frecuencia de aparicin de este valor lln.. As,
por ejemplo, si x 1 = ... = x 11 = a 1 , .'!:1 1+1 = . .. = x1 1+ 1z
= a z, .. Xz1+ . +11<-t + 1 = . . . = X11+ + 11< = Xn = "' la
frm ula (1.2:15) toma Ja forma

" nr
l,

"
mx = .'-J

(1.2.16)

r=I

Por l o tanto, el valor medio de una magnitud aleatoria, en 111 serie


dada de experimentos, es igual a la suma de todos los valores tomados por esta magnitud, mul tiplicados por las frecuencias de dichos
valores. Con otras 11alabras, el valor med io de una magnitud aleat oria no es m s que su valor medio pesado, con l a particularidad de que
los pesos de los valores tomados por la ma.gnitud aleatoria son iguales
a las frecuencias correspondientes .
Es fcil comprender que el valor medio de una magnitud aleatoria se puede interpretar como el centro de gravedad de S\tS valores
obtenidos como resultado de los experimentos (si, claro est, se considera ,,q ue los valores tienen igual peso).
Parn caracterizar la dispersin de los valores de la magnitud
aleatoria X en la serio dada de experimentos, se puede utllizar el
valor medio de alguna medida positiva de desviacin de la magnit ud aleatoria con respecto a su valor medio. E n calidad de medida
positiva .de dM:viacn de- una magnitud aleatoria con respecto a su
valor medio, lo ms cmodo es hacer uso del cuadrado de la diferencia entre el valor- de la magnitud aleatoria y su valor medio. Enton

Ca>. 1 Probabilidad de

20

1111

acont-.t:lmint1>

ces, como caracterstica de la dispersin de los valores de la magnitud aleatoria X en la serie dada de experimentos, se obtendr la magnitud

"

D*=~
~ (x --.,.")~
':t'
u,,J'
~,

(i.2.17)

,,_ t

generalmente llarnada dispersirt estadstica de la magnitud aleatoria X.


Es evidente que la dispersin eslaustica tiene la misrna dirncnsin que el cuadrado de la m<ignitucl ale11Loria dada. Sin em.bargo,
en la prctica, >ara caracterizar la dispersin, es ms conveniente
valerse de una mgnitud que tenga la misma dime1nsi11 que la mag11it11d a \cato ria en cuestin. Para obteoer tal cnracterstica, es s1icie11te exlraer la rafa cuadradn de la disrersin estadstica. Por
consiguiente, como llledicla prcl.ica \le Ju dis1er~i 11 tle lus valores
de la ;n;1g11tud n'leatoria X, en la serie dada tle experirnontos, ruede
servir Slt desvincl6n estadist:a cuadrtica media que no os rn.s que la
raz cuadrada positiva de su dis~.rsin. estadstica:

a~= V-D~= -- -f.-~ (x1-mW

(1.2.18)

ic: I

Si alg11nos valores de x tomados por la magnitud aleatoria X


coinciden, entonces coinciden tambin ls sum1.1ndos correspondientes
en las frinulas (1.2.17) y (1.2.18) y se les puede unir. De este modo,
la dispersin esdadistica se expres ar mediante los valores de a1,
. . . , ak tomados por la magnitud aleatoria, y las frecuencias de los
mismos, por la frmula.
1l.

.0:= ~ ~ (a,-m~) 2

(1.2.19)

r-1

Pues~o que la IDagnitu1l 1/n representa el incremento de la fun-

~.n

.esta(,iJ.:itica de dist.r lbucin de lo magil~t\ld aleatoria en cada uno


, .:r.n, las frmulas (1.2.15) y (1.2.17) se puede
e~ibir en.Ja foi:ma

M lps puntos x 1,

ni:=;
x;F (x 1),
i- 1

(1.2.20)

D~= }.: (x1 -nt:) 2 P (X;).

(1.2.21)

!=1

Ejemplo 1.2.1 . .Hallar la funcin estadstica de distribucin, el valor


uiedi, la dispersin estadstica y la desviacin estadls(ica cuadrticp modia
d6'. hu .magnitud aleatoria X s.eg<m los re;,11Jtados do los 20 experimentos m)~entados en la ta.bla.

'

21
1

1
13

12

r
x

7 ,7

1.,2

11,0

"

I . i

5 ,6 1 .7

.14

15

5.8

2,0

-17

l l
6,5

5,9

4.!)

5 ,1

ll,1

li.4

;r

3.2 1

!l

1 ,I~

4,3 1
1

5.:~

,.1.9
Zo .
1
1
~;6
4 ,81 5 ;2
18

l;

...

En el caso dado, Ja funcin estadlstica de distrbnci6n se muest1;~ ~ '.t~


fig. 1.2..5. Sustituyendo los valores de x 1 por los de l a tabla en las li:'muf

FtrJ
1

--- - - -- -- -- - ------ --- --- ---~

_---!

...-+ 1
J1 1 1

...J: 1

~ol J

.,

:ti

~JI

1I
11

1111 1 1
ll 1 1 I
1 11 1 1 '

_rt/11 1 ::1 1'

~ )!11 1
..1 l 111 1
11111
111 11111
111 1111 1
11 1
111 11 111

.-11

:u::

1 11'
J 11 1
111 1
1 11 I
1111
1 11 1
1111
'"

11
11
11
11
11
11
11
!

:r

Fig. 1.2.5.

(1.2.15) y (t.2.17), hallnmos el valm modio y la dispersin estads ti ca de la


magniln'l 11lcatorl11:

" 97,\J
49
D-'< ~ 36,8
20' ~ 'l,,>.
mx = 20 ::::: ' ,
PD

l.n desviacin csLaolstic.n cuadr1Lca mcd ia d11 la magni tud aleatoria,


CA!'O datli> es igual n

el

Co1no ha :;ido sealado anteriormente, debido a los errores de


medida, el res ultado de la medicin de cualquier val or siempre es
una magnitud aleatori a: Repitiendo varias veces la med icin obtendremos resultados diferentes . .l:lasndose en lo expuesto, si falta un
error sistemtico, l a media ari~llltica de todos los resultados do medi-

Cap. 1 Probabilidad dt un aconl1elmltnto

ci6n puede servir de medida del valor real de Ja magnitud que se


mide, y la desviacin estadistica cuadr.Lica media, as como la dis
persin estadstica, puede servir como caracterstica de la precisin
de medicin. Cuanto menor sea la desviacin estadistica cuadrtica
media, tanto ms estrechamente se agruparn los resultados de las
mediciones en torno a su valor medio ari t mtico, y tanto ms pre
cisa ser la medicin. As pues, las caractersticas numricas exam
nadas de una magnitud aleatoria tienen un sentido prctico bioo
determi nado.
Al estudiar los fenmenos aleatorios, hay que cnracteri7.ar con
frecuencia el resultado del experiment-0 no de una sola magnitud
aleatoria sino de varias o incluso de una inJinidad de las mismas.
Por ejemplo, el movimiento del aire en un punto va cai:acterizado,
en uo momento determinado de tiempo, por tres componentes del
vector de la velocidad del viento. Al registrar Ja seal de s!llida de
un sistema automtico o la seal de entrada ea un receptor de radio,
se caracteriza el resultado de esta prueba por el conjunt o de ordena
das de la curva obtenida, que son precisamente magnitudes aleatorias. En tales casos, adems de las caractersticas examinadas, que se
pueden calcular por separado para cada una de las magnitudes alea
torias que nos interesan, hay que introducir cierta magnitud que
caracterice el grado de dependencia entre las magnitudes aleatorias.
En calidad de tal caracterstica del grado de dependencia entre las
magnitudes aleatorias X e Y, en la serie dada de n experimentos,
se puede tomar el nwmento correlativo estadstico de las mismas
n

1.-;, ={ ~ (x; -

,_i

m: )(y1-m;).

(1 . 2.22

En esta frmula x,. y 1 son los valores que han tomado las magni
tudes aleatorias X, Y como resultado del Hsimo experimento (t =
= 1, . .. , n) y m~.
son los valores medios aritmticos de las
magnitudes X, Y:

mu

i ~

m~=11

Yt

{1.2.23)

Para comp.render que el momento correlativo estadstico puede,


en un grado determinado, caracterizar la dependencia entre las
magnitudes aleatorias X, Y, basta reparar en que s no existe nin
guna relacin -entre X y Y, en cada banda estrecha de la anchura de
l:ix, paralela al eje y (fig. 1.2.6), el centrodo gravedad de los puntos
disp.uestos en.. esta ha.oda se encuentra aproximadamente en la rer.ta
Y = m~. dondequiera que se halla elegida dicha banda, si el nm ero
de e:s.periroentios 1i as lo suficiente grande. Dividiendo toda la pnrte

.~

1 .2. Jlundamentos ezptrlmt.ntole.

del plano xy que contiene los puntos experimentales (x 1, y 1 )


.. . . , (xn, Yn), en bandas estrechas, se puede dividir tambin la sullia
que figura en la frmula (1.2.22) en sumas parciales correspondientes
_diferentes bandas. Para todos los puntos que se ballan en los limites de una banda, la magnitud x 1 - ~ tendr aproxi madamente un
~smo valor que puede ser sacado fuera del signo de la suma. En
el caso de l as magnitudes independient es X, Y, la ruma restante
ser, segn lo expuesto, prxima a cero, si el nmero de experimen~ n es lo sufuciente grande. De este modo, en caso de que l as magni
~udes X , Y sean independientes, el momento correlativo ~te.dstico
debe ser pr ximo a cero, si el nmero de experimentos es lo suficiente

,,,.s
o

. . . ..

. :..::.
-

... .: : .

m;
Fig. 1.2.U.

.r
Fig. 1.2.7.

grande. Disti nto de cero, el momento correlativo estadstico indica


que entre las magnitudes aleatorias X , .Y existe cierta relacin. En
la Iig. 1.2. tl. se muestr<1 la distribucin de los puntos experimentales en el plano xy cuando entre los magnitudes aleatorias X , Y no
existe una relacin evidente. En la fig. 1.2. 7 se da la dh1tribucin
de los puntos experiruent.ales en el caso en que la relacin
entre las magnitudes aleatorias X, Y es muy. visible.
Es necesario sealar que tratndose de la dependenc.~a o independencia entre l as magnitudes aleatorias, se puede por ahora dr a est as
uociones slo un sentido intuitivo basado sobre nuestras ideas generales aoorca de la posibitidad de representar las dependencias llntre
las magnit.udes en forma de grficos. As, por ejemplo, la distribucin de los puntos exp erimenta les expue!'lo en l o !ig. 1.2.7 dn motivo
para trazar una recta cuya ecuacin puede, con cierto grado de precisin , caracteriza.r la dependencia entre l as magnitudes aleatorias
X, Y. Por el c.ontrario, 111 distr ibucin de los puntos experimentales
expuesta en la fig . 1.2.6 110 da lugar a lo representacin aproximada
de la dcpcndencitt entre las coordenadai;; cu formo de una curva.
Ejtmplu 1.2.Z. Mallm 1 11~ dispr.~ionl'!! ~tudf~t ie.o y 11 mnm~lll eorrr
lati\'O cst.ntl i stico tlt! las mnituitudes aleatorias X, Y scg 11 1.,~ 1t-s11ll ndo$ el ~ , 11
<lhSflfVAein en 20 oic:perime11 tos rerrcsenta<hS 6Jl la lig. 1.2.8. Lns l'()r\l'tl<Hrntlns
de lo unt..>< ~x1Mi ment 11lM ~stn11 nsi1111adns u11 In lilbln .

'.M

Cap. J Prof)Qbilidad d.e u.n aconterimiento

\l

l-o,!1 j-<1.2I 0.21-3.ol 0.9 1t .~ l-1,oj (),(


,_l/_i_---;.l-1-.-, 1-1,6-0.2! _-2.0,-0,t l '' 10.1 1
j

1) . 8

J, !)

j-0.2
-0 ,!l

....~......~~o1=~=

~,~.;...~..,.~~"*"~-=i==~=:=~~~~=?~~

v.

11

;r:

1.11-:l..'1 [-0,812.71

Yt

l- 1.:i -1.1

'11

13

15 1 rn

1s

rn

[--0,81-0,610,0 !1. 1-1.8


1,11 1 o,1s i-o,s[ 1,11-o.s! 1J, 5 - t .9
O.ti

- - - - - - ' ' - - - - -!

- 0,1

Al 11ri n~ipio, hallemos los va lores mcdi<1$ dt< IM 1113gnitucl cs

}{ , l'

~i rvi 11clo1111~

211

u l1?0lCll'i1\S

de lus frmulas (1.2.23):


- 2,1~

mx=~;.v-

01
,

- 2,1 ::::::: - 01
,

r1i, = ~

~u~titll)'llll<l\l esto:; valoi~s y los valor~s tomad1~ por las mag11ituJcs al~u
to rin X. Y. como rcsu lt;1do de los exp.,rimcnlos cxami 11 a1los, cu lns 16,-mulas

.
ir:

' 20

51)

100

100

Fig. i.2.9.

Fig. l.2.8.

(1.2.17) y ('l.2.22), hallamos las di spersiones estadistics.s de las magnitudes


aleatmas menci<madas:
36,8 i , 8 ,
D :t~w1::::::
25,8 t 3
D"~w~

y su momm1to coirelativo

o~l3dstieo:

21 , t
J 1
':r11""20""'
.. .

k'

ne c~1' 111od1i, en el caso dado hay razn para cou~id~rar a las magnitudes
slual<>riAS X , Y r.omo oula?.nd as p<ir cierta dcpundonc1a.

J .iJ. l'roba.btlidad dr.l ac011tecim ientu //sus propiedades

Si se aumenta ilimitadamente el-ulllc;ro de

e,xperimen~os

25

y des-

pus de cada experimento se determina.la frecuencia de aconteeimie,11;


tos y las caracter1>tica,s de las magnitu,dei; aleat_orias, tenien4o e!l'
cuenta todos los experimentos ya realizalos, se puede adve+~i~.. q~
a medida que aumenta el nmero de experimento>, las frecuencias.
de los acontecimientos y las caractersticas de. la~ IJlagn_itudes a:le.a.tQrias tienden a estabilizarse cerca de ciertos valox:es. \ ttu lp de
ejemplo, en la fig. 1.2.9 se muestra el grfico dE!. la I.rec.ullncl:a c.~w
que sale:el escudo en funcin del,.nmero de lanzamien.to~_de .~a 1Jl.Qi:!e4a.
.n./!',). Par a mayor comodidad, en el ej.e de ahscj.sas.,e;>!. .traza_~9 . ~1
logaritmo del nmero ele lanzamientos. Como vem.oi, a .medi(i'a . <Jt\~
aUIOenta el .nmero de experimentos, l a. amplitud, de las oscilaciohe~
de la frecuencia dism~nuye y la frecuencia cpn que sali el escudo
llega a .ser prxima a la mitad. Puesto que Ja funcin estadstica
de d~tribucin de una magnitud aleatoria no es 11\s que un conjunto
de frecuencias correspondientes a diferentes valores de x, y en las
frmu las (i.2.16) y (1.2.19) tambin entran lus frecuencias de los
correspondientes valores posibles de dicha magnitud, est claro
que tambin. l a funcin estadstica mencionada, su valor !lledio
aritmtico y la dispersin estadstica, as como el momento correlativo estadstico de dos magnitudes aleatorias deben tender a esta hiHzarse al aumentar ilimitadamente el nmero .de experimentos. Por
supuesto, este razonamiento no puede de ningn roodo considerarse
como demostracin de la estahlidad de las car actersticas de las
magnitudes aleatorias al aumentar el nmero de experimentos, sino
que solamente ayuda a comprender l a ese11cio. de este fenmeno que
se observa en la prctica.
La estabilidad de las frecuencias de los acontecimientos y de las
caractersticas de las magnitudes aleatori as c1,ando el nmero de
experimentos es grande , representa la regul arid ad pri ncipal de fenmenos aleatorios frecuentes, es decir, tales fenmenos que se pueden
obser var un nmero indefinido de veces. Esto sirve de base para
introducir l as correspondientes caractersticas tericas abstractas
de los acontecimie11tos y de las m agnitudes aleatorias, que no dependen del experimento, cuyo conocimiento permitira estimar la conducta de los acontecimientos y de las magnitudes aleatorias, cuando
el nmero de experimen to~ fuera grande, sin realizar est os lt irno1'.

t.3. Probabilidad del Rcon l.eci mien to y sus propiedades

La probabilidad es la caracterstica t erica fu11dawe11tal de un


acontecimiento aleatorio. Se llama probabilidad de un acontecimient o al nmero qnc caracteri za la frecuencia de este acontecimiento
) H . Cramcr. Mnt.hnmatical ~[ethods of Statistics. l'rinccton Univ. Pr~ss,
1(146 (Versin rusa: H. Crnmer. Mtodos matomtcos ilo EstnclsC.icu. !;;1lilC1rinl
de Literatura l~ xtranje11 , t Mll) .

'26

Cap . 1 Probabilidad de un

11r.011tec!rnlenlu

.nl ser grende l a cantidad de experimentos, es decir, ta l nmero cerca


del cual tiende a estabilizarse la frecuencia del acontecimiento si
!a cantidad de pruebas aumenta indefinidamente. De est~ modo, la
probabilidad de u n acontecimiento representa su frecuencia teric a .
.Conociendo la probabilidad de un acontecimiento, se puede, sin
realizar ningunas pruebas, predecir cul ser la frecuencia con que
aparecer el acon tecimiento al ser grande el nmero de experimentos. Se puede tambin decir que la probabilidad de un acontecimiento
es la medida de la posibilidad de suceder uu acontecimiento efectuando una sola prueba. Si la posibilidad do un acontecimiento es muy
pequea, ste aparecer muy raramente al realiz11r un gran nmero
.<Je experimentos. En este caso, al prepararnos para efectuar una
sola prueba, prcticamente podemos estar seguros de que el aconteCimiento no suceder. Por el contrario, si la probabilidad de un acontecimiento difiere muy poco de la unidad. al prepararnos para realizar un solo experimento, prcticamente podemos estar seguros de que
el acontecimiento suceder. Hablamos aqu de seguridad prctica
y no de seguridad absoluta porque, al prepararnos par a realizar
una sola prueba, no podemos prever con absoluta precisin cul
ser su resultado. Este experimento puede pertenecer a alguna de
aquellas raras pruebas en las que un acontecimiento de poca probabi.lidad sucede, mientras que un acontecimiento do probabilidad prxima a la unid ad no sucede.
Ln frecuencia de un acontecimiento i mposible siempre es igual
a cero y la de un acontecimiento cierto siempre es igual a la unidad.
Por eso, segn la definicin dada de probabilidad, la probabilidad
igual a cero debe ser atribuidn a la probabilidad de un acontecimiento
imposible y In probabilidad igual a l a unidad, a un acontecimiento
ciert.o. Sin embargo, 11 continuacin veremos que existen tambin
acontecimiento~ aleatorios que tieuen la posibilidad igual a cero
o a la unidad. De este modo, si la probabilidad de un acontecimiento
-es igual a cero (a la unidad), esto no significa todavia que el aconte0ciriiento es imposible (cierto). Esto significa solamente qu.e, al
aU:i'itentnt ihdefirtidamente el nmero de experimentos, la frecuencia
d.el acntecimiento tender a cero {a la unidad).
La probabilidad de un acont.ecitniento A se designa por el smbolo P (A).
En 11lgunos casos, la probabilidad de un acontecimiento so puede
determinar fcilmente teniendo en consideracin la simetra de los
resultados de l os experimen~o!\. As, por ejemplo, si el nmero de
lanzamientos de una moneda perfecta es grande, el escudo y la cifra
.saldrn prctican1onte con igual frecuencia. Por eso, al arrojar al
aire una moneda, al acontecimiento representado por la salida del
escudo se le debe attibuir la probabilidad igual a 1/2_ Lo mismo,
.al echar un dado perfect.amenle fabricado que tiene la forma de cubo,
.fas ~eis r.arns, debido a su simetrfa. han de !lalir con frecuencias

1.:1. Probabilidad tkl ocottltclmeruo 11 u propitdades

27

iguales, si el nmero de pruebas es grande. Por consiguiente, la


frecuenci a del acont"8Cimiento, representado por la salida del nmero
de puntos mltiplo de tres, debe tener l a t endencia de estabilizarse
cerca del valor igual a 2/ 6-1/ 3, al ser indefinidamente grande el
nmero de experimentos. As pues, l a probabilidad de que salga
el nmero de pun tos mlt iplo de t res, al arrojar el dado una sola vei,
es igual a 1/3.
Es evidente, que la probabilidad de un acontecimiento no. pue~e
ser negativa ni tener un valor mayor que la unidad, o sea para todo
acontecimiento A
(i.3,.1)
O~ P (A) ~ 1.

Las probabilidades de acontecimientos, como nmeros que representan irecuencias tericas de acontecimientos cerca de las cuales
tienden a e:s~abilizarse las frecuenci as reales al aumentar indefinidamente el nmero de pruebas, deben poseer toda.s las propiedades de
las frecuencias. En particular, en virtud del teorema de adicin de
frecuencia, demostrado en el prrafo anterior, se admite el siguiente
principio de adicin de probabilidadu: la probabilidad de produccin
de uno de los acontecimientos incompatibles, no importa de cul se
trate precisamente, es igual a la suma de probabilidades de los
mismos:
(1.3.2)
P(A 1 + Ai+ .. . ) =P (A1) + P (Aa) + ...
Este principio se admite tanto para un n mero finito cualquiera
de acontecimientos A 1 como, en el li mite, pata un conjunto numerl\ble de acontecimientos A 1).
Se dice que los acontecimientos E1t ... , E,. forman un grupo
complcki, si, como resultado del experimento, se produce obligatoriamente u no de olios, por lo menos, es decir, si la suma E 1
E2 +
+ .. . + En representa un acontecio1iento cierto. De esta definicin y del pri ncipio de adicin de probabilidades so deduce que la
suma de las probabilidades de los acontecimientos incompatihles
que forman u n grupo completo es igual a la un idad:

(1.3.3)
Dos acontecimientos incompatibles que forman un grupo completo
se llaman contradictorios. A todo acontecimiento A le corresponde
un acontecimien Lo contradictorio A q11e represent a la no produccin
del acontecimiento A. De (1.3.3) se desprende que la suma de l as
*) Se !luma numtrablt el conju nto ininilo cuyns elementos se pueden
numerar {es decir, poneT en cnncordnnnia 1!0 0 c11ila olcmrnt-0 nn nlmero ent.e-ro
de modo cue a di5t111tos elemenl.05 l es c;orrespond an n(uncros entoros <llfcronte.,) .
Un conjunto infinito cuyos el emenl<>s no so puo1lon llevar a I:> con"eSpondcrie;a
biunlvnca con los nmeros enteros i;e ll a1nn 110 nlmerablt.

28

Ca p. 1 ProbabilUul de un aconletimitnla

probabilidarles de los acontccimie11tos contradictorios es igual a lit


unidnd:
P (A) + P (A) = 1.
(1.:1.4)
Jfo cie.rtos casos, la determinacin directa de la probabilidad ole
un aconLecimieniO A resulta dificil, mientras que la probabilid11
del acontecimiento contradictorio A se calcula sencillamente. En
tales casos, la probabilidad del acontecimiento A se halla fcilmente
con ayuda de la relacin (1.3.4).
Ahora bien, examinemos ms detalladamente la cuestin de
calcular la probabilidad de un acontecimiento en el caso ell que los
posibles resultados de la prueba posean simetrfo, como, por ejem11lo,
en e l caso de los lanzamientos de una moneda o un dado. Supongamos
que con el experimento dado se puede enlnztll' un grupo completo
de acontecimientos incompatibles E 0 . ., En que, 11 consccueucin.
de la simetra, deben producirse con igual Irecuencia al ser grande
el nmero de pruebas (por ejemplo, la salida del escudo y de la cifra
Rl nrrojar una moneda o l a salida del uno, el dos, el tres, el cuatro,
el cinco y el seis al echar un dado). Esto quiere decir que las probabilidades de n acontecimientos Ei. ... E,. son iguales unos a otros
y , a causa de l a igualdad (1.3.3~. cada una de ellas equivale a 1/ 11.
Supongamos ahora que ol acontecimiento que nos interesa se prod11c~
obligatoriamente, si sucede uno de los aC-Ontecimientos E1 , , E,,..
y no puede producirse, si sucede cualquiera de los acontecimionto~
E m+1t . . . , E,.

o sea, A =- ~E 1 En este caso, basndose en t!l


1-1

principio de adicin de probabilidades, tendremos que


P (A) = P (~E,)
t-t

= ~ P (E1) =

~ .

(1.:1.5)

.-1

So llaman casos los acontecimientos incompatibles equiprobubles que forman un grupo completo. Se dice que el caso E 1 favorece
a,l acontecimiento A si, unn ve7. sucedido, este caso lleva a la prorhiccin obligatoria del acontecimiento A y desfavorue al acontecimiento
A, si, una vez sucedido, este caso excluye la posibilidad de aparecer
el acontecimiento A. La frmula (i.3.5) muestra que si por ra7.ll
de simetra de los resultados de la prueba non esta ltima se puerle
ligar un sistema de casos tal que unos de ellos favorecen al acoutecimiento A y otros le desfavorecen, entonces la probabilidad clel
Rcontecimlento A es Igual a la relacin del nmero de casos favornbles al acontecimiento A, al nmero total de los mismos.
EJrmplo 1.3.1. Al lanzar llDn moneda u11a sola V(l1 son pogibles dos casns :
la Mlidn ilo.1 csc.111:lo y In ~elida de la c.ifra. Uno dr ell M f:woroce la apnir i6n
del l"IC11do. Por lo tanto , In probabilidad de quo salga el ~l!(' udo r.s igual a 1/2.

/$ 1. 3. Pmbflbllitla.J del ac01ttecim tento y ..us

propfodo.de.~

29

Ejemplo 1,3.Z. Si se arroja una solo. ve1. un dado, hay seiscasos diferente~:
la salida del& cara del uno, el dos, el tr9s, ~l cuatro, el ci.nco y el sei~ .. t;>.~ellos
<los casos favorecen al aconteclmielltO A que consiste en la salida del .nmero
d o puntos n'ltiplo de t~s y tres casos favorecen a la aparicin del ~e<111ted.
mi~nto B , o sea, a la salida de un nmero par de puntos. P.or consiguio1\tc ; 'la
probabilidad de que se obtenga un nmero. do puntos- mltiplo de tres es igital
a 2/6= t / 3 y la probabilidad de obtener un nmero par de puntos equ_ivalo
a 3/6 =1/2.
Ejemplo t .il.3. En uria urna hay 12 bolas ig1iales que '!lo se distinguen eo
nada a t iento. De ellas 5 !x>lns son negras y 7 blancas. Hallar la posibil iClad de
que la bola extritda al n?.ar de la urna sea blanca. En oste ca.so, le .pruel}n:,cPnsiste en saca\ una sola bolu. y contiene 12 !)aso~, de ello~ 7 fov.or~on.h saida
de u.na bola blanca. Por lo tanto, la :probabilidad de quo se cictrnig1< 111\a bO~n
blancl\ equivale a 7/ 12.

.El esquema de casos que da la posibilidad de cUcular de un mo(lo


comparativamente sencillo las probabilidades de acontecimientos
se encuentra en los Jlroblernas prcticos y sobre todo cu la ti;cnica ,
con poca frecuencia. Por eso, la frmula (1.3.5) tiene uua nplicocin
prctica muy limitada.
A la frecuencia condicional de un acontecimiento le co.r respo ntle
la nocifi de la probabilidad condicional de un :1contecimiento que
significa la probabilidad de suceder utl acontecimiculo a comlicill
de que se haya producido algn otro acontecimiento. Segn la f<mula (1.2.8) deducida en el prrafo anterior, la probabilidad condtCional de un acontecimiento A con respecto al acontecimiento B
s e determina como la refacin de la probabili<lad de que :mccdan
conjuntamente los acolltccimientos A y B re~pccLo u la del "contecimiento 8:
P (A 1B) =

PP<1:,)

(1.3.6)

De uo mod.o semejante se detorruina lri prolrnbilidarl del aco ntecimiento B con respecto a A.
L a definicin de la probabilidad condicional de un aco ntecimiento expresa al principio de multiplicacin d~ probabilidades que dice:
La probabilidad de la prod11ccin conjunta de dos acontecimientos
es igual a la probahli<lad de uno de ellos mlltiplicado por Ja probabilidad conclicionnl del ot.ro con respecto al primero:
P (AB) = P (A) P (B 1 A)= P (B) P (A IR).
(1.3.7)
Aplicando consecuentemente el principio de multiplicacin de
probabilidades, llegamos a la conclo,5in que para toclo nmero 1l c
acontecimientos A 11 A 2 , . ., An
P (A 1 A.2 . An) = P (A1) P (A2 1 A1)
... P (A,. 1 A1A2 . A,._ 1 ),
(1. 3.8)
con ello, el orden de numeracin de estos acontecimient.o:;
importancia.

110

tiene

Cap. 1 Probabilidad de un aco11tecwue11t11

De acuerdo con las nociones intuitivas de la depcndenci\\ y la


independencia de los acontecimientos, se dice que el acontecimiento.
A depende del acontecimiento B si P (A 1 B) -:/= P (A). El ac-0ntecimiento A no depende del B si P (A 1 B) = P (A).
De la frmu la (1.3.7) se deduce que si el acontecimiento A 110
depcude del B, eutooccs, tam1>oco el acontecimiento B depende del
A. Do este modo, es conveniente hablar solamente de la dependencia
reciproca o la independencia recproca de los acontecimientos. Dos
acontecimientos son independientes solamente en el caso en que la,
procluccin de uno de ellos no Calllbia la probabilidad del otro.
Los acontecimientos A 1 , ., A,, se denominan independiente~
por parejM, si cualesquiera dos de ellos son independientes. Los
acouted mientos A 11 , An se llaman independientes, si cualesquiera dos productos, compuestos de stos, que no contienen sucesos.
comunes, son acontecimientos independientes.
Si. lo:; acontecimientos A 1, ., A,. son independientes, entonces, basndose en l a definici n dada, dos acontecimientos An y
A 1A 2
son
independientes y,
por
consiguiente,
P (A,, 1A 1A.2 A,._1 ) = J> (An)i luego,
dos acoot-Ocimientos.
A,, _1 y A,A 2 A,, _2 son independientes, debido a lo cual
P (A,._ 1 1 A 1A 2 A 11 2) = P (An_ 1), ; los acontecimientos.
A, y A 2 son independientes, a causa de lo cual P (A 2 1 A 1) =
= P (A 2). Por lo tanto, para los acontecimientos independientes.
A 1, A 2 , A,. Ja frmula (1.3.8) toma la forma
P (A 1A 2 A,.) = P (A 1) P (A2) . P (A,,).
(1 . 3.9}

A,._,

Do este moclo, lo probabilidad de la aparicin conjunta de dos.


acontecimientos independientes es igual al producto de las probahi
Iidades de stos.
Ejt?mplo l.3.<I. UnR urna contiene S bplas negras y 7 bolas blancas. La

prlloba c.oosiste en (ruede la urna !!O extrae una bola y so anota su color, despus de lo r.ual la bola se mete de nuevo en la urna. Una vez mezcladas las bolas,
de Ja urna vuelve a sacarse una bola. Hallar la probabilidad do quo ambas veces
sen extraldR una bola blenc.a .
,Llamemos aconiecimiento A a la salida de una bola blanca la primera vozY. acontecimiei:itQ B; a su salida la segunda vez. Es evidente, que tanto en la
prim~ra sacada corno en 11! B-Ogunda hay 12 casos de los cuales 7 favorecen la
slida i:le una 'bola blanc.a. Por consiguiente, en el caso dado P (A) = P (B) =
= 7/121 P (B 1 A)= P (A 1Br= 7/12. Por eso, basndose en el principio
de multiplicacin de probabilidades
7 7
49
P (AB)=P (A} P (B I Al=12 12=m.

La probo.hilidad de que se saque on~ hola blanca la segunda vez no ~!'pend&


absolutamente de la primera extraccin. Por eso, en ol caso en cuestlon, los
acontec rnjentos A y B son i ndepondiente.q,
Ejemplo t.:\,5. En las condicionos do! ejemplo o.nterior, hallar la probl!-
bilidad de la salida de dos bolas blancas sin volver a meter en la urna la J>t l-
mera.bola sacada. En est& caso, al extraer la segunda bola, hay 1t casos de 1051

3'1:

1.9. l'robabilldd del ac<mtecimtento y sus propied<"lcs

cuales G favorecen la salida do una hola blanca, a condicin de que Ja primorn


hola sacada sea blanca (es decir, de quo Suceda el aconteciQJient-0 A). Por consiguiente, lu probabilidad condicional de que aparezca una bola blanca pol"
segunda vez, a condic.in de que la primera bola .oxtrada ha sido blauca (es
decir, la pr<Jbabilidad condicional del ac0ntecimiento B con respecto al A)
S igual a 6/i 1. Aplicando el prim:iJio do multiplicncSu de probahHdades,.
hellauws l a pl'ubahilidad de qtui ambas holas sacadas soan blanc.as:
7 f)
i
P (AB)= P (A) P(B 1 A)=] rr=~.

Si la primera oola e:>."trada resulta ser negra, la prohabi.Jidad de sacar una bol'
blanca c11 la segunda sacada (es decir, la probabilidad condicional dol .acoutecimiont<> B con respoct<> al A) us igual a 7/1:1. De este modo, Ju probabilid.a d
de que salga una bola blauca la segund11 vet aqu depende cousidor11hlemel)~
de cul ha sido la bola extrada la primera vez: l' (B 1 A) .. P (B). l'or lo tanto,
los ncoutecimit>ntos A y B son oo e.'te caso dopendientes.

La:s operaciones de adicin y de multiplicacin de acontecimientos poseen algunas propiedades caractersticas de la adicin y la
multiplicacin de nmeros. Por ejemplo, la suma y el producto delos acontecimientos A y lJ no dependen del orden en que se toman ~
A
B = B +A, AB = BA .
Las operaciones de acliciu y multiplicacin de acontecirnientos
son asociativas:

(A

+ B) + e = A + (B + C) = A + B + e.
(AB) C = A (BC)

ABC.

Por fin, las operncioncs de 11clicin y multiplicacin de acontecimientos son distributivas:


(A

+ B)C =AC+Bc.

Todas estas propiedades se deducen directamente de las definiciones


de la suma y del producto do acontecimienLos. As, por ejemplo
(A
B)
roiresnta la prod\lCCin del acontecimiento
a la
vez con el acontecimiento A o con el acontecimiento B, es decir,
indiferentemente de con cual de ellos precisamente. Evidentemente,
el acontecimiento AC
BC tambin consist-0 en producir.se o C
junto con A o C junto con B.
Sin embargo, no todas las leyes de adicin y multiplicacin de
nmeros son aplica bles para la adicin y la multiplicacin de MonA coincide.
tecimientos. As, por ejemplo, el acontecimiento A
evidentemente, con el A. Lo mismo que la aparicin conjunta de
A con A coincide con A. Por consiguiente, A+ A= A, AA= A
para cualquier acontecimiento A.
En muchos cosos las operaciones con los acontecimientos ayudan
a simplificar esencialmen.te el clculo de probabilidades de los misnws. Por eso, ser til estudiar dichas operaciones nn poco ms
detalladamente.

Cap. 1 Probabilidad

d~

un acon/rclntitnto

Sean A y lJ dos acontecimientos cuahisquicr o, A y B, los acontecimientos contradictorios correspondlntes. Es fcil vor quo
A+ iJ rcpresenLa un aconteci mi ento contradictorio a la produccin
conjunta de A y B:
/ lJ = (AB).

En efecto, A + B es la produccin de uno 1le los acontecimientos


A y B, COJl\O mitdmo, lo c.uc equivale a la no produccin de AB.
En go1 1 er~l para cualesquiera acontecimientos Ai. .. . , A"

"
~
1- 1

A1~ (lj" A;).


1-1

La protlucci11 conjuula ele los ;1contccimiento:s A y JJ (In no


produccin de los acontecimieotos A y B) es, evhlentemento, coutra<lictorin n la uporiciu de por [(1 meuos 11110 de los acontecimientos

A y B:

Y cu gcnoral
n

"

Ir A1 = (LA;).
,_ ,

i:.w- 1

Si con la pruohn cm cuestin ost oulazado 1tlg111 ucontac imiooto


cierto E. enL011cas cualquier ;tco ntecimicnto A no puede apar1icer sino
quu ju uto con este aconleciniitlllto cierto y, por lo tanto,
A =AJ:,'.
Eu particular, la s uma B

+B

Por eso
.4 = A (B

re>resen~a

+ R}

AB

un nco1ecimieoto cie rto.

A .

Esta f6rmulo ofrece la dcseom posi.cin del acontecimiento A en dos


acontecimientos incomptiblcs A B y AB. An!logamente podemos
escribir

B = AB

+ AB.

Ejtmpl o l .ll.6. Hallomo!! l a pro\J11bildn(l do que ~ur.eJa. por lo monos,


11110 d~ l os aconlccimiento~ A y 8 . 18 1lccir, IH probnllllidad del 11contooimiento
A
B . t eniendo on cuenta <ue (Slos suc<>o;<>S. on nl c11so g~ncral. pueden ser
co111pelibles. Seg(Jn l;o regla~ e.\p11e~t11~ tlu adicin de ncontecimicntos,

A+ B=AB+AB+AB+AB=AB+AB+ AB.

Esla frmula ofrece la descompo~lcio del acontecimiento A


B en tces sucesns lncompalhlos AB. AH y AB. Va li 11dose de las dcscomposicionos' oblonida~
de lvs aconleeiml eoto~ A , B y A
B en los succ5o!! Incompatibles. podemos

.<
e~cnbir,

J .8. Prol. a/>ilidacl del aco11teclmlento y sus

bMn11d11 nn en el principio de adici n do

prnpiedade~

(13

probabilid~des

+ P (AB),
+ P (AB),

P (A)= P (AB)
P (B ) = P (AB)

P(A +B)= P (AB) + P (AB)+ P (AB).


su~til11ycnl1<1 las CX(ll'('SOnes do las prnbabilidndes p (A B) y p (AB) de l~!I
primeras dos frrnnlas en la tercera, se obLiene

P =(A+ B) = P (A)+ P (B) - P (AB).


Pasemos ohoro a deducir algunas fr mulas que son hriport'al)t.es
para la aplicacin .
,
.
. , .
En algunos casos, es dcil calcular cfirectame'i:1te l ' :PrOQ~Lm
dad de 1u1 acontecirn iento A que nos iotercs a , pero se puede calcular.
fcilmente las p rohabilidade~ conrliconales del acontecimient.o A
con r c:s11ecto 8 \'Arios sur.esos ll CO lll Jlll lhl os E1. ' . ., en que formau

1111

"

gr upo completo. En esLe caso ~ E 1 representa 11 11 11co11leci1:. 1

miento cierto y, por lo tanto,


fl(A)=P(AE)=P(A

n
," E) = P(~AE,).

1-1

i= I

Por 1iso, :iplicn ndo el principio de 111licin de probn1'iliclndes, se


obtiene

,_,"

P(A)- ~ P(AE1).

Aplicando ahora el principio de multiplicaci611 lle probaloi lid ndt-s ,


liene

se

P (.4) = ~ P (E 1) l' (A I E1).

(1.3. 10)

i-=l

Esta frDlula se llama frmula de pro/Ja/Jilidad total.


F.jt'mplo 1.3.7. La rrobabilidad de cue

la seiial de radio recibida hnyn

11na seal Lll es igual a p. C..a probabil)da<t d e que no se revclo la soiial 1'il.il
en el c nso en que La se conl.cuga nn la sc lul rf'Clbida e~ igual 11 a y la pr11hnbilidad de considerar t!rrncamenle rovu)ado una scfial til en el caso <l ll quu
se recibe $nlmnenLr; un n1id<> e$ igual o ~. lhll~r la probal1lidad 111u d
problema clo revelacin de una dial \lll $0 resuel va incnt'rectamrntc y la p10
babiliclnd dr 1111a resolucin com~cta. Bn el ca~o en cuestin 'I aco11l<>ci mil11to
A es 11n11 rcsolucn errnea. ul acnotecim icntn K , reprP~('Jta la prc,.,ncio de la
~l!i1al til Pn la sei\al de radio que so ree ihe y el acont cdmiento E:. la :i1m~ndn
de la Sl'HI 1otil (es rlecir, la re<:c pcin de so lo ruidn). Segn los 1latns, P (e 1) = p.

P (A 1 E,) = a. P (A 1 E,)

~ ~.

Adem~ .

pues to qu~ In~ arnnteeimirnlM

""

1!1 y 6, 5011 i11cornratihle<"1 y fnrman un gruri t<>tal (M dedr. "'" r.lr rnsn
COntradr.torloS), p (I: , ) = 1 - p. i'or C"ll~igniPnle , Aplirnndo )a frmul a d e
3 - 0~38

34

Cap. 1 l'robubtlidad de un acontttimlen to

probabiliclad tota l (1.3.10}, se obtiene


Pr.rr

P (A) = P (E1) P (A

1E1)

+ P (E,) P

(A

1E~)= pa. +

(i -

p) ~

La probubilid:id de la r es<>luciu correcta, como probabilidad de un aconlo


cimirnto to11tradictorio, es iguJI n

Pcorr=P (A)=1-P(A)=1 - pa-(1-p)~f,a 1ubma frmula puede ser obtenida aplicando directamente la frmula de
probabilid ad toLal.
Ejemplo La.8. La probabilidad de Llegar a una central telefnica k llama
do.s durante un intervalo de tiempo t es igual a Pt (k). Los acontec:imicntos que
consisten en Hogar k llamadas en un intervalo de ti~mpo y l llamadas en otro
intervalo de tiempo cualquiera que no va recubierto por el primero, son inrle
pendientes, cualesquiera que sean k y l. HaUar la probabilidad p 21 (n) de que
durante el intervalo de t iempo 21 lleguen n llamadas.
Designemos por A la llegada de n llamadas durante el lnte1v:1lo de timn
po 2t. Supougamos que el acontecimiento Eh consiste en haber exactamente k
llamadas en la primera mitad del intervalo de tiempo indicado, con ello, segn
los datos, P (E~) = Pt (k) (k = O, 1, .. ., n). Es cvideute q \ 10 para que se
produzca el acontecimienw A a condicin de que tenga lugar E1., es neeesario
que en la S<>.gurorla mi tu~ del int~valo do t_ic mpo ~I lleguon n - k lla"!~..ia~.
Por ]() tanto, P (A 1F.h) = Pt (n - k}. A;hc.andQ In frmula de prohabdulad
total, Jinllamns
n

P (A)= p 2t(n)= ~ Pt (k) pt(n -k).


h=O

En las aplicaciones, pnra l ns mismas conclic.ioncs, surge con


frecuencia otro problema: como resultado del experimento realizndo se ha producido el acontecimiento A y basndose en esle hecho,
/1ay que emitir su parecer acerca de cul de los acontecimientos
incompatibles E1t . . ., En, que forman un b-rupo completo, tiene
lugar. En el caso general, es imposible resolver esta cuestin con
absoluta corteza. Por eso, prcticamente se puede !'olamcnle plantear
el problema de revelar las probabilidades de Jos acoutccicoientos
E, .. ., En conociendo que, como resultado de la prueba, ha sucedido el acontecimiento A . Es evidente que en el caso en cuest in las
probalJilidades buscadas oo son ms que )as probaLilidadcs condicio
nales de los acontecimientos E 1, , En con respecto al aconte
cim.ien to A. Por oso, aplicando el prjncipio de multiplicacin <le
probabilidad.es, hl\Hamos
.
P (.4) P. (E, I A) = . P (Ek) P (A 1 Ek)
de:,donde, teniendo en cuenta (1.3.10). obtenemos

P(E~ I A)=

: (E_k)P( A f Ek)

(k=1, ... ,n).

(1.3.11}

~ P (E1) P (A I E;)
""'1

E;sta f'rmula se Uaa f6r.mule de Bayes *). Las probabilidades


icondicionales P (E,.) se llaman probabilidades a priori y las
'

~)

E'n los problemas de radiotenicac la frmula (i.3.11) se llama a veces


pcj1cip!o de probabtli.4ad i~versa>

f~rqiu1a o

J .4. Repetlr.i6n de los e:zperlmentof

35

-probabilidades condicionales P (E;;. 1A); probabilidades a posteriori


d'e los acontecim'i entos E,. (k = 1, .... n) *).

Ejemplo 1.3.9. 'FeDiendo los mismos datos:que, eo el. ciemplo f..3.7, s'lipon~
gamos que la sefl~I ..Je radio reci.bide, ha sido .tratada ior un di,s positiv? radio;
rceceplor, Y. la seual tratada ha supora,clo el mvel de umbral da:do, debido lo
cual el sistema de deiecciil ha decidido que lai;eal til' est present. Hllar
la probabilidad de que la siil til efootivamente :est presenta y 1n probabh
lidad de que sta est aueente.
.
.
, . .
.
En el .caso .en cues'tin:teDemos .los. mi.$mos .acontecimientos .E, y E11.que
1
eii e,l ejemplo t.3. 7. ~I ac<;i~(ecii:D_iento 'A es .el.hecho d iU:~ 1(~81 ir~(ada:'..P."or
el sistema de detecctp baya superado el niv~l de umbral..,.Segn los:da.t os' dl
e)emplo;Ja probabilid'a d de "dec1.d it' quo 'Ja, seal til se :tiene; en'e l i;aso)le,su
presencia ~n la ~al recibjda (es decir, la pobabilidaq d4 la so!uci,n }ust~
en es~e caso) es igual a. 'P. .(4 1E 1) ~ 1 - d y 18. proba~ilidad' d(deeiair. q~
ta seal 'tff est presente in 1)1' aso de la 'tc'epcl6:0 de soJo rid'O'> eqtilvaJ, a
P' (A 1 E 2)
jl. Por eeo, aplicando la frmula de Dayes (1.3 ..11), ballam'0s

p (1-a)

p (E1 \A)

P(E~IA)

(1-a)+(t-p) ~.
(1-p)jl
p (t-a)+(t-p) jl'

Valindose de la frmula de Bayes, se pueda determinar de un modo semojante


la pYobobilided de la .l!reseDcia y de la ausencia de la seul til en el caro en que
el sistema de det<)Cc16n decide que dicha seal faJta en la roc.iLida.

f .4. Repeticin de los experimcnws

Un experimento complejo consiste frecuentomente en que una


prueba elemental, como resultado de la cual puede aparecer o no
aparecer algn acontecimiento A, se realiza repetidas veces y nos
interesan las probabilidades de diferentes resultados de este experimento complejo.
Llamaremos independientes a los experimentos, si la probabilidad
de producirse un resultado cualquiera de cada uno de los exparimentos no depende de los resultados de los otros. Esta definicin concuerda perfectamente con la de la independencia de los acoot.ecimientos
expuesta en el prrafo precedente. En efecto, designando por A 1
cualquier re:mlt.ado posible del i-simo experimento, observamos que
n experimentos son independientes cuando, y slo cuando, son
independientes los acontecimientos A 1 , , An , es decir, cuando
las probabilidades condicionales del acontecimiento A 1 con respecto
a todos los acontecimientos A" ... , A;_1 , A;+1t .. ., An y con
respecto a todas las coincidencias posibles de estos sucesos son iguales a la probabilidad incondicional del acontecimiento A,.
Convengamos en decir que los experimentos se realizan en co~
diciones iguales, si la probabilidad del acontecimiento que nos interesa A tiene en todas las pruebas el mismo valor p.

11 priori- loe. lat. que sig1fica que viene aotes., o sea a11tc~ de la
prueba. A posteriori, que viene despus, o sea, despus de 111 prueba.

3;

Con. 1 Probabilidad de utt aconuctml"'

Corno resultado de n oxperirnento:;, el ncohtecimiento A puede


no producirse ni una sola vez, producirse una, dos, .. .. n veces.
E~ necesario hallal' las probal.Jilidades de diferentes valores del
1i mero de aparicin del acoQtecimento A.
Designemos por P.,.. n la ' probabilidad de que .en 11 experi01011tos indeendientes realizados en iguales condiciones el acontecimiento A se produce exactlmente rn veces (rn =O, 1, ... , n).
Para resolver el pro-blema planteado, tomemos n casillas y registraremos los resultados de cada; prueba, anotando en la casilla correspondiente A , si el aconteciroien.to A se produce en este experimento
y A, en el caso contrario. Entonces nuestra tarea se reducir a la
dete~minacin de la probabilidad de que algunas. m casillas estn
ocupadas por la letra A y las n - rn restantes, por l a letra iL P11esto
que no nos importa cules casillas estarn 011upadas precisamente
por la letra A, con tal de que el nmero de tales casilbs sea igual
a m, entonces, aplicando el principio de adicin de probabilidades,
llegamos a la conclusin de 'que la -probabilidad bttscada P m . 11 es
igual " la suma de las probabilidades de todas las colocaciones posibles de m letras A y de n -1 m letras A en n casillas. Del Algebra
clemenLnl se sabe que el nmero de procedimientos con cuyff ayuda
se puede sClleccionar m elementos de n es igual al nmero de combinacionos de n elementos en series de n~. Por consiguiente, la probabilidad de sucecler el acontecimiento A exactamente m veces, al
efectuar n experimentos, es igual a la suma c;:.de sumandos cada
uno de los cuales .ro.p resenta la probbilidad' de obtener, como resu1.
tado de la prueba, una coioacin determinada de m letras A y de
n. - 1n letras A en n. casilla;. La probabilidad de cadi colocacin,
basndose en el teorema de !JlUltiplicaci n de prohalilidades, para
los acontecimientos independientes es i,gual a p'll q" - "', donde, por
abreviar, so ha !lecho. q = .~ - p .. Efectiva.meute, para que, por
~J~,g,i.pl 9, Jas p.r~ro.!.~as m .ca13~~lai i:esul~!l est!lr ocup.das por ~la letra
fi'1.y~l~ .l.timl!S'-.n - m, ]l.or 1la letra A-, 1lS necesarla 'la ~incidencia
de',Jqs -.-acontecif!lientos,sigu,en,tes: produccin de A .en el. .p rimer
e;r:petimentQ, producciJl de )1 en el segu11do experimento .e~ . pr<r
duccln .de A ~l.l l ~isimq rexpel'.ill}en~o; DO pro4uccin de A en
el\ (~ +.1:), simo .' e.xperimentp,.. no pro4uccin, de .A en el (ni+ 2)simo e,:GJ>erjmentq .et.e .... no pN.duccin de A iin ..el ensimo ex.perime.~to .. -Multiplicando.; las .p~obabil~<j.ades 4e. estos acont~c!mientos,
obtendremoa,:.pot .fin,1 p"' q"1''!'. De est.e modo, .la probabdld;id .busGa(l:a ,!le q.ue .1 acontecimien~o A se produzca, m v..oces,. al -:realizar n
eX:p9.rimentos, .es,.gual.a.la. $tilii-a.c :;:. de sumando~ igu.ales a P''qn-;-m,
es decl r,
>
:
f
Pm . n=C':p"'q"-"' (m=O, 1, .. . n).
(1.4:1)

El segu~do problema .JiJa,do con

:epeticin de las : rrneba~

J .4. Repelle~." de 101 nptrlminlo

37"

consiste en balial' '1a probabilidad R 4 " de que el acontecimiento A


se produzca no menos de k veces, al realizar n experimetos. Sobre
hase ilel principio de adicin de probabilidades, esta probabiided,
es igual a

la

R11..n -

11

~ Pm.n= ~ C!;pmq"-"'.
~

(i.4.2)

m-,.A

Es conveniente aplicaresta frmula -en el.caso en que.k;;;;;. (n + 1)./2>


En el caso cuando k < (n .-t., t ) 12:, es. conyeniente expresar l"a probabilidad , basndose en la frmula {1.3..4), por medio de la orobabllidaCi del' acontecimiento contradiciori'o, es ifeciri 'po~ medfo de.
li prb aliijidad de que el acontecimiento A se prod'uica nios -d.e,
k 'veces. Entonces se obtiene
11. - 1

h-1

m.-0

ma-0

Rt,,.=1- ~ Pm,n=1- ~ C~pc/-m,

(1.4.3)

En particular, esta frmula ofrece l a siguiente expresin de 111 probabilidad de que nparezca por lo menos un acon tecimiento A:
R 1 , n = i - q".
(1.4.4)
Esta frmula puede ser tambin obten ida co11 facilidad directamente observando que la probabilidad de no producirse el acontecimiento A al realizar n experimentos es igual A cn segn el teorema
de multiplicacin de las probabilidades de acoo tecimientos independientes. La probabilidad de suceder el acontecimiento A una vei,
por lo menos, como la probabilidad del acontecimiento contrndictorio a la 110 produccin de aqul, se determin11 restando q" de la
unidad.
Es evidente que l a suma de todas l as probabilidades P ,. , "
(m = O, 1, ... , n) es igual a la unidad, como suma de proba bilidades de los acontecimientos incompatibles que forman un gru po
completo. Esta tesis puede ser tambin demostrada ohservando
que la suma de todas las e.xpresiones (1.4.1), segn la frmula del
q)" = 1".
binomio de Newton, es igual a (p

Ejc'mplo f .4.1. La moneda se arroja seis voces-. Hallur ln probabilidntl


<fo que el ~seudo salg11 dos veces por lo menos.
Designemos por A la !ald del e..:udo al lanzar la ruoueda uno sola vez.
Entonces P (A} = p
0,5 y 'I = 1 - p = 0,5. La probeb ilidad de un acon
t.ttlrniento A nn meaos de doa veces al efectuar !<lis lanzomiento!', se ukula
por la f6rmul& (l.4.3)
57

Ri, "" t-C:pOq-qpq= M.

Ejemp lo 1.4.2. La probabilidad del fallo de un &iet ema automtico duronto


cierto Interva lo de t iempo es Igual B O,!. Hallar la probabilidad del lallo d~
tres sist emas exact8lllel!te de los diez que ~e encuentran en explotacin. Hallar
la probabilidad de que uno de los diez sistemas, por lo menos, funcione bien.

38

Cap. 1 Probabilidad de un acontecimiento

Sea el acontecimiento A el Callo de uo sistema e.xamioado por .separado .


O,f , q = t - p = 0,9. La probabilidad del
Se11n los datos P (,t) = p
faJlo do m = 3 sist~mo.s de n = 10 en explot11el60, do acuerdo eon la f6romla (1.4.2) es gual a

P3 ,

1o= Cf0p8q7=

3~;, O,i0,9

~ 0,057.

Aloorn hallemos la p1obabilidad de que, por lo menos, uno de los diez si~te mas

funciona bi en. Por la frmula (1.4.4) es fcil hallar (considerando como 11contecimle1.1to A el funcionamiento sin fallos del sist.ema)
R1 , 1o=f- 0,110 = 0,9999999999.
Ejt'mplo t .4 .3. La probabilidad del fallo de un elemento det.erminado del
sistema es igual a p = 0,05. Par:1 aumentar la fiabilidad del sistema, en sLe,
en vez do uno, se han Introducido 'n
5 elementos semejantes que funcionan
simultncnmentc. Con ell o, el sist.oma se estropea slo on et caso en que faHe n
tollos los cinco elementos. Hallar Ja probabilidad P do que el sistema unclo ne
sin fallos.
La probabilidad de que fallon todos los cinco"elexnentos es igual a p' =
.,. 3, 125 10-7 Por consigui ente, la probabilidad do que el sistema luncooo
sin fallos ser P = 1 - 3,125- t0-7 ""0,9999997.

CAPITULO 2

Magnitudes aleatorias

-:2. f. Funcin de distribucin y dcsidail.


<le una magnitud aleatoria
:d .

de

J!Tobilliilldad
.

':'. En el 1.2 vimo!:! que de caracterstica experimental de una mag.


nitud aleatoria puede servir su iunein-estadstica de distribucin:
Conociendo la funcin estadstica de distri bucin de una magnitud
11leatoria X, se pueden hallar las frecuencias con que sus valores
se encuentra11 en diferentes intervalos del eje numrico. De modo anlogo, en calidad de caracterstica terica de una magnitud aleatoria
X, no relacionada con la r ealizacin de e~ptirimentos cualesquiera,
se puede tomar la J>robabilidad de cumplirse la desigualdad X < x
considerada como fnncin de la varill'qle x:

Ji (x) = P {X

<

(2.1.1)

x).

Est11 funcin se llama funcin de distribucin de la magnitud aleatoria X.


Ejemplo 2.1.1. Hallar la funcin de dis\_l'lbucin del nmer< de VCC9$ que
se prtltlucc un aco11tecirui~.11t<l A al realizar n experimt)ntos indepcndiontos co
lal1 mismas condicion~s.
Es evident.e quE> el nmero ele vo.:os X que sucede el acout.ocimiento A
al realizar ,. 11uebas es una magnitud aleatoria, que, romo resuhado de un
experimeuto compl ej<) consistente en rz pruebas elementales, toma uno de Iros
valores polSiblcs O, t , 2 . . .. , n . La probabilidad de q_ue esta magnitud aleatoria
tome el valor m en el ca~o en cuestin se expresa por la frmula (t.4.t) deducida
en el prrafo anterior. Supong11mos t\hora que x es una variable qu e varia en los
lmites (-oo, oo). Para todos los valores negativos de :i: y siendo x ~ O, la
probabilidad de que el nmero de veces que sucede el ac>0tocimiento A se-a
W(>nor que z e, evidentemente, igual a cero. Si O< x ~ t, la probabilidad de
que el nmoro do ves que ocurre el aconteeimien\o A S()a me1wr que x rup1esenla la probabilidad de que el acontecimiento A no suceda ni una 'l<1la vez,
u decir, es igual a P 0 , n Y en general, si k < z ~ k
1, la 1robabilido.d de
qur. el nmero de veces que se produce el acontecimiento A sea menor que z
no es ms que la probabilidad de que el acontecimiento A o no ocurra ni una
~la vez, o aparezca una Rol a vez, etc., o suceda Je veces, es decir, equivale a

~ Pm,n (k
m=O

= i,

.. ., u - 1). Y, por fin, si z

>

n, la clesigualdad X<"

representa un acontedmicnto ciert.o y su probabilidad es igual a la unidad.


Pe este modo, h. funcin de distribucin del nmero de veces que ocurre el
acontec.imiento al realizar n pruebas independientes, en las mismas condldono$,

40

al~atnrtas

Cap. 2 Magnitudes

se det.orrnina pc>r l11 frmula

F (x) = {

Ctpnqn-m

si x<O,
si k <x ,,:;:: k-\-1

tn=O

(k=O, 1 . . . , n- I),

si

(~.U )

x> n.

1:11 la fig. 2.J.1 so muestra el grfko de esta funcin dr. distrihvciu para
el cu;;o ('ll que n
5, p
0,95.

En el ejemplo examinado los valores posibles <le la magnitud


aleatoria forman un conjunto discreto y precisamente es. el conjunto
de todos los nmeros enteros desde
f(X)
O hasta n. La magnitud al eatoria
cuyo conjunto de valores posibles
.
1
1
es discreto se denomina discontinua
1
o discreta. La funcin de <listribti........--tf
,..,
cin de u na magnitud aleatori a
;--; l i
discreta se determina por com pieto
1
\
:
1
por sus valores posibles y las pro;--t1 11 11 ,'
babilidades de estos valores. En
2
s / 5 z: efecto, si X es una magnitud aleao
Fig. 2.1.t.
toria discreta cuyos valores posibles, numerados en orden de crecimiento, son iguales ax., ... , Xn, y las probabilidades de estos
valores equivalen correspondientemente a:
(2.1.3)
( = 1, . . . , n),
P (X =X;) =Pi

' ----------------r--

entouces, la funcin de distri bucin de la magnitud a leatoria X se


determina por Ja frmu la
F(x)= ~ p1 ,

(2.U)

X<"'~

donde la desigualdad. bajo el signo de suma indica que la adicin


se' efecta toman.do to~o:;; los valores del JJ.dice p;ira; los cua1es se
~u.m.ple ,est1l, .de&.i!W<1!dad.. Cqn otras pala.bras, c.ualquie_ra qe sea
e.LY:a.lor.\,d.e~-Zda: funcin:, de. distribucin es igu al a la suma de pro"

li.~.P.!Y~~~es'~lt~4;~s.:lo~ ~~1.?.r~ :x(d~: 11;t'. in1;t~i;iitua ~.leatori a

;r ni,eno-

. ~~~. !l~,e:;~:. Jf~,:,~y~q;~,n,to., que' ~~:.tdi,l ~re.c.er! .se)~ace ~g.ual:~J;.1+to e.ntou-.


~~~s~h~.!J..rneQ: ~.e Jos v.a.lor:.es.. 'fL-.m epores. que x:queda. mvartable-;
es:d~cir.,:laduncin:de dis&ri:bucin F"-(:r-) t iene en el pnt o x = Xi+i
el~fuismovalO:r qu~ p1i'a,toda i en e!'ii:tterv,alo-.r1 < ~ < -X;+ 1 Si x
il'can:La tn \r'for 'm ayor "de X~, entonces' la' fuucin d-e di'stribucin
l!,U1Ile1,1t" :(!.!l.!t o e~ la m.gnit1J,IJ!.p 1'H Y,or consiguiente, el valor d~
la funci6J.1 de ~istribucin, en el pu nto de .d iscontinuidad es igual
(s J:a~~f~ ~ tf'iz,~'liefa~ A~ ~ie 'i?JJ~t~, o se_a.; .1.a runci?n. 9e dist ribt!cil\ ~ CQrtinua a 1. zq:ui~:otj.a:. E;n la .fig. 2.1.1'. Jos v.a lores de

ae

.~

2.J. Funct6n qe di.flribucf.fm de.nsidad. dt probabilld{ld

41

11! Juncin de distribucin in los puntos de discoqtinuid1;1d~,est~n


indiPa,do&-. por . puntos gruesos. ..
..
.
. ... : , .. .
. '. . Exa)Dinemgs . ahora :d ils prq.pied~des generales.-de. 18;.,func.i.ri. d.e.
d~stribuc!4n d~ un~ mf!gntup, alaa:tori cu4lq'\liei:a. .Igual que,,~9,d"
ptpbabilidad, la funcin de distrib~lein~no puedo ser. .negati~a; '.!t
ser. muyor que la unidad:
. ,.

D ~ F (x) ::;;;:l.
(2~t.5}

.
Luego, cualesquiera que sean a; y ~. a < ~. para cumplir la
desigualdad X<~ .es !'lecesa.r.io y sufi~iente que sea X < .o. ().
.;a ::;;; X < ~. Con:io 'los acontecimientos X < (i. y a::;;; X < ~ son.
.i13compatibles, entonces; segn el principio de adi~in de pr~balii-.
~~~

P (X

<

~)

=P

(X

<

a.)

+P

(ct ~

x< f.

De aqu, basndose en la definicin (2. t.1) lle la funcin de distribucin, sigue la ig11al<lad

(a~ X<~) =

(~)

- F (<t).

(2.f.6)

De este modo, la probabilidad de que el valor de la magnitud aleatoria se encnentre en el segmento (a.~). del eje numrico, o en su extremo
izquietdo, es igual al incrernenio de la funcin de distrib11cin en
este segmento.
Puesto que la probabilidad no puede ser negativa, entonces
cuale!!quiera que sean a y ~. a.<~; la magnitud F (a) no puede
ser mayor que F (~). Con otras palabras, la funcin de distribucin
es una funcin no decrecinte.
Tomemos ahora una succ.'!in indcfinidamentocrecicntc de los valo.
res xi, x~, . ., x,. ... rl'e la v11ri11ble il:, 1im x,. = oo. Los valores

........

respectivos de la runcip. de distril1ud611P(x1),1"(x2 ), ., P (x,.), . ..


forman una suce~in no decreciente de nnieros cuyo lmite superior e::i
la unidad. Del .Anli.sis Matemtico .so sabe que tal sucesin siempre
tiene lmite. Por otro lado, si todos los valores posible::i tle la mngnitud aleatoria X son finitos, entonces, siendo Xn lo suficiente gran1le,
la probabilidad, de l a desigualdad X < Xn ser lo prxima que se
quiera :i la uni<larl. Por lo tanto, el lmite de la magnitud F (x,,),
pra x,. - oo, no puede ser distinto de la unidad. De este modo,
hemos ilomostra<lo quo
F(oo)==lmF(x)=t
(2.t.7}

,,,_"'

De modo anlogo se demuestra qnll


(2.1.8}
-~
Si :i.:1 , . ., x,,, ... es unn sucesin creciente arbitrnria de los
valores de Ja variable x qu.e converge a algn valor de x 0 , lim x 0 = :i.:0 ,
F(-oo)= lm}'(x)=O.

n-eo

Cnp. !! Magniludn
~nLonccs

4l~ntortos

todo valor posible de la magnil11d ale11toria X, menor que

x 0 , pertenece a uno ele los intervalos x,, ~ x < x,,.. 1 Por consiguien'te. el acontecimiento X < x 0 no es ms que la sumo de un: conjunto
numernble de ac1>ntecimientos incomntibles X < :rlt x 1 :::;;; X <
<Xi, .. ., xh ~ X < x~+ 1 . . . Sogn el pr1\cipio de adicin
<te prob11hilida1lcs

P (X< ~0) = l' (X< x,) +

..

L. l' (x1,.,,;. X <


..,11= \

Xh.i) o bilm

F (:r-0) = F (x,) + ~ [F (x.,.1) - F (x,,)J.

DI.! este modo, In serie del miembr o dcroel 10 dtl In igualdad obte11irtn converge y su suma es igual a F (x 0). Puro la suma de los n
primeros trminos de esh1 i;eric es igual a F (x,.):
n- 1

F (:i:,) + ~ F (xkH)- F (x1,)I =


lt-t

= /t'(x,)+ IF (:ri) -F (..1:1)1 + .. + lf (x,,) -

F (Xn-1)1 = F (x,, ).

Por lo t onto,
lm F (:en)= F (Xo)
n-+ ..

y si la magnitud x 0 - x,. os Jo suficiente poq11eia, la di!erenciA


F (x 0) - F (x,.) ser~ tan pequea como se quiera.
Do este mod,o, la funcin de distribucin es co11ti11ua a la hquicrda y su \'alor en todo punto es ig11al al lmite de su vnlor a la izquierda
~le este punto.
Pasemos ahora al lmite en la Jgualdad (2.1.6) cuando ~ -+ a.
En este caso, el intervalo (a, ~) converge al punto a y obtendrem0$
P(X=a)=F(a+O)-F(a),
(2.1.9)
-donde F (a+ O) es, como siempre, lm fl (a+ l e 1). De este modo,
l a, p~i:i~aQil.id~d..

t-......O

de quo la 11111gnitud aleatoria X to me el valor. a es


"iral ,l,'salfo de . su fUJ1ci6n de distri'buci6n en el punto a. $i lu
- 1\lnc'n : ll,~~ disttibciQo es contit~ua en el punto a, la probabflidad
<1.9' ?fue1a.JPl!gn'itud aleatori a tome el valor a es igual ~ro. Estas
tesis se ilwiiran claramente en el ejemplo 2.1.1 examinado ms
~tri ba.

s la funcin de dislrib11cin de una magnitud aleatoria X es


continua para todos los valores de :z;, entonces la probabilidad de
C~~Jquiera de sus valores posibles es igual a cero. A primera v'ista
-estafdeduccin es contradictoria: como resultado de una prueba la
111~gpit'!d , aleatoria tpl)la, ~bliga,t.oriamen.te cierto valor y al olismo
Uempo ra.probabilidad de que sta to.me cualqu ier vafor asignado
de antemano es igual a cero. En realidad, aqu no hay ningun a con-

2 .1 . F1111cl611 de d l1trll>uci11 y de!lsldad de prolJafl ijidaf! .

.43

"tr11diccin. En el i.3 ya se1ialamos que un acootecil'.)lieok]l(!sibl'e


puede tener la probabilidad igual a cero. En el caso en :.custin ,
.si a es un valor posible de la magnitd ~leatori a 'X' y i;q 'fU:.!?i~
de distribucin es continua en todo el eje numrico, la ig~ldad
X "= a es un acontecirnieot o posible cuya proba}>ilidad es igual
.i. cero. Esto solamente quiere decfr. que. al ser muy grande el nmero
d e exper imentos, .s er i;nuy raro que la maguitud aleatori;;i X tome
1 valor dado a, as que la frecueo. Fo ,
~ia de este. valor tend r la t en
";
-- --~--~-dencia de apr oxi marse a cero.
Dado que la .ptol:iabilidad de la
~
1
.igualdnd X = a, en el caso de una
!' 1i 1'
funcin continua de distribucin,
1
1
es ig ual a cero, entonces la fr11
1'
mul a (2.1.6) puede ser escrita en
1
1
l a forma
'
1
P (o < X < ~) = F ( ~) - F (a),
Fig. 2.1.2.
(2.1.10)
A base de las propiedades estudiadas de la funcin <le distribucin, se puede teneI" una idea del carcter general do l a curva que la
reflej a. Una vista aproximada de tal curva se muestra en la fig. 2.1.2.
A c11usa de que, al ser cntinua la funcin de distribucin, 111
probabilidad de cada valor de una magnitud aleatoria, tomado por
separatlo, es igual 11 cero, dicha magnitud no puede ser caracterizada.
en este caso, por las probabilidades de sus valores. P or eso, surge
la pregunta: CJHo se .determina si es o no el nmero dado x un
,alor posible de la magnitud a leatoria , y se puede o no revelar cull's
de sus valores son ms probables y cules menos probables? Se
puede contestar a esta pregunta sus~ituyendo los puntos del eje
numrico por intervalos pcqu.eos correspondientes. Sl1pongamos que
tJ.x e~ un intervalo i nfini tesimal. Entonces la probabilidad de que
la m11gnitucl aleatorin X t orne un valor comprendido entre x y x +
+ ax puede servir de medida prctica de la posibilidad del valor
d ado de x. En este caso es conveniente dividir esta probabilidad por
Ax. Ahora bien , llegamo.s a l a nocin de la densidad de probabilidad. Se llama densidad de probabilidad de una magnit\ld aleatorin
X al limite de l a relacin e.le la probabilidad de l a desigualdad
x~ X< x
tu a la magnitud tJ.x cuando ax -+O:

l'
f( x ) -- ~o

P(x.,;; X

< :r+6x)

t.x

(2.1.1 1)

Si l a densidad de probabilidad de una magnitud aleatoria X en el


pun to x es distinta de cero, entonces :x e.s un valor posible de dicha
magni t ud. Si la densidad de probabilidad en el punto x 1 es mayor

Cap. ll ilfa11nitudt1 11a.torlas

que en el punto .z1 , se pued.e decir que el valor x 1 de la ma.gnitud aleatoria X es ms probable que el valor .z1
Expresando la probabilidad en (2.1. H } por la C6rmula (2.1.li),
obtendremos
(2.1.12}
De esle modo, In densidad de probabilidad de una magnitud aleatoria es ignnl a la derivada de su funcin de distribucit1.
De la defin icin (2.1.H) se deduce directamente la primern propieclad fnnd11mcnlal de la densidad de probabilidad: la densidad
lle probabli1lad de una magnitud aleatoria es una funcin no negat.iv11
(2.1.13)
1 (.:r} ~o .
In tegrando la frmula (2. 1.12) y teniendo en cuenta (2.1.8), obtendremos la expresin de la fun cin de distribucin de una magoitult
alentorin en funcin de su densidad de probabilidad :
X

F (x} =

Jf (x) d.z.

(2.1. 14)

Suponiendo que aq u x - oo y t eniendo en consideracin (2.1. 7),


obtendremos la segunda propiedad fundamental de la densidad de
probabilidad
00

j (x) ~ =

t.

(2.1.'1 5)

De los frmulas (2.1.10} y (2.1.12) se deduce que la probabilidad de que l a magnitud aleatoria X tome el valor comprendido
entre a y B es igual a la integral de
su densidad de probabilidad tomad&
en los limites de a a P:
ti

P (q. <.X < .P} =

~ ! <~> dx.

(2. t.16)

a.

Flg.' 2.1".8.

ET sentido geomtrico tl esta frmula


es .evidente. La probal>ilida d de que
el valor de la magnitud' a"leatotia X se encuent re en el segmento
"(lq.do (a, p) es igual al rea--.cle la figuro limi ta.d a por arriba por lo
c1irva q ue refleja l a densida4, de probo-bllidad, por abajo por el eje
de abscisas y por los lados, por las rectas x = a y x = p (fig. 2.1.3).
La .igualdad. ~2.i.15) indica, que. toda el rea limitada. por la cpna
que representa lll.! densidad de probabilidad y por eje .de l!bsci.sas
es, igual a la unidad.

~~

2.1. Punct611 tk dl.tlrlbucl61t' v "dtn$Ulad de probabilidad

45

La magnitud f (.z.) dz representa, co n una eJi:acfitud de hasta


'iofioitesiinales de orden superior, la probabilidad de q'Uet>la magn_i-
dz). De acuei:do
tud aleatoria X tome el valor en el intervalo (z, x
~on l a terminologa adoptada en el aolisis esta magnitud se llama
~lemento de probabldad.
La funci n de distl'ibucin de u.na magnitud aleatoria, o su densidad efe probabiiidad, 0 el CO!ljWllO de V!l(Ores -posibles de Una magnitud alea.t.oria discreta y las probabj]id ade~ de los misroosso11 dife~ntes formas de e-'!'.prosin de la ley de distribucin de dich~ magit.ud. La ley de dtstribuci6n., o sea la di$trlbuci6 de probabilidads de

1
1

1
1

1
1

1
1

a
Fi. 2.1.4.

()

b
Fig. 2.1.S.

.r

uno magnitud aleatoria es u.na caracterstica completa de la mism;i ,


qu e determina sus valores posibles y permite comparar l as probaliilillades de stos.
Una de Jas mcs diiundidas leyes de distribucin de magnitudes
aleaLorilll! es la ley normal de distribucin {Ley de Gauss) para la
eual la densidad dP probabilidad se determina por l a frmula
(x - a>

t
/(z) = --=-e~.
(2.1.17)
o V2:r
Esta ley de distribu cin ser examinada en el 2.5. All mismo, en
la fig. 2.5.1, se da el grfico de l a densidad normal de probabilid ad
(2.1.17).
La distribucin de probabilidades para la cual la denshlad do probabilidad es constante eo el intervalo (a, L) y es igual a cero rucr3
de este intervalo se llama unif<>rme. La densidad analtica de prob11bilidad de una mag nit.u d aleatoria uniformemente distr ib11id1.1 se
expresa p or la frmula

! (z) = < l O

si a< x<b,

(2.1.18)

si~<aysiz>b.
EJ grfico de esta den.!!idad se muestra en la fig. 2.1.4. Los valores
dl! la densidad de probabilidad eo los puntos rle discontinui dad
pueden ser tomados arbitrariament.e, puesto que no inrinyen en las

41i

Cap. 2 M,,Jlnilrus akn.torla1

intcgrolei< de la forma (2.1.10). Aplicando la fr mula'(2.1.14), hallamos con facilidad la funcin de distr ibucin ele unn! inagoitud aleatori a X uniformemente distribuida:

F(x)={ z~a

si

:r< a,

b- o.

si

ci<x<b,

si

x> b.

(2.J.1tl)

En 111 :fig. 2.1.5 se da el grfico de est a funcin de distri bucin.


Ln clis tribuciitn d6 probabilidades pa1a la cual l a densidacl ele
)l l'Oh11bilidad se t>l.crmina por l a frmula
1

= { 2h~.i;e-h2.,,

/( )

Si X> 0,

si x<O,

(2. 1. 20~

se llama de Ray/egh. El grfico de la densidad de probabilida d


p;ira la ley de Rnyleigb se presenta en la Iig. 2. 1.6.

r
Fig. 2.1 .ti.

Fig. 2.i.7.

Susiituyeudo la expresi n de la dens.iclod de probabilidad eni


la frmula (2.1 .14), hallamos la funcin de distribucin de UJla
magnitud aleatoria X repartida segn la ley <le Rayleigh
X

1
xe-hix d.x=1-e - 1x' si x>O.
(2.1.21}
o
Si x < O, osta funcin de distribucin es igual a cero. E l grfict>
de l a funcin de distribucin para l a lay de R ayleigh se muestra
eft la fig. 2.1.7.
.
La ley de distr ibucin a la cual corresponden la densidad de probabilidad y l a funcin de distribucin
f (x) = ke-h, P (x) = 1 - e-b si x >O,
(2.1.22)

F(x)=2h2

se denomina exponencial.

.~ :!.J. Funrin dt.t 1Jii~tril11.u:ltm. y <ltm ..;iciacl dtt probabitirlad

'1

U11a gcncralizai;in cvicntc de fos Jc_ycs d e dis tribudn cxpout:1ncial y ele f1yleigh es fa ley <lo disLr.ilrncin para la cual la funcin do
distribucin y l<l <leusidnd rle distri11ucin se determinan 1>01 l;is fr-

mulas
F(x)=i -e- 11" 1' ,

f(x)=nkx 11 -le- ""n si x>O .

(2.1.23)

J~sla ley de d istribu cin f11e aplicatla por primera vez a los probliimas
tle Ja ircLica por Weilou ll. l!:n el cuso 1rn1ticular, cuando n = 1.,
Ja ley de vVcibulJ so trnu~forma en ex poucncial. Cuando n = 2,
la ley de Weibull 110 es ms que la tle distri bucin de Raylcign.

.;,;emplo 2 .1.2. l<;n la t!orn de liabilid:tcl de lo~ dispositivos autom&ticos~


la fiaL ili1lnd do un elemcnl<> n <I' ur1 s istorn11 so caracteri za por la llamada intenstda<l rimliu tle fallos~ (1), l~ cual npr1isc11t.n una funcin do tiornpo tal, qu&
~i~u\lo rn ul tiplfoada por dt, ofrccr: (con cxnc.titud d~ lnfinitSimales de orden
sup,,ri<>r) la irobal>ilida<I cundidnu al d,-,1 fallo dul olemenl<> en el intorv~lo de
Ucmpu (t, 1
rlt}, ~uponiendo 1poe hnRLH el mt>mento t el elemento funcionaba
norrnri lrncnw. r.m1<r\i1<11d< la fuflc.i6 11 1, (t), ~e pucrlr, ltall~r la 1,,Y fo distJ>bucill
110 la d urni;i 11 del sorvicio.
Jl ;ua Jiall nr la ley do di~lri bud611 tlo la d uracin de ;crvicio del elemento
examinemos dos acontcci m iont.os: A (buen f11ncinnamiento del olemcnto hasta
cl momento 1) y B (follo del elNoe1110 en el iutervaln ile tiempo (t, t
dt)).
l>s ovitlente que el ncontccimiorito B 110 ruedo suceder s iM iunto con el acoolncimento A. por quo o! elemento puede fallar en ol hohirvalo de tiempo (1, t
dt}
s11lamcnLc 011 pj e.ase) de fundrnrnl' hie.11 lta~tu el rnornenlo 1. Por eso l' (lJ) =
= P (A 8). y bnsnd onn~ en " prinripio de mnltiplicac.in de probabilidades.
podomns P.scrihlr
/> (8) = P (11) P (O I A).
(:U.24)

r.

+
+

lJesgOC1l>OS las funciones i11rg11itas ilo distribucin y la rfo.nsidad de prnbabi


li<l af el e la <lurae.in ''"servir.fo ele! (llemonto T jOr P (t) y f (1) res poctivnmente.
!,n pr<>h>tliili<ln<l del acontP.c.imiet<> B ~s igual , <:.on exactitud hasta iofnitr>simnlcs d1) ~egufio ordcu, al .,lomcJttto de probabilidad corrospon<licnt.e:
P (JJ) ;; P (1

<

<

+ dt) =

f (1) dt = F (t) dt.

La probablidacl del aroutcc.in1icnto A se exprnsa 1or medio de la Cunc.iu el<>


tl!slrihnci6n de l a duraci n ele servicio del elemc11lo T :

l' (A)= f' (T ~ 1) = 1 -

P (1'

<

t) = 'l -

F (t).

J1or fin, l:i probabilitlnd cornlido11al /' (B 1 A) !'<i ()Xprcsa Jl(>r la int.eo;ldarl mcdin
tle fallos del elomeuto ;, (/):
!' (0 1A) = A. (t.) dt.
, Sutituyendo las expresio11es ohtcnidas en la frmula (2.1.2.t.), obtt>udremo~.
'-.~~.!ipus d& dividir nmhos miembros por dt, la ec.uacin diferencial para la fun: ~i6ji de distrihucill F (t):
.

P' (t)=[1 -F(t)J7'(t).

(2.1.25)

.. De.do que 111 duracin de s.i1vici<> del el~ment.o n1> puede ~e.r negativo, o\ acnntecim\ento T <O 1roposib\o y, por lo tanto F (O)= O.
1ntegrnnd<> la ~1111cln d'1ferenc.lal (2.t .Z5}, con in condic.ilm inicial do Q,tll>
F (0) =
hnllanms In funcin ile distr-ibucin d~ l a durad6n do Sll'Viclo dt'l

Ca/>. :! Alttt111/utlu alrn turias


(1l1:menLo:

F(l}=l-cst> { -

(:t. L211)

,. (l)dt}.

o
lle ;ttul, por <leri\'ticin, hallamos In dl'llSillnd de prfllJ11b1lidad dr la 1htruc i11
de surv ic.io del elernon Lo:
1

f (t)=f. (t}cxp { -

' (1)

dJ}.

(:t.1.27

o
J-:n rJ ~""" parlicular, ele qui:> Ju 11Lo11s 1dn1! de !olio~>. (IJ = A ~en
las irmulns (2 .1.26l y (2. 1.27), toman la forma
P(I)= l -e1",

f (1)=1.e-~ 1

~Ou.>La nlc

(2,1.28)

De cs~o 111odo, siendo consta nte la i1M11Riil acl de fallos>., la duracin do servicit1
de 110 ~l nmeuLo est. subordinada a la ley C'C.poueneinl da distribucin, lo q ue
explica el gran papel que dic ha ley desem pea en la t eora de !iablidad Je los
sist.ornns automticos .
Ejrmplo 2.1.S. Para los mismos Jalo~ del ejemplo unwrior, hnllar Is woliahilidd condicional de quo el cfomenW rnllc 011 ol lnt.crvo.lo de t.iornpo (ti. 11)
s11ponien1lo que funciono bien hast1< el 1oornento 11
~xam11omos dos aeontecimcntos: A (ol n11cionarnionw nnrmal d el elc111ot1lo hasta el mnmenLo 11). B (el fallo 1lel elemento ou el oter\alo de ticmpf>
(/1. 11 )). VAli6ndoMS de la formula (2.1.lll) obtend remos
P (O) P (t1 < T < t~) = ~- (lz) - I' (l1J
(:1.. 1.29
(Z.1.30
P (A}= P (T;;;, 11) = 1 - l' (1' < 11) ~ 1 - F (1, ).

Sustitu yc111lo estas exiresionus en la f6rmu l;i (2. t.24) y t<>rnurH)u '"' rucnl.n que
en el ca: dado el acont.ccimienw IJ no iuedu producirse sino junto con el ar.onlcdmicnto A, hallaremos l a probabilidad huscadu de 1uc ralle "' elemouto en el
i11t.crvalo do tiempo (1,. t,) a coadici6n Je tuo hasta el momento 11 haya funcionado bien:
P(D ) A}=P (ADJ= P(B) ~ F (1,)- JI (11)
(Z. l.1ll )
P(A)

P (A}

t-F(to)

S ustitu yendo arul la exprnsin (2. t.2B) flr:t fa fuuci6n d.u


rtblcud rcmos de!initvameoLo

,,

P(0 ( .4)=1.-oxp { - .1 l.(!}dt} .

di~tril.111c.in

'. JI (1)

(2 .!.32)

11

'En ol cn!o iatti~ular, en qu~ la i11te115i<J11d 1lc fallos ), us <;OILtante, la su.stitn-cin de la cxpr~o de la fuucin de d1 >tribuciii11 de (2. l .28) (n la frmula (2.1.29)
ofrece l a siguiente f6rwula para la prubxbilidatl do que fulle el olcment-0 en
.el intervalo de tiempo (t., 12):
P(B) =e-'l.1t-e-'l.1 .
(2.Ui'.3)
La ~ustitucin de Ja expresin (2.-1. 28) para la funcin 1lt 1li~tri l1ocin en (2.1.:11
olrece la siguiente Crmula para la prohal>ilidad condicional de que falle el
-elemenLo en ni intervalo do tiempo (li. 1.) a condicin de que hasta ~1 runmcnlo
~ haya fu ncionado bien:

P (BIA}= 1-c-w, - 1,).

(2.1.::V.)

.~

I!.:?. 11plic<1eLh11 de las frmdo11t1 lmp1Jbtr:as

49

2.2. Apllc11cln de las funciones impulsivas


y generalizl\cln ele la nocin de Ja densidad
de probnbilldad
La frmula (2.1. 12) muestra que, seg n la definicin comn de
la derivada, Ja densidad de probabilidad exisle solamente en las
magniludcs aleatorias cuyas funciones de di stribucin son continuos y tienen las primeras derivadas continuas por intervalos en.
todo el eje numrico. T ales magnitudes aleatori as se denom inan
co11t1nruis. Desde este punto de visto, por ejemplo, las magni ~ud es
aleatorias discontinuas (discretas) no
11
poseen densidacl de probabilidad. Sin
e1nba"tgo, desdo el punto de vista prctico
c.onvi tine ampli11r el cone-0pto de densidad
<lo probabilidad do tal modo que sto
!I

Fig. 2.2.2.

Fi. 2.2.1,

nwtla i<er ex wmliclo

11

cua lesquiera mognHudois aleatorius que lle

encuentren en los prohlemas prcticos. Parn aclarar e l modo de


hacerlo , observemos que desde el punto Je v i~ta prctico se puede
considerar que la funcin de d istribucin de 11011 magnitud nlcatoria
discontinua (de cuyo ejemplo puede servir la curva escalonada de
lo fig. 2.1.1) ticoo la 11inivada igual a cero por doquier, a excepcin
de lo 11111to!I X , , Xn o igual al infinito en los puntos X,
. . .' x,.. ~o obstant-e, en virtud d(' los rrinulas (2.1.9) y (2.1.1)
la ntl'gro l de esla derivada en un intervalo, todo lo pequeo que
se qniera, que conti<'no ol punto
(y que 110 cont iene otros pu ntos
x 1) debe oq nivaler a p" . La funcin quo posee tales propiedades se
pnede construir sirv indose de la nocin sobro In fnncin tleltn irn111l1<iva, i11trod11cido por primer vez por el fam oso rsico ingl6s Dirac.
Se ll 111r1a funci61i de.lta impulsiva do Dirnc n la funcin que os
i,c:ual 11 cero por doquier, snl vo el origen de coordanndas donde sta
tomA nn v11lor iofinit.o de modo que su intcgrnl , on c1111lquie1 i11tervalo quo contieno el origen de coordenadas, e~ igual n la unidad:
6 (x) ~O si x =fo O,
1

x,.

<'>_(O)= OO.
~

) ,< (x) cl.r

=1

para cualqu icr

f'

> .

(2.2.1)

~
Para <Jte, toniendo Cll cuonta la tl1>rinici n adoptada ('.L 1 .1)
do lit funcin de distribucin, se pueda usar la funciu delta co
lo que toca ;~ la derivacin de las furn~iones 1le distribucin disconti11ut1s, es necesario snbol'di1111rlu a una coHd iciu complc111entaria.
o
e
&(:t)dx = O,
6(x)d.x=1 parn cualquier e>O. (2.2.2.)

-t'.

La funciu que posee tales propiedades puodo ser obte11ida, por ejemplo. como lmite de un impulso rectangu lar posi~ivo del .rea 1wi~aria
cu11ndo la duracin de oste impulso tionde a cero (2.2.1). Es toda vfo
ms cmodo definir la funcin delta co mo lmite de la densidad
exponencial lle probabilidad si k-+ oo [vanse las !rmulas (2.1.22 )1
(fi~. 2.2.2):
(~)= \ O s i x<O. .
(2.2.il)
6 11
/ kc-~"' S I .r :.' Q.
Es eviclentc que par11 cualquiera x "> O tlsta funcin tiende a C('fO
euam.lo k -+ oo . Si x <O, sta es igual a cero. Si x = O, dicha
funcin crece ilimitadamente cuando k - oo. Por fin, parn cualq 1iur
> O

.J

6~ (x)d.c = k

re-~"dx = i -e-"".

Cuoudo k - r oo estu oxpre~in tiend e a la nnidnd. De es te modo,


la funcin obtenida en el lmite para k-+ oo satisface tarnbi6n l ns
condiciones (2.2.2)
Ln propiedad fundamental de In funcin delta viene expresada
por la frmnln
~

t&

) qi (s)cS(:c- s)ds = ) cp{s)cS(s - x)Js=cp(x),


x- e

(2.2.4)

x- e

c ue es vlida p ara toda funci n continua <r> (x). Para convencernos


de esto, examinemos la integral
x+t

~- ~

<r(s)6i(:r:-s)d;=

Jq(x-t)6i(t)dt,
-e

donde por 61 (t) se desigua el impulso uni t ario rectangular mos trado
grficamente en la fig. 2.1.1. Es evidente que pura cualquier & > O
se puede tomar l < e. Entonces obtendremos
" l En c!ect-0. abriondo lu indeto1mi nncin
obtondromos

s~11in

la regla de L'HJJlal,

2.2. Aplieacln de las.Junclones

tmpu/.,~it,as

x+
) q>(s)61(x-s)ds=+

Jip(x-t)dt

x- t

o bien, aplicando el teorema de la media

x+e

qi(s)ll,(x - s)d~=+<>(x-0)

Jdt=cp(x-0).
U

X-&

a.onde a es cierto valor medio de ten el intervalo (O. l): O< 9 < l.
Al pasar al lmite, cuimdo l ->-O, la magnitud 0 tiende a cero y obtendremos
x+t

Jcp(s)6(x-s)~ = qi(x),

(4.2.!J)

x- P.

lo que demuestra precis<l1nente ol primer


miembro de la frmula (2.2.4). De modo
anlogo se demuestra su segundo miembro.
01
i
Puesto que la uocill su bi11 tegral en
(2.2.4) es igual a cero para todos los
Fig. Z. ~.3.
valores de
excepto = x, los lmites
de integracin se pueden ampliar arbitrariamente. Como re:mllado,
para todo intervalo (a, b) que contiene el punto x, a < x < b,
obtendremos

s,

j ~> (s)o(x-s>ds= .i qi(s)(s-x)ds = r(x).

(2.2.ll)

Observemos ahora !pJe la funcin delta puede ser consitleratln


como derivada de la funcin unidad escalonad11 1 (x) cue se determina por las iguuldadcs
O,
1 (X.)= {O si x
227

-<

X> .

< )

En la fig. 2.2.3 aparece el grfico de la funcin uHidncl escalonada.


Usondo la funcin delta impulsiva, se p\1ede determinar la
densidad do probabilidad para cual.csquiera mngnitudes aleatoriAs,
en particul ar, para las discontinuas. Es fcil comprender riue la
densidad do 1robabilidad do una magnitud nll'at.oria disconlinun X
con los posibles valores x 1 ., x 0 , cuyas probobilicl:ules cquivnlen
respectivamente a p 1 , p,., se expresa por la frmula
n

f(x)=

j p 1(.c-x 1) .

(2.2.R)

i=i

En cfcclo, esta funcin es igual a cero por doquier, Snlvo los punt1>s
, Xn, es infinita en los puntos x,, .. ., x 0 y su integnil en
el intervalo, todo lo pequeo que se quiero, que contiene 11n solo

X11

!,

Cap. 2 Magnftiulrs al~11lnr(lS

5Z

vn lor posible xh, es igual a p":


"k+a
"+a

J /(x)d.x =ph J 6(x-xh)dx=p1t

... - 8

{k=1, ... , n)

(2.2.0)

"h+

Si lu fuocin tle d isti-ib11cin lieno snllos iguales a p 1, . . . , p,.


e n los puntos x,, ... , Xn rospcctivnm cnte, y entl'e oHlOs rn111to~ es
continua, ento nces, rcslundo de <Jlla 1n expresin
n

l: p11 (x-x1),
1= 1
obtenJromos una funcin co nti11uu. Por eso, lu funcin rlo uistl'ibuci11 uc torln rn,,gnitud alealoria X. que Stl 1>0edo 011co111.rru:
en los problemas <le la prctica, puedo :ser reprt>scu Lorlo en fo forma

..

F(x)=Fi(x)+ 2)p11(x-x;),

(2.2.10)

1-1

1loudc P, {x) es n1111 funcin continua y p10 , p,,. los 8altns ue


F (x) en los puntos x 1, ., x,.. Con cllo, la luncin 1!' 1 (x) prcticamente siempre resulta ser difcrenciablll por i nter valos. Por tlSO,
dcri"ando la frmula (2.2.10) y teuicodo en cuenta que la dedvurla
de la funcin unidad cscnlonnda es una [uncin dcha, ol>Lendroinos
IRs iguiente llxpr~in do la densi<lacl de la probabilidad de cualquier
mngnilud aleatoria X:
/ (x) =/1 (x}

..

+ ,_,
~ p /3 (x-x;),
1

(:!.2.11)

douJe j 1 (x) es una [uncin cuya integral en cualquier intervalo


ininitcsimal es una magnitud infini tamen te peruoiin.
J.,a magnitud aleatoria cuya deu~hlacl de la probabilidad 10presentn In s orna de una funcin corrien te y <le la combinacin lineal
de funciones lldla pcrtonece a las magni!I
~udes a leatorias de tipo mixlo. Los ,alorcs
posibl.es de una inngni~nd aleatoria do tipo
mixto forman 11n co njunto continuo o vurios
conjuntos continuos sin elementos cornnncs.
z S in embargo, a diferencia de las magnH11dcs
a leatorias continuas, una magnitud a leatoria
Je tipo 1.oixto s iempre tiene un conjunto
discreto de posibles valores exclusivos cada
Fig. 2 .z. 4 .
uno U.e los cuales tiene uun probAbiltdnd
diferente do cero.
Eiemplo 2.2.L La seilal de entrada de u.n elcm~oto no lineal con uon 7.0m
limitada de linealidad (fig. 2.2.4) represontn uun magnihul aleatorill X di~tri
buidn 11niformemente Oll el intervalo - 2,5a < z < 'l,Sa. La se6al dr. snll,lo

S3

2.2. ApltrMl6n de los /urrcionu lmpi.L<lvo1

dol elemento est limitada, en valor absoluto, por el nmero a y es igunl a la


senlll de ontrada cuando osta ltima tieno el val or en los Hroito.q de (- a, a).
Hallar In ley de distribuci611 de fa ~eal do salida Y de dicho elemonto no lineal.
Segn la deflaicl6 11, l a funcin de distribucin de la mngnitud aloalorln

Y roprosonta la probahilidnd do cumplirse la desigu aldad Y< y, probabilidad


que se considGTa como funcin de y. Puesto que la seal de sal ida del elemento
no puede ser menor que -o, entonces, siendo ll < -a. s11 funcin de diski
buc16n P1 (y) es igual a cero. Comn la seal de salida del element o examinndo
e~ siempra menor quo a, eu louces, al ser y >a, su funcin de distribucin
F~ () os Igual a la nnidaI. lfo el intervalo -a< y< a la desigualdad Y < y
us nquivalcnte 3 la desiualdad X < v (flg. 2.2.4) y por eso

Fi(Y)=P (Y <y) = P (X <y)= 1"1 (y),


donde F 1 (y) es el valor 1!u la funcin 110 distribucin P1 (z) 1le In seal de ont r8da X cuando z = y. C:u virtud de la ftrmula (2. 1.19).

2 54
F1 (x)="+ si - 2,5a <z < l,fla.
-in
Por con.,iguiento,

r'~ (y) =~
y+Z,5a :O,I. - a < y

<

ll .

Do ~to modo, la funcin de db-tribucin <le la seal de ~nllda Y Jel


no lineal examinado llO 1loler1nlt111
por la lrmul:i
(!)
(
O
si Y'<-a
1

cl~m~nto

r,

2 5
Fd11) = J v+4al " s i

-11

<Y <a,

~ 11> a.

1
(2.Z.l2)
1
Esta funr.1n Liene s11ltos igu;1Jes a 3/8
1
y 1/8 en los puul.os = -a y y~ a.
'--~--~---...,..--'
1a
Za a Q,
a
?.a Ja !/
.E l g1Mico de esta Iv11ci11 npmeco en
la fig. Z.2.5.
Fig.
2.2.5.
J,a 1lonsidad de fa p1obabil idad de
la magnilud aleatoria Y os, cvirhmtem~nte, igual a cero cuamlo 1J < - a y cunnd<> v > a, y on el intervalo -a < v <
<o t iune ol ,alor wnst.nnw 11/oa. Los so lios de Ju (uncin de distribuci611. ,,,
a.:uerdo rnn la (6rruula (2.2. ti), dan una Cllmbinaci6n lineol de funciones dell.i
6 (/,1
a) y {l (y - a) con In~ c<rnficieute~ correspondieuLomont e iguales a 3. IS
y 1/8. Por lo tanto, l>t densidad de la irobaloilidad de la mugnitud aleatoria Y
se puede oxprcsm por la frmula

li (y) = 4 ll (u+a) - l (y-a) J+ 8 6 (!1+al +r <~(y-a) .

\:!.2.i::S)

no c~te modo, In magnitud aleatoria Y tione un conjunto 1liseonliouo <lo


posibles v~lnres que Uenan el inler,olu (-a, a} y, edcmil., , Uene dos valores
-a y a que tienen las probabilidades 3/8 y 1/8.
l>Jrm plo 2.2.2. Sef{n los rr.quisil.os, un sistema autorotko debo IAH1~r
la durac.i11 do S<>.rvfcio 10 S i durante est.e por odo do l.iompo el sistema fall1t,
ste so somete a In 1eparnci6n y vutllvo a omplear~o hnsta que sirva el pinzo la
Jlull ar In loy de tlistrlbucin Je) ti"rnpo ele funciouamicnto del sistema ilespus
de la pri n1cra reparacin S.

c~peciales

Cap. 2

Ma ~nllude.t

nfoatoriot

i.:s eviden!.c que la magnitud ul1at.oria S -.SL ligada


primer falln del sist<.'mn T por lu frmuln

S ""' {

10 -

c.011

el mowon11> Jet

T ~ to,

si T

<

10

S no puedo ser unn magnitud nfl!"nlivu. Por <.'S<J. cuando s,;;;; O, ln funcin de
d1striburin f'1 () de ln magnitud alcnt.orio S es i:u~I a cMo. Cunndo s > O.

t;(s)

--- - -------- ----1

1
1
1

1
1

. 1

eH1

-- .. ---"-- --

- ---'--------

fo

f"ig. 2.2.ll.

rila se e.xv1!1!a por la furocirt de distril,ucit.n .(t.) del moroonlrt dtli primer
fallo drl sist.<>ma T:
~, (s) = P (S < ) = /' (I~ - T < 1)
P ( 7'"> lo - s) = 1 - P (T < 10 - s) =

1-

/l (to -

r).

Suslitucndo R<ui la o.~rrcsirt (t. 1.2ti) propi~ u 111 funr.in de distribucin dn


la dur&cin del '!l'rvic10 ~n fallos dlI sistemn T, obtendremos
ta-
/lt(t) .,.. o.q { -

1.(t)dt} s i

il <<t0

(2.2.tr.)

Oe aqui se ve que cuan1lo .t - +o la furocin ele di~lribur.i6n dd tiempo de fnn


cionnmiento del sistemo despus do la primera repnracin S tieode n uu valor
tlisli nto do cero:

'"

1'1 ( +O) =e:<> { - \ 7. (1)

dt} .

l
Cu&ndo s .... 10 , la [uncin do distribucin ., (1) t iendo a la unidad. l)orivandn
la frmul:l (2.i .14) con rc~pecto n $')~colendo en cuenta 11ue F1 (s) - O, siendo

1.;;;;; O, ballaromos la dcnsidod de la probabilidad do la mngnitud aleatoria S:

l
I~

lo-

f($}=A.(t0-s)oxp { -

A.(t) dt } + 6 (}n.lp { -

i. (1) dt} .

En el cnso >articular cuando la intensidaJ de fallo! ;. (1)


las !rmula.s (2.2..14) y (2 .2.15) tornan la orm11
Fi(s)=e->.<lo-) si O <s ..;;10,

(2.2.1 5)

="- es constante,
(2 .2.16)
('.l.2.17)

2.2. Aplicacl11 de la1 /1mclonu Impulsivas

E11 las (igs. 2.2.G y 2.2. 7 su muestran l os grficos d e l a funcin do distribucin


y de la densidad de la probabilidad d<! Ju mngnitud a leatoria S. E.n la fig. 2.2.7
'!(' indica ron\oncionalmen le por la ilecbn vorticnl In funcin delta l> () co11toni da oo la expresin de la densidad de la pro
babilid od.
r./ (IJ
Vcnon~ qun el liompo de fnne.ionamionlo del
istemR S . llespus de la primera r~paraclll
hasl11 11 fin de la d urac in de servicio , reprcS<?11ta
11110 111ng11it11d aloatori1t rnixt:i quo ruentn co n
vnlorcs posl blos que llenan continuamonte el
i 111 cr\'nlo O < s <; t 0 y con un valor posible
~xdu sivo 1.,. O q ue poseo u na prob nbld nd - u
fo
s

distin ta

no cero.

Ejemplo 2 . 2.3. E u ~1 problema lle clotoc


Fig. 2.2.7.
e in do la soiial en l o.~ ruidos , l a amplill11l
dl' la i;cll al til U os de ordinar io una mngnltud alontorin 9ue puedc tomar
c ualriui,r vnlor. tanto posi~ivo como negativo. Ln amplitud e la scnl
r P hu~l n coro c uando Ja seal no est pr~cnto y so recibo s61o ntid>. Si
iguol que en los ~jc1nplns del 1
la probabilidad do la presci1c.ia dt1 la ~eai
rs igual a p. ontoncM, la irobabilitlnrl do In :mscncia de 111 S<'al. es decir, la
11roll11hilidnd del \'&lor cero dr su amplitud es lguol n q = 1 - 1- On esto modo,
1 o. a111plo1 u1! di' I fcnl U no ~ms 1uc uun on ugnil ud nlrntnria d e tipo noixto

.a,

o
F ig. 2.2 .8.

1l.
l'ig. 2.2.9.

co11 ,-olores posibles que llenan continurunonto tod o e l ejo numrico y cou un
va.lor r><>sibln cero exclusivo quo t iene la probabilidad q. En las ligs. 2.2.8 y
2.2.9 !'e rnuu.~trnn l os grfieos do la func in do distribuci611 P (u) y do Ju dcns itlad de probabllldnd J (u) 1lc la nm pltud de Ja seal til nn el pre>blcmr1 de
detc i6a .

Obsenemos que In condicin de quo la funcin delt a sea unidireccional (2.2.2) es necesnri a slo para quo las fr mulas concernientes a lns fltnciooes clo distribucin y 1.1 las densidades de la probabilidad concuer1len con la definicin adoptada (2.i.1) <le dich a funcin.
Por eso consirlcraremos quo a esLa condicin la sntisfaceo solrunente
las funciones deltn que forman par to de la expresin para las densidades do la probabilidnd.
Eo los problemas de la Teora de funciones aleatorias y de la
Teora de direccin n11l-01lltica es cmodo considerar que la funcin
delta es par. Entonces, en vez de (2.2.2), tendrn lugar las ignaldn-

C1tp. !!

eles

t
o

.~lagniludt$

~ (x) d:z: = J 6 (:z:) dx =

aleatnrln.t

pnra cualquier e> O.

(2.2. 18)

Con ello, lo funcin 11nidacl escolonadn l (x) se cletermiu n por la


f(irra111 ln

q, {

si

z<O.

si

x~o.

si

;c>O.

~:U!.

I:>)

.En la fig. 2.2.10 se mucs!ra el grfico de In funcin 1 (x) de acuerdo


con es lo c11so.
Ln funcin della par se puedo oblener, por lljemplo, como el
lmite tic la deusiclnd normal <lo In probabilidud cuando a_,. O
1vaso In )rmul a (2.1.17) J
(::!.2.20)
En efeclu, para cnaltuier x ~O t'Setl funcin titmrlc a cero si a-~ O.
C11an1lo x ..,,, O ~i;ta crix:e ininitnmcnto ~ a->- O. l'or fi n, pm11 cualqu ier e '> O
,V

.1f 60 (.r) dx =

-~.2:t

.J

""'

e-20rd.c =

-t:

:e

(}

Fig. 2.2.11).

- l'J

Si a ...... O, esta ex presin tiende o In 1111idad [vnse la fr111ula (2)


del supltimonto 1). Esto se deduco tambin d tll hecho de que e l rea
total dispu11st a bajo la curva de In <lensiclad de la probnbilidad es
igual a In unidad.
Para lo ulterior necesitamos todava representar la fuuci r1 della
par por la integral de Fourier. Pnra e~to apli (f'1emos la frmuln
..
,r::: ,,.
erit- bt dt.,,. _!:'~ eH

.1

vase In frmula (1) del suplemento Jl. Haciendo en esta f<Srmula


'1 = i:z:, b = o/
y sustituyendo la variable de integracin t
por la vnriable e,, obtendremos la representacin de Ja funcin 6a (x)

Y2

2.2. A plicacl611 de las funci0ties

11>11>11141~'1%&

57

'por la integral de Fourier:


(2.2.21).
.Al pasar aqu al lmite para cr-+ O, obtendremos la incgnita representacin buscada de la funcin dt?lta por la integral de Fourier:

11 (x} = }n

..Jelwx

dw.

(2.2.22)

-oo

Al susLituir h1 fw1ci11 cxponencb1l por su expresin mediantelas !unciones trigonorntricas, segn la frmula de Euler
(2.2.23).
e"" = cos wx
t sen (l)x,

reduciremos la [rrn11!:1 (2.2.22) n la forma

(x} =' 2~,

""

..,
[

J cos<ax dw+ i Jso11 to>.r.d>].

Aqui Ja segunda integral es igua l a cero como iutcgrnl de la funcin


impar en los lmites simtricos. Por consiguiente. In funcin delta.
puede ser representada por la inWgrl do Fouricr en la forma real:
"
..
& (x) = ,--(2.2.24)
_(,1 ~ cos wx d 111 = -n1 cos w~: dw.

J
ll

-oo

Observemos que las in tegrales de las frm\1 las (2.2.22) y (2.2.21~)


divergen. Por eso conviene entenderlas como lmites de las integrales convergentes correspondientes: de la de (2.2.21) y de la <ll seobtiene sustituyendo la foncin exponencial e mx en (2.2.21.) por
la expresin (2.2.23). Las frmulas (2.2.22) y (2.2.24) i;on tiles p11ra
muchas nplicaciones. Eu particular, las ncccsitnremos en el capitulo 5.
En las aplicaciones se necesita !recuontomonto vo lerse de lns
derivadas de la fullciu delta. Formalmente se pueclou definir como
lmites, cuando a-+ O, do las derivadas corrcspoudientos de la den::;idad nor.mal de la p robabilidad lia (x) tletermioada por la frmula

{2.2.20).
Cumpliendo en la fl'nuila (2.2.6) la derivacin do la integral
con respecto nl pimmcl.ro x, obtendremos In .t rmula
b

)
4

1p(~)'(x-~)<Ls= -

j lfl(~)<'l'(s-x)d;= q'(x),

(2.2 . 2~1)

vlida para cualquier x, a< x < b y para t.otla funcin (p (x) que
tiene cont.inua la primera derivada. Prosiguienrlo tic tal mo(lo,

Cap .

:t Magnifodet altalorla1

-0blo11drcmos la (r11111la
b

Jr !.~l6'"> (:c - s)<ls =


"

11

Sqi (~) {i(n) (~ - :r)

= (-1)n

d'

lp(n)

(x),

(2.2.26)

vlida para cualquier :r, a< x < b, y Jara Lodo. funcin q> (x) q ue
os continua junto con s us derivadas hasta 1Jl order\ n inclusivo.
r,a deduccin dnrlll de las frrnulas (2.2.2:) y (2.2.26) no es rig urosn . Para deducirlns rigurosamente, es suficiente ;1ustituir la funcin delta eu lns integrales precedentes por la densidad normal
do In probabilidad 11., (:r), que se determin n por la frmula (2.2.20).
~umplir 1n integracin por partes y luego pus;;r al lmite para a - O.

$ 2.3. Momen tos do una mag nitud aleal.oria


En el 1.2. se illdic que como caracLcrslict1 numoricu cxpcri111cnLnl de nna magnitud nleatoria X puelle servir su valor medio
estadstico
n

tn~ = ~

1- 1

XI

P (.T),

(2.3.1)

donde x,, ... Xn son los valores tomad os por In magnitud aleutori n X como resultado del experimen to y .F* (:r1) son los incrementos de la f11ncin ostadlsLica de distribuci6u on los puntos x 11 , Xn
Como resultado de las pruebas, toda magnitud aleatoria puede tomar
solamente un conjunlo li nito de valores. Sin ombnrgo, tericamente,
los valores posibles de una magnitud aleatoria pueden continuamente
<listribuirse en cierto intervalo. Por eso, de anlogo terico del valor
medio estadstico de una magnitud aleatotia X sirve la integral
m_. =

..J

xdF (x) =

-OI)

..,

J xf (x)<lx,

(2.3.2)

-oo

-donde F (x} es la funcin de distribucin do la magnitud aleatoria


X y f (x) es la densidad de la probabilidad de l a misma. E sta magnitud se llama esperanza matemtica o valor medio de la magnitud
aleatoria X *) . La esperanza matemtica de uno magnitud aleatoria
es el resultndo de 111 toma probabilsticrt do Loclos sus valores posibles
~) SI 01\ la frmula (2.IJ.2) In in~gral oo oxi~te, la m11goitud alentorla no
tte110 esperanr.a matemtica. Si n embargo, tal caso r.ui no so encuontra en los

-problem as de la prctica.

2.9. M nmr.ritns de urin magnilud alf!alorla

59

cuando el peso de cadn uuo de estos valores se toma igual a l a denfdatl de l n probabilidad de l mismo.
Si lo~ uxpcrimontos :se repiten ili:nitadamente, la frecuencin
.de que los valores de la mnguitud aleatoria se encuontron en ol intertlx) se e:;tabilizar cerca del elemento ele provalo pequeo (x, x
bnLilidnd correspondiente f (x) x. Por eso el va lor medio estadstico
tender a estabilizarse cerca de l a esperanza matem~ica
Designaremos la esper:mza matemtica de una magnitud aleator ia X tambin por el slmbolo il!f (X}:
m.,=MIXJ.
(2.3.3)

m:

m.,.

Al generalizar la definicin <le In esperanza matemtica, determinnremo!l lu esperanza matom1hicn de cualquier funcin, real o compleja,
<p (X) ele la muguitnd :1lontoria X por modio dll la ignulrlad
ilf lP(X)l

j"" <; (x) f (x) dx.

(2.3.4)

Esta determinacin coucuerda por completo con el scoLido do


la esperanza matemtica: La esperanza matem~tica de uoa 111ngnitud
afoatoria qi (X) se determina como su probnbilistico valor me11io
pesado, cuarulo a cada valor posible q> (x) de la .misma so da el peso
iguil 11 ln densi1l3d de lu probabilidad correspondiente / (x).
Suponiendo en la frroula (2.3.li) rr(x) = x' (r = 1, 2, ...),
determinaremos los momentos de una magnitud a leatoria X. Se ll(ltnn
momento i1iictal del orden 1 o sencilla mente momeiito del orden 1 110
ln mflgnitud aleatoria X n l n esperanza matemtica de su r -si1no
gn11l1>:

...

a, = .lf (X ' (= \ x'/ (x) dx.


J

E~

(2.3.5)

tividen te que la esperanza matemtica de la magnitud aloatorin


su momento do primer orden: m.,, = a 1
Los momentos de tli fercotes rdtines do una magnitud aleatoria
pueden ser vir lle cnractorsticas numricas de la mistnA. Eo este caso,
es evidente que una sola 011pornnza matemtica no puede 1le ningn
motlo ser caracterstica suCiciente do la magnitud aleatoria, s i110
quo dol.Crmioa solamente el valor medio cerca del cual so disperson
los va lores posibles do dicha magnitud. Para caracterizar la fluctuacin ele In magnitud nloatoria os necesario valerse de otras cnrnctllr.<;t,icos m11n6ricns . l~n ol 1.2 ha s ido intl"oducida para este fi11
l n dispersin esto.dstica do la magnit11d alentoru determinada por
111 (61mula (1.2. 'l7) (1.2.21). La caracterstico. terica corres11ondionte SG obtiene snstituyen1lo on ln frmula (1.2.21) ln sumn por In i11 tcgral y el elemento de la frccuoncia F* (x;), por ol correspondicnw , 11:-

rev1e~eota

60

Cap. 2 Magttitucles aleatoria

mento de probabilidad dF (x) = f (x) da. UM1 caracterstica terica


ms amplia do la inagnitud aleatol'ia la constituye el momento central de orden r que se determina por la frmula
00

t, = M f(X -1n,.,)'J =

(:c-m,:)' / (x) dx.

(2,3.6)

En lo sucesivo nos encontraremos frecuentemente con la diferencia entre la magnitud 11lcnt.oria y su esperanza matemtica. Por
eso convengan:ios en llamar mcignitud aleatoria cenLrada a esta diferencia y sefialarh1 con un pequeo cero en calidad de ndice suporior
X = X - mx
(2.3.7)
Entonces ol momento central de orden r de una magnitud aleatoria
X puede ser determinado como la osperau:ta matemtica de r-sim<>
grado de la correspondiente magnitud aleatoria centrada
!!r = M [(X")'J.
(2.3.8)
De Ja fnnula (2.3.6) se deduce que par<1 cunlquier 1nag11itucl\
aleatoria el momento central de primer orden es igual a cero. Et
momento central de segundo orden puede ser tomado en c11Jidad
de la caracterstic:i do fluctuacin de los valores posibles de la magnitud aleatoria y se llama dispersin de fo misma. Designaremos la
dispersin de nna magni.j,ud aleatoria X con D [XI o ms brevemente con D ,,.
co

D,, = D [X) = M [(X)2

(x-m,,) 2 / (x) dx.

('.!.3.9)

- oo

Do esto modo, Ja rlispersin de la magnitucl :ileatoria representa


Ja ~spcranza rnal lmtica del cuadrado de la correspondienlt magnitud aleatoria ceat.ri11l a .
Para tener una irlea ms clara acerca del sentido do la esp1m1nza
niatemtica y de In dispersin de la magnitud aleat oria, C'Quviene
aprovecharse de la analoga mecnica. Examinemos tal distribucin
de: la..masa en una lnoa recta (vstago) con la cual la densidad de la
lll~" .en cad<1 punto es igual a la densidad de la probabilidad de la
.~agnitud aleatoria. 1.a masa distribuilla oo toda la recta ser igual
a.la 1nidad en virtud do la propiedad (2. U 5) de la densidad de .la
,p robabilidad. Es evidente cue entonces la esperanza niatemtica de
\111 magnitud afoatoria representar ln coorde11ada dol cenLro de masas
-.d~l vstago:
00

S
Xc, m.

xf (x) d:r;

= ..:-;:..:::.:.......___
S f (r) dz

xf (x) rlx = mx.

(2.:-1.10)

.ti 2. !J. M omen tog de ttna mov1itud aleatoria

61

De la frmula (2.3.9} se ve que de ao.6.logo meco.ico de .l:a dispersin de la magnitud aleatoria sirve el momento cc,io.tral de inercia
del vstago. Cuanto mayor sea el grado de concentracin de la masa
-cerca del centro de masas del vstago tanto meo.or ser la dispersin
-Oe la magnitud o.leatoria correspondiente.
Aplicnndo la frmula del binomio de Newton, se puede expl'esar
.todos Los momentos eentrnles de una mngnitud aleatoria por medio
de los momentos iniciales de la misma. Le dejamos al lector que
~leduzcn por s mismo las frmulas general.e s y nos limita mos a deducir
In correlacin entre la dispersin, la esperanza matemtica y el
momento de segundo orclen de la magni.tu(l aleatoria. En virtud :de
l11s frmulas (2.3.2), (2.3.5) y (2.1.15) tendrernos
Dx = 2 =

J (x-m.,.) (x)
2

00

d.x =

(x2 -2m,.. x+ m~) f (x) d;c =

-oo

=~-2mi + m! = ~-mi, -= ~-et;.

Do es te modo,
D:<=Ct-i-et~ = ai-mi.

(2.3.H)

~sta

frmula es anloga a la frmula conocida de la rnecnica


terica que expresa el momento de inercia del cuerpo C-On respecto
a cualquier eje por modio del momento de inercia respecto nl eje
paralelo que pasa a Lravs del centro de masas del cuerpo.
La dispersin de ln magnitud aleatoria tiene la dimensionaliclad
del c11ad!'ado de la misma. 'P.nra los fines prcticos conviene ms
t enor !11 medida de fluctuacin de la magnitud aleatoria cuya dimeosionalidad es igual a la de esta ltima. En calidad de tnl medida
se Loma la desviacin cua,drtt.co-media de la magnitud aleatoria que
~e 1letormina como la rafa cuadrada positiva de la dispersin do
est.~ ll.ima.
(2.:3.12)

De rnodo anlogo, en vez del momento inicial de segundo orden conviene frecuentemente tomar la magnitud
=

T)

VCtz

(2.3.13)

<ine ~ denomina valor cuadrtico medio de l a moguiLud nleotoria.


Ejt'mpl o 2.:u. Para la magnitnd al oator in X rlisLribuidn uniform emente
''" PI intervalo a< :r. < b, las frmulas (2. f. 18), (2 .3 .5) y (2.3.) clan
<.tr

i
b- a

J xrdx

b+L -ar+l

(r + l ) (b-a)

, ~ b~a

J (z- t r
1.

.,

{
dr=

O
si r es impa t
(b - a}
.
2, (r+i} s1 r es p.v .

02

Cap. 2 /11 ngnltudu altatorias

F.jcmplo 2.3.2. La esperanza matemtica y e1 nioro~nlo inich1l de segundo


onlcu do In magnitud aleatoria X, di~tribuida segn la ley de Raylelgh, dit
liCHcl'oQ con {2.1.20), (2.3.2) y (2.3. 5) so dotcrminan por lo,, f6riu11lns

m"=2h2

Iz~e-hxt

d%

00

et2 ~ 2h

n ~~ :r~e - 11axt dr. = fi!j


i

.
)

$ustiluyondo estns cxlrt'!!iincs en Ja frmula (2.3. 11}, hallnrnos la cli$persi6n


de l a roagrlitud ulcntoria X:
~ ) j
Dx - <%2-111! - ( 1-4 Ji2
l::j~m 11l o 2.3.S. La esperan~a mutc111tic11 y la disreri.in ile ln mngaitud
alratoria tcpnl'tjcJa Regn la ley CXIJOnoucinl (2. t.22) se determinan mr las f6r-

mulos

m,.=k

J:u-lXd;;...;-} .
"'

...
D~..... a.,-mt-k
fl z2c-ll.cax -...!._=_!.
.,
k~
k2 .

F.jcm!lo 2.:lA. En IM con<licioncs del l'Jemplo 2.2.J lu cspcranzn u1atcu1iilkn, d momento inicial de scgun1lo orden y l a clisrersin de la seial de salida
de un ltlemcnto no liJ1eal sou iguales a

Ej1!mrlo 2.3.5. En las conilicinnos clcl ojomplo 2.2.2. la esperanza matcnuilir.11 , e momont.o i11icial de segundo orclon y la diepcrslu Jel tiompo de
fuuclonamient.o S do l1Jl sistema aut.omlilic<J despus de lu primera reparaci11
so determinan por las frmulas
I~

m,-

'1>.e-A(lo - l +e-M6 (s) d$= to-+ (1- .-Mo.

21

?..t

0
0:2=16-;-+:;rlt-e
),

D, =

'.'!

(t -e- 2.>.lo)-

~ e->.to.

Deduzcamos las frmulas gcncrnles para la esperanza malcmitica


y la dispersin de una magnitud alontoria discreta. Dasndose en
*) Vanse las f6rxuulas (13) y (14) del suplemento 1.

8 2.S. Momentos de una magnitud aleatoria

63

lo expuesto en el puafo anterior, la d~nsidad de la probabilidd


de una magnitud aleatoria discreta X se expresa, mediante sus valores posibles X y las probabilidades correspondientes p, por la
frmula (2.2.8). Sustituyendo la expresin (2.2.8) en la frmula
(2.3.2) para la esperanza mutcmtica, obtendremos

m.,=

i-1

t- 1

oo

J x~pc'l(x-x;)dx=~p J x6(x-x )dx


1

-oo

De aqu, en virtud de (2.2.6) obtenemos

,.

mx= ~ pX.

(2.3.14)

i= I

De este modo, l a esperanzo matemtica de una magnitud aleatoria


discreta es igual a la suma de los productos de los valores posi l!les
de la misma por sus probahilidades. La frmula obtenida se considera frecuentement e como determinacin de la esperanza matemtica
de la magnitud aleatoria discreta. De mo<lo sernejant.e obtendremos
la frmula siguiente para la dispersin de una magnitud aleatoria
discreta X:

"

Dx = ~

=l

Pi (:r1-m.~?

(2.3. 15)

La comparacin de las frmul as (2.3.14) y (2.3.15) con (1.2.16)


y (1 .2.19) respectivamente r.omprueba una vez ms que la cspcram:a
matemtica y la dispersin son los anlogos tericos de la media
em.p rica y de la dispersin em prica. En fas frnn1las (1.2.16) y
(1.2.19) los valores de las magnitudes aleatorias X y (X - mx)2
obtenidos experimentalmente so multiplican por las frecuencias
ele est os valores halladas como resultado de pruebas. En las frmulas (2.3.14) y (2.3.15) los valores posibles de estos magnitudes se
multiplican por las probahilid<1des de dichos valores.
Ej\,\Fllplo 2.3.6. Hnllar la csrwranza m11tMntir.n y In di~persin de> la iuugn itucl alcntoria X sub-Ordi.nnda a la d istribucin binominal (al nnn1ro do v1!GOS
~ produce el acontecimie.nto al efoctua1 /1 exr1e.1imnntos il1cfopc11d ientes).
En c>I ~ 1.4 se demostr qu e la prnl>abilida1l Pi. .n do que ~.iorw ncont.e<:iroicntn snc.,<Jn k Vl'r.es al r.fn...tunr n pl'llr.bas indep<indiontes es ig ual a

qu"

Ph, n=C!phqn- h (p+q= i).

Compo11gamos la Cunrin S

(u.):
tt

S (it)=(q+pu) = ~ C~pkq-huh= ~ Ph. ntLh.


11= 0

"""

~11\mi<;"s

obt.c111ltcmos
n

mx= ~ P1t, ,.k=S' ( l )= np(q + p ~-1=1p,


kc=O

ct2=[,1u{!uS'(u)}J 11 _ , ~np(q+np).
l)x

npq.

2.1. F uu<:i11 (':lrllctcrstica do una

m11~11itud

a leatoria

J.::n mucbos problemas, como cnrclerstica til de la magnitud


nleatori n !'lir vo su /unci6n caracterstLca. Se llnma funcin caracter~
ticn de 1111n nrngnituJ aleato ri a X a la esierauza rnalomtica d e la
rnngnitwl nleatorin coropleja eo.x considerada como funcin del
;1rinelro J... Aplicando la frm ula (2.3.4.), oblcndremos la expresin
siguiente para la funcin caracterstic11 de In magnitud aleatoria X:

J
_..,
00

g (>.)

=M

[e1M J =

elAX

f (x) d.e.

(2.4. 1)

P11ei;lo 1 uo 1el'-" 1 = J para cualesquiera valores reales do A. y x,


entonces. eu virtud ele la propi edad principal ele la densidad ele l n
p1obn l1ilrl11d (2.1.15), la fonci6n car11ctcr stca ptira cualquier va lor
rel\I <le J.. 110 sobrep11sn en rn1\u lo n la unid ad y e:i igual a la u11.idnd
4'11111Hlo /, =O.
Ln deosirlnd 1lc la probai>ilhl,11.1 f (b) de una magnitud alcl\tori11
1011ti1111 a X e~ Cuocn in tegr able no negativa lm Lodo el e je numrico.
Por eso, s i es continua o tiene un umcro finito <le puntos de discon
tinuid nct, puede ser re1iresentada por In inLcgral de Fourior *):

f (:i) =

J,.

J Jf (~) e>-<l-xl d~
00

di..

- oo

(2.4.2)

Se puede dei,Dostrar que esta frmul u c.s vlida tambin en caso


do que f (x) contenga una combinacin lineal de las funciones delta**). De est e modo, la frmula (2.4.2) es vlida p ara las densidaclcs
de l as vrobabilidades de magnitudes ale11tor11s 1;ualesquiern. Pero
en virtud de (2k1)
00

-~

-~

/(t) e 1Mt-x>ds =e- 11-~

1:"~/(s)ds = e-f>"g(I..).

) C. 1. Ficb~nhol.i, Cur so dd Clculo d if1:ro11c.inl "iuLe::rnl. 'i~ruulguiz.


1959, cap. Hl, 6.
i Vlll!O, J)07 eiemplo, V. S. Pup;achcv. 1'eorll' de magnitudes aleatorias
y su npllcaci6o en l os proble,ma.~ <lol wnnolo aummlico . Fismatgwz, 19(12,
cap. .(.. (Versiu inglesa: V. s. Pugachow. Theory of RonJ om FuncLious and its
Application t o Control Problems. Porgawoo Prcss, 1965 cbapt. 4).

i;

6.5'.

:!.4. Funcin ca.riicterstica de una magnit1ul aleat1ui11

Por eso la frmula (2.4.2) irnede ser escrita en la forma

J"" e-i'),,xg (i) di..

f (x) = 2~

(2.4.3)

Esta frmula expresa ]1 clensidacl de Ja probabilidad de ln maguitud


aleatoria X por medio de su fancia caracteristica.
De este rnodo, la fnn ci caracterstica de un11 rnagnitud aleato
ria es su caracterstica prol>abiJstica completa. Conociendo l a fu11c~n caracterstica de l a magnitud aleat oria, se puede hallar l'a densidad de la probabilidad de la tnisma y, por consiguiellte, fa. fun-;
cin de distribucin, es decir, detl?rminur por .c~m1pleto. la . ley de
distribucin de la magnitud aleatoria.
Ls frmulas (2A.1) y (2.4.3) 01uest1an que la funci.n caracters
tica y ln densidacl de lo . probabilidad do una magnitud aleatoria
estn c11lazadw; por un p1<r de transformaciones recprocamente
inversas de Fourier.
Ejemplo 2Jt.1. T.u f1111ci6n r..oractcrisLic:tt d<~ la dist,rih11db11 biuomial ~
"XJll'<:Sa

por la C6rmula

r:(~.)= ~ C:!,pmqn-mei~m= (q+pei')n.

(2.4.4)

m= G

,Ejemplo 2,4,2 . La !uncin caracterstica de calqnior .magnitud aleatoriu


discreta se expre.sa por la frmuln
L.
n

(/.)=

(2.4.5)

i.,/A-<v,

v-1

dondo z 1, , z,. son los valoros po~iblcs de In tnngniLud aleat.01'i11 y p., . . ., p,.
son las pl'Obabilidndes de 0$\.os valores. La frmula (:!.4 .5) S vlida tambin
cuundo n = oo.
Ejemplo 2.li.:{. J, u u nr.i61l ca1ac.te1istica de una magnitud aloat.ori11 re
partida uniformewont~ {1i el iutel'vulo a < x < b Licue la fun11a
b

g (}.) = b-1 a

J\

ei1'x d:&

il.(b-u)

(ei1.b-eiM,

(2.4. ti)

1'.fcmplo 2.t. .4 . La foudn C.llracterstic.a de unn mngnit.ud aleatoria dis-

Lribuifla segu la ley expono1icinl su exprusn por la rm11la

J
~

g(>.)=k

e-"(k-0.)d:;;

(2.4.7)

k!:...IA

Ejemplo 2.4.5. La funcin c.nract<.>rsticn de la seal de

~ali<i a

plo 2.2.1 se dot<Jrminn poi la (rm11la


P,(.) =

Y en el ejem-

1
}
"1 _..,jr c>:u { 11 (y+a)- 1(11-a>1+s:i ll<u+aJ+s'<v
-a) du=
_ _ sen aJ.. +! .-U.u+..!. .,,

5-0938

--:r

~e

(2.4.8)

Cap. 2 .Magnilude$ altalorla1

66

Ejemplo 2.4 .G. La funein earncterstica del t iempo S 1le fuucionmicnt.n


In prim~r11 re11rMcion , en el ejemplo 2.2.2,
siondo Nn~t.arote la intensid ad de los fallos /. (t) - e, tirno la forma
del sistcmu 1111tnmtico despu:s de
To

; (i>)

Jei;. (ce- 'o- > + 6 () e- eTol ds~


7

,.
1

=e-< o

e (el>.To_ e-C'l'o
c-t-IJ..

(Z.li .ll)

Los momenLos de una magnitud aleatoria se expresan fcilmente


por medio de la funcin cnracterstica de la misma. En efecto, derivando la frmula (2.4. 1) con respecto a A., obtendremos
g' (1i.)

e (>..) "" i
y en goncrnl

..

=i

).

..

xei>.x (:.r) d2:,

Jxei>-"J (x) dx

...

g<ki().)=ik

Jxhex(x)dx

_..,

(k=1, 2 ... ).

(2.4.10)

P ara "- .__ O las integralos en los segundos miembros de las Irmulas
obtenidas represen tau los momentos de la magnitud aleaLoria X.
Por eso, su poniendo que en (2.4.10} A. = O, obLen1l remos
1

CX.A = j'ii" g(hl (Q)

(k= , 2, .. ).

(2.4. tf)

Observemos que la derivacin de la in tegral (2.4.1) cou respect o


ni por.tnetro 1.. bajo el signo iutegral es JOsible sol amente en caso
do que, como resultado de l a derivaci11 1 se obtenga una integrnl
unformemente convergente, es decir, si el moiucnto cor respondiente de la magnitud aleatoria X e~;ste. De est e modo la frmula
(2.4.H .) determina todos los momento.s exh;tentes de h1 magnitud
aleatoria X.
Anlogamente, por med io de l a funcin caracterstica se l>uede
expresar los momentos centrales. MulLiplicnndo 111 rmula (2.4.1)
por e -1>.me y derivando lo igualdad obtenida con respecto a A, tenclromos
[e-1>.m,., g (i.) 11~) = l~

""j

(x - mx)h e1>-<"-m.Y) d (x) dx.

2.4. Funcin caracttrtli<:a de una magnitud aleaturili

61

Suponiendo que aqu >. = 0, obtendremos la frmula s!guiente para


los momentos centrales de la magnitud aleatoria X:

~ = ,! [e-i;.m.,g(>.)J~o

(k=2,3, ... ).

(2.4.12)

Ejemplo 2.4.7 . Hallar la espera.n za matemtica y la dispersin del nm&ro .X do veces que sucede cierto acontecimiento al efectuar n pruebas independient.es, si para una sola pcueba la probabilidad de que el acontecimiento ~e
produzca oo igual a p .
Deri vemos la ielaciri (2 .4.4):
g' (A) = inpe;'}. (q
pcil.n-1
g (A.) = inpe. (q
Eutour.e~.

+
+ pi).n- (q + npei').

SP.g1n las frmulas (2.4 .11) y (2.3. t l ), obtenemos

m.~=a 1 =f g ' {O)=np,


1

et:=--(( (O) =np (q+np), D.,=et 2 -etl = npq.


Le dt>jainos al lector que por s miSlllo calc ulll D,. = , aptc1111do la frmula (2.4.12).
Ejemplo 2. 4.8. Hallar la e8peranza matemtica y la dispm$in do una
magnitud aleatoria X uniform~rnent" rcprtida.
Escribamos fa frmula (;!.4.G) en la lorma

g (>.)

eil.b_ el>.a

i'>.(b-a)

Do aqu por derivacin


'

__
1-

g (i.)- b-a

h~Jlamn~

[.!2 (b

00

2_ 4 1

"
>+ .cJ

(iJ.)k-2

lt

k(k-2)! (b - a)

'

lt-8

Supoogumos que aqu J.. = O y ~uslituyumos las expr~sioncs obtenidas en


(2 .4.11).
E11tonr.cR obtoudrcn1os

Cup. 2 Magn.itude.< akatnrla

G8

2.f>. J..o} nor mal do distribucin {Ley de Gauss)

La densidacl e.le lo probIJilidad de un11 mngnitnt\ alt1atoria X


normalmente repartida se ex presa por la frmula

f (:e) ~

111/iit

lX - n)Z

e-:-

(2.~,. I )

cou In q ue nos conocimos on el 2.1. En la fig. 2.5.1. se muestra


111 curv11 que representa esta densi<lad de la prohhilidad. Lll curv;i
es simtrica respecto al punlo x = a. Por eso el parmetro a se lloma
f(.r:)

f(.r)

Fi. 2.5. 1.

Fig. :l.5.2.

cc11Lro de distribucin o centro de dispersi!L Cuaodo x = a, la orde


nada cle:la curva de la densidad nor mal do J, proh11hilidnd es ig ual
1
a y - AJ ctisminnir o, esta ordenada crece ilimitadamente. 1-: 11
o

2tt

este caso la curva va ach at ndose a lo largo del oje de abscisas de moclo
que s u rea queda igual 11 la uuidnd (C ig. 2.5.2). l~sto se deriva Je
la Crmuln

-oo

para h = 1/cr V2, cuya deduccin se ex pone e n 1:1 snplerno nto t .


De este modo., al dismin uir o, la densid ad tl e la probabilidad en ol
centro de d ispersin crece y en los dems puntos, a partir ele ciert o
valor de cJ, se reduce. Con otr as palabras, a l d ismiuuir a dism inuye
lo dispersin de los valores posibles do ln magnitud aleatoria.
La ley normal do distribucin esta muy ' lifundida en los prot:lemas prcticos. Por eso se ha hecho muchas tentativas de deducirhl
tericamente basndose en hiptesis inicia les sencillas. Varias dcrlu cciones de la ley 11ormul de distribucin file.ron ofrecidas por Gauss .
S in embargo, la base de todas estas d educcione!'I lu constitu yen tosi~
que ellas mismas depon ser a1'1n fun1lamentadas. Fue Linpnnov el
qne por primera vez lleg a aclara r fas causils dl:l In amplia difusin
de lo ley normal ele distribucin. Est1: cien~i co demostr que :ti

2.5. !.e rwrmal de dlstrtbuclrt fkg de Cau.-;.)

una magnitud aleatoria puede coosh.lcrorse como la .suma de un


gran umero de pequeos sumandos; entonces, al i;er laa condic~ones
lo suficiente comw1es, la ley de dist ribucin de dicba magnitud se
aproximo n la no rm al s in que importe cualf!~sean las ley~s de distribucin di! lo!I suuinndos tomados por separado. Puesto que prcticamente las magnitudes aleatori as, en la m11yoria de los casos, suelen
ser el resultado de la accin de un gran nmero de diferen tes cau~as
(vase el 1.1.), la ley norma l resulta ser el principio de distribucin ms clifunrlido. No obst ante, en muchos roblemas se pueden
Ancontrc1.1 leyes de distribuci n distintas de la normal. Nos hemos
convencido ya de esto en los ejemplos de los 2.1 y 2.2.
Hallemos los momentos d o una magnitud aleatoria oorma.l,xneote
repartida. Para esto h agamos uso de las frmulas siguientes cuya
deduccin so ux>one en el suplemen to 1:

"'
r t211 -hz dt
J e

~ (Zk-1)11 , ;;;
;!llJ,ll+l

V "

(k = 1, 2, ... )

(2.5.li)

donde cou (2k - 1)fl se de:signa lli producto de todos los nmero::;
e11t.eros imparc!! a partir de 1 b a~la de 2k - 1.
De ncuerdo con (2.8.2) y (2.5.1) la esperanza matemtica de uu u
111ag-niL111l aleatoria norm~tlmente rorrnrtido se expresa por la frmula

rn:r =

Cf

1
v2n

""

_<ir- a)"l

Ji xe
-oo

(2.5 .. )

2ii> clx.

hts variables t = x - a y va lindose de las frmulas


(2.5.2) y (2.5.3) s iend o k = i , h = 1/a V2. obtendreuios

~ustituycudo

m:r= .. ~
v v2n

..

J(11+t)e- Toi"dt=a.

(2.5.6)

- oo

Est e rc1mlt11do podn ser provisto de antomouo, teniendo ea cuenta


la si moLrln de lo d is tril..111ci(m normal con n1spectv al cen Lro 1le dslrilmcin a.
Pnrn daturrnioar los momentos ceotrnles, apliquemos la f6r111ulfl (2.3.6). Sustituyendo en es to frmula la ex.presin (2.5.1) de
la dcn1:1ill11d oormol e.le la probabilidad y teniendo en consideracin
(2.5.n), obtendremos
1, -

,~

o v ~n

co

r
J

- oo

(:c:-t1)2

(x-a)'e--;r- dx =

vin 2n

ro

r t'e-Toidt.
J

(2.5. 7)

'10

Cap. 2 Magnitudes aleatorias

En virtud de la formula (2.5.3) esta integral para todos los valt>~


impares de r es igual a cero. Por consiguiente, todos los mom!l'Jlt6
centrales de los rdenes impares de una magnitud normalmente.distl'1:
huida son iguales a cero;
2h-t = O
(k = 1, 2, ... ).
(2;Si81
Si r = 2k es par, entonce:i haciendo uso de Ja frmula (2.5.4) pta
h = 1/o V2. obtendremos de (2.5.7.)
~'2k = (2k - 1)!!02 = 1.3.5 .. .
. . . (2k - t) ai (k = 1, 2, . . .).
(2.5.43)

En particular, para la dispersin y ln desviacin cuadrtica media


de una magnitud nleatoria X repartida normal mente, obtcndremo.~
los frmulai<
(2.5.10)
De este modo, el parnmetro o cu la expresin (2.5.1) do la ley normal de distrihucin repre:stlllta la de:1viacin cuadrtica meda de la
111ag11.itud aleatoria.
Basndose en la primera tic estas frmulas, la exprcsi11 (2.5. 9)
para los momento:; de los rclenes pares se puode escribir en la forma
2,.=(2k-1)!!
D!=t35 ... (Zk-1)D: (k=t. 2, ... )
(2.5.H)
Pues bien, todos lo~ momentos de los rdenes pare~ do la m11gonud
aleatoria normalmente repartida se expresan 1ior medio de su dispersin.
Sustituyendo en (2.5.1) la expresin del parmetro a en funcin
lle la dispersin de la primera de las frmulas (2.f>.10) y teniendo
eu cuenta (2.5.6), obtendremos

f(:c)=

vl

2nDx

~"-mx-)t

--w"

(2.5.12)

Esta frmula muestra que la ley normal de distribucin se determina


por completo por la esperan.za matemtica y la dispersin de la magnitud aleatoria. Asi pues, la esperanza matemtica y la dispersin
caracterizan de un modi> completo la magnitud aleatoria normalmente repatUda. Claro est, que en el caso general, cuando el carc
ter de la ley de distribucin es desconocido, para determinar esta
ltima no basta saber la esperan7.a matemtica y la dispersin.
Sustituyendo en (2.5.12) D" por o~, expresemos la densidad
normal de la probabilidad por medio de la esperanza matemtica.
y la desviacin cuadrtica media de la magnitud aleatoria:
{.i:-mx)2

1(x)

" V211

-~

(2.5.13)

11

2.5. Ley .n<>rmol de dlllrtbuclq11 (ley de GaU$$)

Hallemos la funcin caracterstica de una maghitu,d aleatoria

X normalmente distribuida. Para est sustituyamos la expres'.i.6 n


(2.5.12) de la densidad de la probabilidad en la frmula (2.4,'1').
Entonces obtendremos
oo

g(I..) = ,v1 2nDx


--

(;te-m:r.>'

11.:<-~

"

dx=

Je

00

e'>.m,,

Vi.-iD,,

t2

f).t-w-

= -=

dt.

->

La ltima i11tegral se puede calcular por la frmula

cuya rlecluccin se da en el suplemento. Aplicando esta frmula, obtendremos


f

g (A.) =

/mx-z-Dxt-.

(2.5.14}

Le dejamos al lector obteuer independicntcmcnt-0 con ayudn


de la funcin caracterstica hallada, las frmulas, anteriormente
deducidas, para los momentos centrales de la magnitud aleatoria
normalmente distribuida.
Deduzcamos ahora la frmula para la proba'bilidad de que los
valores de una magnitud 11le11toria X norn1almente repartida se encuentren en el intervalo dado (o;, ~). Susiituyenrlo la expresin
(2.5.13) de la densidad normal de la probabilidad en la frmula
(2.1.16), obtendremos
p _ (x-mx):

P(o;<X<~)=

a,,

~~\. e

io~

V <!.-i

Despus de sustituir las -..ariables


la forma

"
z= ~

" '

dx.

esta frmula loma

Jl- m,.

P (a:<

X<~)= ,~-T
e-:; dz.
2n
J
V

(2.5.15)

-mx

--u;-Esta integral no se expresa por med io de las funciones elementales.


Por eso, pa ra calcularla, se in Lroduce una fuucin nueva

11> (u) =

V2'i Je- ~ dz.


o

(2.5.16)

Cap. 2 1)1agnttudM nleqtarns

E:st.ll ruuciu se <lo11orniua f uncil5n de Lap~ace o tntegral de las probabilidades. Para ell1~ estn p.rcpradns Tablas semejantes a h11J:'bie1,1.
conocida~ 'fablas de Logarit)TJOs y Fuuciones Tdgonomt1i.cas. La
1'ahla de 111 Funcin de Laplace se da al final del libro. A1ilicando
la fonci.n de L11place, se puede escribir

- 1 nx
<T,"'f

~2

-- Jr 1:--T- dz =
-V~
A l :>ustiLuir

c~tn

cll ( ~ -m,.
Ox

)-<.1> ( a- mx). (2.ri .17)

expresin en (2.:).1;}, obtc11dre111os

P(a<X<f3)=lt>(~-m.,.. ) - (r>(
(J>:

Dcmost.rcmos

(fx

1bori1

a-m,.)
.
~

(2. 5.18)

que la funcin (!l (u) os impnr. Tenemos


Cl>(-u)=

v\- re-~
dz.
o

(;.5 .19)

- 1t

Al crectuar aqu la sustitucin de las variables t = en cut:>Ol\ (2 .5 . -16), obtendremos


1.4

t~

<D(-u}=~ e- Tdt = _(J.>(u),


Vzn ~
lo que demuestra Ja imparidad ele la
En el caso pnrticular, cuando el
con respecto al centro 1!0 dispersin,
ser expresadas et) la forma a = mx y ln frmul11 (2.5.18) toma la forma
P

z y al tener
(2 .5.20)

funcin ID (tt) .
interva lo (a , f3) cs ~imtrico
las magnitudes u. y ~ plWden
e, ~ = m,. e, dond11 t:
O,

(1 X-m,.j <e)=() ( 0~J-<I>

>

(- ;~) .

(2.!'.i.21)

De aqu, teniendo en consideracin la imparide1d de la funcin


cD (tL), obtendremos
/ ' ( 1 X - m., 1<e}=2rJ) ( ; .. ) .
(2.5.22)

Las frmulas (2.5.18) y (2.5.22} d an la posibilidad de calcular con.


ayuda do la Tabl a ele la Funcin Q) (u) de la prolrnbilidad do que
los vnlores de una magnitud norruolmeut.c reparti<la se encuentren
en cualquier segmento a~ignado de antemano del eje numrico.

Ejemplo 2.5.1. Hallar l a vrobabilidad de que el "alo~. que toma u110


magnitud aleatoria X oonnnlmente roportidl\ como resultado da la prueJ,a,
sc1 no menor de f m y no mayor de 7 m, si la esperanza motem.tic'a do la mi sw
as iguol o 3 m y la desviacin ruudrtica media es igual a 2 111 .
Segn la f6rruula (2.5.18), teniendo en cuenta lo imparidad de la lunci611
da Laplnce y empleando la To.hin de la Func.t n do Lapluce, hal lamos

p (t

<X <7)=4>

('7-; 3

)-m ( 1-;3 ) =

= <J> (2)+<1> {t)...,O,lt772+0,3413=0.8t85.


Ejemplo 2.5.2. En las condiciones del ejemplo anterior l1allar la probabi
li1lad do que la magnitud aleatoria X lome uu valor no menor de 2 11 y no mayor
de 4 m.
k;l iut!ll'valo (2,4) es sin1trico ~rn respect.Q ol punto z ... a siendo e ~ m,. - a - J3 - m.., = 1. Por eso hnccmos uso de la f6rmuto (2.5 .22). Entonco~.
mpleando la 'fabla do la Fu11ci6n del.aplaco. olil.ondrem<is
P (2 < X < 4) = P (1 X - 3 I < 1) = 2D (0,5) = 0,3830.
l~ jcm pl o Z.5 .3. Hallar las probabilidades p" p 2 , p,, p, <lo que los \'alor11~
de una magnitud alt>utoria noruialmeot-0 re11art1da so encucutren en lns sogmon
los do 2o.,, 4o:>;1 Go.,, 80,, de lo ngitud dispuestos simtricnmente con rcs11ecto al
ceulro do JfsticJmr.in. l'or la f6nuula {2.S.22) lialbmos
Ph = P (1 X - m.x 1 < ka,J = 2!.lc (/<).
f:n la Ta!Jl a encontramos Cl> (1) = 0,3413; <l.> (2) - 0.4772; <I> (3) = 0,4981'>-'i;
e() (li) =- 0,49!lll68. 1"01 consguent~. las 1robabili<l11de.s bu:ocadas son p 1 -=
= O.liS:!(I; P2 = 0,9544; p 3 - o n!l73; p, = O,!J!l9936.
J\el pues, solamente COl'CA .101:-12% de los valore!! de In magnitud aloatorla
normalmente repnrtidu so i14svia de su esperanza matomtica ms cuo e11 a ;
solamente! cerca del 5% so dc:sva nuls que en 2o"; solameute c~rca de un 0,J~(,
Sel dc$vH ms que en 3o,. v solnmcccte cerca do\ 0,006% so d~sva ms que on
4ox. Esto da lugar a quo
la mnyor parte de lo~ problemas de lo 11r:ctic11 8<'
coosidcrco prcticame111e imposiblco;, para la magnitud ol~at<>ria normalmcnl~
ropnrtda, las desviaciones que superen 3rr,. y so consideron licnitados por el
i111crvalo {m:r - 3<7,.,, m,,
3o.,) todos lo valores prtclicamenlc poRihles le
la 1t1ismu.

en

2.6. Ley de Poissou


Supoogamos que ciertos nco.ntecimieutos succdo n en los mom en
tos nlcotorios cont inu amente repartidos en el eje numric.o-. Tales
aco11teci111iontos form11u unu secuencia !le suc.isos llnwadn hahitirn lmenlo flujo de acontecialientos. En ca1idncl de ejemplo do un r!ujo
d<.' u;ont.ccimient.os puedeu :>ervir las ll amaJas do los uhonndos tlll
uua centra l teld6nica, p:isos de los ruedios de trunsporte por un cruce.
fallos ele los elementos do alg(m sistema tcnico.
En muchos problemas de l a Jrctica so puede considerar que
1J finjo de acontccimie11to~ :satisface las coodiciones siguiente:;:
1) :-i (L 1 , t 2) y (t 3 , t 4 ) son cualesquiera irlt.erv11los de tiempo no
so1Jrep11cstos, entonces, In probabilidad de que :;e iroduzcu cu11Jquier
111mcro do acontecimiento:< en e l tran..scurso de uno <le dit:hos inlor\alos no dependo de cuu1Lo::1 ucontot:imioutos ocurrtlu on el Lrnnscu 1so <fo otro

Cap. 2 /.fagnllu~ al4atorl<l$

74

2) la probabilidad de que un acontecimiento se produzca en el


de un intervalo de tiempo infinitesimal (t, t
t) es una
infinitesimal de orden llt;
3) la probabilidad de que se produzca ms de un acontecimien to
en el transcurso del interva lo de t iem po (t, t t) es u na infinitesimal de orden superior en comparacin con llt.
Es evidente quo el nmero de acontecimient-0s que suceden durante cualquier intervalo de tiempo (t 0 , t) representa una magnitud
aleatoria discreta cuyos valores posibles son todo~ los nmeros
en teros no negativos O, i , 2, .. . Desgnemos esta magnitud aleatorin por X (t) y lo probabilidad de que sta tomo el va lor de m
designrnosla por p,,. (t 0 , t) o, ms brevemente, por Pm (t):

tran~urso

P (X

= m) = Pm (to,

t) = Pm {t)
(m = O, 1, 2 . . . ).

(2.6.1)

Hallemos la ley de distribucin de est a mngnitud a leatoria.


Para calcular las probabilidades Pm (t), demos al argumento t
un i11cremento infiniLesimal llt. De ticuerdo con laR dos ltimas
condiciones superpuestas en ol flujo de ncontecimien tos
P1 (t~ t + L\t) = V (t) L\t + o (ilt), }

(2.6.2)

~ p1, (t, t + J.t} = o (/lt),

~=Z

donrl e v (t) es cierta !uocin no migaliva que consideraremos conocida*). Calculemos primeramente Po (t). Pat'a ello observemos que
Po (t
f}.t) es la probabilidnd de que dos acontecimientos coincidan: ningn acontecimiento se produce en el intervti lo (t 0 , t) ni
en el intervalo (t, t + llt). Segn la primera condiciu estos dos
acontecimientos son independientes. Por eso
Po (t + L\t) = Po (t) Po (t, t+ llt).
(2.6.3)

Pero en virt ud: de (2.6.2)


Po (t, t
L\t) = 1 - v (t) f:lt +o (L\t).

(2.6.4)

Sustituyendo esta expresin on (2.6.3), obtendremos


Po (t
L\t) = Po (t) - Po (t) v (t) llt
o (M),

Con el simbolo o (f!it) se designa cualquiera (no u ua conerota) inlinitesimal do orden superior en comparacin con f!it, as que
O(t)

~~o~=O.
Es evidenle que la suma de culquier nmoro finito de tales magnitudes es
tambin Ja magnitud o (61).

76

$.6. Lu _de PoW!ln

de donde

o (61)
- v (t) Po(t)+ 61

Pasando al lmite cua ndo 6.t-+ O, obtendremos


(2.6.5)
p~(t)= -v(t)Po(t).
As pues, para la probabiUdad incgnita p 0 (t) hemos recibido
una ecuacin diferencial lineal homognea de primer orden. Para
hallar la condicin inicial que determina a la constante de integracin, basta tomar en la frmu la (2.6.4) t = t 0 y pasar al limite
cuando 6.t -+ O.
Entonces obten<Lremos
(2.6.6)
Po (t 0) = 1.
J'ara compo11er las ecul\Ciones para las dems probahili<l11des
Pm (t), observemos que m acontecimientos pueden suceder en el
intervalo de tiempo (t 0 l + 6.t) por uno de los m + 1 procedimiento:1 incompatibles l:!iguientes: to<los los m nconteci mientos so producen en el intervalo (l 0 , t); m - 1 acontecimientos, en el intervalo (t0 , t) y uno, en el intervalo (t, t + 6.t); m - 2 acontecimientos ocurren en el intervalo (t 0 , t) y dos, en el intervalo (t, t + 6.t};
tocio~ los m acontecin1iontos se producen en el intervalo (t, t + At).
Por eso, basndose en el principio de la adicin de probabilidad.es
de los acontecimientos incompatibles y en el de la multi plic11ci6n
d e Jns probabilidades pal'a los ncontecimienLos inde1iendientcs
Pm (t
M) = p," (t) Po (t, t + 6.t) + Pm-i (t) p 1 (t, t+
+ At) + ... + Po (t) Pm (t, t + At).
Sust itu yendo aqu la exJ>resin (2.l.2) y w1iendo todas las i11fin itesimales de orde11 superior por un solo simbolo o (.t), obtendremos
Pm (t + C..t) = Pm (t) + lPm-1 (t} - Pm (t)l 'V (t) . t -1
o (6.t),
de doudo

Pm (t+tit)-Pm ( 1) tlt
-

v (t} Pm-1 (t} - Pm (t))

Al pasar a l Imt-e cu1111do .t-+ O, obtendremos


p;,. (t} = V (t) (Pm- t (t)- p,.. (t}J.

+ _o A_t(lit}
_

(2.6. 7)

As tJUes, para determinar todas las probnbildades Prn (t) hemos


obtenido una cadeui de ordinarias ecuacionos diferenciales Ji11eal01! ne primer orden. Paro. ballar las condiciones iniciales, basta
tomor en (2.6.2) t = t 0 y iiasar al lmite pora .t - O. Entonces
obtendremos
(m = 1, 2, ... ).
(2.6.8)
Pm (to) = O

Cu. !! Mat:u l tub.t alf atorcas

Hagamos en las ecuaciones (2.6.5) y (2.G. 7) la susti tucin de !ns


variables
1

Jv(T)dt.

,=

(2.6.!I}

lo

E.si.< e:; posible yu que In fuocin v (t) no es 11egativ;1 , en virtud de


lo cual A. e:; la ftmcin no decreciente montonn t. 'l'enienilo en cons ideracin que en virtud de (2.6.9) dlldt = v (t), escrihamo; lns
l'Cunc ioocs (2.6.5) y (2.U.7) respectivamente en ln forma
clpo

,,,,,.

(2.li.10}

Ci"[" = - /lo

--;v.- = -Pm+ Pm-1

(m= 1, 2, ... ).

(2.H. U}

lntogrnndo la ecuaciu (2.6.10) y teniendo en cuenta ln eo11dici r1


inicinl que se deriva de (2.6.6) y (2.li.9) : Po = 1 para?.= O, olilc11drcmos

Po = e->..

(2.6.12)

Lnego, integrando sucesivamente las ecuaciones (2.6.11) qu11 c11rrespo11den a m = 1, 2, ... , y tenien1hi en cuento que en virtud de
(2.6.8) y (2.6.9) p 1 = p~ = . .. = O para A.
O, llegaremos n la
frmula geueral

Pm=~e-,,

(m=O, 1 , 2, ... ).

(2.G.13)

En efecto, tiuponiendo que la frmula (2.6.13) es vlida cun11do

in = k y sustituyendo la e.xprcsin (2.6.13) de la probabilichul Pk


en la ecuacin (2.6.11) correspondiente 11 m = k+ 1, obtendremos
pnro la probabilidad PH-s la ecuacin

(:!.G.14)
Es fcil convencerse, haciendo la sustitucin directa, que la integral de la ecuacin (2.6.1 4), que se convierto en cero par11 'A.
O,
se expresa por la frmula

P~+ =

i.,h+l

(k+1)!

e->-.

As! pues, la frmula (2.6.13) es vl ida para m = k + 1, si sLn es


\llda para m. = k. Pero la {nnula (2.6.12) deducida a11Lcriorme11te
muestra que la frmn l11 (2.6.13) es vlida para m =O. Por consiguieote, la frmul a (2.6.13) es vlida para cualquier m.
La frmula (2.6.1 3) determina por completo l a ley de distribucin del nmero X de acontecimientos cuo se producen en el tra11s
curso del in tervalo de tiempo dado (t 0 , l). Esta ley de distribuc.i6n

so ll ama ley de Poii<soo.

.~

Z.6. y de Poluo11

i7

Aclaremos el sentido Jol parmetro A.. Para esto calculemos la


csperl\Jlzn matemtica del 11mero de acontecimientos que se prodcoo durante el intervalo de tiempo (t 0 , t). Va lindonos de la frmula genera l (2.3.14) pRra lu espera nza matemtica de una maguitud a leatoria discreta y In frmu la (2.6.13), obtendremos

>.1

..

->. _) ->. ~

m-;;;- e
mac. t

i.m-1 _
L.J (m-1)1 -

.r.

uri= t

?,
A.~
= i.e-" ( 1 +-- +zr+

1.~
. .. +T!+
... )

La serie del segunrlo miemhro de esta igualdad representa la dcseom


pos icin conoc.itla do lo funcin oxponeJ1ci11l e>-. Por lo tanto,

M !XI= A.

(2.6.15)

Pues IJico, e l parrncLro A representa la esper11oza motomtica ele la


magnitud aleatoria reparUcln segn la ley de Poisson (del nmel'O
(lo ncontecimientos en t!l intervalo de tiempo clnclo).
De lo demostrado y J e lu frmu la (2.6.9) Stl deduce que la magui
Lucl /. = v (t) t en t'l punto do continu iclarl t de la funcin v (1)
reiriisenla, CO H un exact.itml hasta infinites i ml\lcs ele rdenes s u pe
dores, la ei;poranza matoroiitica del nmero de acon~ccimientos quu
l!C producen en el t.ransc11rso do un intervalo de tiempo iniinitcsimnl
t. P or consiguic11te, h1 rnngnituJ vt = dJ..ldt r('prcsentn la velocid11d 111cdio de producci11 110 los acontecimientos o e l nmero modio
d e acont11ci111i<'11bos que ~uc:eden en 111 unidnd di' tiempo. Por eso la
magnitud v (l) se cleunmin:i dern;idad media o iut.111sidad del flujo
de ncor1 Lcciniicntns.
Lo,: flujos de aco11ll'ci 1non 1os del tipo cx11111inado se llumnn
ioi.'lsonlanos, p ll esto rpw el nmero de aconlcci111it11tos que so produce11 c~n el transcurso do t:uolquier intervalo ilo ticu110 ropreseola
pMa tal rlujo una m11gnituJ aleatorin repartida segn la ley 1le Poi'>

son.
t-:jcmplo 2.G.I. Hallur lu ley de distrihuci11 cltl nmero de nlcctro11M
<'miti1l os 1or el c.~lndn Jn u n lnbo electrnico dnrnnw el iulcrvalo de ticmiro T .
supouil'tu o que la ca11tidt1d media de electronc,; quo se cmiU>n en lu u11ida1l <lt>
liempo l'S igual a \'.
l!:n vista ele que la canti1lud t.t1tal do e.l<-ctrones t>mitiJos por ('l ctodo 1
tlnoi nnc. el problema dado convicuo 1101 complot.o al osquumo 110 su1gim iont11 ''"
In rli~tl'ihucin il<.> f'oi~sou. Es dccii-, so pucclo consid111rur que par" un8 i11 1i11 i
l OSimo l T la probabilidad do q110 durnnte uste intervalo so "mita 1111 "lP.Ctin 1:1
uua magnitud d<.> urden T y I robebilidnd de que en el transcu1'So d11I intorvnli
T ~o hnyn lauz:ido ms de un <ll!l'Lrn debe Sl'r nua infinitesimal <le S~'\ltul., ot1l< 11
puusto que prrtirame11t.c es iw110sible qu~ 4'.sf.rict11moutc cu un iJJstanLo se 11111.

78

Cop. Z Magnlludn

al~alorlas

cen dos electrones o ms. S tomamos distntos intervalos de tiempo no sobtepu~tos, cut.onces se puede e.un 11Uficie11tc evideoo11 considerar que la cantidad

de electrones lanzados durante uno de estos intervalos no Influye en la.~ pro-

habilidades para los dilercnU\s valores del nmel'o de el ertroncs omitidos on el


trauscurSc> de otro intervalo do tiempo. Ah<lra bien, prcticameuto so cumpl en
todas lns 1:ondici<>nes del problema examinado y ul lujo de el ectrones so puedo
co nsi1l crar poi:;;;<J11ia110. l'ar11 aprovecharse de la loy de !'11isson, hay 4u!\ hallar
In esperanza matemtica del numero de electrones emitidos dunrnte el intervalo
de tiompo T, es dcer, el nmero medio de elect.roue11 t>mitidos en el transcurso
del tiompo T . Como. segn la co11dicl611, en la unidad de tiempo so lanzan por
trmino medio v t>lectroncs, un el trauscurso dt>l tiempo T so lanLatn por trmino modio ''T elt>Ctroucs. Por eS(), en el clll!o dado, A - vT. Sustituyendo estit
expresin '" la irmula (2.6.13), oblc11dremM
(v'l')m
Pm=n;-

-v

( m= O, l , 2, ... ).

(2 .G.1G}

Esta ll'o1ulo rlotermiua 101 complete ltt ley tlu di~tribucin del nn1cro do
electro1 1n~ !llllitido!; por el Ni.todo durante el lntnrvalo de tempo T .
E,lt'.mplo 2.6.2. 1':11 condiciones del ejemplo anwior hallar lo loy do distrihudn 1lul intervalo d o t iem>O entre dos iustautcs suceKvo~ du emisin de
elecL101111S.
En vrtml do q1w los elret ro11es se lanzan del dtodo cm instantes ~Lentorios,
el interval<l de tiempo ~nlre dos momontos ~"llccsivo3 del lonznmionto do los
elootroncs es una m1tgnitod aleatoria. Segn la definicin. Ja funcin do clistri
bucin de la 111g11itud aleatorio T representa le probabilidad de que el intervalo
T ontro dos ostaot~ suce~ivos de em1~i o de efoctroncs ser monor que 1, es decir,
la probabilidad de que en el intervalo de duracin t se lance, por l o meuos, u n
electrn. Segn Ja frmul!l (i.3.4) que enla~a Ja,, probabi l idades de acontecimientos contrarios
P (T < t) = 1 - P (1' > t).

Ln p1obabiJidad P (T > 1) de que d1ir&Jlle el tiempo t no se lance dol ctodo


ni u11 solo electrn ee puedo determinar por la frmula (2.fi.16) del ejemplo anterior, tom~ndo T = t, m = O:
P (T > l) = e-'1
Por
/.'(t) = P (T< 1) = 1 -e-"1

""

Derivando esta frmnla con respecto a t, hallamos lo


de la magnitud aleatoria T:
/ (t) = }" (t) = w-vt.

den~id11d

dl' La probabilidad

Las lrmulas obtenidas determinan la funcin do distribucin y Ja densidad du


la prllbabilidad del intervulo T entre dos instante. &ucesivog do emisin do
elect.rone.- paro t ;;;;.. O. Puesto que 111 magnitud del intervalo T 110 puede ser
negativa, entonces, para 1 < O tenemos
I (() .,. O,
F (1) = o.
Como vemos, ul nlervafo do tiempo eotro dn~ lanzamientos sucesivos de
electrones est rupartidll segn la ley exponencial.
Ejemplo 2.6.3. Hallar la ley de cl!strlucin del nmero de llamacl as a In
central tele fnica durante ol ntorvalo de tiem>Q dadu (1,, t.).
Este problema se distingue dol anlerior solnmonto por el hecho de que no
podemos considornr que el nmero medio de llamadas 011 ln unidad de tioi:npo
sen Independiente do la hnra del do. Po1 eso debemo~ adm itir que el nmero
medin ele llamaclas v en la unidnd de tiE>rnp<> depende del instante t. Ms pre
cisament ~, el nimero modio do ll amadas en el tran.scurso de un intervalo mfi-

79

2.6. Ley d Polton

nltesimal de tiempo (t, t


dt) se debe tomar igual a,, (t) dt, donde la intensidad
del flui<J de llamadas v (t) es la funci6n de tiempo dada.
Es evidente que en el problema en ctiosti6n tambin se cumplen prctica"lllente las condiciones en l as cuales C$ vlida la ley de l'oisson. La probabilidad
de cualquier nmoro de llamadas duronto el intervalo de tiempo (t., t:) puede
-ser considerada indepen<lient o de ninta.s llamadas lleguen en el transcurso de
otros intervnlns de tiempo que uo s~ sobreponen al intervalo (ti. la). Ln llamada
simultnea a la estacin eCeetuada por ms .gue un abonado es prcticamente un
aconttoeiroieoto imposi.hle y la probabilidad do una llamada durante un intervalo de l!empo infinit.esinrnl dt puede ccmsiderarse como una lnfinitosiiual do
orden dt.
Para aplicar la frmula (2.6 . t3), es necc!\l\rio calcular el ntmero medio de
ll~adas en. el tra11scurso del ntorvalo de tiompo (t., t 2}. Es evidente que este
numero es igual a
/..=

J' v(t)dt.

Sustituyendo esta expresin crn la frmola (2.6.i3), hallaremos la probabilidad


buscada de que se l'edban m llamads durante ol intervalo ele tiempo (li. t 2) :
(2

Pm =

,! J

"(t) dt)"' uxp { -

1(

ti

v (t) dt} .

11

En conclusin observemos que muchos ot ros problemas de la


prctica tambin llevan a la ley de Poisson. A.~, por ejemplo, si
ciertos puntos se reparten aleatoriamente por cierta parte de un
plano o del espacio de modo que se cumplen las tres condiciones a
las cuales debe satisface.r el flujo de acontecimientos, entonces el
nmero de puntos que se encuentran en cualquier zona del plano
(del espacio) representa una magnitud aleatoria repartida segn
la ley de Poisson. Ji:n este caso, la integral ele la densidad media de
puntos, extendida a la zona dada, representa la esperanza matemtica de la cantidad de puntos que van a parar en esta zona.

CAPITIJLO ;

Magnitud.es aleatorias vectoriales

* 3.1. Funcin de distribucin

y densidad rte probabilld:1d

de un vector aleatorio

En algunos prohlomas hay que considerar conjunt11mente varias


magnitudes a leatorins. B1 conjunto de cualquier nmero n de magnitudes aleatori~s X1 ,X 2 , ,, Xn es conveuiente considerarlo como una
sola magnitud aleatoria vectorial n - dimensional X cuyas componentes so1;1 las magnitudes Xt> X2 , , Xn. En este caso hay que
tcuer en cuenta que solamente en los casos cuando n = 2 y n = 3,
con la nocin de vector se pueden ligar representaciones geomtricas
directas. As, por ejemplo, dos magnitudes aleatorias X, Y siempre
si pueden co1iside rnr como coorde1wdas cartesianas rectangulares
de un punto aleatorio en el plano. El rarlio vector de este punto con
respecto al origen de coordenadas representa un vector aleatorio
bidimensionnl con las componentes X, Y. De modo anlogo, tres
magnitudes aleatorias se pueden considerar como coordenadas cartesianas rectungul<1res de nn punto a leatorio, en e l espacio tridimensional. El vector con ms de tres componentes no se puede represeu4ar geomtricamente de un modo evidente. Por eso el vector aleatorio X con un nmero de componentes p > 3 debe comprenderse simplemente como el conjunto de magnitudes aleator.ias escalares que
uq tienen uun represenLaci6n geomt.rfoa directa. Para mayor simplicirlad y c;laridad , n<; limitaremos al est.urlio de los vectores aleatorios bidimensionnles. Sin embargo, t.ocla>i nuestras deducciones se
pueden exlender fcilmente a los vcct.orcs aleatorio:; con un nmero
cualquiera do componentes.
Se llama funcin de distribucin de un vector aleatorio liicli111ensio11al con componentes X. Y o funcin con;unta de distribucin de
dos magnitudes aleatorias X y Y a la probabilidad de que se cumplan conjuntamente las des.iguald<idc!I X < x, Y< y, coosideruda
como funcin <le dos vnrioliles x, y :

!" (x, y)

X< :e )
.
( y< Y

(:3.t. 1)

Desde el punto de vi::;ta geomtrico, ln funcin de distriliucin 1lu


un vector aleatorio bidimensional (X, Y) representa la probabilidu<l
de que un punto aleatorio en el plano ~l:l encuantro en el cuadrante
(cuai'ta parte del plano), con el '' rtice en el punto (x, y}, dispuesto

3.1. Funcltn d'- tltstrib11cin y densidad 1/e probahilldad

81

A 111 izquierda y debajo del punlo (x, y) (fig. ~.1. 1 ). Conociendo la


funcin de distribucin dol vector aleatorio fo' (x, y), se puede calcular In probabilidatl de que ol punto
alcalorio ~e encuentre l'll cualcsqucra
z.o nas 1ectaogulares.

EJt'mplo 3.1.1. Es [~cil Vt'r q u11 In probabilidad de <1ue el ext.r~auo <lel vector alea-

torio (X, Y) se encuentre en la milll.d sombreada de la banda, mostrada 011 la fig. 3.1.2,
so expreM mediante la func111 1ln di~1ribu
cn por In frmula
1'

(~~ ~'<ll)

=F (x,<\)-Jl(;r,y). (3.1.2)

Fig. 3.1.1.

F.jc111r.10 3.! .2. El rect.111gu lo mos(.rno en In fig, 3.1.3 ~e 111wh c.0 11sidcrnr
como lo 11Jf,.re11ciu th' clo~ ~mibnndus nf1 itas del ti110 examit111tlo 011
j~m11lo

ru ..

l'ig. 3. U J.

nnlcri or, l'<>r eso. e11 virtud Je la frmula (3.1.2) 111 prouubiliolad de: que d puroto
aleatorio (X, Y) se r.ncuenll'O "" rl rrclngulo :<e <1XJWt<rn mc11itu1L1> Ju u1.-i11
tl e tlistrtmrin por l: lrmnlu
/> (

~' ~ ~ ~ ~)

= F (fl,

b) -

f'

(fl,

y) -

: (a, b)

+ . (a. ~>).

(:'1.1.31

Lo rnsmo que rinrn 111!1\ magnitud aleaLol'ia esc;ol:ir se puedo


definir la densidad de la probabilidad do un vector aleatorio. So
Llnma dcnslclad de la prob<tbilidad de un vor. l.or nlontor io (X, Y)
o de1i~idad conjunta de la probabilidad de dos m:1gniL11dt-s 11lcat.orio1;
X '' Y ni lmil.c c11) 1,. rrlm:in entre In prob11l>ildMI ,fo que su t.'Xlromo se oncuent.re en nna :r.01111 ioliniLesimal y el i'Ll'en de e:>ta zona
al co11t111cr csla llin111 "'' uu 11unlo:

z <.: X <z+t\r )
r P ( 11<Y<v+ti.u
/(x, y ) = e.::~
/!a y

(J.1.4)

Au-o

En vrLud de esta de:fini.t;i n, la magnitud f (x, u) dx dij rcpresenLn,


con on;i exactitud hasta inlinitcsimales de rdonoi; superior11s, la p10bubilidad de qu1;1 un punto nlc11lorio (X, Y) se encuentre en el ract11gulo infinitesimal cuyos v6rtices se ballun en lo.s puntos (x, y).
6-0938

Cap. ,g Ma11nltues aleatvritis vectorialt.

82

(x + d.x, .11), (x, y-f-dg), (x + dx, y+ d.11). Debido 11 ~to, la pr(}babilidad de 11ue un uuto aleatorio S con las coorclenadns X, Y se
eucucntrc en una zona culquie.ra B del plano (fig. 3.1.<1) es igual
a la integral de la densidad de la proliabilidad extendida a Ja zona B*):
P(SEJJ)=

J~ J(x, y)d:~dy.

(iU.5)

Puesto que In integrnl deiinida no depende de


cmo e;;tiiu designadns las variables rle integracin, la frmula (3.1.5) puede ser escrta
en la form a
3:

P(SEB) ~=

r \ f (u,

Jn

v)dudv .

(~t1.fi)

Fi. 3.IA.

La funcin de distribucin e.le! vector alcll1torio (X, Y) representa la pr.obnhilidad el~


que ol punto aleatorio (X, Y) se aucuent1e en el cuadrante con al
vrtice en e! punto (x, Y) (fig. 3.1.1). Por eso, aplicando la frmula
(3.1.6) podemos expresar la funcin de distribuci n del vector a leatorio po t rncdio de la densidad de la probabilidad del mismo:
y

F(:i:,

J f(t,v)dl,l.dV.

y)=~
- oo

(3.1.7)

OC)

De la fr1J1ula (3.i.7) se puede obtener t amb in 11.1 r-onclf1ci11


inversa, es decir, ln expresin de la deusidad de fo probabilidad
del vector alllatorio (X, Y) por medio de su funcin de dist.l'ibucln.
Para osto e~ suficiente derivar la frmula (3.1.7) una. vez con rcspeeto a x y una ve7. con respecto a y. Entonces , de 11cuerdo con la
regla de la derivacin de la integral definida con respecto al lmite
supedor, ohtondremos

_
f (X, Y) -

IJ2J7 (z, y)
iJzi!y

(3. 1.8}

Ahora bien, la densidad de la probabilidad de uu ver,tor aleatol'io


bidimensional es igual a la segunc.la derivada mixta de la funcin
de distribucin del mismo.
Examinemos ahora las propiedad.es fundamentalC!S de la fu.nciu
de distribucin y de la densidad de la probabilidad del var,tor aleatorio. Estas propiedades se semejan , en lo principnl, a lM de. 111 densidad de la pr.oba.bilidacl y de la funcin de distribucin inherentes
n. una magnitud aleatoria escalal'.

J~l

signo E e;; ul do porleJlonciu. Lo. notacin S E n significa que el puoto

S pcrtonere n la zona 8.

.~

iJ.J. Pu11cif.n de dlstri/JucUm y dcnsiqatl de probobilitfitd

83

En primer lugar, l a funcin de distriuucio no puede ser mayor


que la unidad ni tampoco puede ser negativa:
O~ F (x, y)~ 1.
(3.1.9)
En segundo lugar, si el punto (x, y) so tl'asladu hacin arriba o a
la derech a, la probabilirl11d de que el punto aleatorio se encuentre
en el cuadrante sombreado de la fig. 3.1.1 no puede disminuir. As
pues, la funcin de di..stribncin de un vector aleatorio es la funcin
no decreciente de cada uno de las variables al tener otra variable
un valor fijo.
Ms adelante, si x _. - oo, entonces Ja probabilidad de que se
encuentre en el cuadrantl' con el vrtice en el punto (x, y) tiende
a cero. P ues bien,
P (- oo, y) = O cuulcuit~r1 que se11 el 'ulor dr: y,
(B.1.10)
(:1. 1.11)
F (x, - oo) = 3
idem x
S i y - oo, entonces el a<:ontedrniento Y< y t iende a un acontecimiento cierto Y< oo y 1n probabilidad de que so curnplnn conjuntament.e las de-'ligualdades X < x, Y< y tiende a lo probobi.lidad de que se cumpla l a desigual dad X < x, es dec ir, o Ja fUJ1cin
de distribuci6n de 111 magnitud Ale11toria X. Design1111do est.A fun-
cin de distribucin con F 1 (x) obtendremos la propiedad siguientede la funcin de distriliucin de un vector aleatorio:
F (x, oo} = .P (X< .2:)

F, (x).

(3.1.12)'

De mc)dO amlogo, dl:!::iignl)n<lo 1;1 [uncic'>n <le dist.rih11cic11 cl ti una


mngoitucl alcat.ori 11 Y con F 2 (y), obtenclre111os

F (oo, y)

= P

(Y< y) = F2 (y).

(3.1.13)

i\horu bieJl, si uno do los argumentos ele la fund6u de distriliu-


cin de un vector al eatorio se LomA igu1d Al infi ni to , ohttmdrnmos
hl funcin de distriJrnciu de la COJ1Jponento del vector nlcntorio
correspondiente a otro argumen to.
Por fin, cuundo x ..... oo, y - oo e l cumplimiento de las dcsiguuldades X<.'< , Y< y t:iencle a u11 acontcl'imieuto cierto. Po r eso
Jl(oo, oo) = 1.
Pa~cmos ahora aJ estudio de la!; propiedades de Ja densidad de
Ja p:robabilidacl. Directamente de Ja definicin se dcil 11ce qut> la
dum;idad de la prob11bilidnd de 1111vector11le11lorio llC> puecle ser ncgativ1.1:

f (x,

y) ~

O.
(3.1.-15}
Luego, en el. haciendo en (3.1.7} x =y = oo, toniclulo en cuenta
(3.1.14) y el hcc.ho de que la integnil definida no

d~pende

do la desig&*

84

nncin de las

Cap. H M a:nita,U, aleatoria. uectorialc.


variable~

1lc integracin, obtcndrernos

"" ,.

J J/ (:t, y) dx dy = i.
-

(il.1.1G)

\ >0-(11)

Esta frmula se pllerlc ohlencr tambin apJicun<lo l11 I<rmula (3.1.5)


n todo el iilano y teni ouilo en consideracin que el hecho de que el
punlo nleatorio vaya n pnrar on cualquier nullo del '(Jlnno, i11cliforc11tcmentc de en cul pr.ccisarn ontc, re1ll'e.5or1t.u 1111 ncontcci miento
cierto.
Su1J011iondo que en la Crmula (:~ . 1.7) y= oo, Lonicn<lo en consi!lcrncin (3.1.12) y :;ustituyc11do 1u v nriahlc de integracin v por
y , ohh~n1lrcrnoi>
.Y

OC

(!:U .17)

F, (x)= } dri ) f(u , y)dy.


- oo

- oo

Al dcriva~ tista frmula c.on respec.to a :i:, obtendremos la expresin


de In densidad de la Jll'obabilida<l / 1 (x) de una magnitud aleotoria
X por modio de la densidad conjunl;a d1~ l a probabilidad de las
J1111g11itude:< alcaLoria~ X e Y :

/i(x) =

(:~.1 .18)

j(x , y) dy.

Oc modo scmejant.e expresemos la densidad de la probabilidad de


l n magnitud aleatoria Y por medio d e la densidad conjunta clt1 la
1noba1Jilidad ele los mag1tudes all.lo ~orias X e Y:

""

fz (y) ~-' ) f (X, y) dx.

(3.1. Hl)

Por consiguienle, para hallar la 1lcnsidail de Ja probabilidad de una


componente del vector aleatorio, conv iene integrar la densidad de
la probabilidad del mi!lmo respecto a 111 variable correspondiente
a la otra componMle._
Ejemplo 3.J.:l. Bl vcct()r INttori(1 con l u.~ c:omp1>neutcs X, Y est rep artido u niformemento den~ro ele un rectngolo :
(
1
:r.,

) _

Y -

{ii'
O

ab

si 1x 1 ,,;;; a , l 11 1 .;;; b,
1x 1>a o 1y1 > b.

si

Ballar la Cunci61t de distrihuclu del vector aleutt>rio y las


probabilidad de r.ada una de las componentes.

(3 .1.20)

den.~idades

el e la

il.f. Fwu:wu do

di~tril>ue1n

Sulituyendn la cxpt"<'~i611 l>Arn la


en la f6rn111h (3.1.7), nblA!nclreuws

+
+

(x
a) (y
(z
a)/2a
(y+ b)/2b

I' (x. y)=


{

85

g den.idad d; probal>ilidod

d~fidacl 11~

+ )/4ab

la

si 1z 1~ a,
si 1:i: 1 < a,
si x > a,

s
si

<

prob~bil id ad

(3.1.20)

1 y 1:.;;; ,
> b,

l 11 1 < b,

-u,

<

(3.1.21)

- b,

1
x > a,
y > b.
l'or las frmulas (3.1.18) y (3.1.19) hallamos l:1s d~naidodes de las probabillddos
/ 1 (x), t. (v) de )as con1ponenles X , Y:
1' (")

r ' 12a si

- l

1% 1 " a.
si 1 z 1> a,

) ,_ { 1/2b
I 2 (V
0

s'.

SI

(3.1.22)

1 y 1 <; ll,
11/ J > /J.

Venios 11ne cada 1101\ 1111 ltts compononl.<>s del vec lcll' ulcotol"io. t'\pnrtido u111formemu11to un d Tectngulo, 1ambl6n se l1alla olisLl'ibuid:t unlormemcnt on 111
segmon t-0 c.orrespond~ni...
Ejemplo 3.1.4 . El V<X'l.o r ukatorio con lus co111po11u11tes X. Y est: repartido
unifonnemente denlro ole umo dipe:
z: , V:
1
na/J ~ ~ -r ... l.
(3.1.23)
i (z, 11) ~
. .,~
y~
{
0
Sl -;r+b'!
1,

>

Hallar las donsldades <le 111 1rob11bilidad J e las componentes dol vector aleatrio.
Suslituyendo la expresin (lU.23) !n las frmulM (3.1.18) y (3.1.19), hallamos
b ....... t -<.-..:/~)'~

00

/1 (r)=

Jr t (x,

11)

Jr

1
dv=-;;

2 }/ /
<lv - ru;

1-

("'7 )2

_,,.,~ ~

As rues,

{t{z)={ :a;/1-(~) 2

1:i1...:; a.

(3.1.211)

si lz J> a.
l)o nrndu somojanto se puede hallar La densidnd de la rrcbnbilidad /2 (u):

/:(ul-

~
nb

I-

(b, )2 si l!il < b.


si

(:l.l.25)

lvf>li.

Vomo11 qu... a distincin del ejomplo 1mterior, ~da 1111n lo J.1., ~owponlntcs del
veewr aJMtorio, repartido unirormomente denlru do In elip:IO. oo est. suhor-

ilinada n In ll')' de wstribiu:in uniforme.

D1! 1111 modo complot111ncnte anlogo ~e doterminau 111 funciu


de distril.Jucin y la densidni.l do ln probabilidnd de u11 vector ,, lcalorio 11-dimensional X cuyas compononws :svn inug11itudcs alcl\lo1:ins
X,, ... , Xn Se llamu /uncitn de distribucin del V1JcLor uknturio
X 11 h 1 probubilid.a tle <uo se cumplan conjuntnnicnte las clcsigua ldadcs XJ < Xt, X 2 < x: . .. ., X,.< x,., co nsiderada dicbo prob11-

gr,

bllid11cl comu [uncin de las v11riabll'.'I


1

Xi. .,

X1<x1

/l(:r.1 , . , XR ) ~ p \

l =

x,,:

. . . . ' ,,

(3.1.26}

So denomina densidad de la probabilidad d1i l vector aleatorio X


al lmiLede J.a re lacin de la probabilitl a1l de que el veclorseoncnentre en 1111:1 1.nna infinitesimal, u la mugnitu1I tic esta zona al contraedn
en el punto:
!'

/(.r,, .. .,

(:t <;, X

lin

l:n) =

:ll'J:

-o

<x1+6.r.1 )

1 ~ . . . u.

(:~.1 .27)

6x1

i~l>' n

Todas las propiedades de la fuocin tl11 clistrilluciu y 'le lu


densidad de la probabilidad, deducidas ante riormente para los vectores nlealorios bidimensionales, se extio11d1111 fcilmente a los v~cto
re.~ de un 11n11!rn cualquiera de diooo1L'lionc~.
E 11nmcrcmos esta!! propieclades sin deducirlas.
Ln f1111c i,11 de distribucin de un ,octnr ulont orio no es negativa
y no pued e ~cr mnyor que la unidad.
Si por lo mono5 una de las vnriablcs x1 L<irtrn el valor - oo, 111
funcin de di11triliuci611 es igual 11 coro.
S i cuo losquilira m da las variables x 1 , ., Xn tornan el vn lor
do oo, la !uncin de distribnciH del ver.tor a leator io r~-dima1Lqiona1
se hace igual a In funcin de distrib uciu tllll co rro!ipondiente vector
alcatori c n - m-dimensional.
Si x 1 = x 2 = . . . = Xn = oo, hi f1111 cin de dislri buci't es
igua l a In unidad.
La funciLt de d i!!Lribucin es la fu11cin 110 decreciente de cada
uno <le los argumentos.
Ln [uncin d e distribucin y In densidall <le la probabilid111l
estn ligadas por !ns relaciones
,..,

F(x1

., :in)=

/( ~~lt

:tn

l ... ) f(u

"'-- ) - ' ""' -

1,

.. .,

u.,)du, .. . du,.. (3.1.28)

(3 1 29)

i)11f(%, ,,., Xn )

8ziiJ:r: . Ox,.

Ln densidad de la probabilidud de un vec.t.or aleatorio no es


neg11liva, y lo integral de la misma , por toda la zona de valores
posibles de las magnitudes aleat orias X 11 ., X,., es igual a la

unidad.
Si se integra la detl!!idad de la probabilidad de un vector aleatorio ri-dimensional con respecto a cu11lesqu1er11 m de las variables
:i., . ., :in, como resultado se obtend r la densidad de la probabilidad del vector n - m -dimensional formado por las componentes
correspondientes n las dems variable.o;.

.1.2 . 1"uncto11<'s cnndicionalcs <k distribucin

87

Ejemplo 3.t.5. Se conocu la densidad do la probabilidad f (x, y, : ) de un


vector aleatorio tridimensional con las componentes X, Y,
Hall u las densidades do la probabilidad / 1 (.r) , fi (y) /~ () de las componentes X, Y, Z por
separado y las densidadE!$ de lt1 pr<>liabi11dad f,z (x, y). f, 3 (.r, ), t. 3 (y, ) do
los vectores bidimensionales (X, Y), (X, Z) , (Y, Z). obtenidas al iiroyectar el
vector aleatorio (X, Y, Z) sobro los pin nos Oz.y, O.rz, Oyz respnctivamcnte.
En virtud de la ltima propiedad do la dellSidad de la probablldad tenemos que

z.

f{x)=

- ?O

y, z)ddz. f:(y)=

1-a (, ) =

f(:r:, y , z)dzdz,

"'

..J

f (-1>, y, z) dx dy,

-oo -oo

/12 (:r, y) =

J .~

- oo

JJ
00

/a() =

J ) /(x,

..

f (.z, !f, : ) dz, / 13 (x, z) =

Jf

..J

(3.1.3-0)

f (x. y.) d,

(x, y. zJ d:r.

Ejemplo 3.1.6. La probabilidad de que un punto aleat-Orin con las coordenadas (X, Y, Z) so encuent re en la Z<>na dada B del espaco tridimeosional
se deterwina por la frmula
P (SE

n, ~

~ (x,

y , ) d .. dy dz.

(:.\:1 .:11

3.2. F unciones condicionales de distr ibucin


y dens idades condiciona les de la probabilidad

En l a prctica s uige con Irecuencia la necesidad de hallar la


ley de distribucin <le una roagnilud aleatoria X a condicin de que
ot ra magnitud aleatoria Y tome el valor comprendido en los lmites dados y1 :;;;;; Y < y2 De acuerdo con eslo ~e determina In funcin courlicional de distri.bucin de la magn itud aleatoria X rnspecto
al acontecimiento Y1 :;;;;; Y< Y2:

(3.2.1)
Ahora hien, la funcin de distribucin de la magnitud aleatoria X con
respecto al acontecimiento y1 :;;;;; Y < Yz representa la probabilidad
condicioual de la desigualdad X < x con respecto al acontecimiento
quo consiste en el cwnplimiento de l a desigualdad y 1 :;;;;; Y < y 2
Lo mismo que toda probabilidad t:ondicional, esta probabilidad
se determina por la frmula (1.3.G). Tomando en esta frmula por
acontecimiento A el cumplimiento do la desigualdad X < x y por
el acontecimiento B, el curnplirnien Lo de la desigualdad y1 :;;;;; Y<

l'ap . t MaRnilu.dn at.:a1orla1 IY"tl<1rlolri

<Y:. obtc111lremos In signierllc cxpresir1 Jlnrn la fo.ncin conilicionol 11(' distribucin llo la miignitnd nl ealorin X:

'' 1 (X 1y., Yz) =

P (

X < "
YJ .,;.

Y<
U2
< Y:
1

p ( .,,. v
Y1 <> '

(3.2.2)

Ambas probalJ i 1id arle~ t'n es ta frrnu.la :m pueden ex ncsar JHlr 111cdio
de ln densicfad de la probabilillacl rlcl wctor aleatorio (X, Y). El
c11mplimicnl-0 conjunto do las clesigualdade;. y, ~ Y< Y: y X< :e
corresponde al hecho de que el punto
aleatorio (X, l") 11e encuentre en In mila1J
rle 111 uamla mostrada e u Ja fig. :'l.2.1. Por
eso valind onos de In frmula (:1.1.0),
}uillamo:i

P (

\'.' <

'/ y x

Y1 ~

<Yz

""

J ) f( , o)du.dv.
X

_..

!12

11 1

(3.2.3)

T.a proLnbilidad en el <lenominmlor del


:;egondo mie111bro de la fnnufo (3.2.2)
se expresa por medio t.le 11.1 deu:;i1lacl de fa probabiliclad de una sola
Fi. :i.2.1.

mngnilu<l nlcatoria Y:
l'i

/>(y, ~ y< 1/2) = -~ /3 (JJ) tly.

(:'l.2A)

u,

Sustituyendo liis oxpresio11es (3.2 .3) y (~.2.lo)


ohlenrt remos

la frmula (3.2.2),

ji.

t'fi

dri

f f (11. u) dv

F, (z 1 Yt. Y2) = ---'- vi-"-=-1- -S t:<11l au

(3.2.!))

11 ,

Derivando esta frmula con ro.~pecto ax. se puede hallar la densidad


corulicional de lo. prohabilid ad de la magnitud aleatoria X a condicin do que In magni tud a leatoria Y tome el valor compreudido
en Jos lim ites Y1 ~ Y < u2:
Vz

t (z.

v) dv

(3.2.fi)

,9 iJ.2. Funciom:s conclictonale1 de distribucin.

$()

En esta frmul a hemos sustituido en el numer<1dor In designaci111 de


la variable de integracin v por y.
Do todas las leyes conclcionales tle (listribucin de la magnitud
aleatoria X , correspondientes a distintos v11lores tia y 1 y y 2 , la ley de
distribucin ele dicha magnitud a condicin de que la magnitud Y
tome un valor determinado de y es la q11e tieno mayor impo1tm1cii\
prctica. Para 11brcviAr. llam oremo~ a esta ley sencillamente ley
condicional de dlstrtbucwn ele la magnitud aleatoria X para el ,:llor
dado y de lo magnitud aleatoria Y. Para hallar esta ley condicional
de distribucin se puede hacer eu las frm ulas (3.2.5) y (3.2.H)
Y1 =y, y 2 = y -H~Y y pa~ar ul lmite cuando ti.v- O. Suponiendo cu la frmula (3.2.6) y 1 = y, y 2 = Y+ .y, considerando las
funciones f (x, y) y / 2 (y) continuas con respecto a y en el intervalo
(y, y + .y) y aplicando 11 las integrales en el numerador y el <lcnominador el teorema de la 1J1ecli11 , obtendremos, despus 1le red11 cir
(l.U .y,
f (r, y-l-06y)
(3.2.7)
f(xly,y+. y)
/2 (+ (} ,6y) '
donclc O y 0 1 son ciertos nmeros comprendidos entre el coro y h
unidad. Pasemos ahora 11! lmite cn11ndo .y - O. J~u este C'1!:'0, para
simplificar, omitamos lo ~l!gu nd ~1 lotra y y dasigncmos por / 1 (;r. 1 y)
la dellliid ad ~:011clicio11al tle la pr<>h11hilidacl de lu magnitud aleat ori a
X con rospecto a h1 uwgnil.wl olcatoria Y. EnLvucos vbLorulrcn1os

1y) -- ! f:
(>:, y)
J.1 (
<
(}

('' ?

8)

>- - .<

De modo somej.;mte obte1ul remos la I6rmula puru h1 densidad condicional de Ja probabilidad do Ja mag11 it.ud a leatoria Y con rc;;poct.o
a In 111agnit11d X:

f 2 (y 1X )

! Cx, y}
/ 1 (x)

(3.2.!))

Las igual<larles (:3.2.8) y (::l.2.9) so pucdo11


f (x, y) =

11

(x)

/2

(y 1 x) =

c~crihir

(y)f 1 (x 1 y) .

c:-11 ln forma
(3.2.10)

Estu [rmula e.xJ.lresu el leorcnin de mu ltiplicacin de la:; deusidades dE:: la probabilidad : la 1lcnsidad coujuuta de la probabiflatl
ele dos magnitmles tleatori:i s es igual a la dcJLsidad de la prolJnbilidad de 1wa de ellns mu lt iplicada por la densidad condicional ele 1 ,~
otrn c.on respecto n ln primern.
La:; 11wguiLulles aleatorias X y Y SlJ llainan dependientes , s i
los acontecimientos que consi:;t:en en el cumplimiento de las desigualdades X < x y Y< y iion dependientes por lo menos )llll'a un
par ele vn lores dn x y y. Las magnitudes aleatorias X, Y so llu111u1
inde.pendie11tes, si los acoutccimionlos quu consisten en el cumplimiento do las clesignnldadcs X< .1: y Y< y sou inde.pe11die111.e:;

11ara cualesquiera valores <le x, y. J::n lo que se tefiere a lns magnitud e~ aleatorias iudcpeudicntes X , Y, la funcin conjunta de distriJmcill P (x, y }. en vir tud del teore oia do mult.iplicnciu de las
probabililladus para los acontecimientos independientes, es igual a

X<x) = P(X< x )l'(Y<y).


F(x, y) = P ( Y<y

(3.2.11)

Pcl'O el primor factor en el segUJldo miemlJro es l a funcin de distribucin F 1 (x) de la magnitut1 al eatoria X y el segundo, l a funcin
-d~ 1lislrib11ci6u F 2 (y) de la magnitud aleatm:ia Y. Por consiguiente,
F (x, y) = P1 (x) F ~ (y).
(3.2.12)
As puos, la funcin conjunta de disl-ribucin de las inaguitndcs aleatori as X e Y es igual al producto de l as fUJ.1ciones do d istribucin
de las mismas. Est a coudiciu es necesaria y sticiente para la
indopencloncia de las magoitude5 aleator ia.; X, Y . Esta condicin
-elche cumplirse id t!n t icamente, es decir, para cualesqui era v alores
do x e y . De ella se puede obtener la idenLidad anloga para las
~l cnsidndes de la p robabilidad. Derivando l a identidad (:3.2.12)
rnrn \"ez con respecto a x y nna vez con respect o a y, obtendremos

(x, y)

= !1

(x)

/2

(y).

(3.2.13)

Ahora bien, l a densidnd conjunta de la proba bilidad de las magnitudes aleatorias independientes es igual al producto de las densidades de la probabilidad de las roismas . Esta condicin es ta01bin
necesaria y suficiente para que las magu.itudes aleatorias X, Y sean
.indepen<l ient.cs.
Comparwdo (3.2.13) con (3.2.10) llegamos a la conclusin de q uc
para lns magnitudes aleatorias independientes X, Y

f,

(x 1 Y) =

f 1 (x), 2 (y

1 x ) = f z (y) .

(3.2.14)

As pues, para las magnitudes aleatoriru; independientes sus densida-Oes condicioniles de la probabilidad coinciden cou las incondicionales . Esto concuerda completamente con nuestras ideas intuitivas
acerca de la dependencia y. la independencia de las magnitudes aleat orla:s: si llega a ser conocido el valor de una de las magnitudes aleatorias, mientras que la ley de distribucin de la otra magnitud no varfo, entonces las magni tU'des aleat orias son independientes. As
pues, las iguald"a des (3.2.14) reflejan el hecho intuitivamente comprendido de que las magnitudes aleatorias son i ndependientes
i311tonces, y solamente entonces, cuando el conocimiento del valor
de una de ellas no vara la ley do distribucin de la otra. Con otras
palabras , la informacin que obtenemos fijando ol valor de una de
las magn itudes aleatorias 110 contiene ninguna noticia acerca de la
segunda magnitud aleatoria.

.lf 11.2. Funcinn<s cottd/( conalt> dt dislributllin

91

Ejemplo 3.2. J . Hallar las densidades condicionales dfl la probabilidad do

las com>ouentes de un vector nlrntorio unlformcmonto repartido dontro del


rectngulo 1 z 1 < a, 1 y 1 < b .

Usando los resultntlos del ejrm11lo 3.i.3, por las ()rmulos (3.2.S) y (3.2 .9)
hallamos
J (:r ( )= f(:r, y) ~ {l"lo si z
l ll l
(3.2.15)
1
11
/ 2 ()
O si l z l >a. lv l)> b,

<a.

<b,

1z1<a, l 11 I < b,
si (z l >a. IYl :;>- b.

( 1a:)= i(x. Y) = { 1/2


'V
fl(.i:)
O

si

(3.2.10)

Es evidente C\Ue !ns componentes del vcctw aleatorio 90n !ndependien~. puesto

qM sus de.ns1d11dcs condicional(IS do ln pn1babilidad conciden con las lncondlclonnlcs.


Ejemplo 3.2.2. Hallar las de nsidades condicionales do la probabilidad de
ateat.orio repartido unifonnomenlAI dentro do la elipso :t!-/ol +'lb' - i .
Susttuyendo en las frmulas (!:.2.8) y (3.2.9) l as ~xpres!ones (3. 1.23)
(3.t.24) y (3.1.25). obtenemos

UD v~t.or

/d.t 1.vl {

y1
2a V J - (y/b)'l sl 1x1 <a 1- (y/b)'l.
O

si l.t l >aV! -(y/I>)~.

,~

si I Yl<bVl- t.i/a)I,

2b V 1- (.r/a)

f:!Yl zl c: {

~ I Yl>bVt- lz/a)i.

(3.2.17)

(3. 2.18)

A uiierenci 1lel ejemplo 3.2.1, las compooentos dol veetor aleatorio u nlla olipsc
dependientes.

""

formcrooute ropartldo dentro <le

De modo completamente somejanle se determinan las iunciones


condicionales de distribucin y lns densidades ele la proba1Jilld11d
de los vectores ale alorios. Co mo rcsuli.ado obtendremos Crmula:s
absolutamente idcln~icas a las llcclucidas para las mu;ni Ludes fllenlorias escalares X, Y.
En particular. obLendremos el teorema do mnltiplicacin de las
densidades de In irobabillnd de los vectores aleatorios: la 1le11~i
dad de In probobilidad del vector aleatorio n + in-dimension11I
obte1tido por mect io de la unin d el vector aleatorio n-dirncr1:sio1\11l
X (X 1 , Xn) y del vector alea~orio m-dim cusional Y (Y" .. .
. . . , Y m) es igual al producto de la densidad d o 111 probabilidad ele
uno de ellos por la den~idad condic:ional de In prohahilidad del otro;
f (.:t, , . . . , x,,, Y1 .. , Ym) ... f, (x, .. x,.) /2 (y,, ...

., Ym

1 X11 ., :r.)

= /2 (y,,

, X n

Ym) /1 (.r,,

(:U .rn)

j YI .. y,..) .

.t:s CYidente que si se designa el coojunto de las variables x 1 ,

. . . , x. por una sola letra x y el conjunto de las

variable.~

y1 ,
. . . , y,,., por una sola lotrn y. entonces la f6rmuln (3.2.19) tomRr
la forma de (:i.2.'JO). Pues bien, lu frmulu (3.2.10) es vlicln tam -

92

bin para las 11rngnitud(ls nlcnl.ol'ias vectorii\lcs X. Y, si poi- x, y


se c11liu11den las \'aria bles vectoriales correspondientes. En el nirrufo
untcrior vi rn o.~ qua tambin lus f.rmulas (:l.1.18) y (3.1.1!)) 11011
vfh1s para las m11gnitude11 :deatorias vectoriales X, Y. si pot
x, y se onti.ellllcn los vnriab les vectoriales cont'~!JOl'ldientcs y la ~
integnlle~ se e nticnJtlH como lut.cgrnlc~ rnlti ples <ill las r1111l tip l cid11dcs C01'rcs11011d ion to~.
Oo:s vectores ahmlorios X, Y se llauian indepeudienws, si el
acontecimiento A que consiste en e l cwnplim.ieuto conj w1to dc todas
la!! desigu11ldadcs X 1 < x 1 (t = 1., .. , n) y cl acontecimiento B
que con:si:ste en el cu11111li11tiento conjunlo rl1 Loclns lns desigunlcl11de11
Y< y1 (j =1, .. ., 111) son iml.ependientcs para todos los v11lores
de las variableis xi> .. , Xn, y 1 , , y,,.. Si e.Los 11co11tecimit>ntos.
son d e11enrlientes poi lo roouos p11ra un co njun to de valores <le lus
vnl'iables x 1, , x,., y .. ... , y ., h1s vectores aleatorios X, 1' son
depcudieutcs. De coutlicin necesaria y s uficic11tt' >al'll que los vcctorts a leatorios X y 'Y sean i11depcndient.cs s irvo ilt igualclitd idl-n~i co
de s u UJlcin conjunto de d istribucin (o ele In tlern<idad de l a proballilidnd) a l producto de sus funciones de distribucin (de l3s densidades <le Ja probnbilidad, res pectivamente) o 1>1 igualclad idntica
de s us densid ades coutl icionnles de In probahilhliicl u los incondicionnles. Ahora bien, cado wto tle las idcnliclodc::= (3.2.12), (:Uu:3)
y (:'1.2.H) G8 la coll!liciu lll!t:escria y suficiontt para que los vectores X, Y sean indepe11c.li1mtes, si por x, y se e nti enden las variable:;
voctorinles co rrnspondienleis.
Apliquemos ahora el teorema de multiplic11cin de li1s donsiclndcs.
de 111 probnbilidnd a u11 vector n - 1-rlimens io nal X con la~ com>onente~ X 1 , , X,. _1 y a un vector uni<lirueusional (es tlccir, ni
escala r) Y = X" . Luego apliquemos e l mismo Leorema nl vector
tl - 2-Jirnensionol (X,, ... , X,,_ 2 ) y 111 ei;calnr Y= X,._ 1 Procc<liendo ele tal modo tnmbin eu lo sucesivo, obtentlre1nos 111 sigaientcfrmnla general para la 1lensidad conjunta (le la probabilidat.I de las
m agnitudes aloatorinH X 1 , , Xn:

f (.'tt. - x.) = /1 (x1) li (x2 1:i:JJ (x3 1 X11

.t~) . , .

. n (xn 1x., ... ,

Xn - 1)

(3.2.20}

Las magnitudes aleatorias X, .. ., Xn !!U llaman i11.dependiente,<"


si dos vect-0res cual esqu iera, que so p ueden form ar de estas magn itudes
aleatoria~ y que no contienen componentes comunes, son independientes. Con otrns palabras, las magnHndes aleatorias X 1 , X,.
son indepe ud.ientes cuando, y solamente c nnn<lo, cnda mag1t111l X r
es in<lepondionte de las dems magnitudes X 1 . X1 _1 , X 1+ 1
. . . , Xn tomadas por separ1\do, dos a rlos, tl'e!!- 11 tres , etc.
Cada vector bidimension al (X 1 , X) es ind ependiente de las
<lemb magnitudes torondos por separarlo, dos 11 clos, t.res a t.res, cte.

''

3.~.

Funcion,.s

(Ondtci11ncd..cs ,C' dlrtrtliw;ihn

De la frmu la general (3.2.20) se deduce que la rlensidad conde l a Jlrob;ibilid11d de las magnitude.c; aleatorias independientes es igunl ni inoduclo de sus dens idades de la probabilirlad
f (x., .. , Xn) = 11 (z1) f~ (.r2) .. . fn (x,.).
(3.2.21)
jWlta

Esla condicin es necesaria y s uficiente para que lns magn itudes


X 11 , Xn sean independ ientes.
Ejemplo 3.2.3. Su11o niamos quo un rcccpt.or recibo un Lfon do impulsos
(00 l as amplHudos ol<'nlorias z,. z, . .... Zn. Cada impulso 7. rcpresent.a l a
sumn
un ino1111lso ti<! s<ihl ~il s 1 y de un i mpulS<> dt>I ruido X 1:
Z1
S 1 +X
(t
1, 2, . .. , 11) .
L3 misin del det<1Ctor consiste en revelar lo set1nl til , es de(;ir. en resolver e l
problt-ma: conLi~nen o no 101' impulsos reci bidos una sea l 1Hil {informncin
til) o no SI.In ms que impufSl)S rlc. ruido.
Este 'J)roblt>ma Li(.>D(.> gran i01po11Ancin porn lo rccopciin o lnrga distancio,
ya c11e l'D t>.st.& coso 10-'I i111puL""s dn ~iial ~il son comps rnhl~s. nn lo <T'"' toe.a
:i< :ru magnil{1d. con los de ruido y a v.:s son considerablm11ento 111l'norc:.; qu"
d ni\'cl dol ruido.
El princi p io de funciol'nmcnt.o d l'l dclt>elor c:..>nsist.c en <111' s~ dt>ja 1)aSllr
,. ~l'iial Si Cf (Z) > e y llQ )a 1leja p8Sl\T si q> (Z) ~ e, dontll' <> (7,) l'$ c i<'rt:o fu11
c in de Jo.s i mpulsos recibidos formnda por el dctcc,lor ~ r ~ l"i NUl niwl dr
u.mbrnl. CIJn o ln<S palabras. si qi (7-} > e, " ' d ~t.eet.nr tht .. rmiun qun lu:iy ""inl
y si 1~ (Z) .;;; r. l'l dcl<"CIOr dcte1miM qcw no hny seiial.
P.:') Uf,,..~ttriu clc?tet'lOinar:
a) la prnliubilidnd de que t \"uga lugar uno .revclnci6n c-0rrec1a al Nn loar
el mt odo deClo d e l1lttUDient.o d e la sci\nl qul' ~e recibe. C'S 11-.~ir, puo ln f11nd1n
'P y cl ni\'OI de umbral e ua1lns;
11) lus proba bilid ad es C')ll1lidona!l'(< 1l1 que 5t' co1mlru1 on'OJ'e:' 1lc Jo~ t.ipos:
i) l:c prvlmbilidi1d de> que 1n st>iial s~ pirou <a1n11do vx.i:rte l.'U los i1111uls.1s

ne

redbdos;

2) la prob~ltilic!Rcl de nlu rma fa lsa, es decir. ir, pr11!111hilirl nd dt- qur '~
cl..-idn qn<l l1n:v ~Prial itlil cu<iodn l>tu nc1 rl1 isti:.
Pnra <tUc> la ~ohrdn rc'!!lllto i>cr w:s ciare y ~imp!t. ~IJ[lilll~ulrhS qur los
mpnlsos de Sllal itlil roH mnpiluclPS co1wcidas :t'/ . s~ y lo 4"" sn 1l('sc11lC!cc
es sohnncntc cl r<ipio hecho d si exist1n o no en lo so1al reciLitl>< z,. .... z.,,.
Supongl'lJllos t amhiu q1111 cnnuccrnos fo ley de dislrihudn de> los ruidos. r,; cl1dr.
conocemos lo dt>nsidaol le probnbilidnd de los impul :;os porsitcis f (:I'). Y. por
fill. s uponganw:< que 'I< conodd~ la probahlida<l 11ricm sti(o di' la v1('..,11ciu
d o 11> sofol p y. pclr .ousi,?n ien lo. l:11nhi11 la probabilitlacl du lll au!!('ndn de )A

se al ~ = t -

p.
Primeramcmll' eaJ..11fomos los prohobilidades cnnd iciontll'i! de que ~e come
tan errores tfo dos ti pus, l.'S dceir, lu probnhilidod de p~nlicl1t 111: l:o s~r.nl cua11do
st.a e:-;i;11.e y la probubil idud de alarma '8l!:a cu8 ndo In seiial 110 exis t!. P~ro esto
h3llemus la clonsi1hd c<mdicionnl do probabilicfacl do los impulS-Os rccibiclo.o cou
respcc.to n ln scliJI t.il , (: 1x). l'ucisto que. de acuerdo c...,11 Ju conrlicin ad ouitiJu
(es dcc:ir. el vretor c:l\n l a~
l a se11a1 til s tiono solamente dos valorP.ll vosibles:
compo11cntes .<~ s~,) y O (rn1 decir, e l vector cuyn,, compouPntcs soro t odas
igualt'S a cero), es suflcio'Jll<' hallar la densidad de 1roh nbilidnd de la seal rcci
bidl\ cuaorlo est pr~(.>llll' ~ 5l'a! til / , (: 11;) y la Jcrosidnd d<.' 111 probnliiliJad
de h sclial recibida cuond<i foh11 la ~ii1tl '1lil / 1 (i 1 0) . Es t'vid urotu que dndo 1110

Esta mi><>sicin no es de i1111ior1,l111cio. Lfl sul11<"i 611 clel pooblcmA sobre


la ro\Pll\cin ptima clr 1ma i;<>llnl. que se da c11 r.s~e t>jemplo. se n..-.:t irnd" si n
~ml>ios <lo prirocipio. 1.1 1111 caso ms gmwrnl .

tM

Ca. IJ MnJ(tll lut/,,< altatorliu w ctorcaks

ul follar la seiaJ til se 100\bo :solamente ruido, la doll:!idad condicio11al de probabilidad de la seal quo "recibe~ cua ndo oo n>1ti presente la sefial til, coocide con la densidad de prol>abiliand del ruido

f,

<: 1 Ol

(:~.2.22)

= / (z).

En cnso tle quo "st p1e.,onto lu seal til , so lo 11djunta el r uido. f'vr 4lSO I
densidad rondiclonal do probabilidad de la soilal que se reclb~. cuando se tiene
In 5eiial \ttil, se obtiene do lo densidad de probabilidad del ruido f (2') sustituyendo en oll11 el argumm1lu r por la difcrenr.i11 e1Hre el valor posible de la sciial
reeibida ~ y el valor do la seul til s:

Ir< I >= I <-).


Pnn mnyor claridnd, on la Iij. 3.2.2 so mur!!tra Jo dispersin de las rcalii:icio
nes Je ln seal que so recibe, al faltar la seal til, y lo elipso de dispersiu do la

s,

z,

l'ig. 3.2.::.

seal eJJ recepcin. al Cl:llar presente 111 seal lil, pnrn el caso de roccpci6n de
dos Impulsos z,, Z: E~tc dibujo aclal'a 111 dcducciu do la fnnula (3.2.23).
Las frmulas (3.2.22) y (3.2.:.1.3) dotcrminan por comploto la densidad condicional

do probabilidad do 1a se11al recibida con 1especto o la sene.l til.

La p6rdida de la se~al se caracterizn por el beoJ,o de quo, al esta r preJIOnt.0


la seflal, la funcin cp (Z}, debido al efecto de los pttrsitos, result.u ser menor
que el nivel de umbral e o igual a este llimc>. Por lo tanto, la probabilidad
condicional da la prdida de la seal, es decir, la probabilidad de la desigualdad
cp (Z) .;;; e es igual, al tenerse la soal til, a la integral de la densidad condicional de probabilidad (3.2.23), extendida a la wnn determinada por la desigualdad
cp (Z) fO;; e:
Pper.=P (rp(s) < c 1 S=.0)=

~(z~~r

/(s -- tO)dz.

(3.2.:V.}

La alarma falsa so carncteriia por al hecho de ciuc, al estar ausnnle la scfial


til, ln funcin <p (Z) rosulto, debido al elcct<> uel 1u ldo, mayor que el nivel <l e
umbrnl c. Por lo tanto la probabilidad condicional de alarma falsa, r.s decir,
Ja probabilidad da la desigualdad cp (Z) > e, al estar nusente In seal itll, cs.
Igual a ln integral de 111 densidad condicional do probabilidad (3.2.22) extendida.

3.2. Pu"rlones

c()ndiclonal~tt

a l a ioua determinada por la desigualdad q

(~)

9!>

dt dilrtbucln

>

e:

~ f(i)dz.
<~>

Pa.1 = P(1><il>clS=O)=

(3.:!.25~

Pasemos ahora al clculo Je la probabilidad de que se cometa un crrorYn l


resolver el problema de la revelacin de los sonlcs. Para esto apliquomos' lo
frmula de la probabilidad completa. El

deLector puede tomar una docisin falsa


cuando hl\y una de dos hiptesis que forman
un grupo completQ doacontecimientQs iocompaLibles: la hiptesis E, consiste en que
la sefial Ul est presente; su probabilidad
es iguol a ,e; In hiptesis Ei consiste en que
la sel'la l til est ausente; su probabilidad
es igul " q
1 - P. Las probabil ida1les
Fig. 3 .2.:~.
condicionales de un error, tonioodo estas
dos hipUlss. se determinan {IOt l as r1m1las (:~.2.24) y (3.2.2~). SusL1t.uycnrlo ootas oxpre:1iones un la frmula de la
p-robnbilida<I co11rti!eta, para In proh~bilidad do que se cometa un error obtcndrnmos la exprcs1on

Pm. ~ 111'

= /'

(<p(Z).-...c 1S = _.4)+ qP(q>(Z)> e 1S=O)=

/(:-sO)o'2 + q

(l!.2.~li)

/(s)d:,

<zl><

<1<2).,..

L11 probabilidad do que el inhlcrua de la rovclnciu s~ resuelva corrcctu


111e11te so determiuar comC> In probabilid ad do que se produzca el acou\cci111i e nt1>
contrario
t3. 2.27)
]J,. cvrr. -= 1 - l'crr.
Para hacor elculo.s completos, examinernus un cuso rns concrct.o de In
rcccpcin de dos impulsos, ~uxiniendo que los impul>tO$ de ruido sean magnit11d1"
aleaturias independientes, norm:tlmenle distribui1las, con iguales dispersionc.;
D y esperanzas mnlcm,ticAS iguales a cero. En calidad de funcicn e: (z) Lomt'moe la funcin lincnl
lj> (:,, 2) =
b:.,.

'' +

En e~te cnso la frmula (3.2.<i~) loma 111 Iormn


l'vor.

= J' (q> (Z) -~ e 1 S'"' -')-=

lJ

a.z1 bl2....Zc

2~0

(i 1-.c1)f ..Hti -i~)Z

UJ

dz1 tl:z.

Ln iono. do in~l"Jc.in so m11c.,hn en la fig. 3.2.3. Parn calcnlur la i11Wgrnl.

~usl.il11y:11nos las variables ''" 1:11 ruodo quu en la.s nucvus \'ariahlcs "'' 1: In

de intcgr~cin se limit e sulameoto respecto a unn de las variables, digamo~


con l'llllpCcl.o a u 1 mionl.ras rne rrspi:cto a u2 se oxlio11cl11 de -oo hast.'\
r.s
lcil co1nprendei que 11ara cstQ bnsta dirigir ~1 ojo u 1 lcrpcndi<:ularuuJlto a la
rcct11 a z1
bz 2 ,;;;; e y el rjn 1t2 11aralelamonto; a esta roc1>1. Enl.ouccs, Cllllrt <'S
fcil de ~upQMr, Ja,, 111rnvui; variable u1 y ": se 1let.ermi11d11\n por l as fr11111 l 11~
(ln el!c11l11 ~e las nnc\'lts val"iublcs no tiene importuncio)

1.0111<

+""

u, ~

' + bi2.
+

Ut -=: b.t1

0%2

90

Cap. 3 Marnllud"" aleatorias l'llr.torin!n

Ot'spcjando : 1 y

= eu estas ecuaclonc:!. ob~endreruos


au 1 + b11 2
1= a~ + b2
/>1q - a 11z

'+b .
.El hcobiono <fo

~Lu

1Jz 1

t.Junsformncin os igunl n

j;.1

Oi 1

-1
-

~tffl;

a+b az + .b

u:,

1>
a~+/,:&

1.

..,, _

1t~+b\I.

7"; iiu:
,,z b~ C:ou t:il s usliluci111 ele 1as variablll!I, los lrnitos de iutagrac;in se dotouninarn
por 111 doslu&Jdnd 111 .;;; e, 1'~ deeir, In intcgraci<n ~& efectuar do - oo bosta e
eon r.~pr.111-0 a ,., y ele -oc 11asta +oo COJI n>S11nctu a u,. Como resultado, la Irnnrla parn la pmb11bilid111l c.ondiciunal de prdida do Je .se.6a! tomar la forntrt
J> (<r: (Z) ~ c IS= .,0) =
Cu 1 -"f-b~+cu 2 -1>s?+"gn
21J(4&.rllt)
~

'Jn/J (a\.-'.- bS)

du,

'"1-'"-t11:r:
27l1+h1

I! -

du, =

(.-Q.t~-'""'g
l /J(n~')

= ,v.,.,.
;;:;

_.,.

1,

- l
4

'

t= 2

d111lllc (JI (u) e~ lt1 fitucin <le Laplnce.


Dl modo Nmcjant.<1 hallnr~1111>s In
>iusenlt In seiial tlll:

,., ( c - at/-b.<~ )
+ "'
VD (aj-f-b") '

~robobilidacl

( 3 _2 , 28)

do 11larma fals11 al estar

(
e
) . (3.2.29)
. . = P(cf(Z)>c i S = ) = ~-<I>
,.
vo ca+bi)
a.2 ..\. En las condicione~ del ejcml>lo anteTfor hallar el procedi-

Pu r
Ej~mplo

miento ptimo de tr11 t.amiento de Jo. seal roclhid11 por el detector, que a~gure
la probab,11idod mlnima de que se cometa un error y, por consi2Ulent.e, 111 probabilidad mx.lm de una resolucin eorreo\11. Con olra.s palaDr$5, hallar ln
(uncin 'P. y el nivel de umbral e 11. condicin do que se garantlc-e la probabilidad

mnimo. do un orror.
Para resolver esoo problema, aprovecharemos el booho de que

~ f (z-sO) dz+ ) f (:-G) dz =


11(:)><

'l'()<;(c

..Jf

(z--s0 ) dz = 1,

- oo

y l'SCribiremos la f6rroula (3.2.26) en la forma

Porr. ~ P-

'11(<1>c

P/ (s- )- q/ (a)I d:.

(3.2.30

3 . 2. Funciones

<V distrtbu<:iin

co11dicio11ala

97

-Do11qu est claro que la _probohilidad de un error Porr. t iene el valor ~ojmo
cuando la Int egral es mbtma. Por lo tanto, el problema se reaucc a l .leccin
de la funcin qi (z) y la magnitud e-de modo u.!, que la integral en (3.2..30) tenga
el 'olayor valor J>.<>Slble. Es oviden~ que e3ta integral aumenta al aadir. a la
iona de lntevactn tales parces del Spacto del vec1.9r : en lnil cules. la fu'n cin
subintegral es positiva, y disminuye al aadir -a la zona de integtci;l tales partes
del .espacio en las que la fundvn subiutegu.1 os negaliva. Por consigy.leote ,,
,eet.it lntegtal tione el valor mXirno e;n el caso el\ que la zona de integraCin.coincid e con aquella 1ona del espaciQ'del vector : on l a cual la !lincfn slibintegral
es positiva, es decir, cuando la desigualdad
<p (:) > e
(3.2.31)
cquvalo a la de.,igualdad p/ (z - $ 0} - qf () > O o bion

f (i -$0 )
/(i)

':/

(3. 2.32)

>--

Su>Qngamoe aborn que 9 C'-l es una funcin 11.rhitraria, dgurosamenlo crEciente.


Entonces de (3.2.32) so deriva que

11 ( / (zf -(:)sU) )

> 9 (.1.).
p

(3.2.33)

Comparaudo esl.8. d"-SiguaJdad con (3.2.3l ), ''emos que l a funcin


umbral e se pueden determinar por las frmulas
ip(,)= 0 (

/ (;~()),

c=0

qi (!) y

(f),

el

(3.2.34)

En este caso la desigualdad (a.2.31) ser equivalenw a Ja desigualdad (3.2.32)


y Ja f,robablllda<l de una resolucin orronea Pcrr. tc11dr el valor mnimo.
\ em.os que 111 solucin del problema de la rovcl1.1Cin vptima de la seal
en su csr..ncil\ no es unvoca , puP..sto que Ja foncin creciente & (t..) so puede elegir
arbitrariamente. f recuentemente on los p1oblemas prcticos resulta conveniente
tomar ou caJillad de funcin 9 (A) el logaritmo natural lo;,.. En este caso la
funcin cp (i) y el ni vel de uwbcal e ao de~rminan p<H" las frcnuJa:
"'() ~..Jn

.,.

f (: I

e= In 1- .

)
>

("l '> '.-15)


- "

En el ce so psrticul ar cuando se trata de impul sos de ruido indepcudienles


nor maJ m~nte r eputidos con esperanzas mat em\icos lgnale! a eel'Q e iguales
dispeC$iOnes D,

f (r ) =

(Z:i)~' 5 exp

"

~ rf}
2~) 1-1

y la primera lrm1Jla d<} (3.2.35) toma la forma

crll = -

i= l

i- t

i..: t

2~ ~ f(:; -s?)' - zfl == ~ ~ ?z1- 2~ ~

(.-n2.

(ll.2.;l6)

Pues bien, en este caso la und(in ptima cp {z) es Ct1ncin lineal do l os i mpulsos
recibidos, es decir , el detector ptimo es un sistoma llncftl. El mismo resultado
se obtend r en el ca!o de \ID ruido arbitrario normalmente repartido.
La relaci n de las densida des co ndiciooeles de pl'Qbebilidad de la sual
que se rec:lbe al estar presente la s1>.al til y al estar sta ausente se llama relact6n d~ 11erosim tli111d. As pul!l<, el siswma do revelacin ptima debo calcular
la relacin Je verosimilitud o cualq uier funcin creciP.nto do esta relacin y
7 - 0~)3 8

Cap. 3 Ma11nitudts nkaluritrll 1-.,c/orfaks

98

compararla con el umbral c. Para determinar el umbral por la segunda frmula (a.2.34), es nec:esario eonoeer Ja probabilidad de prose.o cia de Ja seal til '
en la sot\l recibida s. Sin embargo, en la prctica est.a probabilidad es de ordinario desconocida. Por eso ol problema de revelacin se rc.suelve frecuentemente
por otro pro~dimiooto, a eabcr, partiendo do la condicin de probabilidad
winlma de p6rdida dela sefial JIPer. dada la probLbllldad do alarma falsa Pa. t ... a.
Para hallar la Iunoiu ptima ip :) y el umbral e con los cuales la probahiiidad do pt\rdida de la sella! es mU1iU1a y lo. probabilidad do alarma falSA
tiene cl Yalor dado a:, se puede aplicar el m&todo de mult.iplicado:res indefinidos
de LBgrange. Entone<--~ el l?roblema se reduce a la det.ermuiacin de la funcin
'I' (i) partiendo de Ja coocl1ei6n de que la magnitud

1'1 =1'per.-l-A.Pa.r sea m nima,


donde . es ol multiplicador imlciiuido que se halla de Ja condicin 1!0 que
ps.t. =c. despus de detennlnar 111 funcin q> (:). Este problema se l'\ISUelva
igual que el de determinaci<n de la funeiu qi () pailendo do la eondic.in de
que la probabil idad comple&11 do errores soo mnillla. Como resultado hallaramos

<p(z\=0'(

l(;c.t )

c=O(i.).

13.2.37)

L ~uuda de estas frmulas determina el umbral e por JDrdio de la magnitud


ineognila A. que, a su vez, se baila partiendo de Ja. condiein de que Pa.t. = a .
Eo luglll' dn esto se puedo determinar el umbrnl e directamente de la condicin
Po.e.
c. dejando la magnitud >. lnd et<:rtninada. Eu efecto, haciendo uso de
la frmula (3.2.25) e igualando l a probabilidad de alarma falsa a La magnitud a;,
obtendremos. para la detormlnnc16n d1l 1lmbral e, la ec:u11ci611

J/

(i)

d~=a:.

(3.2.38)

et()>

En pRrticular, al revelar la seal en dos impul~ indopcndient.es u,,rmalmente repartidos con esperanzas maoomticas iguales 11 cen> e iguales dispersiones D, para determinar PI se puede (!Jllp)ear la rmula (3.2.29) del ejemplo
anterior. pucst-0 quo la funcin 6pi ima cp (z} segn (3.2.36} es en est.e caso lineal.
Comparando la expresi6n do la runein cp (:,, "1) del ejemplo anterior con (3.2.36).
vemos que en., caso en cuesti6n 4 ~ $flD, b = 4/D. Su.sUtuyendo estas expre-

siones en (3.2.29), hallamos

/la.1. "".f-Cll

(eV Ml'~(g)h)

,lguo.J~ndo

esta expresin a la magnitud a, obtenemos la ecuacin para dot-0rminar ol umbral

11>

(e V (stJ!c~l") =~-a.

(3.2.39

Sea v el yvJor del argumento de la funcin do Laplaee para el cual sta es igual
n 1/2 - a:, es deelr. cJ> (v}
t/2 - a:. Comparando esta iguoltlad con (3.2.89),
hallamos

(3.2.4.0)
~hora !len, en estq Cl$O el umbral e se determina directamente por la f6r111ula (3.2.,0) y ln segunda 16rioula do (3.2.37) se hace innecesaria.

S .3. Leyes de di.tribu.ci61' de las funciones

99

,a.3. Leyes de distribucin de las funciones


de magnitudes aleatorias
En los p.coblemas prcticos se necesita frecuentemete )laJla.r .~as
leyes de distribucin de magnitudes aleatorias. que repres~ntajl las
funciones de otras .magnitudes aleatorios que tienen leyes de distri,
bucin conocidas.
Supongamos que la magnitud aleatoria Y representa la funcin.
univoca- dada de la magnitud aleatoria X:
Y=<p (X).
(3.3.1)
El problema con:;iste en hallar la densidad de probabiidad /z.(v,)
de la magnitud aleatoria Y conociendo la densidad de probabilidad
/ 1 (x) de la magnitud aleatoria X.
Hallemos l a densidad conjunta de probabilidad de las magnitudes
aleatorias X, Y. Para esto hallemos primeramente la densidad condicionuJ de probabilidad de la magnitud aleatoria Y con respecto a X.
En el caso en cuestin, para cada valor x de la magnitud X, la magn.itud aleatoria Y tiene el nico valor posible q> (x) y la probabilidad
c 0ndic~onal de este valor con respecto al acontecimiento X = x es
Igual a la unidad. Por consiguiente, la densidad condicional de
probabilidad de la funcin aleatoria Y con respecto a la X representa
una funcin delta
(3.3.2}
/2 (y 1 x) = . (y - cp (x)).
Sustituyendo esta expresin en (3.2.10), hallemos la densidad
conjunta de la probabilidad de las magnitudes aleatorias X y Y:
f (x, y) = !1 (x) 6 (y - q> (x)).
(3.3.3}
Pues bien, si la distribucin bidimensional est dispuesta totalmente en cierta curva (lo que corresponde al hecho de que para cada
valor x de la magnitud X la magnitud Y tiene el nico valor posible),
entonces la densidad de probabilidad del vector aleatorio (X, Y) se
expresa con ayuda de la funcin delta impulsiva por la frmula (3.3.3).
Ahora, para hallar la densidad de probabilidad f 2 (y) de la magni~ud aleatoria Y P.S suficiente emplear la frmula (3.1.19). Entonces
obtendremos
""
(3.3.4)
/dy) =
/1 (x) (y-<p (x)) dx.

Esta frmula es la frmula geueral que dotermina la ley de distribucin de una funcin unvoca dctcrminndn de la magnitud aleatoria X.
Examinemos ahora ol caso de la dependencia continua recprocamente unvoca entre las magn.itudes aleatorias X, Y. Esto quiere
decir que la funcin <p (x) es continua y que no solamente a cada
valor x de la magnitud aleatoria X le corresponde un valor y, y slo
7

100

uno, de la magnitud Y sino que, a su vez, a cada valor de la magnitud Y le corresponde tambin un valor, y slo uno, de la magnitud X.
En la fig. 3.3.1. se muestra la curva y = <p (x) para el caso de la
dependencia recprocamente unvoca de y con respecto a x. En la
fig. 3.3.2. se representa el caso en que la dependencia ent.re x y y
no es recprocamente unvoca. Es fcil comprender que en el caso
de la funcin continua cp (x), la ~ependencia entre las magnitudes
aleatorias X y Y es recirocamente unvoca cundo, y solamente
cuando, la funcin IJl (x) es montona
!/
en la zona de los valores posibles
de la magnitud aleatoria X.

}'ig. 3.3.2.

Fig. 3.3.L

Suponiendo que la funcin <p (x} es montona en el intervalo


(x., x 2) y la densidad de p\'obabilidad / 1 (x} es tgual a cero fuera de
este intervalo, escribamos la frmula (3.3.4) en la forma

fdy) =

'") /1 (u)~ (y-q (u)) du.

(3.3.5)

"'

Hagamos la sustitucin de las varia.bles


V=

(3.3.6)

cp (u,).

Considerando esta igualdad como una ecuacin con respecto a u


para el valor dado v, observamos que esta ecuacin tiene la nica
solucin en la zona de los valores posibles d.e la magnitud aleatotia X (fig. 3.3.:1.). Con otras pal abras, en el caso eo cuestin, existe
la .funii iriv!)rsa unvoca
(3.3.7)
u =1j) (v).
De aqu hallamos
(3.3.8)
du = l
(v) 1 dv,

w'

donde las diferen.c iales du y dv son positivas. Sustituyendo las


exllre.siones (3.3 ..6) y (3.3.8) en la . frmula (3.3.5) y teniendo en
cuenta qu, .al, ~ustitui~ 'las variables (3.3.6), el intervalo (i1, x2)
pasa al intervalo (Y1r y'2 ), obtehdremos
~.

j Is('~ (_v)) 1'1>' (v)l 6(y -

fz(y) =-

11

v) dv.

(3.3.9)

3.3. w11t1 dt dutribunpn tk 1,,.

fu11d~ntt

'De aqu!, en virtud de la propiedad conocida de la funcin delta


'(2.2.6), hallamos
/2 (y) = f 1 (lji (g)) l 'lf (y) 1
.
-(;:J.3.10)
.
.EJcmplo 3.3.1. L a mognltud aleatorln Y es funcin lineal de la magnitua
al'oatorta X:

Y=a X +.

,
Hallar

(3.3. tl)

densidad de probabilidad conocieudo la deMidad do probabiliaad


/ 1 (z) de la magnitud aleatori11 X.
En el caso en cuestin, la funcin q> y la funcin inverso ., se determinan
re3pecti"ameote por las Crmul~
8u

y -

q: (z) -

+ b,

az

"'li' (y) = (// - b)/a.

Sustituyendo la l tima eicprrein 011 (3.3.10), obtendremos lo frmula parn la


deusidad de probabilidad do In fnncin lincul do la 1t1t\nitud ~loloria:
i
'1 () " Tilf
/s

y- b) .

- a-

(3.3.12)

Eo plrticul a r, cuaudo
(x-m)<

/1 (z) ..,. ~e--roo

al hn

d o la frmula bailada tendremos


((y -b)f<t -tn)

2n::.

!2 <v>

Asl pues, la fw1cin lineal do una m11gnitud nl1>J1to1fa no11nnlrnonle r~purtida


t ambin 41.'!t disltibuida normalmente.
Ejemplo 3.3.2. Sea
Y =aSPlllX.

donde X es la magnitud aleatoria normalmenl<! repartida e11 el intervftlo n/2ro .


Puesto qui! en este case la funcin <p (z) = a sen 01z es momitona en la zona do
Jos v11loros posibles de la magnitud oJeatoria X . entonces, la densidad de probabilidad de la magnitud aleatoria Y .w puede determinar por la frmula (3. 3.10).
Para esto hallemos la funcin inversa
.-=1j>(y) =

111c8c11 ( I YI<)

y su derivada

'f' (11)

6l

Vo-u

Sustltuyoodo esta oxprc.'lin en (3.3.10) y Uniendo en onenta quo


O>/ IT

ft (;r.) "' {

si

1z 1-<. :rl2m,

O si 1z 1>11/i(I),

obtendremos

/,(y) =

si 1~, ,.., .,

si

n Va - y

IYl>n.

(~.3.t~)

tO'i
El grfico do esta densidad de probabilidad se muestra en la fig. 3.3.3. Tal ley
de distribucin se llama ley del arco seno. Esta ley se encuentra frecuontemente
en los problemas prcticos como ley de distribucin de los errores debido a las
excentricidades de los limbos en los goniu1etros
f,fYJ
y otros instrumentos de medida.
'
Ejemplo 3.3.3. Para mostrar oomo se aplica
la frmula (3.3.4) en eJ caso general, cuando la
funcin cp (:z) 110 es montona on el inte:\lalo de
lus \lalores posibles de la magnitud a.leat-Oria X,
ex.aminemos el caso cuando
Y=senX,

-a

y la rnagoi\ud nlcat-Oria X est uniformemente


repartida en ol intervalo ::J::rt:

x) =

I1 (

Fig. 3.3.3.

{1(l:rt s~ lxl_,,,; ,..,


O s1 1:r1 n .

>

Segn (3.3.4} la densidad de probabilidad de la magnitud aleatorialY(se_determina por la frmula


1t

/ 2

(y) = :n

_,,

o (y-sun x) dx .

Para cakular esta integral, d.ividamos Ja zona de integracin en tres partes

-1(

l'ig. 3.3.4.
tales, que la funcin
Y=SOll :r=q>(r.)

sea montona en cada una de ellas. Entonces obtendremos

f2 (y)=~

-~

.\

-n

cS (y -senz}d:r +

-nn

NZ

J O(y - senx)d:r+ ~ 6(y-sen:r)dxJ.

Hallamos las funciones inversas :cara cada parle de integracin. De la fig. 3.3.4
se deduce que
'lj>, (y) = -n - are sen y si -1 .,;; y .;; O,
"1i (y) = are sen y
si - 1 .,;; 11 ,;;;; 1.
"13 (y) = n - are son y
si
O ~ u .,.;; 1.

108

3.3. Ltgu d dlt1rlbuci11 dt las /unclo11u

Hallem0$

l~s

derivadas de las funciones i nversas par a eada parte:

,. <v>- 1lli Cv>= -(t-ll'l- 112


l~ (V) =(f-2)-1 12.

Suetit11yendo en las integrales las variables respecttvnmeilto :i: = "'' ('11), :i: ...
'ljl 2 (11). :i . . ip3 (11), teniendo en cuflllta que. en esto c11so s~n :i:
t, y aplicando
las expresiones obtenidas para 11>> (:i:) , ti (:r) ,y ~i (:i:), tendremos

f:<vl= ~"t

[J

6 (y- 'l) (i-1'>- l /2ll+

_,

( - T))(1 - TJ' )-l/ 2dti+

- 1

+ j cS(y -

i~

11)(1- 11'>- 112 d11J =

De aqul pal'a

[2

J"<v-11)(f-11~>-

112

d11J.

-1
1y 1

<

1 hallamos
/,(y)

Fuera del intervalo J y J < t, la den.sidad de probabilidad / 2 (y) es igual a cero,


puesto que para 1 11 J > 1 Is lunci6n suhintegral en el ltimo tntervlo es idnticamente Igual a cero en el intervalo de lntegraei6n.
Ahora bien. la densidad do probabilidad de Ja magnitud aleatoria Y se determiDR por la 16rmula

/ 2(Y) = {

:-tVi-yZ si
si

luJ< 1,
1y1 >J.

Ejemplo 3.3.4. La magnHud aleatoria X estii repartida unilormemo.nte en


el intervalo (O, 1). Rallar laJoy do distribucin de la magnitud aleatoria Y = X'.
En vista de la monotona de la funcin v
cp (z) en el intervalo (0, 1),
b don.sid8d do probo.bilidad de la uiagnitud aleatoria Y se puede determinar por
la f6rmula (3.3.tO). Dado quo

x = 1~ (v)= VV. lji' (Y) =1 /2

para O < :r

<

1,

VY

y ft(:i:)= 1

ballarno~

( ) { 1 /2 -Vii si 1) < < 1,


f2 y O
si y<. O, V> 1.
Ejemplo 3.3.5. Ln magnitud aleatoria X est repartida 1111iforrnemonte

0 11

el intervalo (- i , 1). Hallar la ley de distribucin do la magnitud aleatoria


Y-X'.
En 11Ste caso la dependoneia ent re las magnitud es aleatorias no es reciproeament.e unvoca en la iona de los valores posibles de la magnitud X. Por eonsiguientc, no se puede aprovechar la frmula (3.3. 10) y hay que reeumr a la.
frmula general {3.8.4). Puesto quo la magnitud aleator ia X est distribuida
uniformemente on el intervalo (-1, 1), entonces, segn la f6rmula (S.S.,).
obtendremos
1

/ 2 (y)={

J6
- t

(y-z1) d:i.

104

Cap. iJ Jl1 ar:nttudes aleato,fos 1;ectorialcs

La lundn y = :>: es moutona en cada uno da los intervalos (-1. O) y (0, 1).
Por lo tanto, en el inoorvalo (-i , O) tenemos que
% = 1P1 (y) = - -VY.
..; (y) = - 112-VY,
y en el intorvalo (0, 1)
.,,. (y) = 112-VU:
:r
h (yl = Vil.
Por eso , dividamos la zona de i ntegracin en dos partes y cumplamos en la
primera i11tcgrnl la sustitucin d e las variables x = ip1 (1) y en la segunde ,
z = l>z (1). Entonces obtendren1os
2

o
1r

.l2<Y)=-: J

_,

6(-1) 2

dT]

-v;

1r
d11
+2 J 6 (y-1J) 2

-v; =

1 \

= -:

6(-1)

111

l/lj = Z l/y

si 0

<Y <1.

Por consiguiunte, la densidad de prohnbilidudJ de la magnitud aleatoria Y


se determina 11or la frmula

J2 ()={

tril/Y
0

si
Sr

O<u< t.

y<O, 11>1 .

Ejemplo 3.a.6. Hallar la loy de distribucin de la :roal d salida Y del


olement.o no lineal en el ejem(llo 2 . 2. 1.
Segn Jos datos, la seal do salida Y ~.st limitada en magnitud absoluta
por el nmero a y es igual a l a se1i al de eutr.ada X cuando eoste ltimo tiene el
valor ln Jos lroites (-a, u), es decir
11 si .Y>a.
Yo: 1p (X)=
X si IXJ..,;: a,
{
i X

-a

<-a.

Tenicudo un cueuta que Ja seal de entrada X est uniformemento reparlida en


el intervalo -2,Su
1

fi(y )= -;;

't
j

<x<

1,5a, sogn In frmula (3.3. 4), obtonemos

6(y - r>(x))clx=

- :!, (ta

,,, 4~

-e

(y+u)d-<+

I
-n

- 2 , ~a.

1,r.a

6 (y-x)d:i:+

J 6(y-a)dx] ~

= 44 11(!1+11)-1 (y-a)t+s li <u+a>+ 8 6 (y -a).


: ..D.e un moQ..o absolutamen~e semeJante se de tetmina l a ley de
d i~tripuci6r;i. ae.l .vector ale~oriQ y q1,1e represen.ta l a funcin de
simple ~alacin del .vector aleatorio X cuya densidad de proba-bilidait es concida . Supongamos qu las comioneo.tes Y 1, .' . , Y m
del vector aleatorio Y son fu nciones de simple ' 'aluacin de las
componentes X, ... , Xn del vector aleatorio X:
YJ = cp1 (X1 , , Xn~
(/ = 1, .. , m).
(3.3.14)

9 .3. Leyes de distribuciim de las /u11clones

Es necesario hallar la densidad de probabilidad t~ (y1,, . ,-' y,n)


del vector aleatorio Y, conociendo la densidad de probabilidad
/ 1 (xtt ... , xn) del vector aleatorio X.
Para .resolver el problema planteado, hallamos pr.imeramente
la densidad condicional de probabilidad del v~ctor aleatorio Y
n respecto a X . Puesto que para cualesquiera ' valores x 1 , Xn
'd e las magnitudes aleatorias X 1 , , X 11 cada una de las magnitudes
aleatorias Y1 , . . , Y m tiene, en virtud de las f6.rmulas (3.3.14j,
solamente uu nico valor y l a proba~ilidad de., est.e valor e:; igal
a- la unidad,. entonces la d!)nsidad cohdicinal de probabilidad d'ei
v ector aleatorio Y con respecto a X representa el producto de lasfunciones derta

/z (y,, , Ym 1x,, . , x,,) =

n"'

;.;,1

(Y1-'fJ (X, , Xn)).

(3.3 .iS)

La "densidad conjunta de probabilidad de los vectores aleatorios X


y Y, segn la f6.rmula (3.2.19), es igual a
f (x,. .. :e,., Yi. ... , Ym) =
m

=fi(x,, .. .,xn)

lJ i3(Y1 i= I

<p(xi, . . .. x,,)).

(3.3.16)

Integrando esta igualdad con r~pecto a x 11 , ., Xn y cambiando


la designacin de la variable de integracin, hallaremos, segn la
frmula (3.1.19), fa densidad buscada de probabilid11d del voctor
aleatorio Y:
i2 (y, . .. , y,...,)=

""

""

j .. . Jt.

ll11 )

(11.i.

nO

(y-<pJ (!t, .. , Un)) du, .. . du.,..

(3.3.:17)
Ahora supongamos que el nmero m de las magnitudes aleatorias Y 1 es igual al nmero n de las magnitudes aleatorias X 1 y que
la dependencia entre las magnitudes aleatorias X 1, ., Xn
y Y 1 , ., Yn. os recprocamente univoca. Este quiere decir que
el sistema de ecuaciones
v =

q>J

(u 1 ,

.,

un)

(j = 1, . . . n)

(3.:3.18}

tie11e la solucin. nica en la zona de l os valores posililes de las


magnitudes X 1, Xn:
u = 'ljl (1J 11 ., v,.) (t = 1, .. ., n).
(3.3.19)
Al llevar a cabo en (3.3.17), para m. = n, Ja sustitucin de l as.
variaLles de integracin valindose de las fru1ulas (3.3.18). (3.3.19),.
de acuerdo con la regla de :;ustitucin de las variables en una integral

106

mltiple obtendremos
/2 ( ..... Yn) =
X

) ;/ )

fr

ft('IJ.>1 (vi, ., v,,), .. , 'l\Jn (rJ1, .,!In)) X

O(y-v1) 1

;=t

.donde

8('ip ., .. ., "'"'
it (u, . . ., v,.)

~<i:: ::::~: 1dv,, .. ., dvn,

(3.3.20)

illjl1 (u11 . , "")


iJv 1

'1>1 (L'(

011>1 lvh .. ., L'n)

Olj>z (u, . , u,.)


ilv1

Olp.(v1, .. .,u11 )

81~,

1 Vn)
iJv2

Dvu

)L3

,111,. (VJ> .. , vn) iJ~n (v., . .. , On

"

JtJn

(v1, .. v,.)

i)lj>,. (vt> .... v,.)

"

ilvn

es el jacobiano de las funciones (3.3.19) y B, la zona en el espacio


., v,. en la cual las frmulas (3.3.18) transforman a todo el espacio de las variables U, ., u,. (en el caso
particular, B puede coincidir con todo el espacio de las va1iables
v 11 ., v~). La integracin en la frmula (3.3.20) se puede cumplir
aplicando la propiedad fundamental (2.2.6) de la funcin delta.
'Como resultado obtendremos

.de las variables v1 ,

/2 (y.,

, Yn) =

"(
= /(
1 'lr1 Yt.

)
(
))l<J(1p, .. .,1p,.)j
. . ., y.,' . . " ~n Yt. .. ., Yn
il(y, .. .,yn) J'

(;)..3.21)

Aqu, al calcular el jacobiano, los argumentos v,, ... , v11 de los


'funciones ip1 (v, ... , v,.) deben ~er sustituidos por l as variables
-correspondientes y 1, ., Yn La frmula (3.3.21) es vlida. para
todos los valoras Yt> .. ., y,. en la zona B. Fuera do la zoo.a B la
;densidad _de ,probabilidad / 2 (Yt> . . ., y11 ) es igual a cero.
Ejemilo-;3.3.7. llallar las leyes de distribucin d'e las coordenadas polares
,-Oe,.uil ;pllcl;l.to ,alatorip <situado Qn el plano, si las coordenadas rectangulares del

mismo tienen la densidad conjunta de probabiliqad / 1 .(x, y).


. ..
Designemos las coordenadas polares (91 radio vector y el ngulo poi.ar) :>or
..R . y <D.. Estas coordenadas estn ligadas con las rectangulares X e Y por las
:(J.ependeocias
X=RcoscD, y=Rsen<D(R>O, O-<<D-<2n)

-.con .el jacobiano : ~:; ~ = R. Aprovechando las dependencias obtenidas,


presentemos Ja. expresin para la densidad conjllllta do probabilidad de las
~.fdenadas pola.res h (r, rp) en la forma

/,(r, rp)=/1 (x, y)

j 88(~;, ~) l=r/1 (rcosrp, rsen rp).

(3. 3.22)

a.

3 .9. l4v<1

dislrlbucin d /u fum:lontJ

107

Por intcgncin de la ltima igualdad con respecto a cp y r couespondiento,


hallamos la densidad do probabilidad del radio vector y del ngulo polar:
2n

t,;(r) = r

'"' (cp)-

J{
1

rsencp)dq>,

(rC08q>,

I
(3.3.23)

fi (r cos lj), r sen q>) r dr.

Si la densidad conjunta de probabil idad de las coordenadas rectangulares


depende solamente del radio vootor. es decir, { 1 (z, y) =- / 1 (1/~ -

h (r). eotonces de (3.3.23) obtenemos

fr {r) = 2tcrh (r),

(3.3,24)

00

,.., (q>) =

rh (r\ dr = COOSt.

(3.3.25)

En el caso particular de una distribucin normnl cfrculnr en el plano, cuando


j

h (r) = inJJ ~

- 20

D ,

d& (3.3.24) y (3.J.25) hallamos

(3.9.26)

l,l(r)=-lr , - 2D,
1

'~ (cp) = :!:t .

(3.3.:t7)

Por c:onPiguiente, el radio vector del punl-0 aleatorio e,st reparlido p-0r la ley
de Rayleigh y la Jase est repartida uniformemente.
Ejemplo 3.3.8. Hallar Ja ley do distribucin de la amplitud y do l a fase
de las oscilaciones a rmnicas nleatorias de frecuencia determinada
X (r) =- U sen oot
Z cos oor,
(3.3.28)

si los coeficientes U, Z son independientes, normalme11le repartidos con iguales


di spersiones D y con esperan us matemticas iguales a cero.
En el caso dado se puedo nproveohar directamente los resultados obtenidos
eo el ejemplo anterior. En e!eclo, presentemos (3.8.28) en la forma
X (1) = A seo (<vt
<!>),
(3.3.29)
donde
A =
U1
z!,
<!> = arclg (Z/ U).

z.

Entouel!S la dent<idad conjunta de probabilidad / 1 (u, ) de los coslicientes U,


eo virtud de que U , Z son independientes, estan nornialmenle distribuido s con
iguales dispersiones y esperanzas matemticas iguales a cero, se expNJSa por
la frmul a
(!>.3.30)

Por lo t~nto. la amplitud A de una 011Cilacin armn ica aleatoria est distribu ida 'Jl(>r la ley de Rayleigh y la fose <J> est uniformemente repartida de modo

l08

Cap. 3 Manituds aleatoria 1>er.torlale$

,,.

que
11

(l D
f"a=

-w

(3.3.~I)

/~ (<p) = 211 .

Por eso, en los problemas conc~rnientes a la radiot<:oic3, dondu es nt'ccsario


examinar lrocuentemente las seales que representan o~cilaciones armnicas
con amplitud y fase aleatorias, es la ley de Rayleigh la que se suele tomar oo
calidad do IRy do distribucin de la amplitud.
Ejellplo 3.3.9. Hallar la ley de distribucin de Ja suma de las magnitudes
aleatorias
(3.3.32)
Z =X + Y,
conociendo Ja hiy de distribucin de los sumandos.
Al sn.~tituir en (3.3.32) las magnitudes aleat.:>rias por

s>J~

valores posibles,

obtendremos

(3.3.33)
z = z + y = 1f (x, y)
Esla ecuacin tfone le. solucin nica respec.to a cualquiera de las variables,
:i;, IJ Despejando en ella, por ejemplo, :i; hallamos
:r = ; - y = 1j> (z, y).
C'..omo en el caso dado tenemos u11a sola funcin i:, cnwnco.~ el jacohiano es
igual a ~,/az = 1.
Por e.so, aplicando la frmula (a.a.t7), en el caso en <>1>estin teuuremos
00

JJ

1: (z).,,.=

( (x, y) 6 (:-:r.-) d:i; dg =

-oo -oo

00

/(:r, z-z)dx-=

j(z - .y)cly.

(3.:J.$4)

-oo

La segunda integral en esta frmula se obtiene si en la ecuacin (3.3.33) se despeja y en vez do :r.
L11 frmula (3. 3.3~) determina la ley de distribucin de lo suma de l as
magnitudes aleatoria~ X e Y tanto dependientes como independientes. C'..onviene
sea.ln1 un importante caso particular cuando los sumandos X e Y son inde
pendientes. En este caso
/1 (;; ) = k (:r) l (y),
(3.3.35)
donde k (x) es la densidad de probabilidad do fa magnitud aleatoria X, 1 (!/}
es la densidad de probn)iilidil.d de In mngitud 'a)eat()ria Y. En este caso partcula~ la substitucin de ia expresin (3.3.35) ch la frmula (3.3.34) da comi>
resultado

/~(:)=

..J

_..,

k(z-y)l(ydy=

J k(:i;)l(z-.tjd:r.

(3.3.36)

La integral de tal tipo se llama.de ordinario c<mvoluc!n de las funciones k y l.


Ahora bien, la densidad de probabiUdad de Ja suma de \1os magnitudes aleatorias independientes ropresonta la eonv9lucin de las densidodes de probabilidad
de los sumandos.
La operacin concerniente a la detl)rmnacin d~ la loy de distribuc.in de
la suma .segn las leyes de dis\ribucin de Jos sumandos indep<lndicnte:l ha

3.1. Momentos de un vector alatorla

109

.recibido en la Teoda de Probabilidades el nombre de adi.cl6n. o co'11posicj6p


da las leyes de dist ribucin.
Es evidente que de un modo absolutamente anlogo se puedo obtener la
ley de distribucin de la suma de un nmero cuaJqui.era .de magnitudes aleato.
r ias. En lo que se refiero a los sumandos 'independienteg, se puede procede(
'tambin del modo siguieot~: hallar la composicin de las leyes de dist~ibucin.
de los dos primoros sumandos, luego h11llar Ja composicin .de la ley de distrih.ll:'
cio de l a suma (lo los dos primeros y Ja ley meoCionada del tercer sumando, etc.

3.4. Momentos de un vector a le atorio

Se llama momento de orden r+s de un vector aleatorio (X, Y)


a la esperanza mate,mtica del producto X"Y':

a,.

(3k1~

i'4 [X'Y'I

para cual esquiera .r y s enteros no negativos.


Es evidente que en el vector aleatorio bidimensional existen
k
1 momentos del orden dado k, es decir, t antos cuantos son los
procedimientos que se p ueden emplear para partir un nmero entero
positivo k en dos sumandos enteros no negativos.
Para calcular los momentos de un vector aleatorio, valgimonos
de l a frmula general para l a esperanza matemtica de la funcin
unvoca arbitraria , real o compleja, de l as magnitude11 aleatorias X, Y.
En virtud de l a definicin de la esperanza m atemtica como valor
medio probabilstico pesado; para determinar dicha esperanza de la
magnitud aleatoria q> (X, Y) conviene multiplicar cada valor
posible cp (x, y) de esta ltima por el elemento de probabilidad
correspondiente f (x, y) dx dy e integrar el resultado obtenido con
respecto a todos los val.ores posibles x, y de las magnitudes aleatotias X, Y . Como resultado obtendremos

"' ""

M[(J'(X,' Y)J= ~

\ q;'.(x, y)'f(x, y)dxdy.

(3.4.2)

-oo -<

Es fcil comprobar que en el caso en que la [uncin q> depende sol amente de u no de los argumentos, la frmula (3.4.2) da el mismo
r esultado que (2.3.4). En efecto, si, por ejemplo, q> (X, Y) .... q> (X)
no depende de Y, l a frmula (3.4.2) da como resu ltado:

J J lf!(~:)f{x, y)dx dy =

00

Jlf[q>(X)l=

"'

Jq> (x) dx J f (x. y) dy .


-oo

(3.4.3)

- oo

Pero, en virtud de (3.1.18), la integral de l a densidad conjunta


de probabilidad de las magnitudes X, Y con respecto a y es igual

tt

Cap. IJ Ma:r.twd akatorias r;ectnrlults

..J

a la densidad de probabilidad de la magnHud X:


/(:e, y)dy=f1 (x).

Por eso la frmula (3.4.:J) se puede escribir en la forma

1ll ltp (X)] =

..J

q; (x) /,(r) dx,

lo c1uo demuestra la afirmaciu enunciada. As pues, como era de


esperar, la esperanza matemtica de la magnitud aleatoria q> (X)
calculada por diversos procedimientos con ayuda de diferentes
densidades de pr obabilidad, ligadas con la magnitud aleatoria X ,
siempre resulta la misma.
Suponiendo en la frmula (3.4.2) <p (x, y) =- x'y'. obtendremos
la siguiente frmula para los momentos de un vector aleatorio:

.....

a,. =

J Jx' y'f (x, y) dx, dy.

- oo

(3.4.4)

0)

811 particular. esta frmula da los momentos a, 0 y a 0 , tlo las


magnitudes aleatorias X y Y tomadas por separado.
A.hora bien, los 1noment:os del vector aleatorio (X, Y); en los
cuales uno do los ndices es igual a cero, coinciden con los momentos
de las componentes correspondientes del vector mencionado:

donde a~ y a~ son el momento de orden r de la magnitud aleatoria X


y el momento de orden s de la magnitud aleat oria Y respectivamente. En particular, los momentos a 10 y a.01 :;011 iguales a las esperanzas matemticas de las magnitudes al eatorias X y Y rcipec,tiva,
mente.
De un modo semcaow se determinan "los momentos .ceutr&les
s
del vector aleatorio. Se denomina momento central de orden r
del vector aleatorio (X, Y) a l n esperanza matemtica del producto
(X)'(yo)':
.

(3.4 .5}
dond e X .= X - m.,, Y = Y - m son las magnitudes aleatoras
centrndas correspondient(ls. Para calcular estos momentos, supongamos ..;1 1e en l a frmula (3.4.2)
qi

(z, y) = (z -

m,,)' (y -

m~) .

.~

9.4. M()met1lo8dtt

u11

vtttor aleatorio

Entonces obtendremos

,, =

1)
...

00

-oo

-GO

(x-m,,)'(y - mv)"f(x , y)d;cdy.

(3.4.6}

Suponiendo que en esta frmula uno de l os indices r, ses igual a cero.


obtendremos los momentos centrales de las componen-tes del vector
aleatorio
,o = fl~ , o= f.1.~

En particul ar, los momentos centrales de ,segundo orden z 0 y l'oa


repre:ieutan hts dispersiones de las magpitudes aleatorias. X y Y~
20 = ;' = D.,, 02 = r t:: D,,.
Para los Cines prcticos tiene gran importancia aquella parte.
de la Teora de Probabilidades que se limita a l a investigain de los
momentos de primer y segundo orden de las magnitudes a leatorias.
En lo que toca a la ley normal de distribucin de la magni.tud aleatoria escalar, como hemos visto, para determinar por completo
la ley de distribucin es suii~iente conocer el primer momento de la
magnitud aleatoria, es decir, la esper anza matemtica, y el segundo
momento central, es decir, la dispersin. Para las leyes de distribucin distintas de la normal esta tesis puede no ser vlida. Puede
ocurri r que n o sea bastante ,el conocimiento de la esperanza matemtica y de la dispersin p ara caracterizar por completo la ley de
distribucin. Pero, no obstante, l a dispersin caracteri za l a fluctuacin de una .magnitud aleatoria. Esto ofrece la p osibilidod do
limitarse en muchos problemas prcticos a la determinacin de los
momentos de primer y :;egundo orden de l a magnitud aleotoria,
haciendo caso omiso de la l ey de distribucin.
Para el vector aleatorio bidimensional existe, adems de los
momentos de segundo orden 20 y 02 , todava el momento de segundo
orden 11 Este momento, que tiene unn importancia especial para
los fines prcticos, se llama momento de correlaci6n o momento de
enlace de las magnitudes al eatorias X, Y. Designaremos el momento
de correlacin de la.'l magnitudes aleatoriAs X, Y por kxy Suponien do
en la fr mula (3.4.6) r = s = 1, obtendremos par a el momento de
correl11ci6n de lns magnitudes a leatorias X, Y In frmu la siguionte:
lrxM = ~LlJ = Nf [XYJ =

)"" J"" (x -

m,,,)(y - m 11)/(x, y)dxdy .

(3.4.7)

- oo - oo

E l ntOQl('nto do correlacin de dos magnitudes aleatorias can1cteriza hasta cierto grado, no por completo, la dependencia entre
est as magnitudes aleatorias. En efecto, el momento do correlacin

Cap. 9 M agnitu4es alcaforias

t!2

ve~toriaLes

11s el anlogo terico del momento de correlacin estadstico [ 1.2,


la frmula (1.2.22)]. En el 1,2 la intuicin nos ha sugerido que el
momento de correlacin estadstico distinto de cero indica la existencia de cierta dependencia entre las magnitudes aleatorias. Por eso,
es natural esperar que lM magnitudes aleatorias soan dependientes,
si el momento de correlacin de las mismas es distinto de cero.
Las magnitudes aleatorias X y Y se llaman correlacionadas
siempre que su momento de correlacin sea distinto de cero. Las
magnitudes aleatorias se denominan no correlac~onadas si su momento
de correlacin es igual n cero.
Demostremos que las magnitudes aleatorias independientes nunca
estn correlacionadas. En efecto, supongamos que X y Y sean i ndependientes. Entonces su densidnd conj unta de probabilidad es igual
al producto de sus de11sidades de probabilidad, y podemos escribir
00

kxy =

00

J J (x-mx) (y-m

11 )

-oo

/i(x) /2 (y) dx dy =

!IO

= ( J (x-m:r) / 1 (x) dx)

00

J (y -

mv) / 2 (y) dy) . (3.1.8)

l'cro cada una de eslas integrales es igual a cero como momcnlo


central de primer orden de fa magnitud aleatoria correspondiente.
Por consiguiente, el momento de correlacin de las magnitudes
<tleatorias independientes siempre es igual a cero. Con otras palabras. las magnitudes aleatorias fodependientes siempre estn no
correlacionadas. De- aqu resulta que las magnitudes aleatorias
correlacionadas siempre son dependientes, que es lo que nosotros
~sperabamos. La tesis inversa no tiene validez, es decir, las magnit udes dependientes pueden estar tanto correlacionadas como no
correlacionadas. Aclaremos esto con un ejemplo sencillo. Examinemos la dependencia-funcional Y = x~. E.s to quiere decir que todas
.Ji1$:P.o~ic~O,n~ ,pos'l:iles de un punto: aleatorio en ei plano ise disponen
.~rr.l~arhohi !. = x2 Aqw es evidente l .ms rigorosa dependencia
ei.'tf.~:, x.:y- ;Y,- puesto que e1 valo.r de 11,1 magnitud X determina por.
clm"p hit~<'el 'valor: de ta;tnagnitud Y. SuJ>ongamos que la distcibucj,6n\"de')a m,agnitud aleator!-a X es simtr-i ca con respecto al origen
de coordenadaS. En este caso m,, = O, y a un mismo valo.r de la
magnitud Y le corresponden dos valores de la magnitud X iguales en
w.agnitud abioluta y de signos contrarios para lo~ cuales la densidad
ae prol)abilidad. tiene un mism valor. Por eso, a cada elemento
psf~ivo de la integral (3.4.7) le corresponde un elemento 11egativo
ig.tal,ei.magil:iiud. absol!l.ta. Por lo tanto1en este caso, el momento
~e correlicil!~ k,.11 es igual a cero, es decir, las magnitudes aleatorias
X y Y no estn correlacionadas. Ahora bien, aqui las magnitudes X

l13

Y. Y n o estn correlacionadas a pesar de que entre ellas existe la


dependen cia fUDcional.
Se puede demostrar una afirmacin todava ms general: si
l!l distribucin conjunta de las magnitu des aleatorias X, Y es simtrica por lo menos respecto a una de las rectas paralelas a los ejes de
.c oordenadas y que po.sn pr el punto (m.,, m ), entonces el momento
<le correlacin de estas magnitudes es iguaf a cero. En efecto, en
este caso., a cada elemento positivo de la integral (3.4.7) l e corres..
>onde u n elemento negativo de igual magnitud abSluta.
_
A.si pues, para l as magnit,udes aleatoria~ con moment o:i. fi~itos
ae segundo .orden, la nocin de no corr elativ idad ~ms amplia que'
I'a de in dependencia. Cuando decimos que las magnitudes aleatorias no
estn correlacionadas, superponemos en ellas limitaci>nes consiae~
rablemente menores que en el caso cu8.lldo decimos que ellas son
independientes. La exigencia de independencia de las magnitudes
es ms rigurosa que la de no correlati vidnd.
E n algunos casos es ms conveniente examinar el momenlo de
correlacin normal o, como ste suele llaolarse, el coeficiente de
correlacin. Se don omina coefictenle de correl.actn de las magnitudes
aleatorias X y Y la relacin del momento de correlacin de las
mismas a la media geomtrica de sus dispersiones :
k"V

kzv

rxy= VoxDy - "-u '

(3.4.9)

Ejemplo 3.4 .1 . Hallar el momento de eorrelacio de !ns componontcs do


un vect.or aleatorio rc.P.artido uoormemeote en un rectngulo.
Como la distribucin conjunta de las com>Qnentes del vector aleatorio
dispuesLo en el plano es sim~t.rca con respecto a los ejes de coordenadas, entonces
es evidente que m~ = m11 = {), kxv = O. De esto se puede convencerse llevando
a cabo la coropro1>"cin directa. Por consiguiente, (v&Be el ejemple, 3.2.1).
laa componentes del vector aleatorio (X, Y) no solamente estn no conelaclonadu sioo que son tambin i ndependieotee.
Ejemplo 3.4.2. Hallar el momento de correlacin de las componenl.es de
un vector aleatorio unormemente reparUdo en la eli)lSC.
En virtud de la simetra de la distribucin de probabilidades del vector
aleatorio, est. elaro que m,, = mv
O, k,.11 =- O.
Sin embareo. en el ejemplo 3.2.2 hemos
descubierto que X e Y son dependientes. Asl -eucs, IA.s magnitudes aleatorias X, Y son dependientC3 pero no
est&n oorrolac1onndas.

Si en la dofinicin de la esperanza matemtica y de la d isp.e rsin


de una magnitud aleatoria, enunciada en el 2.3 !las frmulas (2.3.2)
y (2.3.!>)I la densidad de probabilidad de l a magnitud aleatoria X
se s ustituye por la dens idad condicional de probabilidad de X con
respecto a cierto acontecimiento .tt o con respect o a otra magnitud
aleatoria Y, obtendremos la d efinicin de la esperanza matemtica
condicional y de la dispersin condictonal de X con respecto a A o Y.
Designaremos la esperan za matemtica y la dispersin condicionales
de la magnitud aleatoria X con r especto al aconteci miento A por
- tt88

Co.p.

a Ma;nltude.

aleatorias 1;ectorlale..

lif IX 1 AJ y D IX 1 Al respectivamente. De un modo anlogo designaremos la esperanza matemtica y la dispersin condicionales de la


magnitud aleatoria X con respecto a la magnitud Y correspondientemente por M [X 1 Yl y D IX 1 YJ.
De un modo absolutamente igual que para un vector aleatori()
bidimensional se determinan los momentos de un vector aleatorio
con un nmero cualquera de componentes. Le dejamos al lector
que por s mismo escriba las frmulas generales y nos limitaremos
a los momentos de primer y segundo orden.
Los momentos. de primer orden do un vector aleatorio n-dimcnsional X representan las esperanzas matemticas mx 1 , , m"n
de las componentes X., .... Xn . Esto da lugar a que la esperanza
matemtica del vect.or aleatorio X se defina como vector mx cuyas
componentes son l as esperanzas matemticas m,, 1 , , m,.n de l1;1s
componentes X 1, , Xn correspondientes clel vector aleatorio X.
Los momentos centrales de segundo ordcu del vector aleatori()
n-dimensional X representan las dispersiones D,.1 , , D,.,.
y todo.s los momentos de correlacin k;, 1,.2 , le"'"" ... , kx,._1' ,.11
de sus compommtes X 1, , Xn. Suponiendo, para abreviar, que

kw = D"v' kv = kxvx(v, ~t= 1 , ... , n; V<FfJ-)

(3.4.10)

obtendremos nt momentos centrales del vector aleatorio X que se


pueden considerar como elementos de la matriz cuadrada *).
ku kt2 k1n 11
K = k21 k22 k211 =JI kv
knikn2 knn

llv, d, . .. , n

(3.4.11)

Esta matriz se llama matriz de correlacin uel veclor aleatorio X.


Ahora bien, si se limita a los momentos do primer y de segundo
orden del vector aleatorio X, ste se caracterizar por el vector de
esp~ran~a matemtica m., y por la matriz de correlacin K.
El momento de correlacin de dos magnitudes aleatorias no
deperideevidenternente del orden en el que se toman estas magnitude5
(3.4.12)
As pues, los elementos de la matriz de correlacin dispuestos
con respecto a la diagonal principal son iguales une>
a 9tro, es decir, la matriz de correlacin es simtrica.

sim~~r.icamente

So llam;! .matrli a un cuadro de nmeros dispuestos en renglones v columnas. Si el nmti.ro de renglon~s es'tgoal al de c<>lumnas, la matrir. se llama
cuadrada. Si el nmero de renglones ne> ~s igua1 til de columnas, la matriz se
llama reetai;igular.

f:tS

3.5. Fund6rt caracterstica 46 un r>ector altatorlo

3.5. Funcin caracter stica de un vector aleatorio

La funcin caracterstica de un vector aleatoiio X con las componentes X., ... , X.,. se determino. por lil frmula

g(A.i. . . , A.11 ) =M [exp {t(A. 1X1+ +A.nXn)}J.

(3.5.1)

Cuando n = 1, de esta frmula se deduce la definicin de la funcin


caracterstica, de una magnitud aleatorla escalar, enunciada. en
el 2.4.
Aplicando la frmula (3.4 .2) (ms exactamente, su general.i~a
cin referente al vector aleatorio n-d imensional) para el clculo
de la esperanza m atemtica, obtendremos la siguientoexpresin
para la funcin caract.er.l;t.icn del vector aleatorio X:

J ... J exp
00

g (?-.i, . . , A.n) =

- oo

{i (A.1x 1+

. .. + A.~n)} X

- ao

f (x1 ,

Xn) dx, ... dx,..

(3.!i.2)

Dado que la densidad de probabilidad de un vector aleatorio,


debido a sus 11ropiedo.des princi1>ales (3. 1.15) y (3.1.16), es una
funcin integrable no negativa, se puede presentar dicha densidad
por l a . integral de Fourier
/(x1 1

Xn) = (i!)n

r... r

dJ..t ... di..,.

-oo

5.. )/(~,

. ,

~n) X

-oo

-00

xexp{ip. 1 (~1 - x1++A.n(~n-Xn)J}de1 .. d~,.

(3.G.3)

1-'ero en virtud de (3.5..2)

j
- oo

r/(~t. . ,

Sn)cxp{iP.dsi--X1)+ .+A.n (su-Xn)J}

-oo

+ ... +

X ds1 d~n = exp { - i (A1X1


A.,.xn)} g (J.. 1, ... , An).
Por eso la frmula (3.5.3) se puede presentar en la forma

f (X .

. . . . Xn )

(:.!~)

00

00

-oo

-oo

J ... 5 exp {-

i(A1X1

+ ... + ArrXn.)} X

X g (A., 1 t .n) d'l-.1

. . dA.n.

(3.5.4)

Esta fr mula enuncia l a densidad de probabilidad del vector aleatorio por medio de la funci n caraclerstica del mismo.
Ahora bien, la funcin caracterstica puede servit de caracterstica probabilstica completa de un vector aleatorio. Conc;icicndo
la funcin caracterstica, se puede hallar, por la frmula (3.5.4), la
8*

116

Cap. 3 Magnitudes aleatorias <'tctorialu

densidad de probabilidad del vecwr aleatorio y, por consiguienta,


la funcin de distribucin del mismo.
Las frmulas (3.5.2) y (3.5.4) muestrau que la funain caracterstica del vector aleatorio es la transform acin de Fourier de su
densidad de probabilidad y esta ltima es la transformaci n inversa
de Fourier de la funcin caracterstica.
Conociendo la funcin caracterstica del vector aleatorio, se
puede determinar fcilmente los momentos del mismo. En efecto, al
derivar la frmula (3.5.2) k 1 veces con respecto a A.,, k 2 veces con
respecto a ~. etc, k,. veces con respecto a A,., obtendremos*)

~1+ ...1t +hng().1'


~

. . . , /..,.)
Jt.

o).' {})'21 .. 8~-n

X exp {i (A. 1x1

" +. . . +1'n

""J

.= i

- oo

. .

"
)

__,,
~ X
;.r;
x nn.

_..,

+ ... + AnXn)} f (xi. . . ., x,,) dx, . .. Xn) dx , ... dxn.


(3.5.5)

Suponiendo quo aqu A. 1 = ;,2 = ... = }.,,.

(et+ .. +~ g
11

""~'o..~

k1+. . +J<n

(kit . . ., k.,

= O,

obtendremos

(..1o ., An) ]

. '. d'>J;."

(3.5.6)

1, 2, . ..),

donde el cero significa que, una vez efectuada la derivacin, hay


que admitir que /, 1 = ?..2 = . . . An = O.
De un modo absolutamente semejante se puede exmis.a r los
momentos centrales del vector aleatorio mediante la iuncin caracterstica del mismo.
Con a~ruda de las fu ociones carncter.sticas se puede resolver el
problema de determinacin de las leyes de distribucin de las funciones de las magnitudes aleatorias, examinado en el 3.3.
Examinemos primeramente una magnitud aleatoria escalar Y
enlazada con otra magnitud aleatoria escalar X por la dependencia
funcional
y ='P (X),
(3.5.7)
donde q es una funcin unv.oca !ll'bitraria. En virtud de la definicin, la funcin caracterstica de la magnitud aleatoria Y se expresa
por la frmula

o bien

..

ga(i..)~ ~ ~X)/i(z:)dx,

(3.5.8)

) Clar.9 est que la f4r.mula (3.5.2) se puede derivar .sol~~ente en el C!iSO


de que )as integrales, obten1d6!! como resultado de la der1vae1on, se converan
niforme'aiei:i~ es decir, si' eJ'.isten los momentos correspondientes del vector

~~

'

H7

9.5. Funcl6n caracterf$ttca de un wctor olealorio

.aonde ft (x) es la densidad de probabilidad de la magnitud al eato-1i'ia X. Al tomar la transformacin invrS'a de 'Fourler, hallaremos,
,segn la frmula (2.4.3), l a densidad de probabilidad de la magnitul!,
aleatoria Y:
00

!2 (y) ""' 2~

Je-l1..ug2 (A.) dA..

(3.5.9)

-oo

De uo modo anlogo se h allan, con ayuda de l as funciones caracterst icas, las leyes de distribucin de l as funciones vectoriales
de las magnitudes aleatorias. Si las co~ponentes del vector aleator io Y son las fwlciones univocas conocidas de las componentes del
vector aleatorio X:
Y-'= QJ11 (X., .. ., Xn) (k = 1, .. , >n),
(3.5.tO)
entone~

la funcin caracterstica del vector aleatorio Y se define


por la frmula

Kz (A.t, , A.,,,) =

..J J..

- oo

exp {i IJ..iipt(x.,

.. ., Xn) + ...

-oo

+ J..,,.q,,. (xi. . , .Zn}J} f,(x.,

... , .Zn) dx1

dx,.,

(3.5. 11)

donde f 1 (xtt ... , xn) es la densidad de probabilidad del vector


aleatorio X. Al tomar l a transformacin inversa de Fourier, hallaremos la densidad de probabilidad del vector aleatorio Y:
00

t~ (Ys.

, Yrn) =

(2 ~)m

..

J .. J exp { -

i(A.1!11

+ .. + AmYm)} X

-oo

X Ka (A.,, , A.,,.) clA.1 dA.m.

(3.5. 12)

Las frmulas (3.5.11) y (3.5.12) resuelven por completo el problema


pl anteado.
Ejemplo 3.5.t. Hallar la ley do distribucin de la suma de dos magnltudea
aleatorias independientes uniformemente repartidas cuyas esperanzo materntleu son iguales a e.ero.
En esto caso tnemos una sola magnitud aleatoria escalar Y que roptG19nta
la suma de las componentes del vector aleatorio bidimensional X:

Y= X,+

X1.

Las densidades de probabilidad de las magnitudes aleatorias X, y X r


se determinan correspondlontemonto por las frmulas
1 1 ( )- { 1/212 si 1;r, l <; o,
'
O si 1;rl 1 a,

z, -

1/2b si
h,(.>:.)= { O
si

>

l z 1 l < b.
jz2

I>

b.

H8

L~cloriales

Cap. 3 M ag11itiidts aleatorias

La donsidad oonjuota de irobabilidad do las magnitudes aleatorias X, y X 2


es igual al producto de las densidades de probabilidad de las mismas. Aplicando
la fl'm11la (3.5.H), hallamos la funcin caracterstica de la magnitud aleato
ria Y:

/!y (l.)=

..!b J dx1

-a

-b

eil.(x 1+"l tb:2 =

J
=Tab

l)..:(

dJ:

-a

sen A.a sen j.,b


abl..2

e'f.x dx.,

-b

Luego, segn la frmalu. (3.5.12), hallamos la densidad de probabilidad de la


mAgnitud aleatoria Y:

..,

fd11)=

~(!/)

t
= 21111b

..
f
.l

.:oo

2~

J . -v.ugy

{) cli>.=

- oo

- i~Y

sen 1..asen }.b J..=


1,.2

00

-a-b - la-61

la - 61 a+6 y

=21iai}

__;_ s.

cos?...senl..asen/.;b J
?,.2

A-

- oo

Fg. 3.5.1.

:lJ\ab

sen yse11 asen Ab


A.

d1'..

!'ero la ltima integral es igual a cero oomo integral en lmites simtricos de la


fnnci6n impar. Al mismo tiempo, l a prin1ora integral, como Integral en lmites
simtricos de la funcin par, es igual a la integral doblada en los lmites desde
O basta oo. Por oonsiguiente,
/,(y)= n~b

.J

cos i,y . se~.aSln M d1' =

o
00

= 4:ab

J[cos(a- b+y)t.-cos(a-b-y)l,cf>..

De aqili,

11:Pli~ndo

-cos (a+b+11). A-cos(a+b-y) A) 12''


la frmula conocida

he.liamos
1

/2(Y)= Sab ( la+b+Yl+la+b -yl-[a-b+y 1-la-b-y( ).

El grfico de esta densidad de probahildad se muestra en la fig. 3.5.1.

8.6. T.t.y n orrndl b/;llmc111lo11al dt dulrLbu<ln

119

3.6. Ley norma l bidimensional de distdbucl6o

La densidad de probabiUdad del vector aleatorio (X, Y) bidi


mensiona l normalmente repartido se enuncia, en el caso general.
por la frmula

---

f(:r:, y)aa Vu~-cJ, exp { -{-lc:u (z- a)'+

2c12 (z-a)(-b)

+en (y-b)2J} ,

(3.G.i)

donde lns magni~udes e, .. c 22 y ei 1c22 - e!, son positivas. Hallemos


la ley de distribucin y las leyes condicionales de distribucin de
las componentes X y Y de este vector aleatorio. Segn (3.1.18), la
densid11d de probabiUdnd de la magnitud alealorin X se expresa por
la frmul:I

/,(x) -=-

Y 11~~-ii=

cxp {-{-1c11(x-a)2

-oo

+ 2c:z (:r:-a) (y-b) + en (y -

b):I} dy ...

= V 11u2n

f1 oxp { - .!.c11 (z-a)' \ X

..

{-{-2c,i(z-a)v+c~u2 1}

_}

exp

dv.

(3.6.2)

Para el clculo de la integral obtenida apliquemos Ja frmula


eo

I e"'_,..,~ dt = -~e

.,s

.= .

41

<"6.3>

-oo

cuya deduccin se expone eu el suplerueuto !(frmula (1)1. En vi rtud


de Ol!tA frmula.

r.. -+

exp {

f2c,dx-a) v+ c211Pt} dv =
= , / 2.:i exp { c}, (z-a~}.
V cu
2t1:

(3.6.4)

Susti\uyendo esta exp!'e$in en (3.G.2), obt.en<lremos

f, (x) =J./ <u~;t exp {

cllc:;:cr. (z-a)'} .

(3.6.5)

Com parondo esta frn111l11 con l a expresin (2.5. 12) de la dcusidDd


de probaliilidaJ normal unidiruensionnl, vamos que la componen-

120

Cap. 3 M ag11itudea alea!Qrlar vectoriales

te X del vector aleatorio bidimensional normalmente repartido


(X, Y) tambin est distribuida normalmente; en este caso la espe.ranza matemtica y la dispersin de dicha componente se determinan
por las frmulas

m ,,=a,

Dx

(3.6.6)

En virtud de la simetra, la densidad de probabilidad f 2 (y) de la


magnitud aleatoria Y se expresa por la frmula anloga a (3.6.5):

el( {- CuCaz-cf,
I 2 (Y ) =-,V/ C11Ci2-C~.
2cun
P
2cu

-b)2}

(3.6.7)

Al comparar esta frmula con (2.5.12) resulta que la esperanza matemtica y la dispersin de la magnitud aleatoria Y Re definen por las
frmulas
(3.6.8)
Pata determinar la densidad condicional de probabilidad de la
magnitud aleatoria X con respecto a Y, apliquemos la frmula (3.2.8).
Sustituyendo en ella las expresiones (3.6.1) y (3.6.7), despus de
simplificar obtendremos

/1=(z !y)=
=

v~

exp

{-ir

C11

(z-a)+ 2c1z(X-a}(y-b) + ::: (y-b) 2 ] }

o bien
11(.e1 Y)= V ~~ exp { -

'~1

x -a+

;;~ (y-b) ]2}.

(3.6.9)

:na frmula semejante se obtiene para la densidad condicional de


probabilidad de la magnitud aleatoria Y:

/2{ylz)=V;: exp

{-e~ [y-b+ ;:: (z-a)J2}.

(3.6.10)

Comparando las frmulas (3.6.9) y {3.6.10) con la expresin general


(2.5.12) de la densidad de probabilidad normal unidimensional,
.llegamos a la conclusin de. que la ley condicional de diStribucin
de cada com,Ponente del vector aleatorio normalmente repartido es
tambin normal con respecto a la otra componente; con ello, las
esperanzas matemticas condicionales y las dispersiones condicionales de las componentes X, Y del vector aleatorio (X, Y) se definen

12t

9.6. Le 11orm4l bidimensio11al de dUtrlbuctn

por las frmulas

M(Xiy)=a- ~:~ (y- b), D(Xlyl=c~i'


M[YlxJ=b-~(x-a)
. D(Ylx)=-Cz-i1- .
\Ci2

l.
.

(3.6.11)'

. Al comparar las expresiones (3.6.5) y (3.6.7) de la,.s densidades.de probabilidad no condicionales con l as (3.6.9) y (3.6.10) de las
densidades d probabilidad condicionales de l as componentes de. un
vector aleatorio normalmente repartido, se desprende que eSias
.~omp-0nntes son por lo comn magnitudes aleatorias dependientes.
Y soJamente en caso en que c12 =O, las componentes de un vector
aleatorio bidimensional normalmente repartido son indepen!lientes.
Dmos la interpretacin geomtrica de los resultados obtenidos.
La ecuacin
c11 (x - a) 2
2c12 (x - a)(y - b)
c 22 (y - b)' = 2k2 (3.6.12).
cualquiera que sea el valor k, es la ecuacin de la curva central de
-segundo orden con centro en el punto (a, b). Como el discriminante
D = c 11c22 - e~. es positivo, entonces esta curva representa una
elipse. Si se considera k como parmetro, a la ecuacin (3.6.12)
le corresponde una familia de elipses concntricas semejantes. En
todos los puntos de la elipse correspondiente al valor dado del parmetro k la densidad de probabili.d ad f (x, y) tiene un mismo valo1"

igual a V~ e-11.. Al alejarse del centro de dispersin, es decir, al


aumentar el parmetro k; la densidad de probabilidad disminuye ..
Debido a esto, la distribucin de los valores posibles de un vector
aleatorio bidimensional se puede representar geomtricamente pol"'
una famHia de elipses concntricas semejantes cuya .espesura dismi
nuye, al alejarse del centro de dispersin, proporcionalmente a la
magnitud e-1ti. Tal cuadro de la dispersin en el plano, subordinada
a la l ey normal, se llama dagrama de dtsperst6n .
L a ecuacin
x=a- ;;~ (y'-b),
(3.6.13)
que represenla grficamente la dependencia de la esperanza matemtica condicional de la magnitud X del valor y de la magnitud Y es,
como es sabido de la teora general de l as curvas de segundo orden,
la ecuacin del dimetro de una elipse (3.6.12) conjugada con la
direccin del eje x. Este dimetro divide en dos partes iguales a todas.
las cuerdas de la elipse y corta a la elipse en los puntos en los cuales.
las ta ngentes a sta son paralelas al eje x (fig. 3.6.1).
De un modo absolutamente anlogo la recta

y = b-.:J.!.(x-a),
Cz2

(3.6 .14)

que refleja la esperanza matemtica condicional de la magnitud Y

Cap. 3

122

"1axnUud~1

akatqrltJ.t rutorln/,.

en funcin del valor x de la magnitud X, es el dimetro clel diagrama


de 1lispersin conjugado con la direccin del eje y. Esta recta divide
.eu 1los partes iguales o todas las cuerdas de la elipse, paralelos
al eje y, y corta a Ja elipse en los puntos en los
Y q
r cuales l as tangent.es a esta lt.ima son paralelas
al eje y (fig. 3.6.1).
La recta (3.6.13) que representa l n dependencia de Ja esperanza matemtica condicional de la
magn itud X del valor y de la magnitud Y se llama
linea de regresin de l a magnitud aleatoria X a Y.
Anlogamente la recta (S.6.i 4) so Uama lnea de
Pig. 3.1.i.1.
regresin de la magn itud aleatoria Y a X.
Como es sabido de La teora de las curvas de
segundo orden, los ngulos de inclinacin de los
(je~ del diagrama de d ispersin (3.6.12) con respecto a los de coord('n;idns se de terminan por la frmula
t<>
2A -- 2.!L
.....
cu-cu.

(3.6.15)

De aqui se ve que las componentes de un vector bidimensional norma lmente repartid o son independientes precisamente cuando, y solaniente cuando, los ejes del diagrama de dispersin son paralelos
a los ejes de coordenados.
Hallemos ahora el momento de correlacin de las componentes
X , Y del vector bidimensional , aleatorio norma lmente repartid o
(X, Y). Sustituyendo en la frmula (3.4.7) la expresin (3.6.1.)
.Je la densidad normal de probabilidad, teniendo en cuenta que l as
-esperanzas matcmLicas de las magnitudes aleat orias X y Y son
iguales a a y b respectivamente, y cambiando las variables
1 = x - a, v = y - b, obtendremos
k "V -= 1/c11c11-ci-:
2'"\
X

..

..,

J J uvexp { - -}[cuu'+ 2c13u11+c21v~1} dudv.


-oo

(3.6.16)

(IQ

l?ara cumplir primeramen te la integracin con respecto a 11, aadiremos los tr111inos en el exponente que contienen v hasta que se
-0btenga un cuadr ado perfecto. Para esto conviene adicionar y restar
-en el exponente la magnitud cJ, u1 . E ntonces obtendremos

k:xy -

..
Vcu~~-cl, J
-oo

en

exp

{-

cuc~;c, u'} du X

9 .6. Ley normal bidimef1SOlloJ de ditrihllcl6n

..A.l sust.ituir las variables t


tendremos

+ c,i u

J (t -

C22

123

en la integral interior,

00

:::

u) exp { ~~t~} dt

-oo

o, valindose de las f6rmuJas (2.5.2) y (2.5.3),

Ahora, aplicando la f rmula (2.5.4), obtendremos


k

_
xu-

-V2tf.

., /cuca - ch cu

-v

Despu.;s de efectuar las


mos dcfi11iti vamcnte

2ncu

-;;;;- V(c11c22-cf~)3 .

simpliica~iones

correspondientes, obtendre(3.(i.17)

k:r:y=

Esta frlltula muestra que las componentes de un vector aleatorio


hidimensional normalmente repartido estn no correlacionadas si,
y slo si c12 = O. Pero ahteriormente vimos que la igualdad c12 = O
es necesaria y suficiente para que las componentes de un vector
aleatorio bidimensio1111l normlmente repartid<> sean independientes.
Ahora bien, las componentes de un vector aleatorio bidimensional
normalmente repartido estn no correlacionadas precisamente si,
y slo si , son independientes.
La segunda frmula de (3.6.6), la segunda frmula de (3.6.8}
y la frmula (3.6.17) se pueden considerar como ecuaciones con las
incgnitas c11> c12 y c2 2 P ara resolver estas ecuaciones, multiplicaremos miembro a miembro las segundas frmulas de (3.6.6)
y (3.6.8) y de la frrnula obtenida restaremos la frmula (3.6.17)
~levada al cuadrado. Como resultado obtendremos
DxDll -k!~ =

f
Ct JC22 -

C1t

(3.6.18)

Dividiendo por esta frmula, miembro a miembro, la segunda


frmula de (3.6.8), la segundn frmula de (3.G.6) y la frmufa (3.G.17),

C1tp. IJ Ma!.11i/ud;:s aleatortas vedtwlalts

124

despus de simplificar, obtendremos


Du

Cu= D,,p~- kh
C12

=-

DxD:x:.. k';,v
D,,,

C22=

J1

'

D,,,Dy - k~v .

'

(3.(i. Hl)

1
)

As pues, basta conocer las dispersiones y el momento de correlacin


de las componentes de un vector aleatorio bidimensional normalmente distribuido para determinar por compl eto todos los coeficientes en la expresin de la densidad de probabilidad del mismo.
Es evidente que no es suficiente conocer solamente las dispersiones D"' y Dv para determinar la densidad conjunta de probabilidad
de las magnitudes aleatorias X, Y. Por consiguiente, como muestra
el ejemplo de las magnitudes aleatorias normalmente repartidas,
no basta conocer l as densidades de probabilidad de las magnitudes
aleatorias, tomadas por separado, para determinar su densidad conjunta de probabilidad.
Sustituyendo las expresiones (3.6.19) en la frmula (3.6.1)
y teniendo en cuenta que las magnitudes a y b representan l as esperanzas matemticas de las magnitudes aleatorias X, Y respecti vamente, obtendremos
t

f(x, y)= 2lt YD X D y - ki:Cl/ X


X

exp { -

Du (r- m,,,) 1 - 2kxv (z-mx) (y-m 11)+Dx (y-m11) 2 }


.
Z(DxDv-khl

{3.6.20)

3.7. Magnitudes aleatorias complejas


Haia. ahor~ hems examinado solan1eute las magnitudes aleatoreales, ,lo que ~ suficiente para las aplicaciones prcticas. Sin
4m.bargo, durante la determinacin de las funciones caractersticas
de las magnitudes aleatorias reales ya hemos encontrado las magni~uies aleatorias .complejas Y = el1'X y Z = et(.,, X1+ +.nXn).
As pullS, en la Teora de las Probabilidades conviene examinar
no solamente las magnitudes ale1torias reales sino tambin las
complejas. En los capitulos ulteriores, al estudiar la teora de funciones aleatorias, tendremos que calcular las esperanzas matemticas, dispersiones y momentos de correlacin de l as magnitudes aleatorias complejas. Por eso deberemos extender las nociones de esperanza matemtica, dispersin y momento de correlacin a las
magnitudes aleatorias complejas.
Se llama magnitud aleatoria compleja a tal magnitud aleatoria
cuyos valores posibles son nmeros complejos. La magnitud aleator~as

3.7. Magn.lludu altat<Jrla compleja.

ria oompleja Z se puede representar en l a forma


Z = X+ iY,

12:">

(3.7.1)

Donde X y Y son magnitudes aleatorias reales e t


V - 1. A un
conjunto cualquiera de valores posibles x, de Las magnitudes
aleatorias X, Y l e correspon de un nmero complejo z = x + ly
que es un valor posible de la magnitud aleatoria compleja z.
Considerando l a magnitud aleatoria compleja como funcin do
dos magnitudes aleatorias reales X , Y, se puede aprovechar la frmula (3.4.2) para el clculo de la esperanza matemtica de la inagnl
tud aleatoria Z. Como resultado oblendremos

.....

il{(Z ) = )

) (x-ly)f(x, y)dxd=

-oo -oo
...

00

J J xf(x, y)dxdy+i ~ l yf(x, y)dxdy

-oo - oo

o bien

-OQ

-co

M [ZJ = M [XJ + iM IYJ.

(3.7.2)

P ues bien, la esperanza m atemtica de una magnitud aleatoria


compleja es igual al n mero complejo cuyas partes real e i maginaria
son iguales respectivamente a las esperanzas matemticas de l as
partes real e imaginaria de esta magnitud.
Al hacerse extensiva la nocin de dispersin a las magnitudes
ale11t.orias complejas, es natural que se t iende a conservar la propiedad pl'incipal de la dispersin: la positividad esencial. De acuerdo
eon esto, se llama d ispersin de la m agnitud aleatori a compleja
Z = X
iY a la esperanza matemtica del cuadrado del mdulo
de la correspond iente magnitud aleatoria centrada:
D lZI = M [ 1Z - m, 12 1 = M 1 1ZO 12 ).
(3.7.3)

zo

Teniendo en cuenta que 1


1 s = (X)~+ (Y) 2 , se puede escribir
D [Z) = M l(X) 2
(Y)' I.

Pero, como veremos en el prrafo siguiente, la esperanza matemtica


de l a suma de magnitudes aleatorias es siempre igual a l a suma de
s us esperanzas matemticas (el teorema de adicin d e esperanzas
matemticas). Por eso
D [Z) = M ((X)'l
M [(Y) 2 1.

El primer sumando del segundo m iembro representa la dispersin


de la magnitud aleatoria X y el segundo s umando, la dispersin
de l a magnitud alea t oria Y . Por consiguiente,
D !ZI = D lXI
D lYJ.
(3.7.4)

120

Cap. 11

Ma11n l1ud~1 al~atoria

wr.Jorlal.,

Ahora Lien, la dispel'Sin de una magnitud aleatoria cou1pleja esigual a la suma do las dispersiones de las partes real e imaginaria
de la misma.
De la definicin del momento de correlacin (3.4. 7) de una mnguitud aleatoria rea l se deduce que el momeuto do correlacin <le una
magnitud aleatoria consigo misma es igual a su dispersin. Al hacerse
extensiva la nocin do momento de correlacin a las magnitudes
olealorias complejas, es natural que se tienda a conservar esta propiedad. De acuerdo con lo dicho, el momento de correlacin de las
magnitudes aleatorias complejas
(3.7.5)

se determina por la fr1uula


k,.v

IX6Y0 J.

(3.7.13)

En el caso par.ticular cunndo so trata de las mngnitudes aleatorias


reales X y Y, est a deinicin del momento de correlacin coincide
con la dada en el 3.4.
El momento de correlacin de las magnitudes aleatorias complejas
se puede expresar por medio de Jos momentos de correlacin de las
partes reales e imaginarias de las mismas. En efecto, de acuerdo
con el teorema de adicin do las esperanzas matemticas
M

[XYI=M [(X1+ iX!) (}'~-iY~)J =

= 111 tX~Y11 M [X~l'~J +M { tX~Y~j - JI f iX~Y~I


Pero, como veremos en ol prrafo siguiente, la magnitud constante
se puede sacar del signo de esperanza matemtica. l'or eso, sacando
del silzno de esperanza matemtica la unidad imaginaria i, obtendremos
M

IXYJ =

rx1Y:1 + M rx:v:1+ iM r x:)'~I- iM [X~F;

o bien
(3.7 .7)

Hemos deducido las frmulas (3.1.4) y (3.7.7), valindonos de


cie.r tas propiedades de las esperanzas matemticas que se est8'blecern en '81 prrafo siguiente. Est claro que luego, no debemos aplicar las frmulas (3.7.4) y (3.7.7) al demostrar las propiedades de las
esperanzas matemticas.
Para evitar la confusin, convengamos en que en lo sucesivo
examnaremos, como regla, las magnitudes aleatorias reales y siem_pre
ind,clU'emos especialmente cuando se t rate de las magnitudes aloatorlas complejas.

8.8. PropiedadeG de las e$peran:M matemticas

127

' 3.8. Propiedades e las esperanzas matemticas

Estudiemos a.hora las propiedades. fundamentales de las esperanzas matemticas. En .este caso, para la universalidad, consideremoS
que las magnitudes aleatorias que se examinan y todos los nmeros.
.que se encuentran pueden ser t11nto realeS 1omo complejos. Esto nos.
onceder el derecho d~ aplicar iodas las frlJ1ulas obtenidas a la,smagnitudes aleatorias complejas, lo que necesitaremos en Jos captulos sucesivos al estudiar l a teora de las funcines aleatorias ..
La esperanza matemtica de cualquier, magnitud no aleat.ori'a:
es igual a la propia .magnitud
M (e]

=e,

(3.8. 1')1

En efecto, la magnitud llo aleatorja e tiene un solo valor posible cy la probabilidad de que tome este valor es igual a la unidad. l)or
eso, aplicando la frmula (2.3.1-4), obtendremos precisamente Ja
frmula (3.8.1 ).
La esperanza matemtica del producto de una magnitud no aleatoria por una aleatoria es igual a l producto de la primera magnit\ldi
por l a esperanza matemtica <le la segunda:
M kZI

cM IZJ.

(3.8.2)>

Con otras palabras, la magnitud no aleatoria se puede sacar doL


signo do esperanza matemtica. En efecto,
MlcZJ=

j j c (x + iy)f(x,y)dxdy=
=ac r j (x + iy)f(x, y)dx dy = d11Zl-

-co -oo

-oo

-!);,)

La esperanza matemtica de la suma de las magnitudes aleatorias.


es igual a la suma de sus esperanzas matemticas
M

rx + Y] = M

[XI

+M

[Y).

(3.8.3)'

Primeramente demostraremos estu propiedad para l as magnitudes aleatorias re<Jlcs. En este ca~o , en virtud de la frmula (3.4.2)>
M[X + YJ=

....
J)

(z -t-y) f (x , y)dxcly=

j j xf (x, y)dxdy+ r j yf(x, y)dxdy.

-oo -oa

-oo -oo

i28

Co>. 3 Manitud,. nleatorltu Vtctoriak1

Ac.u ol prrncr sumando representa la espera.oza matemtica


do la magnitud aleatoria X y el segundo, lo. esperanza matemtica
de l a magnitud aleatoria Y. As pues, para las magnitudes aleatorias
reales la frmula (3.8.3) queda demostrada. Supongamos ahora
que X y Y sean magn itudes alea torias complejas:
X= X1
iX 2, Y= Y1
tY2.
(3.8.4)
donde X,, X 2 , Y 1 y Y 2 son magnitudes aleatorias reales. En virtud
de (3. 7. 2) tenemos

M IX

+ Yl =

M IX1

+ Y + i (X2 + Y2 )1 =
IX1 + Y 11 + iM IX 2 + Yil
1

(3.8.S)
Puesto que para las JI1agnitudes aleatorias reales la frmula (3.8.3)
ya ha sido demostrada, entonces
= M

+ Y,l
+ Y21

M [X1
M IX2

= M
= M

rx,J + M IY1l.
IX 2 l

+M

IY2 1.

Sustituyendo estas expresiones en (3.8.5) y volviendo a aplicar la


frmula (3. 7 .2), obtendremos
lvf IX+ YI = M lXd
M 1Y1l + t{M (X 2 1 + M IY2 1} =
""'JVf !Xi!+ iM IX 2 l + M IY1 J + iM !Y2 l =
= /11 IX 1 + tX 2 l + M IY1
iY3 J - M IXl + M IYI, (3.8.6)

que es lo que se trataba de demostrar. Asl pues, la frmula (3.8.3)


est uemostrada para cualesquiera magnHudes aleatorias.
Valindose del mtodo de la induccin matemtica, esta propiedad de las esperan~as matemticas puede hacerse extensiva
a cualquier nmero de magnitudes aleatorias reales o complejas
Z 1, Z:, . .. , Zn:
n

vcl

v=al

M I ~ Z,,]= ~ M[Z..J.

(3.8.7)

Las frmulas (3.8.3) y (3.8.7) enuncian el t eorema de adicin de


l as esperanzas matemticas: La esperanza matemtica de la suma
de magnitudes aleatorias es igual a la suma de sus esperanzas mate,mticas.
La esperanza matemtica de un11 funcin lineal de h1s aleatorias
(3.8.8)
es igual a la misma funcin de las esperanzas matemticas de estas
magnitudes:
n

mu= , .L:
a,,m, V + b.
_,

(3.8.!l)

8.8. Propiedo.de.s d.e. lo.s c.<pera11zas matcmticn.

En efecto, segn las propiedades deducid.as de las espera uzas matemticas


1t

v= t

\'=1

M IU! = M [ ~ avZv+ b) = ~ M [a..,Zv) + Jf [b) =

2J

v~t

a,,,M JZ,,J +b

q1.1e es lo que demuestra la frmula (3 .8.9)


Supongamos ahor a que X e Y son dos magnitudes a leatorias
arbitrarias, escalares o ve~toriales, con componentes roales (las
magnitudes aleatori as complej~s siempre se pueden considj)rer comq
vectores aleatorios b idimensionales con componentes rea les). Sea
cp (X, Y) la funcin unvoca de las magnitudes aleat ohas X ; Y.
Segn la definfoin (3.4,2)

J"" J"" cp(x,y)f(:r;,y)dxdy,

M[q(X,Y)J=

donde f (x, y) es la densidad conjunta de probaliilidad de las m<tgllitudes aleatorias X, Y . Exprcsanrlo esta densidRd de probal.Jiliclnd
por la densidad ele prolrnbilidad de la magn itud X y por la densictad
condicional de probabilidad de la magnitud Y, segn el teorema de
omit plicacin de densidades de probabilidad (3 .2.10}, obtendremos

J J q> (.r., y)/, (.1:) f2 (YI x) <l:1: d11 =


co

.M 111 (X, n i =

""

-oo -oo

J"" r Jcp(x, y)/2(Y!,;)dy] /

(x)dx.

- oo

- w

La in tegral interior reprl'senta la espe.ran1.a mnt.emlica conclicional


de l a funcin 1p (x, Y) de la magnitud aleatoria Y parn el valor
cln<lo x 1le la nrngnitud aleatoria X:

""

J 1p(x, y)f (ylx}dy=M'[x, Y)lxr.


2

Por

(3.8 .10)

con~igu iento,

}\f l<p (X,

Y) I =

M lcp (x, Y} 1x i /1(x) dx.

(3.8.11)

La magni tud 1V [<> (x, Y) 1xi dopende del valor x de la mag11 it111l
alent.oria X. I'or eso la magnitud M [q> (X, Y) 1 X 1 ropresc: nt u lA
funcin de la magnitud aleatoria X : ;'\tf [cp (X, Y) 1 X] = ~'( X).
La integral en la frmnla (:.\.8.11.) representa la esperanza mntemo-o s3H

i30

Cap. 3 .Magnftudu altatorla vtctortalt1

tica de esta funcin:

J"' Mlq(x, Y)lxJ/s(x)dx=M[M[q(X, Y) IXJJ.


- oo

Por lo tanto,
M [q> (X, Y) l = M [M' [<p (X, Y)

I XI).

(3.8.12)

Esta frmula demuestra que la esperanza motemtica de la funcin


de dos magnitudes alentorias (escalar es o vectori11les) se puede calcul ar no a la ve1. sino consecutivamente: primeramente se halla la
esperanzu matemtica condicional, considerando fijado el valor de
una ele las magnitudes aleatorias, y luego se baila la esperanza
matemtica de la as obtenida funcin de esta magnitud aloatori n.
Esta propiedad de las esperanzas matemticas se utiliza frecuentemente en la.'l aplicaciones prcticas.
Ejemplu S.8. 1. ll:allat la esperanza matemtica dol prodm:to de lns componoutcs X, Y do 11n vector aleatorio bidimensional normalmente repartido.
Segn la frmula (3.8.12) bailamos primerain~nte la esperanza matomt1ca con
dicional del producto XY para el valor fijado :i: de la magnitud aleawria X.
Eu virtud do (3.11.21, al caleuJar esta esperanza matemtica r.onrlicional , el valor
z de In mugnilud a eatoria X so puede sacar del signo de la espernnzn mutomtiro. Entonce,, 11bt.cnd1emos
M [:i:Y I :i:[ = z:M IY I zJ.

Sustituyendo n.qul la exprosi6n de la espernnui watemticR condicional do la


magnitud aloaloria Y dr. (3.6.il), obtenlda on el 3.6, hallaremos

M fzY I ::t) = ..: b-!il. {z- a)J .


C:t:

S11sLituyC11llo oqul x por la magnitud aleatoria X, obtendrnmvs la funcin de


la iuognitud aleatoria X:
lj;(X)=M iXYJ X)=X

[b- !1!..
(X-4)].
e,.

Luego, por la lrmula (3.8.i2). hallaremos

M [XYf=M [M[XYJ XJJ~M [

xr

b- ::: {X-a>]]

o bien, aplicando las propiedades de las esperanzas matemticas, determinadas


m6s arriba,

= =

En ol 3.6 vimos quo M fXJ .,. a y en el 2.3 se demostr que M [X'l


cx 2
ml,+ D:r ff6rmula (2.3.H)J. Por eso, teniendo en cuenta que mx =a y"aplcando la formula (3.6.G) pnra Dx obtendremos definitivamente

ab

3.9. Propledadu de U.. di1per1lO(l(S

t31

o bien, aplicando la frmula (3.6. t 7) para el momento de correlacin de ._,


componentes,
Af [XY) -

ab

+ kxg ~ m,.mg + kxir

Hemos deducido esLa frmula para el caso en que X y Y repreaentan las componentllll del vector aleatorio normalmente repartido, para ilustrar la aplicac1n
<le 111 frmula (3.8.12). En el prrafo siguiente deduciremos est~ frmula para
las magnitudes aleatorias reales arbitrarias, empleando un procedimiento con
sidoro.blemente ms sencillo.

3. 9. Propiedades de las dispersiones y de los momentos


de correl acin

Ahora vamos a estudiar las prQpiedades de las. disper5io~es y de


los momentos de corrol aci6n de lai m agrutudes aleatoris. Eu este
caso, como en el prrafo anterior, consideraremos que, en l<>.. gen,er.n.J.,
todas las magnitudes aleato:rlas y los nmeros que se 'examina!\
pueden ser complejos. Esto es necesario para el estudio de la teora
<le l as funciones aleatorias en los captulos l:lucesivos.
De las propiedades de las esperanzas matemticas se deriva
directamente qoe la dispersin de cualquier mugn itud no aleatoria
es igual o cero y el momento de correlacin de tlos magnit-udes no
aleatorias es igual a cero. Lo mismo el momento de correlacin de
cualquier magnitud no aleatoria con la aleatorio es siempre igual
a cero, porque de la primera propiedad de las esperanzas matem
ticas se deduce que l a magnitud no aleatoria contro<l.a siempre es
igual a cero.
La dispersin del producto de una mognitu1l aleatoria por otra
110 aleatoria es igual al producto de la tlispersiu de la orngnitud
aleatoria por el cuadrado del mdulo de la 110 aleatoria:
D (cX) = I e l'D IXJ.
(3.!).1)
En efecto,
D [cXI = M [ 1cX - 111 [cX] 1'1 = I e l2 M 11 X - rn,. [3 ) =
=

1e tD I XI.

Anlogameute se demuestro que el momento de correlacin de las


magnitudes alcat.orias
(3.9.2)
U= aX, V= bY,
donde ti y b son nmeros complejos arbitrarios y X y Y son magnitudes Rleatorins, se determina por la frmula
k.,. = ab kxr
(3.9.3)

Si las magnitudes a leatorias U y V representan funciones lineales


do las mngnitncle.s a lentori'1s Xi, .. ., Xn,
n

_,

U=~ avXv+b, V=~ CvX.,, + d,

(3..4)

v=I

g.

Cap. 8 Ma11niludcs auatorltU L>eclOrlak.~

enLonces l n di1>persin Je la magnitud aleatoria U y el momento de


correlaci11 de las 1nag11it.udes aleatorias U y V se determinan por
lns frmulas:
n

D,L =

~ a,,.1,k,,11

(3.9.5)

"'"1-- l

"

kuc = }~ avC1-1k...,",

(3.H.IJ)

v. =-1

do11clo k. 11 El~ d inome uto de c.orreh1cil11 de l as magn itudes aleatorias X,,, X,, (cunnd.o , = v, la magnitucl k.., representa la dispe1'si6n de la m11gnitud aleatoria X..,). f::n eiecto,
n

D (Ut = M'!IU l2 t=M l l ~ a.X~l'l =


v=t

....,. M l

~ ~.. xt.~I =

JA.. V=" l

a..,,4',.M [X~Xtl =

Y. fl..:9 1

~
V, .c J

a,411 k,,..

De uu cuo<lo semejaute se demuestra tambin la frmulu (3.9.6).


t:n el c~so pnrticular, cuando se trattt de magnitudes aleatorias
110 corrclacio110.das X,, . . ., x., las magnltudes k..,"' co11 distintos
nclices son iguales a cero y las frmulas (3.9.5) y (3.9.f>) toman la
OL' lll(\

"

Du= ~ l 12 D.,
v-c

"

k..o = ~ a,~.D..,

(3.!l.7)
('.l.9.B)

\-::S.l

donde D.., = k,.., es la d ispersin do la mogni\ud aleatoria


X.., (v =1, .. ., 11).
En l as aplicaciones prcticas tione importancia un caso particular ms, r eferente a la frmula (3.9.5), cuando la magnitud U repr~
senta ln su ma de las magnitud e.~ alt!ntorias X,, .. ., Xn
n

U=~ X..,

(3. 9. 9)

\!:t i

E$ evidoute qui.' en est.e Cll.l!o a, = 1 (v


frmula ('3.9.5) tomar ltt forma

= 1,

n), IJ -=O y la

ti

D[UJ =

~ kw.

(3.9.10)

v,- 1

Ahora bion, la dispersin de la .~urn a <le las maguitudes aleatorias


es igual 11 la suma de todas las t.lisrersiones y los momentos do correlnci6n de los sumandos.

133

3.9. Pr,,piedadu rk llu dts<Nfontt

Eu el caso particular, cua ntlo las magnitudes X, .. ., X


estn correlacionadas, Ja frmu la (3.9.10) toma la forma

no

DiUI=

l.; D,.

(3.9.H)

v~t

As puos, la dispersn de la suma de l as magnitudes aleatorias


no correl acionadas e~ igual a la suma de las dis persiones de los sumandos. Teniendo en cuen t a que D [ UI = a;., y D v = a~, donde
<Ju, a,. . .. , a,. son las desviaciones enadrtUcas medias de las
magnit udes aleatorias U, X,. ... , X ,., respectivamente , podemos
e11cribir la frmula (3.9.11) en fa. forma
n

a~ = 2j
,~1

a!.

(:3.9.12)

Las frmulas (3.9.7), (3.0.8), (3.9.11) y (3.ll.12) :>011 aplicnl.Jles


para cualesquiera magnitudes aleatorias no correl acio11ad11s. Eu
particular, son vlidas para las maguitudos aleatorias inde1endieotcs .
Calculemos ahora la csptiranza matemti ca del producto de lns
magnitudes X o Y para !as n11Jg11itude.'i aleatorias ijfbitrarias X e Y
(el momento inicial mixto dti segundo orueu). Heprescutando las
magniL11des aleatorias centradns, en virtud de las 1iropiedades de 111s
esporonzas matemtic,nl:!, obtendrtiioos

M IXYI

M [(m.x

+ xo

)(m

+ Y)I = in..,iv + M[X fr.

o bien

(3.9.13)
En el caso particular, cuando se iratn de las mngnitudl'S aleatoria.':\ no correlacionadas reales X o Y, la frmula (3.9:13) toma la

forma
M IXYJ

= m..,mv.

(:Ul.14)

Esto ti~ til as llamado teorema de multiplicacin de las esperanzas


matemticas: la esperan za matemtica del producto de dos mugnitudes aleatorias no correlaciouadas reales es igual al producto do las
esperanzas rnatemticM do las mismas. A Jerencin del teo rema
de adicin, el de multiplicncin es vlido solnmeute vara las magniturl os aleatorias no correl acionadas reales. En rnrticnlor, es
vlido tamb in para las mngniinrlcs nleatoras renles nrlepen<l iontes.
Demostremos tambin que el momeulo de correlucin de las
magniLudes aleatorias sn tisiace la design aldad
1kxv I , ; ;'. V DxDy.

(3.9.'i!'i)

134

Cop. 3 M lfnltudu alealuriM vu1orlo1

Para la demostracin nos valemos de la propiedad de la dispersin


no negativa. Para cualesquiera magnitudes aleatorias X, Y y nmeros no aleatorios a y b, la dispersin de la niagnitad aleatoria
a X - b Y no puede ser negativa:
D laX - /JYI ;;;::, O.
(3.9.16)
Aplic11ndo lo frmula (3.9.5) y teoiendo on cuenta que en el caso
dado n = 2, a1 = ci, a2 = - b, obtendremos

D [aX -bYJ =la l~ Dx+I b: D11 - abkx11 -abkvx (3.9.17)


Observe1uos ahora que
lc11 ., =M [yoX0J=kx11 ,
(3.ll.18)
es decir, al cambiar el orden de l as magn itudes aleatoria:; complejas,
el inomcnto de correlacin pasa a la mngui tud conjugada compleja.
'fe11iendo esto cu co1\Sideraein y sustit uyendo la expresin (3.9.17)
en (3. !l.16). obtendremos 1111ra cunlosquiera a y b
(3.9.19)
Ahora, aprovechando que a y b sou arbitrarias, hagamos

a= k,.11 ,
Entouce:s,

D,.

(3.9.20)

a desigualdnrl (il.9.19) Lomar la forma

ll<x11 11 D~ + D~Du - Dx 1kxu r~ -D" 1kxy12 ::;.. O


o bien
(3.!l.21)

De 11qui se ve que 11ara D,. >O

Dz.Dy -

'""V 11 ;;;. o,

de donde se deduce l a desigualdad {l.9.15). Cuando D,. = O, la magnitud aleatoria centrada X es igual a cero con la probabilidad equivalente a la unidad, debido a lo cual kxy ... M [XYJ = O, es
decir, tambin (3.9.15) se satisface.
Sustituyendo en la desigualdad (3.9.15) las ralees de lai; dispersiones por las desviaciones cuadrticas medias, podemos escribirla
en la forma
k:t11 I ~ "'v
(3.9.22)
De las desigual dades (3. 9.15) y (3.9.22), as como de l a definicin del coeficiente de correlacin {3.4.9) se desprende que pro11
cualesquiera magnitude~ aleatorias el coeficiente de correlacin
no excede en pmdulo a la unidad:
1r,,u1~1 .

(3.9.23)

{I 8.9. Propi<dodtt de liu tluptralonu

135

De los clculos citados se ve que el signo de igualdad en las frmulas (3.9.16), (3. 9.19), (3.9.21) y , por consiguiente, tambin en las
(3.9.1!'.i), (3.9.22) y (3.9.23) es vlido si, y slo si, l a dispersin' de
la magnitud aX - bY, para los valores elegidos de l os coeficientes a
y b, es igual a cero. Pero esto, a su vez, es posible solamente cuando
la magnitud cent rada aX 0 1 - bY 1 con probabilidad equivalente
a la \midad es Igual a ~ro. Ahora bien, en todas las frmu las escritas
el signo de igualdad es vlido s i y slo si, entre las magnitudes X
e Y existe dependencia funcional lineal del tipo

(3.9.24)
Esto permite obtener cierta idea de qu es lo que oaracteriia el coeficient e de correlacin r,, 1,,. El coeficiente de correlacin caca.eteriza,
por decirlo as, el grado de aproxi macin de la dependellcia entre
las magnitudes aleatorias a la dependencia fu ncional lineal. En el
caso de dependencia lineal el mdulo del coeficiente de corrolacin
e~ exactamente igual a la unidad: 1 r.,v 1 = 1. Sl l rxv 1 = O, no puooe
existir dependencia lineal entre las magnitud.es aleatorills . Los
valores de 1r"!I1 comprendidos entre ol cero y l a unidad dotorm inl\n hasta qu punto la dependencia entre lns magn itudes aleat ori as es prxima a l a depend encia funcional lineal.
Ejemplo 8.9. t. 1-hllar la esperanzo matemtica y 1" dieporsin de la freouencia de tm acontocimieotn pam n prueba~ incl e1011dienLeS realizadas en
Iguales oonclieionC5 .
Designemos ror X,, el nmero do vocl'S que sucede el aconteei mionto A
oomu resitltado de la v-sirna pruebo. Cnlculemos la esporanza mntcnillca y
la dispersin de ln magnitud iileatoria Xv. Esta man1l11d tiene dos valores
posibles: O y 1, euyos probabilidades son q = i - p y p, respectivamente. Por
lo tant o, aplic:ando la frmula (2.3.14), ob\.endNrno.'I
mxv = O g
1 p = p
(v = 1, 2, . , n).

As pues, la espnranzo. matemtica del nmero do veces q\le se produce un &con


t eeimieuto al efectuar un solo experimento es siempre Igual a la probabilidad
de esto acontecimiento. Apro,echando la frmula (2.:1.15}, liallamos la dlapersl6n de la mngnltud ale.atoria Xv
D,,.., =(0 m,...)'I q+(t-m,,..,)' p=p1 q+q2 p= pq (p+p) = pq
(v = 1, ~ . . , n ).

Segn Ja dnfi nieln, Ja freeuencla U do un acontecimiento A repr~ent~


la relacin del nmern de veces que sucedo el acontecimiento A. ol cual. evidentemenw. es i11Al al nmero do vecOIJ que se prod11ce l.~t.e on cada una do las
pr11~h11.~. al 11moro total de. experimentos realit.ados:

"
u-.!.
~ x ...
"i
Esta frmula muestra que la Crecuencla del acontecimiento A es una combinacin
llDeal de las magnitudes al entorios itHlependientes X, .. ., X,. que Tcpresontan
los nmeros dn veces que ocu trn el acontecimiento A on cada una de las pruebas

realirndn~. Pur consiguiHte , pura rlctorminm Jn cspQmnia 1uatemticn do la


frecuencia U se puede hacer uso de la [rmuln (3.8.9). Ten iendo en cuenta quo
nn esf.e CRSo torio los copficient.es v son iguales a 1/ri v e l trmino iutlepertd iente
b ~.s igunl a cero. nbl.1.1mhomos

fl

m.u = .!..n.4.J
~ 111-;( =!.
'1 p ~ p.
n.4.J
V

v-- 1

(::J.9.25)

'\"= l

s\s PHl'S. In esperan?.a mRt{'m:ltir.a de 11\ fre~uencin dr. un acout.ecimieuto es

igu11l 11 la probabilidnrl de este ltimo. Para determinar la dispersi n de la

fr1~c.1w11ci11, upliquemos IR f6rmula (3.9. 7). C'..omo rr.sultado obten<lrem"s

"
"
o,, ,..J.. Y."=~
'1 P't= !!L.
n"' L.J
n
tl

-..

"~= l

1:1.9.26)

v~L

De lo res uhndos obtenid(ls se puede sacar la deduccin mctic.a siguiente:


In espurn 11zA rnktCmtico rlo la frecu encia, cualquiera que sea el nmero do Ptll"
bas, es ig\wl n In prob~bi.lidad del acont.Qelwiento. y la dis persin de Ja froouonci11 ti~ndo a ~<,ro ul uumcntar ilin1itadamente el nuwro de e.q><lrimentos. Ahorn
hien, cnandn el umcro d<> pruebas <:!1 lo suficiente grnod(I, proctica111eule lo~
v11lo1"~ posibles de la frecuencia de ptod ucci11 de un acontccimi~nto estn
cornprnndidos en lmites tan est.rechns como se qu ier~ . Por oso, al ser grande el
nnH!ro lk PX.l>erirnuntos, podemos tomor la frecuencia cou que !;e produce un
~c.onlccimic111.11 vor la probabilidad del ~contfcimionto. La expresicn (3.9. 26)
J>ara la di s p1!rsi11 do la frecuencia nos pormitn retim9r d<.> un modo aptoxiinado
la 1ref.isiio11 ron que la recueocia s"' ncerca a la probabilidad. l'arn obtonor quo
la frt-c11t111c.ia ilc un <1co11tt1cim.iento sn aproxime de un mo1lo suficin11te1oe11to
exart.o u 1:1 probabilidad dol mismo, prc lic.ame11le bastan algu uas tleccnas du
pruoba s (70-100) sie mpre q1w la >mbabilidad del acontecimiento no sea prxi rna :11 cero o a Ja unilla1J.
Los resultados nl>t(lnitlos son um1 cunsec.uenda dicecla dlJ la defin icin v las
propiedades de las probabilidades de neonteeimieotos, os C(lmo d11 la ti.~rfo
de8arwllnda sobro l a bns~ de estas dofinicionos y propiedades. Asi imes, de las
leyos dn la 'J'eorn de las Probabil idadus se deduce la propiedad de est,abilidad
ele los fr!cuoncias de acontocimicnto~ quo se observa en Ja priiclica. Pol'con~i
!tlli.::ntc, los cnn~eptos me~tns como baso de la TeOl'a d e las ProhMbilidancs nrn
Ja po$ibilidad de descnbir correctamente lns propiedades de los fenmenos aleatorios !recuentos que .S< obscrvao en Ja prctica. J>or eso la r eora de las Prnbabilid!ldes se puede ajltcar a lvs problemas de la prl\ctica, estando en este caso
seguro~ de que las deducciones obtenidas con ayuda de esta Teora S-On exactas.
E je11plo S.9.2. Examinemos ahora una magnitud aleatoria X. Supongun1os que se realizan n expcrime11tos independientes on iguales c.ondiciones ':!
que en cada u no do stos se rcgistrn ol valor que toma la magnitud aleatoria X.
Luego , segn los datos obtondos como r-0s0Ttado de las pruebas, se calcula e l
valrr nQdio aritmtie<> de la mag11itud X. Designemos por X,, ol valor que la
Dilgnitud aloatora X to111,1 ou la 11-sims prueba . Es evidentl.\ quo orat~ rle quo
los exper-imentos hayan sido ofoctuatlos, de liut.110, 1Js t<.> va lor os llna magnitud
aleatoria, debido 8 lo cual ul valor menio l'itm<\tico ne la magn itud X, al l leVI'
a cal><> n experimentos,

tambi~n es unn inagu itud afoHoria. Segn los datos del roblem11 , X., ... , Xn
son magnitudes aleatot-ias independientes con igual e-~ranza mat:emtica m.,

IJ.JO. Verminacin dt

101

momentos

137

e guoJ dispct!i6n D". Aplicando lus frmulas (:1.8.!l} y (3.9.7). bailemos la es~ran~a rnalomtica y la dispel':!i6u del valor medio aritmtlco de la magnitud
aleatoria X al dcctuat " exptrimu11tos:
n
n

mu=-k- 2: 111,.vmol

m,.,

Du=~,; ~

D,. =

~".

(3.9.27}

v=l

Del ciemplo examiu11.do se tlesironde que la es11oranz11 matemtica del valor


modio aritmtico de una magnitud aleatoria, cualquiera <.1uc sea el nmero de
inde)lendientes, es igu11l a la esperanza matemtica de esta magnitud, y la dispersion do la media 11rltmtica l!S inversamente proporcional 1tl nmero de experimentos realizado~ n. Por lo tanl11 al ser el nmero de. operimentus n lo suficicnt.c grande, l tt.~ dc:1viaciones prcUcamenle posibles del valor
medio 11rltmtlco 1le una mag11i1 ud uleatoria cun 1especto a isu esperan ta matemtira estarn r,omprendidus on lmit~is tan estl'echos como so quiera. Bslo do
la posibilidad do detern1inur las OSJleranzas matemticas de la;; magnitudes
ulualol'ias Hegn los resultados ele las pmehas, tomando su~ valores. medios
arltmticos, cuimdo el n{irut1ro de exporimentos tis lo sucieule grande, poi l as
esporun211~ matemticos. Y <'omo lo~ mnmento~ do lns magnitudes aleatorias son
las ospo1n11zas matcmiitirn~ il< chrl~!! fouciouos do 11SIM mag11itud~s. 011\,or1e11~
cualosquitm m<>mt>ntos 1\0 lu~ magnitutlc aleatorias S(' pueden determinar corno
Jos valores medio.~ cor respondie11IC'.S. s1 eJ nmero d~ oxrorimant.os es lo suCicio11111 graud.,. En particular, las dipcrsione!I eslu1ls~icru1 Je las u1agnit.11d l'<!i
al~nhrla~ se p11ede11 lomar por loij dispersiones de la.s mismas y los corr0$p1>11diPntc3 morucnf.os dr c urrcfod611 ostullstkos. j'll\r los mo mentos do correlaci611.
CXJl~riwontos

L11s tesis deducidas en los ejemplos considerados son los Loorewas ws seocillos dt! u11u gra11 cantitlacl ele teo1omus que onLran en 111
parte especial de la Teora de las Probabilidades _que se Hamo t:orrienLomente ley de grandes nm.eros. La ley de grnudes nmeros dtiLcrmin por va terin, partiendo d11 los conce11tos fundnmeutales lle In
Teora de l as Probabilidades, las 1.1ropiecladcs t.lo lol! fenmenos aleatorios !recuentes que so observun 11n la prctica. Ahor a bien, la ley
de grandes nmeros fundamenta la validez de !ns tesis principalo."
ale 111 Teora de la~ Probabil id udes y la posibilithid de Ja aplicacin
prctica de esta teora.

3.10. Drtermi 11aclt11 de lo!' momentos do lni1 fu11cio11es


de ln11 mngnitudci1 alcat:o rias
En la prctica smgo frccul.'11Lemc11tc el problema lle daLcmniuar
los 1nomentos de una maguitud aleatoria Y cuando vienen dadas l as
caractersticas probabillsticas de otra waguitud alcnLoriu X con In
cual l n nrngnitud Y osti ligudu (lor unn clopendon1;io f1111cio11al t.leterrninarla:
y = q (X).
(3.10.1)

dond e rp es 1111a unciri un voca complctamonte determinada. En los


dos prrafos anteriores est11 problema foc resneho pura el caso de
una fu ncin lineal c.p. En el caso general, paro determinar los momonto.s rlo In magnitud alontoriu Y, es necesario conocer Ju ley de <lislri-

138

Cap. 3 Ma!n.itudes akatnrias vocwriales

bucin de la magnitud aleatoria X . .Entonces, todos los momentos


de la mngnitud aleatorio Y que nos interesan. pueden ser determinados por las frmulas (2.3.4) y (3.4.2).
gxaininemos primeramente el caso de las magnitudes escalares
X e Y. Segn la definicin, el momento de la magnitud aleatoria Y
de ordcn k es la osperania matemtica de la magnitud aleatoria yk,
a~=M(Yk]=Af(<p,.(X))
(k = 1, 2, ... ) .
(3.10.2)
As pues, el clculo de los momentos de la magnitud aleatoria Y
se ha reducido al clculo da las esperanzas matemticas de las funciones correspondientes de la rnagnitud X. Aplicando la frmula
(2.3.4) para calcular la esperanza matemtica de la funcin <1l (X),
obtendremos

'

00

<p,. (.o) f (x) dx

(3.10.3)

(k = 1, 2, ).

- oo

Abora bien, los moJUentos de la rnag:nitud aleatoria Y, enlazada por


una dependencia funcional (3.10.1) con la magnitud aleatoria X,
se determinan en principio sencillamente siempre que se conozca la
densidad de probabilidad de la magnitud X.
Supongamos ahora que Y es el vector aleatorio cuyas componentes Yi. ... , Y,,, son funciones unvocas cleterrninadas de l as componentes X,, ... , Xn del vector aleatorio X:
Y1t = <fih (X1t . . , Xn) (k = 1, ., m}.
(3.10.4)

En este caso, aplicando la frmula (3.4.2) (ms exactamente, su


generalizacin extendida a lo~ vectores aleatorios 1olidimensiooales) para calcular los momentos del vector Aleatorio obtendremos

a~... .. k,,.=M !Y~' ... Y~,?'I =


=M [<p~'(XJ. .. , Xn) ... <p~"' (Xt, . .. ' Xn)] =

J.. . J<p~
00

..

-eo

-QO

(x., ... , x,,) ..

e>~"' (xi , . . ,

Xn) X

X/ (xlt . , x,,)dx1 dxn (k, , .. . , k,,. = 1, 2, ... ).

(3.10.5)

Las frmulas (3.10.3) y (3.10.5) son las frmulas exactas para


calcular los momentos de la magnitud aleatoria Y segn l a densidad
de. probabilidad preasig,nada de la magnitud aleatoria argwnento X
Ejemplo 3.10.1. Hallar.la esioraoza rrui.temitica y la di spersiJl rlc lll seilal
de salida do un elemento no 'lineal cnrente do inercia, s la soal de entuda ro
pr esenta la suma de una seal til determinada 1yde111 perturbacin X.
La sefial de salida Y del elemonto que se considera se espresa por la f6rmula
y= q> (s +X),

a.JO. Detcrmtnacin ik lo.

mom~11t0$

1S9

donde cp es la ~In no lineal Ulltvou (caracterlstica del elemento no lineal).


A!I pues, las sealos de entrada y do salida de este elemento estn ligadas por
la depeudcucia funcional del tipo (3.10.1). Pat11 aplicar la frmula (3.10.3),
con .,1 Iin de calcular la cspNanza matemtica y la di!persin de lo magnitud
aleatoria Y, es necesario con11cer la donsi1lad de prnbabilidad f (:) d<' In magnitud aleutoria X. Entonces la frmula (3.10.3) dar

.,,

m11 =ctf=

J rp(8+:z:)f(z)lk:,

-~

af-= ~

q>2 (1+:z:) f(z)dx.

-m

Lueo, la dispersin de la magnitud aleatoria Y so puede determioat por la


frmula (2 .3.it) que expresa la dlsprsln por medio de l os momentos iniciales

'

a,i:

Du=ct~ - (af)2:
t:n los problemas de In nutomti1~a la magnitud m11 reprosenta de ordin11rio
la porte til do ln seul de saliclu <lol elemento no li11oal quo so 11onsiclor11. l,n
mag:nit11d 0 11 caracteriza 11t infl11unc.in de la pcrtnrliacin en la ~oi nl <lo :1ulidn.
es cloc-.fr, cI uivul d~l r11ido rlr Ml hl11 d~l clmnonto.

Las frmulas (3.10.3) y (3.10.5) son complicadas para la a1licacio prctica, a pesar de que son en principio sencillas. Por eso es
natural que surja la pregunta: se podra sustituir estas frmulas
exactas pero complicadas por otras ms sencillas aunque sean aproximadas? Resulta que en muchos problemas prcticos se puedo hacer
esto con ayuda de la linealizacin de las funciones.
En los 3.8 y 3.9 vimos que si las funciones IP (X) y qi1, (Xi. ...
. . , Xn) son lineales con respecto a sus argumentos, los momentos
de esta.-s funciones se expresan por frmulas muy elementales que
se deducen de las propiedades de las esperanzus matemticas, dispersiones y momentos do correlacin.
Para una determinacin aproximada do las esperanzas matemticas, dispersiones y momentos de correlacin de las funciones no
lineales derivables unvocas continuas de las magnitudes aleatorias, descompongamos estas funciones en la serie de Taylor en la
vecindad de las esperanzas matemticas ~... .. , mxn de las
magni tudes aleatorias X 1, , Xn y omitamos en las serie.'> obtenidas todos los trminos s uperiores al primer grado. Entonces obtenclreroo!!
Y v = <Pv (X1, .. , X n) ~ <Pv (m,, 1 , , mx,,) +
(3.10.6)
donde X~. . .. , X~ son las magnitudes aleatorias centradns c;orrespondicntes.
Aplicando l as frmul as (3.8.9) y (3.9.6) y teniendo on cuenta
que las esperanzas matemticas de las magnitudes aleatorias X~,
... , X~ son iguales a cero, obtendremos para los momentos de las

C11p . 3 Magnitudes aleatorie<s vectoriale.<

140

magn itudes aleatorias Y 1 , , Yn l as expresiones aproximndas


siguientes :
('\/=1, .. . , m),
(3.10 .7)
myv ~ <p" (mxl, .. . ' tnxn)
k ll

v ,_,

"

""' ( ilq;,. )
.t:J
).r.,. ,;-=rn
/t , l=-'i

'

( 8<p )

~ xt=11li

k"'
ht

(v, 11=1, ... , m)

(3.10.8)

x1

Puest.o que estas frmula~ son avroxiinadas, surge la cuestin acerc<J


de l os lmites de su aplicncin prctica. Para resolver esta cuestin
conviene observar quo por ser las frmulas (3.8.9) y (3.9.6) exactas

o
F'ig. 3.10.1.

Fig. 3.10.2.

para las funciones lillcalcs, par11 las funciones uo lineales sern tanto
ms cxacts cuanto ms prximas sean estas funciones a las lineales ei1 el campo de los vnlol'cs prcticamente posibles de las mognitudcs-argwncn tos X 1 , , X,. . Por consiguiente, las frmulas
(3.10 . 7) y (3.1.0.8) son aplicables en aquel caso en que las funcione~
<j>1, , <p m son lo suficiente prximas a las lincules en el campo
de Jos valores 11rcticamente posibles de las magnitudes-argumentos X1 .. . , X n. Si e!ltas funci ones so desvan poco de las lineales
en uua gama considerable del cambio de s us argumentos (fig. 3.10.1),
~n tonces las frmulas (3.10. 7-) y (3.10.8) se pueden aplicar para gran~es disp!lrsiones de las magnitudes aleatorias X 1 , . , Xn. Si
stas fnciones so desvan considera blemente de las lineales
(fig.' 3:10.2), entonces las frmulas (3.10.7) y (3.10.8) son aplicables
solamente para pequcfias dispersiones ele las magnitudes aleatorias
Xt ... , Xn .
3.11. Distribucin normal polidimensional *

La ley normal de distribucin de un vector aleatorio n-d imonsional X con las component es X 1 , ., Xn o b ien, lo que es lo
misrno, la distribucin conjunta uormal de n. m11gnitudes aleatorias
* ) g ) lect.or puede om itir esto prrafo si n perjudicar la comprensin de <":t~i
todo fo sucesivo.

.~

3.J1. Dlstrlilut.t6n normal poltdlmmtlonal

X, .. ., Xn se caracteriza por la densidad de probabilidad

f (x11 , :'")""
(3.11.1)
En e.'ta frmula el coeiicient.e adjunto a la funcin exponencial
represen ta el multiplicador normalizador, elegido a razn de que
La integral con respecto a todas l as variables de -oo h11sta o
sea igual a la uni dad; C representa l a matriz compuesta con los
coeficientes cpq:
cu C12 e,,.

C=

y 1

e 1os el dolermin unte

Czt Ciz

C2,.

(:1. 1'1 . 2)

de esta m11triz
C11 C12 Ctn

1c 1 ~

C21 Cn C2n

Cn1Ct1i Cnn

Observemos que el producto (x.. - a.,) (x 1, - u 1,) para c.u11lesquiera indices v y desiguales entra en la suma do!i veces: una voz
con el coeficiente e, .. y otra con el coeJiciente c ..". Por eso, cuales
quiera q uo sean los ndices desiguales v y , el papel esencial lo
desempea solamente l a suma de los coeficiente$ c...
Cv Por
consiguiente, esta suma, :iin prdida del carcter ge!leral, siempre
se 1uode consillerar djvidida equivalcnt~mente entro los l:lum11ndos
y de est e moclo considcrnr que lo matriz Ces simtrica, es d ecir, que
cpq = Cqp .para cualesquiera p y q.
Demostr emos, ante torlo, qu e las magnitudes X., ... x., examinadas por separa1lo, y cualesquiera combinaciones compuestos 1lc
ellas t ambin estn normalrnonto ropartid11s. Para esto recordemos
que p11ra determinar l a cl1.rnsicli1d de ;prob11hi.lirl11d rlc cierta parte
d e la1 rnagniludes aleal.orias, digamos X 1 , X, (l < n), cs
necesario inLegrnr la densidad conjunta de probabilidad ile toda11
l1ts mogniturles X., ... , X"' con respecto n ltis vnriahles corrospoudientes a las magni t udes 1estantc~ . en el caso dado con respecto a
X1+i. , x,.. En v irtud <' esto regla, la dcnsidml de proltabiliclad
de las magnitudes alentorias X 1 , Xn - ~e ox prcsnr por In

Cap. 3

/lfal(ntlude1 a lfatorla1 vectorialu

frmula

1. ' . ., n.- l (.z .. ... :e,,_,)=


t

(3.11.4)
Pero
n

P. q-

n- 1

c1,q (x11 -m 11)(xq-m.,) =

p . q.ol

Cpq(x,, - m,,)(x,1 -m,,)+

n- 1

+ 11-~1 Cpn (x,. -m,,) (xn-m11) +


n- 1

+ 2J

Cnq (:r.,.-m.) (:tq - mq)+cnn (x,. - m 11 ) 2

q- t

Teniendo en cue ntu que la suma oo dependo de cmo estn designados los indices con respecto a los cuales se realiza la adicin,
podemos sustituir en la tercera suma el ndice de adicin q por p.
Enlonces, teniendo en consideracin que Cnp = Cpn y sacando el
m11ltipliC11dor comn x,. - mn fuera dPl s igno de adicin, obtendremos
n

~-1

~ c1..1 (x 1,-m1,)(xq-mq) =

p, qoo l

'"pi

Cpq(xp - m 11)(xq-m,1)+

n-1

+2(x,.-m,.) ~ c11 n{x,. -m,,)-f Cnn (x,. - m,.)z.

(3.11.5)

,,_ 1

Sustituyendo esta expresin en (3.H .4) y sacando el multiplicador


quo no depende de x,. fuera del signo integral, obtendremos despu!Ss
de reemplazar la variable de integracin t = x,. - m,.

h., .. . , n-t (X,

, Xn-1) =

--

=V(~)~

n -1

exp {-}

~ Cpn(Xp-mp)(x9 -n~9)}

p,q- 1

oo

n-1

1exp {-t ~ C1m(xp-mp)-{c11,.t } dt.


2

(3.H .6)

,,_1

Para calcular la integral obtenida, apliquemos la frmula


-

e11i-11~1idt= V:i
h.

11"

e4h'

(3.11.7)

143

3 .11. Di4tribudn normal polidlmentlonal

deducida en el suplemen to [frmula (1)1. Suponiendo en esta t6rmula que


'11-1

11 = -

~ Cpn(Xp-m,,), h2 ={c,.,.

y sustituyendo la expresin obtenida de la integral en (3. H .16}

hallaremos
11, ... ,n - 1 (x1, ... ,::t,.. 1) =

,. _,

+ :lc~n r ~ Cpn (z,,-m,,) ]2} =


J= I

_ , /

- V

!C 1

n-1

(2nn-l e,.,, exp '\. -

L.J

c 1,n<qn )
c,,,1 --;;;;-

p, q I

X (x,, - mr) (xq -m,1)}

(3. t 1.8)

Comparando e~ta expresin con (3. 1:1 .1), vemos que la distribucin
conjunta de lns magni tudes X 1, , X,._ 1 es normal. Puesto que
esto es vlido paro cualquier n y la ex.presin (3.11. 'l) de la densidad
normal de probabilidades es ~hntrica con respecto a las variahles
z .. .. . , x., nuestra afirmacin est por completo demostrada.
Integrando la expresion (3.11 .8) sucesivamente con respecto a
z,._ .. z,. _2 , :r2 , hallaremos la densidttd de probabilidad de una componente X 1 del vector aleatorio normalmente repartido. En este caso
nos convenceremos de que la esperanza matemtca de la magnitud
X 1 es igual a m 1 Ahora bien, en la expresin de la densidad de
probabilidad del vector nleatoro normalmente repartido, los nmeros m1, m. representan las esperanzas matemticas de las
componentes del mismo X 1, , X,. : mi! = ni.,., (p = 1, ... , n).
Al dividir la expresin (3.H .1) por (;j.11.8), hallaremos l a densidad condicional de probabilidad de la magnitud aleatoria X" con
respecto al conjunto de lt\s magnitudes restantes X, ... , Xn_ 1:

f ~ (Xn 1x,, ... , Xn - 1) =

=V*

exp { - }

~
p, q-1

Cpq(Xp - mp)(z9 -mq)+

o bien, teniendo en cuenta (3.11 .5),


n(Xn jx, . , Xn-1) =

v,. c2~"

n- 1

2j cin (x 11 -mp)-

oxp { - {en" (x,.-mn) 2 - (x,, -mn)

,,, ........ 1

n-1

_.!_
Pero

(3.11.9)

kJ

n-J

2.~

11 .~l

n- l

c,,.,cfJ 1,

(.-i:,,-m,.) (xq -m,1) = [ }i c1m (x1,-m 1,)]

p-1

y , por consiguient e

{c

Tt.- l
11 0

(x,.-m,,) 2 -i-(:r," -mn) ~ c 1,,. (xp-mJI)+


>=I
n- 1

, .,,
1 ~
-:-

CpnCqn (
- - :t 1; -

mv) ( x,1 - m,1)

cnn

c.

==

J>,q=I

n-1

o=+,C:n.,
{(x,,-m,.)'-L2(x,.-m
""

~ el'"
(xp-lni) [
tnn

0 )

__,

}J-.t=l

n-t

r ~

7r.:11 t

c 1H1
-.-(Xi;-mp)
e nn

,2} 1 [Xn -

f
-'

=-:rCn 11
~

n- 1

mn + ~ -Cpn (x1,-m1,)
)>= l

Cnn

]2

Sustit.uye.n<lo esta expresin on (3.11.9), obtendremos definitivamente


fn(Xn l X1, ... ,

X11-1)=

V ~':t" xp { - yCnn [xn-mn+


n-1

+~

Cpn

12} .

( x1,-tnr)J
C1p1

(3.11.10)

p= l

Esta frmula muestra que l a disLribucin condicional cie la componnte X,. del vector aleatorio normalmente repartido es normal,
con ello l esperanza matemtica condicional y la dispersin coo(jicional de dicha componente son respectivamente iguales a

(::l.11.11)

D IXn 1x,, ... ';tn-il =C1ttt


-l-.

3.11. Dlnrlbuel6n normal poltdlm.ntlonal

145

La primera de estas frmu la.s muestra que la esperanza matemtica


condicional de la componente del vector aleatorio nornilmente
repartido es funcin lineal de l os valores de l as componentes restantes. La segunda frmula (3.11.11) indica que l a dispersin C.Oildiclonal de la componente del vector aleatorio normalmente repartido
no depende del valor de las dems componentes.
De un modo semejante noo convencemo.9 de que la distribucin
condicional de cualquier parte de las componentes del vector aleato
rio normalmente repartido es, con respecto a las dems componentes,
normal y las esperanzas matemticas condicionales de las,coQ'lponentes son funciones lineales de los valores _de l as componentes retan~.
Aplicando l a fr mula (3.3.2f), llegaremos fcilmente a Ja. con~
clusin de que cualesquiera funciones lineales de las componentes
del vector aleatorio normalmente repartido estn repartidM tambin
normalcoente. Esto da la posibilidad de cumplir cual esquiera transformaciones lineales de l as magnitudes aleatorias normalmente
repartidas y siempre obtener en este caso magnitudes aleatorias
normalmente distribuidas.
Calculemos ahora las dil!persiones y l os momentos de correluciu
de las componentes de un vector aleatorio normalmente repartido.
Para ello, con auxilio de la transformacin lineal, reducimos el sistema de las magnitudes alea torias Xtt , .. , Xn al sistema de las
mag11Hudes a] cL-0rias no correl acionadas V 1 , . . . . V", suponiendo
de momenlo que las dispersiones y los momentos de correlacin
de las magnitudes aleato rias X " .. .. X 11 son conocidas. Esto se
puede hacer por una infinidad de procedimientos. El procedimiento
ms sencillo consiste eo que se supone que
X 1= m1 + V1 ,

X2 = m2 + '1'21Y1 + V~.

X11 = m3+ '\'~ 1V1

(.3.11.1 2)

+y.3V2+ V3,

Xn = 1nn l Yn1V1+ vniVi+ ... '\'n. n-1Vn. 1 Vn


y se elige y 21 de wodo tal lJUe la magnitud V 2 no est corrclacionadn
con V1; luego se eligen y 1 , y y 32 de modo tal que l a magnitud V 3 no
est correlacionada con V, y Vi. etc; y '\'n1> Yn: ... , 'l'n n-1 de
modo tal que la magnit ud V" no est correlacionada con V ,. ...
. . ., Vn _,. Es evidente que, al emplear tal procedimiento, el nmero
de coe!icientes desconocidos 'l'iv es igual al nmero de condiciones
que deben ser satisfechas. En este caso todos i'v..- se pueden determi
oar fcilmente por turno.
D1i la pr.imera frmula (3.'11.12) est claro que la dispersin
/) 1 d~ la 1n11gnitud aleatoria V 1 es igual 11 111 cli:1.irsin de 111 mngni
tud X 1 : D 1 = Dx, = k 11
ln-00!8

Cap. 9 Mognilutk

146

al~utorios

r;ectoriak

Para determinar el coeficiente y,,1, expresemos el momento de


:orrelacin kv 1 de las magn itudes ale11tol'ias Xv y X 1 por la frmula (3.9.8), considerando X v y X 1 como funciones liueales de las
magnitudes aleatorias no correlacionadas V., . . .. V,,. Teuieud n
cu cuenta quo los coeficientes adjuuws a V2 , , Vv en la expresin (~.1. 1. '12) de la magnitud X 1 son iguales a C!lro. y que el coeficiente 11dj1111to n V 1 es igual a la unidad, obtendremos

k, 1 ~ y..,,D,

= Yv1k11.

De aqu hall a uios que


k,,

Yv1= k;7'

(3.11.13)

As! pues, tollos loi' col'ficicntes 1'2 1 ., y,. 1 se expresan muy ~en
cilla mcnte por medio do los mouientos de corrclllcin k 31 , . , k., ,
de las magnitudes X 2, ., Xn con X., y mediante la dispersin
k 11 do lu mognitud X 1
Una vez dti lcrmiuado Y21o hallamos Ju dispersin JJ 2 dti la magnitud
nluatoriu Vz. Para esto expresemos por la fr111ula (3.9. 7) la dispcl'sin D"
k~~ de 1<1 magnitud aleatoria X 2 T eniendo en cueJtltt
qua en csLt1 cuso lodos los coeficiente~ y,. 11 son reales, ohieodrcmos

kl1 k ' D
kl, D
:2== kti 11-r i -= ~ + z

De donde
(3.11.1{)

Par11 clct.ermiuar y,.2, expre:!emos por la fnnul11 (3.!J.S) el momcnLo de correlocin k. 2 dt1 liis magniLuclcs aleatori as X" y X 2 Entonces obLondrcmos
- k~,
k vz = i'vt'\'ZtD 1 + Yvz Di = Yvt'\'itk"u T i'vz kuk22
ku
o, teniendo on considerncn (3.11. 13),
z. .., .4,.1ku .L "
""2

k11

rV2

De :iqu hallamo!'
y,~ =

k11k,,..,-k,.1/c%l
kukzi-klt

(v=3, . . ., 11).

(3.11.15)

Proc-0die11do cleJ mbmo modo, cx11resemos s1.1cesiv1111lC'nlc los


dems coeficientes Vva (v = 4, .. . , n), .. ., y,,, 11 _ 1 por medio
do las dispersioues y los m omentos de correlacin de las magniludcs
aleatoria~ X 1 , ., Xn.
Dado quo las magnitudes V11 ., Vn son funciones linC'ales de
las componentes X 11 , X" del vector aleatorio normalmente repartido, todas lru; distribuciones de las magnjturles Alea torias Vi. . ..

t47

3.11. Ditrlbuc:i6n normal polldlm1n&io11al

... , V n, tomadas por separado y en cualesquiera com binacines,

asi como todns sus distribuciones condicionales, son normalej. En


particular, son normales las distribuciones de todos l os pares de
V vi V 11 Por consiguiente, en vfrtud de lo demostrado en el "3.6,
las magn itudes nleatorias V 11 , V,. no solnrnonte no est n correlacionadas, sino que son i ndependien tes por parejas. Demostre~ '
ro.os que stas son independientes tambin en conjunto . .Gnsideremos primeramente la distribuci9n conj untA dlii tres mag nitudesaleatorias V 1, V 2 , V s. En virtud de las frmula s (3.11 .H) Jp.: esperanza
matemt ice condicional de la mangni tud V 3 es fw1cin 14ie'l de:Joil
valores v., v2 de las magnitudes V1 , V 2 y su dispersin coniciQn.a.l
6 3 no depende de v1 , v2 Por eso, la densidad condicional de prbablidad de la magn itud V 3 se expresa por la frmula
1

fs(v3lv1J v2)= ., 1 -

" 2nda

- _.!_ Cla-1..1- Pt>o>'


e 2A

(3.11.16)

y ln den sidad conjunta de probabilidad de las magnitutloo Vi. V2 ,


V 3 es igual n

/12., (vi. 112,

v~)

= f1z (v1, Vz) la (vs l 111, 112) =


f

u~

= 1((2n) o,D,!!. 3 exp

201 -

11:
:.w, -

- Jlv:) 2 }
;u,3
=

(t3-Ctl/1

-- V (2n)1D 1 V A~ oxp {- .!..2 [(-l-+~


) /)1 + ( 1 +1:..)11+
IJ1
3
7;:; L\3

+_!_.v;
+ 2~u1v
v 11 - 2 ...!!..
v2v~J}.
2 -2...!:..
a
A.,
l\3 1 3
As
De nqu. npl il:ando In frmula (::1.11.8), holl111nos la densiclad conjun-

ta de prubnbilitlad rlo las magnitudes V 1, V3 Ttnicndo en consideracin que en e."k' CASO n -= :).
1
11
C22=o;+
6,, ,
1

af'>

/ 13

(v., v,,)

.-

=JI" J~:,

exj) { - { (c; ,u:

donde

tu

c.. = a 3

A;

C23 = C:l!!=

C 1~ = C2 1 = ~,

hn ll nmos

C33=

_ .1_
:\ '

-1- c;,v; ) -1- 2c;~v1 11~)}

0t~f'>2Da

=Di+ L\.;- 63 (L\3+~:0,) '


a2Da

3('\3+~2 1.J,) '

r.., ... - A3+ f'>~D,

Pero segln lo demostrarlo l as magnitudes 11leatori;1s V, y V3 son indc>en<I i1mtes. J'or con.-iguicnte, e;, = O. f>ero es to pue1le ser solamente
to

148

cuando a = O. De modo anlogo podemos demostrar que de la independencia de las magnitudes V 2 y V 3 se desprende que j} = O. Ahora
hien, la distribucin condicional de la magnitud V 8 , determinada
1>or la frmula (3.1:1.16), no depende de los vttlorns u,, ll2 eta las
magnitudes V, V 2 y, por lo tanto, coincide con la distri bucin no
condicional de la magnitud V3 y, por consiguiente, 3 = D 3 De
11qui se deduce que las magnitudes V1, V 2 , V 3 son independientes
en conjunto. Luego, por induccin, aplicando el mismo procedimient o, se demuestra que las magnitudes V., .. ., V.- son independientes
en conjunto para cualquiera que sea k.
Asl lHle.s, para cualquiera n, las magnitudes aleatorias V" ...
. . . , Vn, que tienen una distribucin conjunta normal, son no correlacionados si, y slo si, stas son independientes en conjunto.
Do iu inrlependencio. rlc las mitgnitudes aleatorias V., ... , V11
determinnhlel! r>or 111 tra1tsforrno.ci6 n de (3.11.12) se deriva que al
sustituir en la frmula (3.11.1) las cxprt>sionas rle las variables
Xtt , Xn determino.das por las frmulas (3.11.12) sustituyendo
las magniLudes aleatorias V 1, , Vn por las variables u 1,
.. Un, todos los coeficientes adjuntos a los productos de las varinhlcs u1, , Vn deben convertir~e en coro, y los coeficientes adjunt.os
n v!/2, ... , u!/2 deben ser iguales a las magni tudes inversas de lits
clispersiones 'l/D 1 , , 1.ID,. correspondientes 11 las magnitud<'S
V1, ., Vn Esta condicin nos permitir establecer las relaciones
buscada.'! entre las dispersioneK y los momentos de corrclaci611 de
las mag11itudes aleatori as X1t .. .. X" y los coeficientes c,,q en
la exp resin (3.1.1 .1) de l a densidad norm al de probabilidnd.
AJ sustituir ea las frmul as (3.11.12) las magnitudes aleatori11s
por l;1s Val'iablcs correspondientes, y las exp resiones obtenidus
x., ... , Xn ea el exponente de la (3.11.1), vemos que los productos
u1v,. se obtienen solamente como resultado de 111 multiplicacin
tle (x,. - mn) por (x 1 - m1) (x~ - ma), ... , (x,._1 - mn-1) Y como
result11do de elevar a l cuadro.do (x,. - m,.). Por consiguiente, el
coeficiento adjunto a v 1v,. en ln expresin obtenida es igual a
Cnl

+ C11z'Y21 + C,.3y31 + + Cnn'Ynt

Jgunlando esta expresin a cero y sustituyendo los coeficientes


Y21. Yt .... y,. 1 por sus expresiones de (3.H.t3), ob tendremos la
relaclo ' siguiente:
(3.11..17)
Observemos ahora que la expresin (3.11.1) de l a densidad normal
es completamente simt rica con respect o a :c1 , , z,, y l a numer11cl6n de las magnitudes ~lcator\as X 1., , Xn se puede establecer nrbltrariamente, por e jemplo, se puede tomar l a magnitud X 1,
por la primera y la. magnitud X.., p or la n-sima. Por consiguiente,
la relacin (3.11.17) es vlida no solamente para la n-sima linea

.-$ 3 .11 . D l.iribu.c/.n. normal poltdtmenslonal

i.\9

de la matriz (3.11 .2) de los coeficieDtes Cpq y para lo. primera columna
de la matri:I. de couclacin K del v~tor aleatorio sino que, en general, pnra cualquier linea de la matriz C y para cualqllier columna
1lc 111 matriz Je correlacin K con nmeros no coincidentes. Asi
pues, ele (3.11.17), en virtud de la simetra, se dedu.ccn la$ rel acion~s

-1-. -1vlidas para cualesquiera , v, ~~ .p v.


C1 k1v

-1-

C 142k:v

C;nknv

= 0,

(3.11 ,18)

El cundrado de l a variable v 1 se obtiene evidentemente en cada


sumnndo del exponente en (3.11.1), adems, el coeficiente adjun to
o u~ en el su mando c11 (x 1 - m 1} 1 es igual a c11 , los coeficientes ane
xos o ~ en los sumandos tipo c91 (x9 - m 9 ) (x1 - m 1)., p .p i son..
iguales a las .magnitudes ' correspondientes cp1y,, 1 y los cooflc~~!lte~
ad junto~ a v~ en los sumandos Cpq (x9 - mp) (xq - m11 ); p, q, ".p 1,
son iguales 11 las magnitudes correspond ientes CpqYpiYqi Por consi-'
guiente, cm v irtud de (3.H.13), el coeficiente sumn rio anexo a u~ es
igual n

+.-

"

Cpqkpkqt

ll P , t/"'l

Por otra parte, este coeficiente debe sor igual a lu magnHuJ inversa
rle la diSJlersin 1/D 1 - 1/ k 11 de la magnitud aleatoria V,. Por
lo t anto, es vlida la rolllcin

o sea
n

L:

C pqk,.kq =k11.

(::J. 11.19)

'" q..l

'l'ruo~formemos

el pri mer miembro d o esta iguald ad . Euc\u11ndo


prirner111nente la 11dicin con respeclo :il indictl q y sacando fuera
del isigJ10 rlo suma con respecto a q el factor com111 kpi. podemos
escr ihir
n

h Cpqkm kql = p=-1


L: (q-l
L: Cpqkqt) kpl
p , q-1

(3. H. 20)

l'ero. ed virtud de (3.i1.1 8),

"

q=I

Cpqkq1 = Cp1k11

+ Cpz/cz1 + .. . -1-Cpnkn =0,

1rnrn cualquiem p -:. 1. Por consiguiente, en Ja su ma coo rcs~cto


al ndice p en (3.11.20) todos los sumandos son iguales a cero, snlvo
el sumando correspondiont,e a p = 1, y obtc11clromos

"

)-: c1,qk,,akq 1 = (

p.17= \

2:" c,9 kQ,) k 11

'l'- t

150

Cap. 3 Mag11iludes aleatorias vectorialt:s

Sustituyendo esta expresin en (3.11 .19}, obtenemos l a r elaci6n


n

Ct<kq1

g=l

=c11k11 + c12k21 + .. . i- C1nkrit= 1.

(3.H.21)

De aqu, debido a la simetra de la expre11in (:U 1.1} de la densidad


normal de probabilhlad con respcc:to a la!! vari ables X, , x 11 ,
obtendrcrnos la relncin
Cv 1k1v

-J-

C,,2k2v

-J- .

+ Cvnknv =

1 (v

i, .. . , n).

(3.11.22)
As pues, hemos deducido las relaciones (3.11.18) y (3.H .22)
que ligan Jos elemento;; de la matriz de los coeficientes e, de forma
cuadrtica en el exponente de la expresin de la densidarl normal
de probabilidad con los elementos de l a matriz de correlacin f(
del v!lc t.or alea torio.
Para determioar las dispersiones y los momentos de correlacin
de las magnitude~ a!<Ja todas X 1 , , X,., t omemos todas las ecuaciones (3.H.18) y Ja ecuacin (3.11 .22) correspondiente al mismo
valor q del indice v:
C11k11

c,,.k1q

+ C2/~~q + .. . -J- C1nk>iq = ,

+ c,.2k 2q + ... +

Cnnknq

= O.

Estas ecuaciones forman un sistema ele ecuaciones algebraicas lineales con respecto a k 1 ,1 , k 2 q, ... , knq U na vez resuelto este sistema,
obtendremos

. kp1

=
C11C12 C1n
C21C2z C2u

Cu 1C11 2

C,tn

Por fin, d espus d~ descomponer el determiJ1antc del numerador por


los elemento!'! de l p - simn columna, obtoni:l.remos
Cpq

kiq = m (p, q= 1 . . .. ' n).

(3.11.23)

3.11 . D t.trlbuc"5n normal polldtme1Ulonal

donde, por Cv9


elemento Cp ,1 =

t5t

= C1,,
Cq >

se designa el complemcnlo algebraico del


en el determinante 1(; j:
Cu Ct.p-tCt..>+-t

e,.

Cq-lol Cq - 1.p-1Cq- t.p+1 Cq - 1.n

C11q= ( -

!)P.,q

Cq~ t.I ' . 'Cq+ 1.p-1Cq+l P+I Cq+ t.n


e,, , Cn .p- 1 Cn.p+1 Cnn

(p, g

= 1,

... , n).
(3.11.24)

La frmula (3.11.23) expresa las dispersiouos y los mmentos ilo


correlncin de las componenles do un vector aleatorio normalmente
repartido por medio de 10:1 coeficientes, de Corroa cuadrtica en ol
exponente de la exprt!sio de la densidad de probabilidad del m ismo.
Las relaciones (3.11.18) y (3.11.22) permiten resolver tambin
el vroblom n in\erso, es decir, expr esar los coeficientes c,,q en la
expresin de la de11.Sidad normal de probabilidad por medio do las
db;por~ioneM y los momentos de correlacin de las magnitudes a leatol'ias. Para resolver este problema, tomemos la ecuacin (3.11.18)
cortespondionte a un mismo valor p del fodice y la ecuacin
(3. H .22) corres1>omlicnte o -v = p y escrib.moslas en l a forma

Esla~ ecuaciones form11n UJt sistema de ec uaciones ulgcbraicas lineales con Tespec.to o. c 1,., cp 3 , , Cpn Al resolver esto sistema de
ecuaciones, obtendremos, al igual que antes:
Cpq

ffi {p, q

= 1, ... , n).

(3.11.25)

dond e 1 K 1 es el determinante de la matriz de correlacin K:


(3.11.26)

152

Cap. 3 111 agnltudts altatorla.< ectorlalt

y Kp9 es el complemento algebraico del elemento k,,q en el deter-

minante 1 K 1*).
Para lo sucesivo necesitaremos todavia 111 frmula

1C11K1 = 1,

(3. 11.27)

que liga los determinantes de las matrices C y K. Para l a deduccim


de esta frmula observemos que, segn la regla de multiplicacin
do los determinantes, los elementos del determinante 1A 1 =
= 1C I I K 1 se definen por la frmula:

l::n virtud de (3.11.18) y (3.U.22) , las expresiones obtenidas son


igu11les a cero para =/= v y a la unidad para = v. Por consiguiente,
i o ... o

1A 1-= 1C l IK 1= O i

... O

o o ...

= 1,

lo cunl demue.~tra la frmula (3.11.27).


Sustituyendo las expresiones de los coelicientes Cpq de (3.'11.25)
y la ex>resin del determinante 1 e 1 de (3.11.27) en (3.11.1), obteudremos la siguiente frmula para la donsidad de probabilidad de
un vector aleatorio n-dimensionnl normalmente repartido:
t

f (:c., '' :Cn) = V(2n)" 1K1 X

x exp { -

~J
21

Kpq (:cp-mp) (:cq - mq)} .

(3.11.28)

P. q=I

Esta frmula muestra que la distribuci n normal se determina por


completo po11 la esperanza matemtico y la matriz de correlacin
del vector ale'atorio. Le dejamos al lector que por s mismo obtenga
de (3.U.28) laJrmula (3.6.20) .deducida ms arriba para la densidad
conjunta de probabilidad de dos magnitudes aleatori as.
Pasemos ahora a la determinacin de. la funcin caracterstica
de un vector aleatorio normalmente repartido. Sustituyendo en la
frmula general (3.5.2) la expresin (3.H.1) de l a densidad normal
) SI el lector conoce los elementos del Algebra matricial, ver con fac1lida3 dU.Ctamente de (3.1t.t8) y (3.il.22) que las matrices C y K son roctprocamento Inversas, debido a lo cual se obtienen a la vez las frmulas (3. 11.23),
(a.11.25) y (3.H.27).

153

3.11. Distrtbu.cl11 normal pol tdlm<n9ional

de probabilidad, obtendrcmO.!!

- -%-

"

(3... 2~}

Cpq(Xp-m p)(xr- mq} } dx., ... , dxn.

p, q-1

Una vez sustituidas las varia.bles con.forme a las frmulas (3.11.1~),


los coeficientes anexos a los productos de l as variables v1 , ,, :Vn
en el exponente sern iguales, segn lo decnostrado, a cero y ln exprsin para l a funcin caracterstica tomar la lrma
--

g (A.i, , An) =

V(~~)~ exp { i ~

TnrAr} X

1'= 1
00

J ... Jexp {
-oo

i [J..1v1 + "2(1'21V1+1>2) + .

+ An (1'n1V1 -!-

-oo

"

t} dvl ... du,..

+ 'Vn2vi + . . +vn)J- ~ 2
r~I

Aqu la funcin subintegral se descompone en el producto ele los


muhiplicadores carla uno de los cuales depende solamente de una
de las vatiables vh .. . , v,.. Por eso la integral en la expre8i6n
obtenida es igual al producto de n. integrnles simples y

g (J..i. . . , A.n) =

V ~)~ exp { t ~ mrA.} X


r- 1

00

X ) exp { i

p.,+ ')'StAz + ... +


X dv 1

l'ntAn) Vt -

...

2~ }

j exp { tJ..,.u,. -

{~,..} dv,..

-oo

Aplicando 11ara el clculo de los integrales obtenidos la frmula


(3.11.7), obtendremos
g (A.1t . ' A.,,)= VI

"

e 1D1 . Dn exp { i ~ m,J..,- ~I

r-1

X (?., + Yztfz + . . +Yn17..,,)2- .. . -

~" },~}.

(3.11.30)

Cap. 3 Magnit11dts o.li!atorias vecloria les

De la frmula (3.11.14) se deduce que


D 1D2 -k11 k11k,1-ki,
ku

1k11

ku 1

kz1 k2z

De las froiulas semejantes para D 3 , , D,. se deduce fcilmente


que el producto Ds. ... , Dn es igual al determiuante de la matriz
de correlacin K. Por eso, en virtud do (3.11.27), 1 C 1 D 1
. . . Dn = 1. Luego, abriendo el par~ntesis en el exponente de
(3.11.30), obtendremos los cuadrados de las variables 1 , , !..,..
y todos sus productos posibles. Por lo tanto,
n

g (A.i. .. , /...,.) =exp { i ~

rn,A., - f ~

aw/A.1,1,q. (3. t t.:H)


p,q=I
Para c.alcular los couficicutes a.Pq observemoH que ol coeficiente
anexo a ..~ en (3.11.30) es igual a D 1/2 = k 1 /2 . .Por consigoicute,
a.11 = kit. Puesto que la expresin (3.11.29) de la funcin c.aracterstica es 8imtrica tanto con respecto a lus variables 1. 1, , ii.11
corno con respecto a las variables do integracin x.. . . ., ;e,,, entonces, en general, a.pp = k 1,p. A C-Ont.i.uuacin, el coeficiente adjunt.o
al producto A1A. 2 en (3.H.30) es igual, on virtud de (~~.1L13), 11
D 1Y2112 = k 2 1!2 = k12/2. Por consiguiente, u 12 = a.2 1 = k 12 = kzt de
donde, en virtud de la siroetra, llegamos a la conclu,;in de que, 011
general, apq = kpq Sustituyeudo esta expresin en (3.11.14), obtendremos definitivamente
r=I

"

g (A.tt .. , "-n) = exp { t ~

m,A,-{ ~

~t

kpqApAq} .

(3.11 .32)

P , qc;i\

En el caso particular, cuando n = 1, esta frmula da la expresin


(2.5.14) de la funcin caracters tica de la magnitud aleatoria escalar normalmente repartida.
En conclusin del prrafo deduciremos la frmula para el momento central mixto de cuarto orden de las componentes de u11 vector
aleatorio :rormalmente repartido. Conforme a la frmula (3.5.6),
para Cletermiuaf' cualquier momento central es necesario hallar la
~oi'res'pi>~di~nte funcin caracterfatica derivada del momento aleatorio ~entr;tdo. La frmula (P: 11.32) da, para la funcin caracterstica del vector cuadridimensional centrado normalmente repartido,
ra expresin siguiente:
g (/,.1 , Az, As, A. 4) = exp {

-f ~'

kpqA.pA..q}

(3.11.33)

P. q.,t

Derivando esta expresin con respecto a las variables A.h /..2, A.3, J..,
una sola vez y haciendo luego A1 = Az = A. 3 = A4 = O, ol.itendremos en virtud de (3.5.6)
(3.11.34)

CAPITULO 4

Caractersticas de funciones aleatorias .

4.1. Leyes de distTibuein de una

magni~ud

aleatQria

E n el capitulo 1 vimos que en los pi;oblemas prcticos1se im'c ueu..~


tran magnitudes aleatorias que varan sus valores en el proceso del
experimento. De ejemplo de tal magnitud aleatoria puede servir
el resultado de la medicin o del registro de cualquier magnitud que
es funcin del tiempo o do otra variable cualquiera. La magnitud
aleatoria que cambia su valor en el proceso de una prueba re presenta una funcin aleatoria. En l os problemas prcticos se encuentran
con mayor frecuencia funciones alea- :e
torias del tiempo. Sin embargo, u.no
tiene que operar tambin con funciones aleatotias de otros argumentos. As, por ejemplo, la superficie del mar agitado representa, en
cada instante dado, una superficie
aleatoria cuya Z-c oordenada es fun- q
t
dn aleatwia de la abscisa y la
ordenada. El estado de esta superl"ig. 4.U.
ficie, en un momento de tiempo
determinado, puede ser obtenido como resultado del levantamie.nto
aerofotogramtrico. El vector velocidad del viento en una atmsfera
turbulenta es funcin aleatoria de cuatro argumentos: de las coordenadas de un punto del espacio y del tiempo.
Teniendo en consideracin los ejemplos citados, demos l a definicin general siguiente: se llama funcin aleatoria a tal funcin
<;uyo val or os, para cada valor dado del argumento (o de los argumentos) una magnitud aleatoria. Cada funcin concreta que puede ser
registr ada durante una sola observacin de la funcin aleatoria se
llama reali:iacin de la misma. Por ejemplo, el oscilograma que registra una funcin aleatoria del tiempo representa la realizacin de
la funcin aleatoria. La superficie del mar agitado fotografiada en
el instante dado tambin es un ejemplo de realizacin de la funcin
aleatoria de dos variables. Si repetimos l as pruebas, oblendremos
diferentes realizaciones de la funcin aleatoria (ag. 4..1.1). De
acuerdo con !o expuesto se puede dar tambin otra definicin d o
la funcin aleatoria: la funcin aleatoria representa cierto conjunto
d e funciones concretas con una distribucin de probabilldade,s pre-

1SG

Cap. i Coroctul1ticos ch fuMion.a akatorliu

fijado en el mismo. No obstante, para los fines aplicativos es ms


conveniente usar la pri mera defin icin.
Convengamos en designar las funciones aleatorias por las maysculas del alfabeto latino tomando generalmente l as ltimas letras
del mismo. Las minsculas correspondientes las emplearemos para
designar las realizaciones de las funciones aleatorias. Designaremos
por t el argumento de la funcin aleatoria, h aciendo caso omiso de
que sea ste una magni tud escalar o un vector de cualquier nmero
de mediciones (es decir, un conjunto de varias variables).
Claro est que en los grficos se pueden representar por curvas
y superficies solamente las realizaciones de las funciones aleatorias
y no las propias funciones.
Las funciones aleatorias pueden ser escalares y vectoriales. Como
ejamplo de una funcin aleatoria escalar puede servir la seal captada
por el radiorrec~ptor . De ejemplo de una funcin aleatoria vectorial
puede servir el vector velocidad del viento en la atmsfera turbula11ta.
El nmero de la componente de una funcin aleatoria vectorial
se puede considerar como argumento adicional que puede tomar solamente valores enteros determinados. Por eso, la componente X v (t)
de una funcin aleatoria vectorial se puede considerar como la
(uncin aleatoria escalar X (t, v) de los argument os t y v. Por consiguiente, al estudiar las propiedades generales de las funciones aleatorlt1s, propiedades inherentes a IM funciones aleatorias de un nmero cualquiera de argumentos, puede Hmitarse a las funciones
aleatorias escalares. Todos los result ados obtenidos sern aplfoables
111 conjunto de componen tes de cualquier funcin aleatoria vectorial,
es decir, a la propia funcin aleatoria vectori al.
La funcin aleat ori a del t iempo caracteriza el proceso de variacin de la magnitud aleatoria en el transcurso del tiempo. Por eso,
las func.i_one. aleatorias del tiempo se llaman de ordinario procesos
alei;itorios (a veces estocsticos). La funcin aleatoria de, las coordei;iadas; de un, ,punt;o del espacio se denomina corrientemente campo

aleatorio.
Los, a.r gumentos de las fubciones aleatorias pueden variar ininterrumpidamente . en cierta zona o de un modo discreto. Los valores de la funcin aleatoria de un argumento discreto forman una
secuencia de magnitudes aleatorias llamada sec~nci.a aleatoria.
En la mayoa de los problemas concernientes a la automatizacin o la radiotcnica uno tiene que operar solamente con funciones
aleatorias del tiempo. Por eso, teniendo en cuenta el objetivo principal de este libro, servir de introduccin a la Teoria de las Probabilidades para los que deseen estudiar sus aplicacinoes en el campo
de la automatizacin o la radiotcnica, asi como en el de las asignaturas relacionailas con estas ltimas, en lo sucesivo vamos a exponer el material referente a las funciones aleatorias escalares de 11na

4.1. Leyes dt dl$1ribuci6n d una ma!11itu altalorfa

157

variable independiente escalar que cambia continua o discretamen te en cierto int ervalo a< t < 11 (en pa.r ticular, puede ser
a. = - oo, 11 = oo). Sin emhargo, conviene recordar que todos los
mtodos generales de la Teora de funciones aleatrias son aplicables a cualesquiera funcione.s aleatorias de argumentos escalares
o vectoriales.*)
'
La funcin aleatori a se puede considerar como el conjunto de
magnitudes al eatorias X t que repr esentan los valores de Ja misma
para diferentes valores de t;
X 1 = X (t)
(u < t < 11).
Esto quiere decir que la funcin aleatoria es equivalente a un:.c oujunto infinito de magnitudes aleatori as. Por eso el ml!-terial ..c(entfico de la Teora de funciones aleatorias es considei'a:blemente ms
complejo que el de la Teora de magnitudes aleatorias.
Conforme a la definicin, ol valor de una funcin aleatoria escalar, para cualquier valor fijado del argumento t, es una magnitud
aleatoria corriente. En el captulo 2 vimos que cualqu ier magnitud
aleatoria se caracteriza por completo por su ley de distribucin.
Por lo tanto, la caracteristica completa del valor de la funcin aleatoria X (t), para cualquier valor fijado t, os la densidad de probabilid!ltl ele este valor, que de..<iignaremos por / 1 (x; t). Esta densidad
de probabilidad, llamada densidad zmidirnensional de probabillrlad
de l a funcin aleatoria X (t), en el caso general, deptmde de la eleccio del valor de t, es decir, es funcin de t lo que se refleja t.nmbin
en su designacin / 1 (x; t). Aqu el primer argumento x designa el
valor posible de la funcin aleatoria X (t} para un valor de t fijo .
El segundo argumento t sirve de parmetro, del cual depende l a
densidad de probabilidad / 1 (x; t).
Ln densidad unidimensional de prob11bilidad / 1 (x; t) no es suficiente, en el caso general, para una caracterstica completa de lit
funcin aleatoria. Dicha densidad puede caracterizar solamente
cualqu ier ordenada, tomada por aislado, de una curva aleatoria.
En la prctica llevamos a cabo d iferentes operaciones con las funciones al eatorias, en particular, realzamos la derivacin d.e la:;
mismas. En este caso, es necesario examinar los valores de la magnitud aleatoria cuando el argumento tiene diferentes val ores prximos. De este modo, durante l o derivacin es necesario examinar
las ordenadas de una curva aleatoria no por aislado , sino conju11t.;\mente. De acuerdo con lo expuesto fijamos dos valores del argumento
t ; t, y t 2 Los valores X (t1} y X (t2) de la funcin aleatoria, corrC'-spondientes a los valor es mencionados del argumento, pueden caract.e*) V. S. l:'ugachov. 'reorfa de fuuciones aleatorias y su aplicacin a los
del mando automtico. Fizmatguiz, 1962, cap. 8 y 10. (V1m1in
inglesa: V. S. Pugachev. 'fbeory of Random Functions and its Applicntiou to
Control f' roblom s. Pergamon Press, 1965. chapters 8 and 10).
problema~

Cap. 4 Caracltrlfliro.< de /un<lonu nl1atorla1

rizarse por la densidad conjunta de probabilidad / 2 (x,, x2; ti. t 2)


que se llama densidad bidimensional de probabilidad de la funcin
aleatoria X (t).
Segn lo expuesto en el 3.'1, la densidad bidimensional de
probnbilidad / 2 (x1, X t., t 2) tambin determina por completo la
densidad unidimensional de probabilidad / 1 (x1 ; t 1). En efecto, en
virtud de la frmul a (3.1.18)
00

/.(:r 1; t 1 ) = ) fi {xs. x 2 ; t 1, t 2) dz2

(4.1.1)

La densidad bidimensional de probabilidad de una funcin alea


t.orio representa una caracterstica ms completa de la misma que
la unidimensional puesto que por la densidad bidimensional siempre
Sij puede detcrminac la unidimensional. No obstante, tampoco la
densidad bidimensional de probabilidad es, en el caso general, una
caraclC'rstica completa de la funcin aleatoria. Pero es, tal vez,
el conocimiento de la densidad bidimensional de probabilidad suficiente para poder resolver lodos los problem11s pl'cticos? Es fcil
ver quo no es asi. Por ejemplo, para la integracin de una magnitud
aleatoria, es necesario tomar sus valores para un nmero bastante
grande de valores del argumento, componer l a s uma correspondiente
y luego pasar al limite, dirigiendo este nmero a la infinidad y el
intervalo mximo entre los valores vecinos del argumento, a cero.
A.'! pues, aunque esto sea una integracin arproxlmada, tenemos que
examinar en conjunto un nmero bastante grande de ordenadas de
una curva aleatoria, si queremos hallar la ley de di.stribuci6n de la
integral de la funcin aleatoria. Continuando los razonamientos
anteriore11, se puede determinar una densidad tri, cuatrid imensio
11111 (y, en general, den dime.nsioncs) de probabilidad de la magnitud
ale11toria para .c ualquier n entero positivo. Es evidente que la densid.!ld d!l pr9b_a-bilidad de cualquier orden inferior puede ser calcu
Ja~a cP,or ,lo ,del.. orden superior, Por eso, c(\da densidad .de probabilidt\d ppsterior es una coracteristica ms completa de la funcin
.aleatoria que Wdas las densidades anter.iores. Como resultado se
obtiene una secuencia irinita de densidades de probabilidad de
rdenes siempre crecientes. Surge la pregunta es esta secuencio
infinita. de densidades de probabilidad una caracterstica completa
de la funcin aleatoria? Las investigaciones matemticas dan a esta
pregunta una respuesta positiva que, sin embargo, no es vlido
para todas las !unciones aleatorias. R esulta que .la secuencia infinita
de densidades de probabilidad caracteriza por completo la funcin
aleaiol'ia solameuto en el caso en que todas sus realizaciones posib)es son suficientemente lisas, es decir, si toda realizacin puede
8er determ.i nada , cual quiera que sea el grado do exactitud, 'por sus
valores en una serie discreta de puntos que se encuentran uno de

4.2. b"8perotUa motem4ti<a y furicl11 correlativa

159

otro a una distancia suficientement.c prxima (a excepcin, tal vez,


de cierto conjunto de realizaciones cuya probabilidad sumaria .de
produccin es igual a cero prcticamente todas estas realizacion.es
pueden ser despreciadas).
En algunos casos la secuencia in.finita de densidades de probabi
Jidad de la funcin aleatoria puede ser determinada de un modo comparLivamente simple. Lo cosa es as en lo que se refiere al caso
ms ampliamente difuso de la ley normal de distribucin.
La funcin aleatoria se considera nonnalmente df#rtbutda siempre
que todas sus densidades de probabilidad de cualesqui~ra rdenes
sean normales. En el prrafo siguiente veremos que Par una ,funcin aleatoria normalmente distribuida toda la secuencia infinita
de densidades de probabilidad se determina por completo si se conoce la densidad bidimensional de probabilidad.
Vemos que la caracter!stica probabilistica completa de una magnitud aleatoria. sirvindose de sus leyes de distribucin de diferentes rdenes, resulta ser muy compleja. Por eso surge la pregunta:
no se poclra en algunos problemas prcticos limitarse a caractersticas ms simples, aunque estn lejos de ser completas, de la funcin aleatoria, anlogas a las caractersticas numricas, de las
magnitudes aleatorias.
Como vimos en los 3.8 y 3.9, las esperanzas matemticas, las
dispersiones y los momentos de correlacin, es decir, los momentos
de los dos primeros rdenes de las funciones lineales de magnitudes
aleatorias se pueden calcular, sin conocer las leyes de distribucin
de estas magn.itudcs aleatorias, sabiendo s lo sus momentos de los
rdoues primero y segundo. Se pueden ob~ener frmulos semejantes
tambin para momentos de rdenes ms altos. Hemos visto que para
una clase ms difusR rle magnitudes aleatorias, o saber: para las
magnitudes aleatorias normalmente repartidas, los momentos de
los dos primeros rdenes resultan ser una caracterstica completa.
Por eso, tambin al resolver problemas prcticos de la 1'eorfo
de !unciones aleatorias, es conveniente limitarse al est udio de los
dos primeros momentos sin examinar las leyes de distribucin.
En esto caso resulta 11uficieoto conocer los momontos de Jos dos
primeros rdenes de las funciones aleatorias para el estudio de cualesquiera operaciones line11le11 sobre dichas funciones.

~.2.

1-;gpera nza ma lemtlcll y funcin corrolali,n

de unn funcin aleatoria


Fijoroos cualquier valor del argumento t y examinemos el valor
1le In !uncin aleatoria (para este valor del argumento) como una
magnitud aleatoria corriente. Para esta magnitud aleatoria podemos
determinar la esperanza matemtica que, hablando en general, depender del valor elegido de t. Dando a t todos los v11lores posibles,

160

obtendremos cierta funcin m,. (t) a la cual es natural llomarle


esperanza matemtica de l a funcin aleatoria X (t). As pues, se
denomina esperanza matemtica de la funcin aleatoria X (t) a t al
funcin m,. (t) cuyo valor, para cad11 v11lor dado del argumento t,
es igual a la esperanz.a matemtica de la magnitud aleatori a X (t)
para este valor (fijado) de t):

m,, (t) =- M (X (t)I.

(4.2.1)

En virtud de la frmula (2.3.2), la esperanza matemtica de lo


funcin aleatoria se puede expresar por su densidad unidimension11l
de probabilidad:

m" (t) =

..J x/

_..,

(:e; t) d:i.

(4.2.l)

Segn la definicin , Ja esperanza matemtica repr esenta el valor


medio (pesado on cuanto a l a probabilidad) de la inagnitud aleaLoria.
Por lo tanto, para cada valor dado de t, la ordenado de la curva m,, (t)
representa el valor medio de la de la curva aleatoria X (t) pal'a este
valor de t. As pues, la esperanto matemtica de la funcin aleatorin
no es ms que una curva media alrededor de la cual se disponen las
realizaciones posibles de la funcin aleatoriR (fig. 4.2.1).
Es evidente que al considerar solamente la esperanza matomtict1 de la funcin aleatoria, despreciamos todas las desviaciones
aleatorias posibles, red uciendo a Ja med it1 todo el laaz de realizacio
nes posibles de la funcin aleatoria. As se procedo al empicar los
mtodos de investigacin corrientes no relacionados con la Teora
de las Probabilidades. No 'Obsta nte, el sentido de la Teora de las
probalilidades consiste precisamente en examinar no solamente
los valores medios regulares de las magnitudes, sioo tambin las
desviaciones aleato rias con respecto a stos. Conforme a lo dicho,
pa,ra caracterizar la fluctuacin de las realizaciones de una funcin
aleatoria en torno a su esperanza matemt.ica , so puede aprovechar
la disfrsfn de dicha funcin, la cual, en virtud de la defiuioin
(2.3.9), vil expresada por la densidad uoidimonsional de probabi
lidad de la funcin aleatoria por la frmula
00

Dx (t) = M ({X (t)-m., (t)}UJ

J{:t-mx (t)}2/t(~; t) d:r.

(4.2.3)

-oo

En los problemas prcticos a veces es conveniente en lugar de


la dispersin examinar l a desviacin cuadrtica media de la fun ) En este caso, se supone, clero ost, que la esperanza matemtica de h
magnHud alefttoria X (1) exisie para cualquier t, al Igual que todlll! lllll esperanzas
,matemticas de las cuales se tratar n continuacin.

1.2. E.pemnza matemdtktt y funcin correlatll:a

cin aleator ia:


<Jx

(t)

=V Dx (t).

16t

(4.2.4)

La esperanza matemtica y la dispersin de la i;nagnitud alea.t oria so11 caractersticas numricas de sus valores para c;,ada valqr d ado
del argumento t. E.Has, en cierto modo, determtoan la banda qu~ se
llena por las realizaciones posibles de la funcin aleatoria (fig. 4.2,2
y 4.2.3). Sin embargo, la esperanza matemtica y la disper.sin

f ig.

4.~.1.

Fig.

ft . ~ . 2.

no delermi nan la conducta de las realizaciones posibles de la funcin aleatoria dentro de la banda indicada. En las fig. 11.2.2 y
4.2.3 se representan las realizaciones de dos funciones aleatorias con
iguales ~peranzas matemticas y dispersiones. Sin embargo, stas
se comportan de u n modo completamente diferente. Es obvio que
a l derivar, por ejemplo, estas dos
funciones aleatorias obtendremos
resultados absolutamente distint os.
P or eso, adems de l a esperan?,a
matemtica y la dispersin de la
magn itud aleatoria, nocesitnmos
conocer el grado dll vari11hUidad
--- de s us rea lizaciones, la rapidez del
cambio de las mismas al vorint el
l"ig. 1..2.s.
argumento t. A ttulo de ejem
plo tomemos dos valores t 1 y t 2 del argumen t o t en los dos grficos
(figs. 4.2.2 y 4.2.3) y separemos una realizacin de la funcin aleat oria eu cada grfico. En el primer caso, el conocimiento de Ja ordet1111lu de la realizaci n cu el punto t 1 habla l)Oco clcl valor de e8ta
realizacin en el punto t2 , corno resu ltado de una gran int.ensidad
d e variacin de todas l as realizaciones de la funcin aleatoria entre los
puntos 11 y t 2 En el segundo grMico, el conocimiento del valor de la
realizacin cuando t = t 1 permite indicar ms exactamente el valor
posible do la realizacin cuando t = t2 Con otras palabras, en el. sogu ndo
()a~o. el conocer el valor de realizacin en el punto t 1 prcticamente
limita de un modo consider able l a gama posible de valores de las
realizaciones en 1:11 pUllto t 2 En el primer caso, Ios va lores d!l las
-realizaciones posibles de la funcin aleatoria X (t1) y X (t2) cu
11 -09;3

i62

Cap. 1

l"aratt1rlnica.~ d~

l1111tlunn al-eatorlt11

los puntos 11 y t 2 depondeu poco uno do otro, en el segundo caso,


stos estn enlazados por una dependencia ms fuene.
Para ilustrar grficamente esta tesis, llevaremos al eje x1 los
valores de la ordenada aleatoria X (t1) y al eje .:i:2 , los valores de la
ordenada aleatoria X (t2) (iig. 4.2.4 y 4.2.5). Tomemos una gran
cantidad do realizaciones y marquemos fos puntos IX (t1), X Ct:)I,
que corresponden a ostas realizaciones en el plano .:i:1, x 2 Parn las
realizaciones do la funcin aleatoria, representadas en la fig. 4.2.2,
las magni tu des aleat-0ri as X (t1} y X (t2 ) estn vinculadas i1.;1Jilmente. Por eso la dispersin de los puntos IX (t1), X (tz)/ en el plano

~2 l. ..

. .
.
1: .
Q

Xz

: 1:

1-'i. 4.2.4.

.
--

:e,

.
......

.......

.x,

Fig. 1,.2.5.

x 1x 2 en eslo caso es aproximadament-0 circular (~ig. 4.2.4). Par o la


funcin aleatoria, cuyas realizaciones se muostran en la fig. 4.2.3,
las magnitudes oleatorias X (t1 ) y X (t 2) estn eulazadas por una
dependencia fuerte. Por eso, para 111 funcin aleatoria cuyas realizaciones se representan en la fig. 4.2.3, los puntos posibles rx (l,),
X (t2 )1 se dispondrn en el plano z1x 2 formando una elipse alargada
(fig. 4.2.5).
Para caracterizar el gra do de dependencia de los va.lores de
uo a funcin aleat.oria, correspondientes a dos valores diferentes
del argumento, lo ms simple es va lerse del momento de correlacin de estos valores de l a funcin aleatoria . Llamemos /uncl6n
aleat2rla centrada a la diferencia entre la funcin aleatoria y su
esperanza matemtica:

X (t) = X (t) - m., (t).

(4.2.5)

Entonces el momento de correlacin de los valores X (t) y X (t') de


la funcin aleatoria X (t), que corresponden a dos valores arbitrariamente elegidos dol argumento t, t', se determinar por la frmula

K., (t, t') = M IX (t) X (t')I.

(4.2.6)

Dando a t y t' todos los valores posibles en l a zona de variacin


del argumen to de la funcin aleatoria X (t), obtendremos la uncin de dos variables t , t' que se denomine junci6n co"elati.va (n veces .autocor:relatiua) de la funcin alea toria X (t). As! pues, se llama

4 .2. Esperanza matcmdlica y funtin torrr.lativa

funcin correlativa de la funcin aleatoria X (t) a1 momen'to.rde cer


rrelacin de sus valores para dos valores del argumento t, t', con
siderado como funcin de t y t'.
Al coincidir los valores de los argumentos t' = t, el segundo.
miembro de la froiula (4.2.6) representa la esperanza matemtica:'
del cuadrado de la funcin alatori'a centrada, es decir, la disP,e.i'sin de la funcin aleatoria X (t}:
!

K,, (t, t)

D,, (t).

(4.2 ..7)

As pues, la asignacin de la funcin correlativa de una fnci'n ;


aleatori a determina tambin su dispersin.
Para calcular la funcin cor.relat iva de una funcin aleatoria
so exige, on el caso general., el conocimiento de la densidad :bidi-1
mensional de probabilidad. Entonces, en virtud de (3.4. 7), la 'fun~"
cin correlativa de In funcin uleatoria X (t) se determinar por la
frmul a
K,.(t,t')=

....
JJ

fx -m,,(t)jfx'-m.x(t')]/2(.r,,x';t,t')dxd.x'. (4.2..8)

Teniendo en consideracin que siendo t' = t, los valores X (t')


y X (t) de la funcin aleatoria coinciden, y aplicando la frmula
(3.3.3),' hallamos la siguiente expresin de la densidad bidin1ensional de probabilidad de la funcin aleatoria X (t) cuando t' = t: '
/2

(x, x'; t, t') = / 1 (x; t) ll (x' - x).

(4.2.\J)

Su.stituyendo esta expresin en Ja frmula (4.2.8) y cumpliendo


la integracin con respeoto a x', sirvindonos de la frmula (2.2.6),
reduzcamos la frmula (4.2.8) a la forma (4.2.3).
Las frmulas (4.2.2) y (4.2.8) pueden ser vir para el clculo de
la esperanza matemtica y la funcin correlativa de la funcin
aleatoria siempro que se conozca su densidad bidimensional (y por
1
consiguiente, unidimensional) de probabilidad.
Sin embargo, en muchos problemas prct.icos resulta posilite
determinar la esperanza matemtica y la funcin correlativa de una
funcin aleatoria empleando mtodos ms simples, sin recurrir a la
determinacin do las densidades de probabilidad. Luego vcrcmo~
en ejemplos como esto se hace.
A veces, para caracterizar el enlace entre los valores de una magnitud aleatoria, en vez de la funcin cvrrelativa, se usa la funct6n.
correlativa normada que representa el coeficiente de correlacin
de los valores de la funcin aleatoria para dos valores del argumento.
En virtud de la determinacin del coeficiente de correlacin (3.4.9)'
y de la frmula (4.2. 7), la funcin correlativl normada de una funH

cin aleatoria X (t) se determina poT la frmula

n (t , t ')
X

K.~ (1 , t')

-V D,.,(1) Dx (1')

Kx (!, t')
-=-v~===;:::;;;::;=.::::::;:
K., (t, t} Kx ( t', t')

(4.2.10)

Es evidente que la asignacin de la dis1iersin y la funcin correlat iva normada de una fuoci6n aleatoria es equivalente a la asignacin
de la funcin de corl'elacin de la misma.
J';n lo suce~ivo necesitaremos examinar todava el momento
inicial de segu.ndo orden de una funcin aleatoria, el cual se determina
como el momento inicial mixto de sl!gundo orden de sus valores
para los valores arllitrariamento elegidos t, t' de s u argumento:
r,, (t, t') = M [X (t) X (t')J.
\(li.2.11)
El momento de segundo orden de una fancin aleatoria se puede
expresar por su esperanza mntem tica y .su funci6n correlativa.
l\ (t, t') = m., (t) m,, (t') + Kx (t, t').
(4.2.12)
Esta frmula es consecuencia directa de la frmula (3.9.13) para
I~ esperanza matemtica del producto de dos magnitudes aleatorias

y de

las definiciones (4.2.6) y (4.2.11) de la funcin correlativa y eJ


moment inicial de segundo orden.
, . Hemos dado las definiciones de la esperanza matemtica, fa
funcin correlativa y el momento inicial de segundo orden para las
funciones aleatorias reales. En los problemas prcticos uno tiene
que operar slo con funcio11es aleatorias reales. No obstante, en
las investigaciones tericas conviene frecuentemente introducir tambin funciones aleatorias complejas. Por eso, es necesario generalizar los conceptos introducidos extendindolos a las funciones aleaiorias complejas.
De acuerdo con la dcfinicihn del momento de correlacin de
Jas rungnitudes aleatorias complejas, la fm1cin correlativa de una
f.p.Jlci_n aleatoria compleja X (t) se determina por Ja frmula
1
l'l

Kx{t, t')=MfX(t)X(t')].

(4.2.13)

Por una frmula anloga se determina el momento inicial de segundo


oid!lD de na funcin aleatoria compleja.
1'

Ejemplo 4.2.1. E:rnmiuemps la fuocin aleatoria


...,
X (t) = U sen cu0 1 Z cos root ,

(4.2.14}

donde U v Z son magnitudes aleatorias no correlacionadas cuyas esperanzas


matemticts son iguales a cero y cuyas dispersiones son iguales a Di y Di. respectivamente. Esta funo;ln aleatoria representa las oscilaciones armnicas
d'e la frecuencin circular 0 con una amplitud aleatoria -Vvr.::-z y con una
fase inrctal aleatoria arctg (ZI U)). Las realizaciones de esta funcin aleatoria
) Eu este caso el arco tangento se toma en el primer cuadrante, si Z > O
> O; e el segundo, si Z >O, U< O; en el ttrcero, si Z <O, U <O: en e
t114Jlo, si Z < O; U > 0.

n:

4.$. E1ptra11Ja. ma.nult~ y /uncl/n correlatl~'a

165

soo slousoides coo un periodo T


2n/1Jlo y con diterentes amplitudes y fases
inicial es. En el ejemplo en cuest in la funcin aleatori a representa la combinacin llneal de dos magnitudes aleatorias con l os coeflelentes sen (l)Ql y cos Col
Por eso, aplicando la frmula (3.8.9) nos convencemos do que la esperanza matemtica de la funcin aleatoria X (1) es idnticamente igual a cero:
m,, (t) - mu sen 6>0 t
m : cos (l)ut e O.
Poniendo en la frmula (4.Z.14) t = J', obtendremos
X (t') = U seo Olct'
Z cos w0t'.
Esta frmula, junto con (4.2. 14), muestra que los valores X (1) y X (t') de la
funcin aleatoria examinada, pan dos valores arbitrariamente elegidOll del
argumento, son combinaciones lineal es do dos magnitudes aleatorias no conelecionodas U y Z. Aplicando la frmula (3.l.1.8} para el momento de correlacin
de dos comb1oaciones lineales de magnitudes aleatorias no correlacionad as,
hall amos b funcin corroladva do la funcin 11.leat.orlo X (1);
K,, (t, t') = Ds sen Wot sen wot'
D2 cos IJlol cos mol' (4.2.15)
En el caso particular, cuando D 1 = D 2 = D , la f1mula (4'. 2.15) toma l a !orai
(4.2.16)
K., (t, t') = D cos () 0 (t - t') .
Ejemplo 4.2.2. Examinemos uu caso ms gencrAI , cuando

X (1) =

h"

(4.2.17)

Xvfv (I),

"-t
donde / 1 (t), . .. , f,. (1) son cualesquiera funciones no aleatoriasi on el caso
general , complejas, y X 1 , , Xn son cu alesquiera magni tudes a eatories con
esperanzas matemtices arbi trariu, pero fi nitas, y momentos de segurnlo orden.
La esperanza matemtica se encuentra para esta funcin aleatoria muy sencillamente como la de u nB funcin li neal de les magnit udes aleatoria.~. Aplicando
la frmu la (3.8.9) , hall amos
,

"

m" (1)~ ~ m,. fv(I).


v=S

(4.2.1~

Observando que los valores de la funcin aleatoria que

examina son,

para dos valores del argumento arbitrariamente elcgidlls, !unciones lineales de


las mismas magnitudes aleatorias, podemos f.Licar la frmula (3.9.6} para

calcular la funcin correla\iva de esta funcin a eatoria. Entonces ubtcndremos


Kx(I, t')-

" k, ,/v(l}/ .(1').


~
1

(4..2.19)

v,i.=I

donde le,, es el momento do ~orrelacin de las magnitudes ~lc,alorias X", x.,


Dxv>
Ejemplo 4 .2.3. Generalicemos ahora el problema del ejemplo 4.2.1 suponiendc1 aloatorias no solamente la amplitud y lo !ac, sino tambin la frecuencia
do la,, oscilaciones 8rmnlcas. As pues. examinemos In lundn aloatoria
X (t) = (J sen Qt
Z cos Sll,
(4.2.20)
donde U, Z, Q son magnitudes aleotori85 lndependieites; con lo particufaridAd
de q uo las magnitudes U y Z tienen esperanzas mnt~111 ticas iguulos a c.ert> y
l as mismas dispersiones D, y la magnitud al eatoria Q
c.Mc teriza por lo 1lensidad do probabilidad J (()}.

La esperanza matemtic11 de l a funcin aleatoria X (t) es idnticamente'


igual n cero. L a frmula (4.2.16) determina la {u udn correlativa condicionar
(v, . -= [, ... n; kvv -

"

100

Cop. 4 Carac/uslicas iU /1nclont1 aleatoria4

ele la l1111cio aleut.oril X (1) para el valor dado

O>

de la ireeucucia O:

0>]
D cos w (t - 1 ).
Ahcll'n. >nra b~llnr la funcin correlativa de l a funcin olcatori a X (t) basta
11mll iplit ar Ja iuneu correlativa conicional hallada por el eleroe11to correspoudiC'ute de probobilidnd / (1.0) d e integrar con respect.o a todos los v11l orcs
posibles w d e la IDl\lf11it11d a1eatoria Q. Entonces, teniendo en cucul a quo la
lrencu1mria de oscilac iones es, en su esencia, una magnitud positiva, debido a lo
cual ~u <lonsidad de probabilidad / (oo) o~ igual a cero para w < O, obtond1emos

K,. ( t, t' J 0>) = M (X (1) X (t') I Q

..

/(w) cos oo (t- t') d<.

K,. {1,1 ') = D

(4.2.21.)

o
Exn rn ineroo~

al1o ra ol coso concreto cuando

f ()
w

2a ..,
. d
n (ci~+
21 sien o

(A)

>O

(4 .2.22}

E n csl.e c oso la f6rmul11 (t, .2 .21) da


')
2Da
K X (1t I ms.
J\

""~
~

c osw{r -t') d

-i +(A)i

W.

(l

Esta i nlc>gral po.cd e !l<lr c.ulc11lada por muchos procedim ien tos. Un mtodo posihle
6e exponu en e l sup lemento 1 el 1lnal dul libro. Aplicando la frmul a (23) deduci
d a en ~I suplem ento, oblend1emos

x,. c1, n~o.-a1

- 1 1.

(4.2.23J

Asi pue.<, on el ca.so en q uo la den.s idad de prohabilldad de l a frecuencia aleatoria


de oscilociones 11rm6n icas .se det ermina por la [rmula (4.2.22), l a func in C<l
rrelativn de la sinusoide aleatoria representa una funcin exponencial. Esta
funcin correlativa se encuentra en mucl1os probleml\S prcticos.
Ejemplo 4.2.4. Generalicomos ol ejemplo 4.2.2 para il c aso de la depend encia no lineal de la funcin con respooto a l os pHrmetros aleatorios. Examinemo~ la funci11 nlea loria
(4.2.24)
X {t) ~ <> (1, U,. .. , U,.),

dond e q> es la fu nci n complotaroente determinada de los parmetros indicados


>.'~ U., .... U,.. son los parmetros aleatorios para los cu al os est asignada la
densidad do problibili'd ad f (u,. . .. , un)
En virtud de la definicin d e l a Mperanza mat.emtica f{lnnuln (3.4.2)1,
Sta y el momento do segund o orden de la funcin a leatoria X (t) se determinan
por las frmulas
m,, {1) =

..J .. . J..

<> (1, tt 1, . , u,.) f ( tti. . .. , u,.) du 1 du: ... du,.,

..J J..

(4.2.25}

-oo

r .. (l, 1')-

<> (t ,

u1 ... , u,.) <p (t ', u., . . ., u,.) X

X/ (u1 . .. , un) du1 .. , du,.. (4.2.26)


Co~ocie11do la csrerat\Z mut.emtica y ol momonto inicinl de seS'!ndo orden,
se puedo ueterm uar la funcin correl ativa d e la magnit o.d nl eator1 ~ X (t) ~ or
l a frmula (4.2.t2).

4.2. Etptran:f1o

m4lem4tka y fund6n correlatl!Xl

t67

Vemos que cuando la dependencia de la funcin aleatoria con respecto a los


par,motros 8.leatorios es no llnoal, para determinar su esperanza .matemtica
y la funcin correlativa 9! necesario, en el caso general, conocer la densidad de
probabilidad de los parmetros aleatorios , miont.rae ([Ue para detecminor la
esperanza matemtica y la funcin correlativa de una funcin li.neal de parmetros aleatorios basta conocer solamente las GSperanzas matemticas y las
dispersiones de los parmetros aleatorios.
Ejemplo 4.2.5. Examinemos cierto elemento carente de inercia do un
sistema automtico, es decirJ tal el emento cuya seal de sallda ,: en cadil lnst.ant.o
dado, depende solamente det valor de la seal de entrada en el.m ismo momento
de tiempo sin depender do cmo cambia esta ltimo. hasta l i nstante dado.
Supongamos qe la seal de entrada X (t) BS funcin ala.turia del t iem.Po,.cuya
esperenin matemtica es igual a la ~al til <JU vara lenlamenteen ra entrada
del ole meo to en cuestin y la Ctrncin aleatoria ce.n trada repre!On,' ta l!!, perJuibacin, es decir, las fluctu11cionos aleatorias de l a seal de entrada. Generalronte
la seal de salida de tal elemento se enva a la entrada de cual<i11>r: dis~sitlvo
de inerca. E~te dispositivo, como regla, no tiene tiempo para responder' o las
fluctuaciones rpidas do ln aeial de entrada y roaceiona en lo principal s11bro
su valor medio quo va.ria lontaw.eDte, os dedrl sobre l o esperania matemtica.
Asl. por oemplo, si los timones del avin rea izan r~pld11s oscilaciones 11lcatori.as., ste no tendr tiempo pn.ra responder a ellas y reaccionar slo a las clesv1ac1ones medias do los t1m nnes alrededor de las cuales stos se desv[an a ambos
l ados. P11r oso en las aplicaciones de la Teorla de las l'robnbilidade!. en el campo
de la automtica, la esperanza matemtica de la seal de salida Y (1) se toma
recuentement~ por la seiial til en la salida del clemont.o y las fluctuar.iones
de la ~llal ele salida con rcs~eto a su esperanza matemtica, P.' el rnido en la
salida del elemento. El problema consisto en hallar la seal util, la dispersin
~la lunc.i6n col"fehtiva del ruld11 en la. salida del elemento\ conociendo las caracteristfr,a~ probabilsticas nocesarias de la seal de ent,r aaa.
Supongamos que la dependencia de ln seal de s nlldn del elemento con rospoclo o su ~efial_ de entrada se determina por la {6rm11la

Y (1) = q> {X {t}},

(4.2.27)

dond e cp es, en el caso general, funcin univoca no lineal, la caracterstica del


elemento. Es evidente <lle para dewmioar la e3peranxa matemtica y la dispersi n de la funcin aleatoria Y (1) basta coool;J', en el caso genCYal, la deMidad
unldimensionlll de pr<>babllidad de la Cunci6n aleatoria X (1). Entonces, la
esperanza matemtica y la dispersin de la funcin aleatoria Y {t) se expresarn
por lns frmulas

mu (t) =

q> (.r)

D,(') -1

/t(z; t) dz,

((>) - ..,,(')0 '"'"l "..

(4.2.28)

Parn hallar la funcin com1laliva de la funclo aleatoria Y (t) basta conocer,


en d ca~o general, la den~idad bidimensional de lo funcin aleatoria X (1). EntoncM l a luuci n correlativa de la funcin o.l eatorio Y (t) se delerminar por
l a lnnula

J .

00

Kv ( l, t') =

..

(q>(z) - rnv(l)) )<p(z')-mv{l')J./1 (z, z'; 1, t')d:rth'.

(4.2.29)

Cap. 1 CaracterticM de

168

funcion~

akatorilu

Es evidente que la funcin eorrel1ttivn do 111 {uncin 11leatona Y (t) so puede


determi nar tambin por la frmula (4.2.12). calculando m. viameote el momeoto ioicial do ~egundo orden por la frmla

r 11 (t,

t') =

....
!J

!>

(x)

(U.30)

q> (z ') /i(z, :r'; 1, t' ) dz tlz' .

-co -oo

J::ste p1occdimie11<.o lleva de ordinario a clculos nH~ ~im1les.

La priwora frmula do (4.2.28) determina la seal til c 11 la salitl a del elorucnto exawi11ado y la segunda, ol nivel de n1ido en la salida del mismo.
Lns frmulas obt onidas en este ejemplo permiten ox81Dinnr el p3SO conjunto
de la~ seiiafos {1tiles y las perturbacionet (ruidos) por cualesquiera ele1ncn tos
caroutes do incrcin de los sistema~ automticos.
Ejemplo 4.2.6. Exawino.ruos un dispositivo que funciona de modo quo.
ol aetuer en la entrada un iropul80 momuntnoo. la variable do salida RU<uiuro
un valo r constanl.-0, proporcional a la magnitud del impulso de entrada, y queda
11)

s,
Q

s,

'

ltS,

...

:-

~1~.~ ,.,...~~~--,.r

.s,
1rs, t

Fig. 4.2.6.

.rt-----r---:

l"

'
....___,
'

Fig. 4.2.7.

invariable hasta que acciona eHmpul<;o siguiente (fig. 4.2.G). Una vei rccl bido
el impulso siguiente, la verla.b le de salida cambia por un &alto su valor y 110 hace
proporcional a la magnitu.d de este impu150. Asl pues, el dispositivo en cuestin
transforma. la sucesin de los impulsos en una funcin escalonada, en la cual
la altura de cada escal n es proporcional al ltlroo impulso accionador. S upongamos ahora quo a la entrada de tal dispositivo llega una secuencia de Impulsos
aleatorios (por ejemplo, el flujo de partfoulas ~adas con dereotes cargas).
Hallar la esperanu matemtica. y la funcin correlativa de la variable de salidn
del clisQ08it1vo dado, suponiendo que los impulsos son. magnitudes aleatorias
independientes.con sperania.s matemticas Iguales a cero y un11 misma dispersin. D, mientras que los momentos de accin de los impulsos forman un flujo
de .Polsson con una densidad media constante (vase el 2.6). En estas condiciopes se puedo coniliderar que el nmero de impulsos quo actuan en el transcurso de cualquier lapso de tiompo se subordina a la ley de Poisson. Ahora Lieu,
l as realizaciones de l a fuooi6n aleatoria en la salida del dispos itivo en cul!l!tin
sern funciones eaeelooada.s con momentos independientes de paso da un eecaln
a otro y con alturas aleawrias de los escalones. La espetanza matemtica de tal
funcin aleatora X (t) es Idnticamente igual a cero, puesto que las alturas de
los 'escalones, pN>po;i:clonales a Jos impulsos correspondiente~. tienen esperanzas
mat emticas IJUales a cero.
Toroemog ahora dos instantes t y 1' y hallemos el momento de correlacin
de las alturas de los escalones correspondientes a estos instantes de tiompo.
Aqul son poslbles dos caM>S (flg. 4.2.7):
1) en
intervalo do tiempo (t, 11 ). a la entl'ada llega, por lo monos, un
Impulso;

4.2. Eptrttn:a maum6tica /uncl6n corrdatva

101>

2) en el intervalo de tiempo (1, t') a la ent rada no Uoga. ningn h npubo.


En el prlrner caso, las alturas de los escalones son ma~nitudas -aleatoria~
lndopendientes, ya que los lmpulsosJ segn la condicin, aon independientes uno
del o tro (fig. 4.2.7, a) . En el aegunuo ce.so, los punt-0111 y 1' se encuentran en el
mismo escaln (fig. 4.2.7, b). Al deducir la !6rnula pBla el momento de co.
l'l'elacin, es necesario ten.e r en cuenta ambos c aso~ con .lns probabilidad&s co~
rruspondientes. Designemos por Y el nmero de impulsos (fue llegan a la entcada
dura.nte el intervalo de tiempo (1, t ) . Cuando Y > O, en virtud de lo expuesto,
el momento de ~orrelaci6n de las ordenadas de la funcl6o aleatoria en cuestin
es igiial a cero. Cuando Y - O, tenemos que X (t') .., X (1) y, ,eor consi11uie11
te, el momento de correlacin de las megllitud es X (t) y X (t ) es igual a l
dispersin de los impulsos D. La probabilidad de los acontecimientos Y >O
y l' ""' O ~e puede e11lcular aplicando la ley de Poisson (2.6. 13). Entonces ob
tendremos 111 siguiente expresin para la funcin corrolaliva de la !uncin aleaturin OllC11lonada 11uo se examin11:
K,, (t, t')= M(X (t)X (t')J =
- P(Y> 0) M (X (t) X (t ') 1Y> OJ+ P (Y =O) M (X (l)X (1') i.Y= OJ =
= P (Y > 0)-0 + P (Y=O) D=De-f l-1 '),

dondo e~ l a densidad d11l fl ujo de impubus, es doci r, la cantidad media do


impu lsos que actan en la unid ad do tiempo. Ahora bien, la funcin correlativa
J e la funcin aleatoria en cuestin so determina por la frmula
K,, (t, t') = v.,- 14 l l-t' 1

(4.2.31}

Vemos que tambin en el ejemplo dado se hn obt enido una funcin corrn
lativa exponeocial.
Ejemplo 4.2.7. Un condensador de capacidad C se carga por el !lujo lle
partlculas que tienen diforcntos cargas, y en 1(19 intervalos antros los mom ontos
de llegu.tla de las partculas se descarga a travs del;reslstor
R (flg. 4.2.8). Hallar la esperania matemtica y lo fu11
cin co1Telativa de la corriente aleatoria que pasa por el
e
l(t)
resistor, si al cond ensador llegan , por lt\rmino medio ,
R
partculas on la unidad de tiempo y las C8!J8S de las par
t itulas son magnitudes ale11t.otlM indeJlend1entts con las
mismas esperaru;as matem:itfcas IJ e Iguales dispersiones D.
Fig. 4.2.8.
Designelnos por Q~ la carga aleatoria de le k-simo
par cula y por r,. el momento ale-torio de ~u llego1la
al coudensadur . En el mome.nto T11, la t ensin " en el condensador ca0thi11 1><11
un Mi to en Qh/C despus de lo cual la magnitud absoluta do esto inr.remcnto"h de ln to11sin disminuyo ~c.gn la ley ex.ponencia!

l -T11

Qh -T<C ..
T
u4-c
~
s1e11do 1>

11.

La corrientll en el circuito, engendrada por la llegada al condensador 1!0 la


k-sima parLeula , SCl' igual a u.IR. Por consiguiente, la corrienlo total en el
circuito I (1) en cualquiel' instante t se Jetermln&r por lu frmul a
1
/ (1) - T

l - T1t

~ Q11.e

--

(4 ,2 .8~}

2.,,~,

donde la adjciu se extiendo a t odos los valore~ K cOrL"CSJ.IOllilicntes a lns pal'tlcu.las que caen en el condensador 11asta el instante 1 y T ... HC es la asl llamsda
constante de tiempo del circuito.

JiO

Cap . 4 Cara<tuf$tlcas d e f un.cltmes alea<orias

Para resolver ol problema planteado, primeramente examinemos $6lo la


varto de corriente en el circuito engendrada por las partlculas que llegan al
~ondensador durante un intervalo grande de tiempo finito (s , t) y luego pasemos
al lmite cuando s ...... -oo. Designemos por 1. (t) la corriente en el circuito
('Ogendrada por las particulas quo llegan al condensador en el transcurso del
intervalo de tiem110 (s, t). El nmero de partculas que llegan al condensador
-Ourant.c el intervalo d0 tiempo (s, 1) se puede considerar subortlioado a la ley
de l'oisson; on estG caso. la csporanza matemtica de esw n(tmoro de partculos,
segi1 los da tos, es igual a (t - s). Por lo tanto, designando par Rm d acont.ccimiento c.onsi~tentc en que durante nl intervalo de tiemio {, 1) al condensad or llegan m partkulas {m =O , 1, 2, ...) y aplicando la frmula (2.6.13), pura
la probabildnd de cstll 11conteclmi0Dto obt endremos la frmula

P ( ~"'ml

[ (t -s)I"'

mJ

- ( f-)

O 2

m= '

.1.,

'

(4.2.33)

l~n el r.a~o c.uando en el intervalo de tiempo (s, t) al condensador llegan m

1arti1ui;1s, la c.orrientu prod11cicla en el c.ircuit.o por


>M la fnnula

cs~as

pa1'ticulas se

oxpre~a

(4.2,34)
lt=l

Hariendo rospecto al nmero do particul as que llegan al condoDsador on el int01vnlo do tiempo (s, t) todas las hiptesis posibles m = O, t, 2, ... y aplicat>do

'1a frmu la de la esperan7.a matemtica compli;ta (3 .8.12), expresemos l a espe1a117.a matemtica de la funcin aloatorin I (t) por la f6rmnla
<O

M{l,(I}]= ~ P(Em)M[l,(t}JEmi
m-0

(4.2.35)

La esperanza matomtica condicional de la func in aleatoria 1 8 (1} pnra la hip tesis Em debe calcularse h11llando la media robaliilstica con respecto a todos
los valores posibles de las cargas do las parttculas Q/t y a todos los valoros posiL>l"s de los mome!!toS de llegada de las partic'tllas al cQndellSador T,. , siendo Cijo
-el nmero m de partculas que actan en el intervalo de tiempo (t, t) . En virtud
de los teoremas de ac!ici6n y multiplicacin de las esperanzas matemtica!!,
teniendo. ill\ coilsiduaci6n la Independencia de las magnitudes aleatorias Q,.
:y Th, podemosescribir
m

M[I8 (t)1Em]= ; .

1-Th

Jlf

[Qke--T- J-

1'=1

t-Th

i ~ M(Q1<}M [e--T'j.

(4.236)

11-1

Pbra calcular M lcxp {-(t - T,.)IT )J para una partkula que acta en el instant e t = T1, en el intervalo (s, t), es ne.:osario, de acuerdo con la. regla general,
multiplic!U' Los valores de la funcin exponenc ial, correspondiente a todos lo~
vnlores po's ibles r,. en el intervalo (s, t), por los elementos respectivos de prntabilidad e integrar. Como resultado obt.endremos
M[exp{ - (t - T1t)/T} )

Jexp{-1t-i:)/T}/(i:}di:,

(4.2.37)

donde f (T) es la den11icl ad do probobilidad de la magnitud aleatoria Th. En


virtud de la c.onstancia de la densidad media de los momentos de accin de las
partculas, stas, al Rer muy grande su nmero, se reparten estadlstlcamento
-Oe un modo uniforme en el intervalo (s, t}. Por consiguiente, la densidad de pro-

~.S.

i.7i

E8pta11w matem611ca y /u11cl6n. corrtlati"4

habilidad del momento de accin de cnda putfoula tomada por separado debe
considerar~ constante en el intervalo (1, 1) : / ('T) = 1/(t - 1). ,S ustituyendo
esta expresin en (4 .2.37), obtendremos
t-Th

Mle--T-)= l~I

t:.

1-

5~--:-d't-

1-
8

(t-e_T_).

(4.2.38)

Sustituyendo esta expresin en (4.2.36) y teniendo en cuenLa quo la esperanza


mateinAtica de la c.arg11 de cada pnrtlcula es igual a q, hallaremos la esperanza
matemtic.a condicional de la. funcin aloato1in 1 (1) p11.ra la hi ptesis Em.:
t-

M [l ,(i) 1 Em)= ~ _q_


.JC.J t-s

t-.s

m
(1- e- 7)-__!_(1
- e- - T
l-1

).

(4.2.39)

Sustituyendo las expresiones (4.2.33) y (4.2.39) eu (4.2 .35), hallamos -la


espcru1za matemtica de la uuci6n aleatoria l 1 (1):
-

M 11 (1)1- ~ [ ~t (1-s))"'

~
m- 1

m!

e-11(1->)

.!!!!J_
t -1

t(1 - .,-7)
-

t-

=qe- ( 1-

t) (

1-e-7)

~ { (t
- - 1}fm~1

(m - 1)!

m- 1

EvidenLemcnLe quo la suma de la serie ea c~ta frmula es igual a


lo t11nto

,_,

M (I. (1)]= g

.11<1->.

Por

(l --y).

Al vo.sar al llmile ara R - -oo, hallamos la esperanza matemtica de la


cornenle aleatoria
(1) un el circuito:
m. (1)

II (1))

1-'IJ

(4.2.40)

Para hallar lll funcin correlativa de la corriente aleatoria en el circuito,


obsP.rvemo~ que si t' > t

t<T1a~ t ~

Aqul ol pl'iruer sumando ~ diferencia de I (t) oJomente por e l mu!lipUcador


no aleatorio y el segundo sumando es independiente de 1 (t), ya que contiene
~lamento magnitudes aleatorias independiente" de las msgnitudes aleatorias
que ontran en la expresin (4.2.32) parR 1 (t). Por eso, cuando 1' > t, la funcin
<'.Orrelativn de In corriente/ (t) es igual al momento de correlacin de las ma~
nitud!'ll 11lentori11s I (I} y I (t) exp {-(t' - t)/ T} para los valores dados t y e ,
es dedr.
l ' -1

xi (1. n-v 11 (1)\ .-......,,.- .

(4.2.41)

i72

Cap. 1 Cora<rfitietU d4 fu11elon.e1 auatoritU

Ahora nos queda solament41 calcular la dispersi6n tle La corriimte I (1). I.a disrcHl611 condicional de la luncin aleat.oria J 1 (1) para 111 lti~ti!!is wnsiHtonto
eu que on el intervalo de tiempo (4, t) al codeneador llegan "' pHllcul. ~
Igual a la 8Uma de las dispnrsionc.s de los sumanrlns 1)11 la frmula (4.2.34) 011
vl'~ud do la indeP.endencia de los miemos. Para ballar l a disporsin de un sumando en (4.2.34) calculemos 11rimert1ml\nte su momentn inicial dn sr.gu11do ord'"Segn el tt'orcu1a fo multipl1~11ri6n de las espcrallz11s ml\lomticas
M (Qle -~

t- t,.

l-T11.

.,.-]=MI n~IM {e- T'""J.


2

Luego , ~11 virtud lo l a co1111eidR 1orroladn t'-ll lrl\ 111 11ispcr.1in de la magnitud
aleotoria ~ su mnm~Dlt iniri al do segundo ordrn !frmula (:l.3. H )],
M IQlJ=q' +D,
y la ~Apcranr.a matemtica Jo la funcin Pxpo11e11clal so c.olrnla de lo. mismll'

mllllen que P.O dedujo 111 frmula (4.2.38}. Do aqul, validonos de nuevo do l aconolaeil>n 1>.ntre la dispeTslo y el momento Inicial do s11gundo orden y tenien1lo
en cuenta que la expresin pan la dls>llrsi611 c<>nd icii()Dal d la fundn aleatoria
1. (t), 1IAda la biptosis Em, contiene in sumanrlo., iguales, obtendromlls
Dfl {1) 1 E 1~ m ('I

2+v)

2T(t-1)

(1-e -

z i-

r_

n111

1-

'

{l-s)i

{t-e-T)~

Multiplicando esta e.xprosin por la probaliiHdad de la hiptesis Em que se


det~rmlna por la frmula (4.2.33), y sumando con resp~tn a todos lo5 valores
posibles do m, hallaremus la dispersin no condicional do la funcin aleatoria r. (t):

, '+D)

Dfl.{1)- 11 ' 9 T
2

a t-.

t-
(1-- T)-~(1-e-"T")i.

,_,

P a~ando

en esta frmula al limito >nra s- -oo , hallamos Ja dispel'3i6n bu:icaJ1>


de la corrieote aleatoria que cirrul11 en el cil'l:uito I (1):

Dff (1)1 =

11 (q;:D),

(,.2.42)

Por fin, su:rtituyondo cH11 exrorPs.ln en la frmula (4 .2.41 ), obtendtemos


K 1 {t, t')

'+D) -~
11 (92f
e 'l' siendo t'

"> t.

Es evidente r-ne cuando I' < 1, la 11larencla 1' - ten el exponente se sustituir~
por 1 - t'. Como resultado, la runci11 correlativa. du la corri eilte aleatoria en ol
cil'l:~it9 dado J (1) so expresan\, parn todos loe valores t y t', por la fnnuln
l { 2+D)
ii-11
e- - T .K t(t, t')- 1 ~

sieoclo t' < t.

(4.2.43~

Do esta moiio, as como en los ejemplos 4.2.3 y 4.2.6, hemos obtenido do nuevo
una .fllnci~ correlatlv~ exponencial. No obstante, lais realizaciones posibles
d8'1as fu,nc1onee aleatorias examl.nadas en estos tr~ ejemplos ~ienen un c.ar~cte1"
completa.mente dlforento. En el ejemplo 4.2.3 todu las reahzaeiones J>OSJbles
de la funCJn aleatorio. representan sinusoides do diJerentes Crecuencias, amplitudes y fas911 inciale.!!. En el ejemplo 4.2.6 todas laa realizaciones posibles de la
funci6.n aleatoria son fllJlCiones escalonadas. En el ejemplo dado todas las rea
llzllClooes ))Olllbles de la funcin ale11toria representan funciones dl!continuas
cuya for.ma se mueetra on la. fig. 4.2.9. En el ejemplo 4.2.3 la rapidez de c!t..

173

4.2. Eptra(l:a. mattmtlca g funt16n corrtlatiw

minuci6n de la !uncin cor relativa al crecer la magnitud absoluta de la d ilerencla de los argumcnt<>S, se determina por la m11gnitud a que caracteriza la gama
de fo~ valnres prictcamento po~ibles ile la frecuencia rlo oscllaci6n. E el ejemplo
aueorior la rapidez de disminuc in de la funcin correlaUva se determion c<>m1>lotamonte por la frecuencia media de los impulsos !" En este ejemplo la rapldoi
dij dismi nuciu d<l la fanr.in c<i rrelatlv no depende on .. b~oluto de lo. Crecuencia med in de l os impulsos v se determina
solamente por la constante
tillD.lpo del cir:;
~
cuit.o T. AS mos, los resulhdt>li de estos
:
Ir~ ejemplos muestran que unft misma fun:--J
:-. _
ci6n cnrrelAl.h-a puede corresponder a dife:
:
: 'i
rentes fu ndoues deat.<lrias. el carcter de las
1

: :
rc3llzadones posibles de las cuales es abso....... .___ __.;;:,__-+--'-'-~
1
lutamente distinto.
Q
1
A titul o de un ejercicio til, proponemos
que el loctor rc.~uelva por si mismo este problema para otros circuitos elctricos, por
ejc.mplo, para el caso en que (11 circuito
Fig. 4.2.9.
a tra,.s Jnl cual se de.scar~a el condensador
licuo 110 .Wlo una resistcnr.1a hmica R siao
tRrohln la induct1U1cia L . En el l timo c330 la h1nci6n correlativa de la corrienui que pasa por el clreuito representar el product.o de la [uncin exponendol amortiguarla por la uf\el6n peri6dfoa de la m&gnilud nbsnlul.Jl de la diferencia de los argumi'nt<s do la rorma

de

v :'

Ji (t, 1') ~Dt-ll-l'I [ C<'9 Wo (t- t')

+~

S()ll

J.

0Jo 11- t' 1

(4.2.44)

La funcin alentorla oxaminade en este ejemp lo repre8e11\a el as\ llamad o


efecto rlc grtlllaUa, corrfo nte de ruido engendrada on los circuilos elctricos
pnr el bombardeo rio lllectrones y otras partculas cargadas.

Los resultados obtenidos en los ejemplos an teriores muestran


que la funcin correlativa est lejos de ser una caracterstica completa
de la funcin aleatori a. En pnrticul ar, ella no determina de ningn
modo el carcter de las realizaciones posibles de la funcin alea toria. No obstante, para re~ol ver muchos problemas prcticos, el
conociruicnlo de la es11oranza matemtica y la funcin correlativa
de uno funcin aleatori a resulta ser suficiente.
Eu los captulos anterio!'es vimos que la ley normal de distribucin se deter mina completamente por los momentos de primer y
segu ndo orden de las magnitudes aleatorias. Por eso, conociendo
l a esperanza matemtica y l a funcin correlativa de una funcin
alea.loria normalmente repartida, se puede determin ar todas sus
densidades de probabilidad de cualesquiera rdenes. Ahor a bien,
parn unn funcin aleatoria normalmente repartida, son la esper anza
matemticn y la funcin correlativa las que determinan por co mpleto to<las lns caractersticas probahilstic11s de la misma. Pues to
que para determinar l a esperanza matemtica y la funcin corrolativa es suficiente conocer la densidad bidimensional de proba bilidad de la funcin aleatoria, dicha densidad es una car acterstica
completa de l a func in aleatoria normalmente rep artida.

174

Cap . 4 CararleristlcM de funclonu

ol~atorl11s

4.3. Propiedades de la fu11ci6n correlativa


De In definicin {4.2.6} do la funcin correlativa so deriva di rectamente que sta es simtrica:
K., (t , t') = Kx (t', t).
(li.3.1

Grficnmente esta propiedad significa (fig. 4.3.1) que en los puutos


simtrico.'! con respecto a 111 bisectriz del ngulo do coordenadas lo
funcin col't'e lativn tiene valores iguales. Esto quiere decir que In

Pig. 1,.3 .J .

Fg. 4.3.2.

superi cio que representa la funcin correlnliva es si1utrica con respecto 111 >!ano perpendicular al plano t, t' y que pasa por la bisectriz
mencionada.
La seguuda propiedad de la funcin correlativa .se deriva de la
propiedad (3.9.15) del 01omento de correlacin ; lo funcin, corr~Ja
tiva, cualesquiera que sean 1.os valores do los nrgnrne utos t, t', no
su1era en mdulo a la ra1. cuadrada del producto de los valores de
la dispersin <le la Iwiciu aleatoria, correspondentes a los valores
t y t del argumento:

1Kx (t, t') .,.;;: y~


D" -(
l)_D
_x_(t-') =V K.~ (t, t) K,, (t' , t').

(4.3.2)

Esto significa que la magnitud absoluta de la funcin correlativa


en cualquier punto A no puede ser mayor que l a media geomtrica
de sus val ore5en los puntos By C do la bisectriz del ngulo de coordenadns, obte nidos como res ultado de la interseccin de dicha bisectri7.
.con rectas trazadas desdo el punto A paralelomente a los ejes de
coordenadas (fig. 4.3.2).
Para cualquier funcin no aleatoria <p {t) liene lugor la desigualdad
b b

11 Kx (t, t')
(l

<p (t) cp (t') dt dt'

~ O.

(4.3.3)

Las funciones de dos variables que poseen esta propiedad se llao1an


~firifdas no negativas. Asi pues, la funcin correlativa de una funcin
aleatoria .es una .funcin determinada no negativa. En este caso, la
funcin Kx (t, t') puede tener valores negativos para ciertos valores
de los argumentos t, t', pero la integral (4.3.3) nunca ser negativa.

4:3. Propitdadet de /.a

funci11 corre/.aetva

17&

Para demostrar la desigualdad (4.3.3) sustituyamos en (4.3.3)


la expresin (4.2.6) de la funcin correlaiiva. Entonces obtendremos.
b

J=

JJK., (t, t')

q:i

(t) cp (t') dt dt' =

a "

JJM [X (t) X (t')l cp (t) cp (t') dt dt'.


"

(4.3.4)

o o
1

Pero la integral es el lmite de una secuencia de sumas. Segn el


t eorema de adicin de las esperanzas maiem~ticaS, la esperan:za mate..
mtica de la suma Siempre es igual a la suma de l as"esperiln?:aS ro:ate-'
mticas, es decir, el orden, de operaciones de adicin y de la. 5petailza matemtica siempre se puedo cambiar. Esto es valido para toda$
las sumas de una secuencia. Prcticamente esto siempre es vl-ido
tambin en el lmite. As pues, se puede cambiar el orden de operaciones de integracin y de esperanza matemtica. Cumpliendo esto
en (4.3.4), obtendremos

uJ
b

J = M

X (t) X (t') (p (t) cp (t') dt dt'J.

a a

Aqui la funcin subintegral se descompone en m ultiplicadores cada


uno de los cuales depende de una sola variable. En este caso, l a doble
integral puede ser sustituida por el producto de dos integrales.
Puesto que en lo sucesivo aplicaremos con frecuencia esta transformacin de l a doble integral. vamos a cumplirla detalladamente.
Sacando las funciones de la variable t' fuera del s igno de integral
con respecto a la variable t, obtendremos
b

J = lV/

,,

[J X~ (t') <r (t') {J X (t) tp (t) dt} dt'J.


a

"

Dado que los lmites de integracin a, b son constantes, la integral


con respecto a la variable t repre~enta una magnitud constu11te y puede ser sacada fuera del signo de la integral con respecto a t'.
J = i'rf [

Puesto que la
la variable de
una magnitud
tuyendo en la

JX (t) q (t) dt ) X (t') q (t') dt'] .


"

"

(4.3.5)

integral definida no depende de la designacin de


integracin, la segunda integral en (4.3.5) representa
que coincide con la primera integral. Por eso, sustisegunda integral l a vari able de integracin t' por la

Cap. !J Caracterstfras de funcio11.s aleatorias

17ti

variable t, obtendrenioH
J

~M

[{

JX (t) q;

(t)

dt}

2
].

(4.3.(i)

11

Es evidente tull est.a magnitud no puede sor negativa , lo que clemuesLrn ln validoz de la dosiguldad (4.::1.3).

Es cil tambin ver que Ja funcin correlativa no cambia, si


a .la 1111cin aletorin se le aade cualq1tier fllncin no alent.oria.
Cou otras palabras, dos funciones aleatorias cuya di'ferencia 11 0 es
aleatoria tienen una misma funcin correlativa. En efecto, si Y (t) =
= X (t) <p (t), entonces mu (t) = mx (t) cp (t) y Y" (t) ;;:: X" (t),
es decir, ls ) unciones aleatoria~ cent radas Y" y X coinciden. De
aqu, as como de la de!inicin (4.2.13), se desprende dircct.amente
qun las funciones correlativas de )as funciones aleatorins Y y X son
id..;ncame.ntc iguales una a otra, que es lo que se trataba do demostrar.
Luego, al muft plicar lll funcin aleatoria X (t) por la no aleator ia (r (t), la funcin correlativa se multiplica por <p (t) cp (t'). En
efecto , si Y (l) = <p (t) X (t), entonces m 0 (t) = 1p (t) mx (t), Yo (t) =
= <r (t) X (t) y
K 11 (t, t') = M [Y (t) Y (t')I = (P (t) cp (t'). M IX (t) X (t')I =
= q> (t) q (t') K,, (t, t'). (4.3. 7)

X:s liicil v\lr que las propiedades demostradas, salvo la (4.3. 7),
las posee tambin la funcin correlativa normada de la funcin alea
toria. Con ello, en virtud de que la funcin correlativa normada es
igual a la unidad para cualesquiera valores iguales de sus argumentos
t' = t (es decir, en la bisectriz del ngulo de coordenadas del plano
t, t'), la segunda propiedad de (4.3.2) para la funcin couelativa
normada da
(4.3.8)
1 R., (t, t') 1 ~ 1.
~sta desigualdad es tamb in un corolario d.recto de la propiedad
(.;l:9.?3) del coeficiente de correlacin.

4.4. Funcin correlativa recproca y sus propiedades

En muchos problemas prcticos se necesita examinar conjuntamente varias funciones aleatorias. Para la caracterstica conjunta
cmpleta de dos (o de un nmero mayor) fonciones aleatorias, es
necesario asignar tamhin, adems de las deosidades de probabilidad de cada una de ellas, todas las densidades de probabilidarl conjuntas de SW! valores siendo elegidos arbitrariamente los valores de
los argumentos. La ms simple de las densidades de probabilidad
conjuntas de dos funciones. aleatorias X (t) y Y (t) es la densidad

1-.4. Fu11d6n correlativa recproca g sus propiedades

177

bidimensional conjunta de probabilidad f 11 (.x, y; t, t') de sus valores


X (t) y Y (t), siendo arbitrariamente escogidos los valores de los
argumentos t, t' . Esta densidad de probabilidad depende de t y t'

como de los parmetros.


Para caracterizar la relacin de dos funciones, aleat.ori as X (t)
y Y (t), se usa generalmente la funcin correlat~va recproca .de las
mismas, la cual se determina como el m:omelito de correlacin dt>
los valor.es de estas dos funciones aleatorias, correspondientes. a
los valores elegidos arbitrariamente de los argumentos t y t'
Kxu (t, t') = .M {X" (t) Y (t)l.
(4.4 .1),

La funcin correl11tiva recproca es funcin correlativa d:e las vri!i.hles t y t'.

..
Si es conocida la densidad bidimensional conj.unta de'-p robabi
liclad f 11 (x, y; t, t') de las funciones aleatorias X ("t) y Y (t), su
funcin correlati va recproca se puede calcular por la frmula

....

Kxu(l, t') =

JJ
-(.'(>

{X-mx (t) ] [y-m 11 (t')lf11(x, y;

t, t')dxdy.

-C'IO

(4.4.2)

Sin embargo, en muchos problemas prcticos resulta posible calcular la funcin correlativa reciproca por procedimientos ms simpl(ls sin recurrir al clculo de la doble integral (4.4.2).
Si la funcin correlativa reciproca de las funciones aleatorias
X (t) y Y (t) no es i dnticamente igual a cero, entonces las funciones X (t} y Y (t) se llaman correlacionadas. Al contrario, si l a funcin correlativa recproca de dos funciones aleatorias es idnLicamente igual a cero, est.as. ltimas se denominan no correlacionadas.
Semejantemente a co.mo 80 dedujeron las propiedades de la func in correlativa, se demut1stran la8 siguientes propiedades de la
funcin correlativa reciproca.
Al permutar simultncament-0 los argumentos e ndices, la
funcin corrclatiYa recproca no cambia:
K:r.v (t, t') = Kux (t', t) .
(4.4.3)
Aqu se trata do dos funciones correlativas recprocas y la igualdad
signific11 que, 111 permutar los argumentos, una funcin correlativo
recproca pasa a otra funcin correlativa recproca de las mismas
funciones aleatorias tomadas en el orden inverso. Demos In intcrprotaciu geomtrica de esta propiedad. Para ello construyamos
dos superficies en:cl sistein<1 do coordenadas cartesianas ~. 'J. ~:
~ = K"Y (~, 1')),
~ = K 11 x (S, 1')).
(4.4.4)
Estas superficies representan las funciones correlativ11s recprocas
de 1M funciones alel\torias X {t) y Y (t') tomadas en diferentes rdc
12-0~:is

1i8

Cap. 4

Ca,-o.rtt!rfs lirn.~ d~

.functont& aleatarlns

nes. Tomemos dos puntos (t, t') y (t', t) simtricos con respecto a la
biiroctriz del ngulo de coordenadas. Cada una de las superficies
(4.4.4) es, en el caso general, no simtrica con relacin a la bisectriz
del ngulo de coordenadas. No obstante, la igualdad (4.4.3) muestra
que estas superficies representan una reflexin especular recproca
con res_pecto al plano que pasa por la bisectriz del ngulo de coordenadas s011 y el eje O~. As pues, las Z-coordenadas <le la primera
superficie en el punt.o (t, t') y de la segunda en el punto (t', t) son
iguales.
La segunda propiedad de la funcin correlativa rccpruna se
deduce de la desigualdad (3.9.15), Yiida para cualquier momento
de correl acin. De est a desigualdad se deduce que l a magnitud absoluta de la funcin correlativa reciproca de dos funciones aleatorfos
no puede ser mayor que la media geomtrica de )a13 dispersiones de
estas ltimas:
\ K :<; (t, t') I~ YDx (t) Du (t') =V K x (t, t) K11 (t' , t'). (4.4.5)
En el prrafo anterior fu.o demostrado que al aadir a la funci n
aleatoria cualquier funcin no aleatoria, la funcin aleatoria centrada no cambia. De aqu y de la definicin (4.4.1) se U.educe que
la funcin correlativa recproca de dos funciones aleatorias no cambia
al adicionar a estas ltimas funciones no aleatorias arbitrarias.
A veces, en vez de la funcin correlativa recproca, para caracterizar lo relacin ontre dos funciones aleatorias se usa la funcin
correlattva redproca normada que se determina como el coeficiente
de correlacin de los valores de estas dos funciones aleatorias, correspondientes a los valores elegidos arbitrariamente de sus argumentos:
H. (t t') _ Kx (t, t ')
K x11 (t, t')
4 46)
,.,, '
- y D.,(t)Dy(t')
VK,,(t , t)K y(t ' ,t')
0

'E s evidente que la funcin correlativa recproca normada pogee


todas las propiedades demostradas de las funciones correlativas
reciprocas, salvo 11\ desigualdad (4.4.5) que, en virt ud de (3. 9.23),
se sustituye por la desigualdad
IRxu(t, t') 1 ~ 1 .

(4.4.7)

Para la exposicin sucesiva necesitamos introducir todava-e]


momento inicial de .<egundo orden de dos funciones aleatorias
X (t) y ,Y (t), el cual se determina como el momento inicial mixto
de segundo orden de sus valores, siendo elegidos arbitrariamente los
valores de los argumentos t
t':

rxu (t, t') =M IX (t) Y (t')l.

(4.4.8)

En virtud de la frmula (3.9.13), el momento inicial recproco de


segundo orden se expresal por l as esperanzas matemticas de las

,.4. Fun<:in correlativa recp,.oca y tu proptdadts

179

funciones aleatorias X (t) y Y (t') y la funcin correlativa r.ecproca


de las mismas:
r.,v (t, t') = m,, (t) mv (t') K.,'11 (t, t').
(4.4.9)

Hemos determinado la funcin correlativa recproca y el momento


inicial recproco de segundo orden para las funciones aleatorias
reales. Eo virtud de la definicin (3. 7 .6) del momento de correlacin
de las magnitudes aleatorias complejas, l a funcin correlativa rec~
proca de dos funciones aleatorias complejas X (t) y Y (t) se determina por la frmula

K,,11 (t, t') = M [X (t) yo (t')J .


(4..:4.lO)
Por una frmula anloga se d'e termina: tambin el .momento "iniciar
recproco de las funciones al eatorias complejas X (t) y Y (t).
Ejemplo 4.4.l. Hallar la funcin correlativa rocproca de las

funcioo~s

aleatorias

"

"""1

v~I

X(I)=~ Uvfv(t), Y(t)=~ Uvgv(t),

(4.4.11)

donde U,, . . , U.,. son magnitudes aleatorias y ft, ... , !,.. g,, . . . , g.,. son ci<r
tas funciones completamente determinadas, en el caso general, complojas.
Las funcionos aleatorias X (t) y Y (t) son funciones lineales <le unas mismas
magnitudes aleatorias u,, . . ., Un. Por consiguiente, aplicando la frmula
(3.9.6) para el momento de correlacin de dos funciones lineales de las m11gnitudes aleatorias, obtendremos
n

K:cy(t, t')=

kvfv(t)g (t').

(4 .4.12)

\1,)1=1

do11de kv., es el momento de correlacin de l as magnitudt>s aleatorias


Uv, U., (v,
1, .. , n; kvv = Dxvl
Si, en el caso particular, las magnitudes u,. ... , Un no estn correlacionadas, entonces

n
Kx (1, t')= ~ I>00 f,(t) Kv(l ").
V=1

(4.4.13)

E jemplo 4.4.2. Hall ar la funcin correlativa recproca de las funciones

alt>atorias

X (t) = 'P (t, u . .... Un), y (t) = .;(t. u,, ' ... Un).
(4.4.14)
considernndo conocida la densidad de probabilidad de las n1:ignitudes aleittorias U ,. ., Up..
Conforme a la definicin general de la esperanza matemtica de una funcin arbitraria do las magnitudes aleatorias pod emos escribir
f,.y(t, I') =

j ... _.,.

<>(t, Ui. . . , Un)ij>(t',p, . . ,un)X

X f (u1, . , Un) du1 ... du,..


Luego, por la frmula (4.4.9), se puede calcular Kxr, (t, t').

(4.lo.15)

180

Ca,,. 4 Caratleristkas de f unciomi akatori<U

4.5. Atllcl6n de funciones aleatorias

Examinemos l a f1rnci6n aleatoria Z (t) que representa l a suma


de lns funciones aleatoriss X (t) y Y (t):
Z (t) = X (t) + Y (t).
(-1.5.1.)
Supongamos que son conocidas las esperanzas matemticas mx (f.),
mu (t). l11s funciones correl ativas Kx (t, t'), Ky (t, t') de l as magnitudes aleatorias X (t), Y (t) y su funcin correlativa recproca
Kx~ (t, t'). El problema consiste en hallar la esperanza matemtica
y la funci n correl ativa de la funcin aleatoria Z (t).
Le esperan.za matemtica de la funcin aleatoria Z (t) se determina dlrectamente por el teorema de ndicin de l as esperanzas
matemticas. Como resultado obtendremos
m, (t) ... m,, (t) + m 11 (t).
(4.fi.2)
Sustrayendo esta frmula d e (4.5.1), obtenemos l a relacin entre
las fun ciones aleatorias centradas
Z (t) = X (t) + Yo (t).
(4.5.3)
Aplicando esta frmula, hallamos que
Z (t) Z (t') = X (t) X (t') + Yo (t) Yo (t') +
+ X {t) Y (t') + Y (t) X (t').

(4.5.4)

De aqui, teniendo en consideracin l as definiciones (~.2.6) y (4.4.1)


de las funciones correlativa y correlativa recproca, obtendremos
la siguiente frmula para la funcin correlativa d e la funcin aleatorin Z:
K, (t, t') = K,, (t. t.') + K 11 (t, t') + K., 11 (t, t') + K 11x (t , t').
(4.5.5)
.rvirtud de la propiedad (4.4.3) de las funciones cor.rela tivas reciprocas~ la frmula (4.5.5) se puede escribir en l a forma

K,., (t, t') = K:r (t, t')

+ K 11 (t,

t')

+ Kx 11 (t,
+

t')

E,. 11 (t'. t).

(4.5.6)

Eu el caso particular, cuando las funciones aleatorias X y Y no


'e stn correlacionadas, K." 11 (t, t') = Kyx (t, t') ""' O y l a f6rmula
(4.5.6) tomo l a forma
K,., (t, t') = Kx (t, t') + Ky (t., t').
(4.5.7)
Ahora bien, la funcin correlativa de la su roa do las funciones aleatorias nocorrelacionadas es igual a la suma de l as funciones correlativas de los sumandos.

4.6 . D erlYJctrm de 1uia f11nrl611 altal or la

181

Las frmulas obt.enidas se hacen fcilmente extensivas a cualquier nmero de sumandos. La esperanza matemtica de la suma
de las funciones alea torias

" Xv (t),
Z (1) = ~

(4.5.8)

v~t

es igual a la suma de las esperanzas matemticas de los sumandos:


1\

M .(t)= ~ m,, (t).


'V=t

(4 .5.9)

La funci n correlativa de la suma es igual a la sma de 111s f nciones correlativas y de tod as las funciones correlativas .recprocas
de los sumandos:
n

!(, (t, t'j

= V, ~
K,, ,. (t, t'),
11~!
V

(4.5. 10)

donde Kx..,"' (t, t') es Ja (uncin correlatha reciproca de l as funciones aleatorias X" (t) y X 14 (t) [que coincide para I' = v con la correlativa Kx.., (t, t') de la fu ncin aleatoria X.., (t)J.
En el caso particu.lar en que las funciones aleato rias X 1 (t}, . . .
. . . , X,. (t) no estn correlacionadas, toda!! sus funciones correlativas reciprocas son iguales a cero y Ja frmul a (4.5.10) toma un a
forma ms sim ple

K ,(t, t') =

2:"

K,. (t. t').

v= I

(4.5.11)

4.6. Derivacin de una funcin aleatoria

Exami ne mos Ja funcin leatoria X (t), todas las realizaciones


posibles de la cual son funciones difereociables. Entonces la derivada
do In funcin aleatoria X (t)
Y 1 (t) =X' (t)

= ~,<'>

(li..6.1)

representar. la funcin aleatoria cuyas realizaciones posibles son


las deri vadas de las correspondientes realizaciones de la funcin
nleatoria X (t). Hallemos la esperanza mat.cmt.ica y la fu ncin
correlativa de la derivada Y 1 (t) suponiendo conocidas la esperanza
m11tomtica y la funcin correla tiva de la funcin aleatori a X (t).
Como para cualquier t fijo la magnitud aleatoria
-X (t-1- 61) - X (1)
Y " ()
t t:.T
rep resenta la combinacin linel de las magnitudes aleatorius
X (t + 6.t) y X (t), ent onces, aplicando In frmula (3.8.9), ohten-

Co11. 1 Coroctuillca.s de /unclont~ akatori<U

182
dteDtOS

De aqui, al pasar al limite para lit-+ oo, suponiendo, desde luego,


que este lhnit~ existe, obtendremos

niu, (t) =

m~ (1).

(4.(i.2)

As pues, la esperanza matemtica de la derivada de una funcin


aleatoria es igual a la derivada de su esperanza matemtica. Con
otras palabras, las operaciones de derivacin y de esperanza mate
miitlca se puede cambiar de lugares.
Pasamos ahora a la dete rminacin de Ja funcin correlativa de
la derivada Y 1 (t) de la funcin aleatori a X (t). Conforme a la deter
minacin (4.2.6) teuemos que
K

11

(1 t')=M[dXO(t) ~l=
'

dt

dt'

8
= M [ 81 ;,, {X(t) X(t')}] = 8:;,. M IX(t)X(t' )J.

o bien
K

111 (t,

,
iftK,. (1, t')
t) =
IJt 81'

(4.6.3)

Ahora bien , la funcin correlati va de la derivada de la funcin


aleatoria es igual a la segu nda deri vada mixta de su funcin correlativa.
De un modo semejante hallamos la funcin correlativa reciproca de la funcin aleatoria X (t) y de su derivada Y 1 (t). De acuerdo
con la_ definicin (4.4.1) tenemos que

K,,, (t . t') = M [X (t) dX;~t')] =


= M

[;.{X (t) X (t')J] = 8~. M [X (t) X (t')J

o bien

Kx~, (t t') = oKxIJt(t,' t'J

(4.6A)

As pues, la funcin correlativa recproca de la funcin aleatoria


X (t) y de su derivada es igual a l a derivada parcial de la funcin
correlat iva de la funcin aleatoria X (t) con respecto al segundo argumento.
En virtud de (4.6.4), la frmula (4.6.3) se puede t ambin escribir en la forma

Kv, (t, t')

(4.6.5)

.~ ~.6.

Dertvaci6rt de 11na funcl611 alratoria

188

De wi modo completamente anlogo se puede hallar la esperanza


matemtica y la funcin correlativa de la derivada de cualquier
orden p de la funcin aleatoria X (t):
Yp (t) =-= X<P> (t).
Como resultado obtendremos l as frmulas siguientes para la espe
r anza matemtica y la funcin correlativa de la derivada de orden
p de la funcin aleatoria X (t):

(4.G.6)

m 11P (t) =- m~ (t),


(t t') IPPK,, (1, I ')
uP

(}/P(}'JI

(4.6.7)

De un modo semejante se deduce la frmula para la funcin correlativa reciproca de las derivadas de los rdenes p y q dida !unci!)
ale11tori11 X (t):
K
(t t') = a1>+0K,, (t. t'l
(4.G.8)
UpVq

'

qtJI 8t'q

F.,jcmplo 4.G. l. Hnllar In e.'perlinza matom&ticn y In lunrin corrcluliv11


de la deri vad~ de la funcicn alentoda X (t), si

111x(t)=a+bt+ct2,

1].

14 6 9
>
0
Por In frnmla (4.6.2) hRllumos la csporaniu roatcml\Licu de In derivuda
Y, (t) - X' (1):
(1)=m;. (t)=b+2ct.
(4.6.i O)

Kx (t,

t')-oe-"' lt-'I [ cos Wo (t-t')+ :

S-On>o 11- 1

"'u,

Parn hallar la fm1c.i611 corrcl atv~ de 111 rlerivadal dotcrn1in arnos primeramente
la fonci6n corrclal\'a rcclproc.a de l a fuocin 11 cutoria X (t) y su 1IOl'ivnda.
Aplicand() la frm11la (4.G.4), obteudre mos:
1) si 1'

>

Kxu, (1, t ') = D

0~,

. -l1 (l'-I) [

cosro0 (1' - 1)+ :

sen ro0 (t-t')

- -D at~Cll3
:l) sl t'

<

Kxy (1, t')=D


1

J} =-

,-a(l'-l) S(ID

Cllo (t' - t);

0~,

{ e - a(l-I') [cos<a>0 (t-t')+


-D

son6l0

+<a>~

(t-1')]} =

e- 11<1- 1'> sen 6>o (1 - t' ).

(l)o

Do oslc wooo, para cuolcsquiera t y t'

K,,~

(1, t') = D etU + c.i! e- 4 11-1'1sen6>o(t-t'),


ClllJ

(4.6.H)

Ah<?ra :<e puede deLerm nar por la frmula (4.6.5) la funcin c<>frelativn do la
derivada Y, (t) - X' (t); como resultado obtondremos

184

Cap. d Caraetert.stica.~ de functonc$ alfatortas


1) si t

<

K 11 (t, z') =D (a.2 + wa> e- a Cl' - t) [cos


1

2) si t

> l

K 111 (t, t')= D (CT.2 .... ro~)

w0 (t-t ' )+2- seuw0 (t - t')] ;


wo

cos 000 (t--t') -

c-a<l- t ' ) [

~ sen w0 (t-t')

J.

Todns osta.~ frmulas se pued~11 reducir a una sola frmu)Q vlida 1n1ra Lodos
los t y 1':
K 11 (t, t')=D (a2
1

+ ooi) e- a Jl - 1'1 [cos w0 (t-t ')-~


sen ~>o 1t-t'1].
Wo

(4.6.12)

};jcmplo 4.6.2 . Hallar In CS(Jeraoza matemtica y la fu ncin correlati va


de lu derivada de In funcin aleatoria X (t), si
m,. ( t) a O,
Kx (t , t')
De-a. J l - t' l.
(4.ll.13)

En virtud do la frmula (4.tl.2) la ()Sperania matemtic a de la dcdvada de la


func.in aleatoria 1ruo se exam ina es idntlc anienle igual a cero. La frmu-

la (4 .6.4) dn
si t < t'

.(t t')= D..!!_ e- (t'-- t) = - Dr;.e-"" <t'-1) }


'
lJt '
'

X&/1

s i t'

<t

(4.6.14 )

t t')= lJ.!!_e-a<t- l')_D~e-a(l - t')

K XUt < '

'dt '

v.

As yueo;, la uncin correlativa rec iproca de Ja funcin a leatoria X (t) y de


su derivada tiene en este caso discontlnuldad do primer gnero pa1a t=t' con
un salto igual a 2Da. (fig. 4.6.1). Es fcil comprender que restando de os tu
funci n la funcin escnlonada unitaria 1 (t-t') multiplicada por 2Dr.t., obtendremos una funcin continua que designareinoo
por f (t, t'). Ahorit bien, la funcin correlativa
recp1oca de la funcin aleatoria X ( t) y de su
derivada puede ser presentada en esto caso por
la frmula
K,.

Fig.

111

(t, t')

= f (t , t ')-l- 2 Da1 (t - t').

(4. o.1.5)

donde / (1, t') es una Iuncin continua que se determina por la frmula
,
{ 2Det.-Da.e-a (t'-t) s i t < t'.
/ (t, t ) =
(4. G.16)
DCT.e-o. Cl - I')
si t>t'.

1,.1).1 .

Al derivar la fnnula (4.6.15) con respecto a 1, teniendo en cuenta (4.6.16)


y ionando:en consid.eracin :que la dorivada de la func in escalonada unitaria
delta,. 9.~toncJ~mos en virtud de (4.6.5)

~s .. ftnci~n.

(1, t')=

of~, '2..+2DCT.1' (t-t' )=-Dr;.ie-at-t'l+ 2Dw5 (t-t' ). (4.6.17)


ut

Vemos que )a func;in. correlativa de la ~erivada de I~ funcin aJ .,ator}n


X (t} contiene en este caso un sumando proplltc10nal a Ja fo oc16n 1lelta 6 (t - t ).
P.or cou~iguiento, la di$persi6n de la derivada en ~J caso dado es infinita:
D 111 (t)

K 11, (t, t)

-Da-2

+ 2Da.() (0) =

eo.

4.7. / n/traci6n dt una /uru:ln

al~a/orla

.Esto es fc c.omprendcr yo quo l a !nocin correlativa de la unci6n alcntoria


X (t) 110 iien~ en este caso lo seguudn rlcrivada mixta. en S()ntido comn. para
1' ... 1 y, por lu tnn to , la fullcin X(/) uo es diTeronciobl11 en el ~ntido corricn
te. Pnr ~so Qn In expresin de IR fund6n correlativa du 111 tlorivada ha ent,rndo
prcclsa mlmte la funcin rleltu.

4.7 . Integ racin de una funcin aleatoria


Exam inemos la funcin aleatoria de la variable s:
b

Y (s =

Jg (s, t) X (t) dt,

(4.7.i )

donlle g (s, t) es la funci n (no aleat oria) asig nada. Supongamos


que son conocidas m., (t) y !\." {t, t') y hnlJemo~ la esper an zn qti.te"
mtica my (s) y la fun cin correlat iva Ku (s, s') de l fu nciii' lilen
tori a Y (s), as como RU funcin correlativa recl11roca con X (t).
Dado que, segn lo demostrndo en el 4.3, lus o peraciones de
esperanT.u matemtica e integracin se pueden permutar, entonces
"

Jg(s,t)M [X (t)lclt,
b

;lf[J'(s)l = M[J g(s, t)X{t)dt] =


u

o bien
m,1 (.~) --"'

Jg

(s , t) m,. (t) dt.

(4.7.2)'

Estn frmula es la gencralizncin ele Ja frmula (3.8.U) para la espcrnnza matemtica de In fu ncin lineal de mag11itmlcs a leatori11:<
corrientes.
Luego, s ustrayendo (4.7.2.) 1le (4.7.1), o btemlrt'mos

}' (.~) =

/>

Jg (s, t) X (t) dt .
n

Segn Ja (lefinicin de la funcin correlntiYu (lo .2.) tenemos

K11 (s, .~') = M [Y (s) Y1 (s') ] =

I (s' ,

r.

=M

g (.<, t} X (t) di

M' [ .\

t') X (t') di']~

Jg {s. t) g (s' , t' ) X (1) X (t') dt dt' J=

n ''

b b

JJg (s. t) g (s', t') M [X (t) X (t')l di di.'


" "

i/36

Cap . 4 Caractersticas de. ju11cinnes at.:alorias

o l>ie11

Kv(s, s')~

JJg(s , t)J((s' , t')K ,.. (t,t')dtdt' .

De un modo anlogo sti puedu ob'Lentir la siguiente frmu la para


Ja funcin correlativa recproca Kxv (t, s) de la funcin aleat<iria
X (t) y l a integral (4.7.1) de ella:
(

K .Ty (t, s) =

Jg (s, t') !(., (t. , t') dt' .

(4.7A}

l~n la prctica es suficiente 11 veces hallar la dispersin de l1;1


integral de la funcin aleatoria. Como la dispersin de la funcin
aleatoria es igual al valor de su funcin correlativa, para iguales
valores do los argumentos, suioniendo que en (<~.7 .3) s' -= s, oblcndl'ernos
b

Du (s)

= Ky (s, s) =

.~

Jg (s, t) g (s , t') K x (t, t') dt dt'.

(11. 7.5)

a a

De cstn rmuln se ve que, }llHa c11Jcul ar la dispersin de In i11togral


de la funcin aleatoria, es necesario conocer la funcin correlativa
de In funcin subintcgra! .
Vemos que resulta ser suficiente el conocimiento de la esperanza
matemtica y de la funcin correlativa para realizar sobre las funciones aleatorias las operaciones elementales del anlisis: la deriva-cin e integracin de las fuuciones aleatorias, as corno lus operaciones lineales del Algcbra.
EjP.mplo 4.7. t. Hall&r ln csperanz11 mntorntica y lu luucin correlativa
de la integral de la funcin aloatoria
Y,() =

X (t) dt,

{4.7.6)

:si

mx(l)=a-1-bt,
}
K,, (1, t')=D-'11-l'I

(4.7.7)

En este caso la funcin g (s, t} es igl!al a la uuidad en el intervalo (O, s) y


.a cero en el intervalo (s, oo). La frmula (4.7.2) da
(4.7.8)

!1..7. lnt.Brt1cin th una funci61l aleafora

La frmula (4.7.3) para la funcin correlativa cuando

K 11 (s, 1')=

' '

K,.(t, t')dt dt'=D

'

~ ~

.-o:

'

(l-I')

<

187
r' o frece

dtdt'=

=D} di[) ,-a(l- t'ldt'+ J0-a(l'-l)dt'] =


=D

[ 1_ 0 -at
--et

~
o

-a<'-ll-t] dt=
et

Para hallar la expresin de la funcin cnrrelativa cuando r > l, e!! sulir.ient.c .


en virlud de la propiedad de la si.metrla de la funcin correlativa, permutar los
argumentos t y s'. Como r~ultado, parn todos los : y', la !uncin correlativa
de lo int egral de la funcin aleatoria X (1) so e~prc~art por la frmula
K 11 (s,

')= ~ [2ct mio (s, t ')-1+- ' +.,-cu _ .,-al-'IJ, (4.7.9)

donde m!n (s, s') es el menor de los nmeros s, s'. La dlspc1'Si6n de la integral
de la funcin alcMoria X (t) ee determina por la frmul a obtenida cu andn

s' = 1:

(U.t)
Ejemplo 4.7 .2. Hallar la csperanu matemtica y la desviBcin cuadrtica
media de la deriva del groscojJio {t) bajo la i nfluencia del momento olo.torio
hf (1) durante el tiempo t si l a esperanza matemtica de este momento os con.-;tant~ e igual a m, mientras ue

(4.7.11)

Hac iendo la suposicin, corriente en la teora aproximada do los giros.:opios. de que la direccin del vector del momento cintico del giroscopio coincide
con la del eje de ~u rotor rocordando que, en virtud de unaley conocid& de l a
Mecnica , la velocidad de extremo del vector del momento cintico es Igual al
momento de las fuerzas que actan sobre el giroscopio, podemos escribir

9(1)=

! \

M("t)dT,

(4.7.12)

donde JT es el momento cintlco del giroscopio. Comparando esta [rmuJa con


(4.7.1), vemos que la funcin B (t, T) en esto caso os igual a 1/H cuando O.;;; TE;;
<; t y a cero cuando-.> t. En virtud de las frmulas (4.7.2) y (4.7.5), la espe-

188

Cap. 4 Caracleri.<ticas de funcione altalurlas

ranza matemtica y la dispersin <lel ngulo de deriva a., iiroscopio O (t) sou:
t

1
me(1)=7T

mt
Jr mdt=--

(4.7.13).

Do(l)=~a

1 1

JJ[(

111

('<, T')d.TdT' =

o o
1

=.17~

fz
1

'

J\

e-"' l'<-<'lp+a -r-'t'IJd'td't' =

'(

dT{J e-a (T-t'l li -!-a('t-T')]dt'+

1 J
o

= ~

+ J c-et(l'-T) li+a(T'-T)) di:'}=


'

[i:e-cn + (t-'t)e-<1-l d't=

J~~(i-t-" 1 -aee- 1 ).

(4.7.14)

Estas', frmulas muestran que la derivn sistemtica del giroscopio bajo In accin do la com ponente constante del momento crece proporcionalmente al tiempo y la desviacin cuadrtica media del ngulo do deriva del giroscopio, baje>
el efecto de la componente aleatoria <lel momento, tiendo a la magnitud constante '1.D/FPa. Cuando m = 10 Ncm, D = 210-41\-. . cm", H = 2 Ncm, a.=
= 0,5 r', la der iva sistemtica del giroscopio constituir, on vir tud de la
frmula (4.7.13), aproximadamente 52' <luranto 5 mio y el valor limite de la
desviacin cuadrtica media de la deriva del ~iroscopio, en virtud de la fr
mula (4.7.14), es aproximadamente igual a 1"9.

.4 8. Secuencias aleatorias. Procesos aleatorios


mark.ovianos
Los valores de la funcin aleatoria en la serie discreta de los
fij9s 111 t2 , ., ~n forman una secuencia aleatoria X, =
:.. X (t,) (r = 1, 2, ... ). Es evidente que el trmino arbitrario
de la secuencia aleatoria X, se puede considerar como funcin alea(ria de su nmero, es decir, dl argumento ,. representado por un
l\rn~~o entero y_, de ~t~ modo, no examinar el argumento t.
. S.i el nmero de valores del argumento t, es finito, los valores
correspondientes de la funcin aleatoria forman una secuencia alea:..
t:oi'ia .f inita. Los trminos de la secuencia aleatoria fa.ita se pueden
consid'erar como componentes de un vector aleatorio. Por consiguiente, para las secuencias aleatorias finitas es vlida por completo la
te.or.a de vectores aleatorios expuesta en el capt ulo anterior. Si el
nmero de valores del argumento t, es infinito, los valores correspondientes de la funcin aleatoria forman una secuencia aleatoria
infinita. La secuencia de valores d1l argumento {t,} puede irse a la
infinidad por el eje t a un lado cualquiera (positivo o negativo)
o a ambos lados. En el ltimo caso con los valores t, del argumento
'[i.1,1,ilt9s

ii

4.8. Secutncias aleatorias. Procesos aleatorins

mark1>11ia11~x

.t 89

t se confrontan todos los n6meros enteros desde - oc basta +oc.


En lo sucesivo examinaremos -siempre, para que el examen tenga
un carcter general, las secuencias aleator-ias infini:tas a ambos lado's.
A veces en los problemas aplicativos l a secuencia aleatoria se
llama funcin aleatoria enrejada y el argumento, representado .. por
nmeros enteros, de tal funcin aleatoria se toma entre corchetes
para diferenciarlo del argumento continuamente variable: X, .,;,;
= X [r] (r = O, 2 ...).
L a caracterst ica. probabilstica completa de una secuencia ale!!_toria es la secuencia de leyes de distribucin de.sus tnnineis toma
<los uno a uno, dos a dos, t res a tres, etc.

La secuencia aleatoria se considera normalmente repartida-,. si


sus leyes de distribucin de t odos los rdenes son nor.males.
,;:
Limitndose a los moment os de pr imer y segundo orden, se
puede caracterizar la secuencia aleatoria por su esperanza matemt ica y su funcin correlativa.
La esperanza matemtica de una secuencia aleatoria es, evidentemente, una secuencia de nmeros que representan l as esperanzas
matcmtic:is de los trmi nos correspondi ent~s de la secuencia aleatoria:
111;= 1\flXr]=M[X[tr)I (r=O , 1 , 2, .. . ). (4.8.1)
La funcin correlativa de una secuencia aleatoria representa el
momento de correlacin de dos trminos de esta secuencia elegidos
arbitrari nme>nt.e, considerado como funcin de los nmeros de los
trminos mencionados:
k~ = M I X~X~J =il{X(t,)X(t,)J

(r, s=O, 1, 2, ... ).


(4.8.2)
Ejemplo 1,.8.t . Los valores de la funcin al11toria X ( t) t.cu f!S(l~rauia

m11t<:ni1llca y luocin correlativa

mx=a+bx, K,. (t, t ' )= De-a ll-t'I


(4.8.3)
del a1gnmcuto t, = r A (r = O, 1, 2, .. .)
X, co11 la ospcra11za matemtica

i~ra lo~ v~lorns cqului~tanles


orman la s~cucncia aleatoria

m;=a+brA

(r=O, 1, 2, ... )

(l.. 8.4)

y la furn;in correlativa

K~.=Dgl-I ,

q=e - at>. .

(4.8.5)

El tipo Dls simple de secuencia aleatoria es la de magnitudes


aleatorias independientes. Para tal secuencia aleatoria la funcin
correlativa es igual a la dispersin del trmino correspondiente de
in secuencia, siendo iguales los valores de los argumentos (r = s),
y es igual a cero si los argumentos tienen diferentes valores (r =t= s).
En cuanto a l a simplicidad, el siguiente tipo de secuencias
aleatorias sern tales secuencias en las que la dependencia entro

t llO

Cap. 4 Caratr!sUea d1 /u11tlonc alta/orlar

los trminos parece extenderse slo a un nmero pequeo de trminos vecin os. Tales secuencias aleatorias se llaman cadenas markovianas. Ahora vamos a dar una deJlnicl6n exacta de las cadenas
markovianas.
L a secuencia aleatoria {X,} se denomina cadena markoviana
simple, si la ley cond icional de distribucin de cada trmino de la
secuencia X, con respecto a los trminos anteriores X,_ 1,
. . . , X,_n, para cualquiera n > 1, depende solamente del valor
que tomo el trmino precedente de la secuencia X , _1 As( pues, la
secuencia aleatoria es una cadena markoviana simple, si la densidad
condicional de probabilidad de cada uno de sus trm inos X, coo
respecto n los trminos anteriores X , ." .. ., Xr-n> para cualquiera
n > 1, es idnticamente igual a la rlensidad condicional de probabili<latl X, con respecto a X,_1:

/, (z, 1z,_, ... , :e,_,.)

= f, (z, 1z,_1)

(11 = 2, 3, ...).
(4.8.6)

Ln seeuencia aleatoria {X,} se ll ama cadma marko11iana compuesta


de orden l, si 11.1 ley condiciona.! de d istribucin de cada trmino de la
secuencia X, con respecto a los trminos precedentes Xr-1> ...
. . . , X,_n, para cualquiera n > l, depende solamente de los valo
res <ue tomon l de los trminos preccdeutes X,_, ... , X,_ 1, es
decir,

J, (x,

1 :t'r .. lt
G

/,

X r -h X r- l - H ., Xr-n} a

(x, 1Z r - 1>

:e,_) (n = l

+ 1, l + 2,

... ).
(4.8.7)

Ejemplo 4.8.2. Examinemos la socucncla de experimentos independienlcs


en e-0nd1eiones Iguales. Sea X, el nmero de veces que ,,.. produce cierto acontecimiento A al realizar la r-sima prueba y, , la probabilidad de que se pMduzca
el atontecimiento A en cada prueba. Bs ev1dent.e quo la secuencia X., Xz, . .,
. . . , X., . . es la secuencia de magnitudes alutorlas independientes con la
esperanza matemtica constante
= p y la funcin correlativa k, = pq,
= 'O cuando .:. r (vasa el e'emplo 3.9.t).
Ejemplo 4.8.3. La secuencia a eatoria normalmente repartida {X, con la
lunei6u correlativa k~, = Dq l r- I representa una cadena roarkoviana si in ple.
Observemo.s, para l a demostracin, que la magnitud aleatoria V, = X, - qX,.1
no deicod de los ro1<gnitudes aleatorias X,_,, X,.2 , En efecto, para cualquiera 1 < r

m:

k:,

M[V~x:1=M IM~x:-qM [X~-1x!1 = Dq,_.-qDq1 - 1

v,

-=o

(4.8.8)

Gil decir,
y X, no estn correlacionadas p&ra cualquina $ < r. Pero como
la distribucin conjunta de 183 roagnitudes F,. X, , , .. , X, es oormal, entonces, de lo demostrado en el 3.H. se deduce que I~ maqoltu:t'v, no dependo del
conjunto de magnit udes X , , , X,~ para cua lesquiera '" .. ., ~ < r. Por
1

.~

H)t

4 .8. Sectumcla. altatorias. Proceso. ale.atorlos markor.'ianos

consiguiente, la densidad con<licional de prpbabil idad <le la inagni.tud aleatoria


l'r con respecto a las magnitudes X,.,, ... , Xr-n para cunlquier n, coinc.id&
e.on su clensid a<l inconrlicional rle probahilidad:
g (u, 1x, ., ... , x,.,,) = g (11,).
(4.8.9)
Pa.rn hallar la de11Siclad condiciona.1 de probabilidad de la magnitud aleatoria.
X, con respecto a X,." .. ., Xr-n observemos que, al ser 'fijo el valor x,. 1
<le In magnitud X,_,, la magnitud aletoria X, representa la funcin lineal dela magn itud aJcntoria V, :
X,= Vr
gr,_,.
(4.8:10)

Por lo tant.o, para haUar la densidad condicional de probabilidad bu$cada de lo


magnitud X,, se puede aplicar fo frmul a (3 .3.12} deducida en el ejemplo 3.~.1.
Entonces , teniendo en cuenta quo eu el caso dado = :r:,, :r:
a
1, b =
= qx,. 1 obtendremo
f (x, 1
Xr -nl = g (x, - qx,.,).
(4.8.11')

= "" =

:z,_,, ... ,

De aqul resul ta <lireclamente que la densidad cotulicional .da probabilidad' ..do.


la magnitud X, con resiceto a X, ., .. ., Xr-n depende solameritil del y'q lor
1 de la .magnit11rl X,_, y no derende de los valores de las magnitudes X,. 2, . : .
. . , X r-n cualquiera que sea n. Est.o es lo que demuestra que 111 ~ec1rnnch1 aleAtoria considerada repre~entn 111111 cadena markoviM1a s impl('.
Le dejamos al lector qnc por ~i mismo termino el eiem11lo y obtenga l a expresin definith'a 1le la densidad cnr1dicional de probal1ilidad nomwl do la
magnitud aluatoria X r con respecto a Xr-t

x,_

La cadena markoviann simple se llama frecuentemente proceso


aleatorio markoviano con tiempo discreto. Tal proceso aleiitorio se
caracteriza completamente por } dcnsidnd bid imensional de iirobabilidad, es docir, por la densidad conjunta de probabilidad de dos
cualesquiera <le sus trminos. En efecto, conociendo la densidad
bidimensional de probabilidad de un proceso aleatorio, so puede
hallar, por la frmula (4.1.1), su densidad unid imensional de probabilidad y la densidad cono icional de probabilidad f (x, 1x, _1) ele
cu.ilquicr trmino de l u secuencia con respecto al prccedento, llamada densidad de probabilidad del paso del proceso a leo torio nwrkovinno:

f (:e
r

) = / , (r,_L, .r,) =

r- 1

Ji

(x, _ ,)

, (r ,..,

x,)

(/i.S. l'.!)

S {2 (r.,_, , :r:,) dx,


- oo

Luego, la densidad conjunta de probabilidad de cualquier nmero


de ttmioos de la secuencia se determina por la frmula

ln+t

(Xr -n . .,

x,_., x,) =Is (Xr-n) I (Xr-n+ 1Xr -n)


.. I

...

(x, 1x,. 1).

(4.8.'13}

La J1ocin de proceso aleatorio markoviano se puede extender


tambin a l as funciones aleatorias de un argumento escalar continuamente variable. Precisamente la funcin aleatoria de argumento
escalar X (t) es la que se denomina proceso aleatorio markoviano

:siompre que sus


t 1 < t 2 < ... <

val ores,

cualesquiera

qu11

sean

los valores
rnnrkovia-

t,, del argumento t, forincm una cadena

ua simple.

E jl.'mplo 4.t!.4. La lo11ciu alcutoria JtOt"lliulm cnto r~1arthl11 c<in la ruocin


corrolati va Kx (t, t') = ve-o. J l - I' 1 representa un pro~iso aleatori o lllRrkllviano. Hemos domnstra.do antorlormente, en el ojcmplo 4.8.3, que los v1<loros
do esta !uncin aleatoria, para cualesquiera valmos equidist1rnt os <lel argumeuln,
forman una cadena markoviauu. gimple. Do un mouo ab!l<>lutamcntc anlogo ~
d emuostra que, cualesquiera 1ue saan Los valores, a.rbitr:uamentc elegidos, del
argumento 1, < to < ... < In los valores correspondientes de la funcin
aleator io. X (11), , X (tnl forman una cadooa markoviana simple.

CAPITULO 5

Funciones aleatorias estacionarias

5.1. Definicin y propiedades principales


de las funciones aleatorias estacionarias

Generalmente se llaman estacionarios a tales. procesos y objetos


cuyas caractersticas determinad as no dependen del tiempo de obset~
vacin, es decir, no cambian al decalar arbi trariamen~e el tieqpo
(son invariantes con l."especto a cualesquiera d'ecalajes del tiempo).
De acuerdo con lo dicho, se denomina estacionaria a una. funcin
aleatoria X (t) si las determinadas caractersticas probabilsticas
de la funcin a leatoria X (t
ll.), cualquiera que sea ll, coinciden
idnticamente COll las caractersticas correspondientes de la X (/.).
Es evidente que la esperanza matemtica y l a dispersin de la
funcin aleatoria estacionaria son constantes y su funcin correlativa depende solamente de l a diferencia de los argmuntos l - t' .
En efecto, segn la definicin general de la estacionaritlad, la esperanza matemtica y la funcin correlativa de la funcin aleatoria
est,ncio11ari a X (t) sntisfnccn las c.ondiciones

(t) ==: mx (t
Kx (t, t') = K ,,(t
mx

cualquiera que sea

ll.),

+ ll.,

t'

+ L\)

(5.1.1)
(5.i.2)

Poniendo en (5.1.1) L\ = - l , obt.endrcnios


mx (t) =m"' (O)= const..
(5.1.3)

/!,,.

Poniendo en (5.1 .2) il = - t', obtendremos


K" (t, t') = Kx (t -

(f>.1.4)

t', 0).

La dispersin de la funcin aleatoria X (t) os igual al valor de su


funcin correlativa cuando t' = t. Por eso, tle (5.1.4) se deduce que
Dx (t) =Kx (t, t) = Kx (O, O)= Dx (O)=

cons~ .

(5.1 .5)

Designando la funcin de una variable t - t' en el sogundo


micDlbro de l a igualdad (5.1.4) por k,, (t - t'), podemos escribir
K" (t, t'} = k,. (t -

t' ) = kx ('t).

't

= t - t' .

(5.1.6)

Ahora bien, si la funci11 aleatoria X (t) es estacionaria, entonces, dondequiera que elijamos un intervalo 't de longitud dada en el
eje de la variable independiente t, loa valores de la funcin aleato13- 0~38

194

Cap. 5 Pu11tln"',$ aleatori1 datlonarla

X (t) tienen en los extremos de este intervalo un mismo momento


dn correlacin k., (T).
Para tocios los problemas prcticos en los que se trata slo co n
momento;; 1le los dos primeros rdenes (esparnnzas materruhicas
y f1.rnciones correlativas), bastn la constancia de la esJeranza matemlica y la de1)endencio de la funcin de conelacin slo de 1i:t diferencia de los argumentos para considerar est acionari a a una u11ci6n
alcaLoria. Por eso, l o~ funciones aleatorias cuyas esperanzas matem lici.s son consl onte1< y las funciones correlativas dependen slo
de la tliierencia de los argumentos se llaman estacicnarias en el
smtldo amplio. En aquellos casos en que se trata de otras caractersticos de la funcin alentoria, l a estacionarid ad en el amplio sentido
no P.S suficiente. Es 11ecesario exigir quti todas las caracterstiC11!!
de la funcin aleatoria que uos interesan sea n invitriantel; con repecto
a los decalajes arbitr llrios a lo largo del eje de Ju variable indeienditmle para quo se pueda con~ide1ar estacionaria dicha nuignitud.
A~ pues, en los problemas prcticos tenemos que encontrarnos con
diferente grado de estacionaridad de l as funciones aleatorias en
depe11dencia de cules son las caract"rsticas probabilst.icas que nos
inleresan. Las funciones nleatorialcl pueden :!er estacfonarias ten
mayor o menor grndot. La estacionaridad en el sentido amplio representa el tipo ms simple de estacionarid11d. La exigencia de estacion11ridad en el seuticlo umplio impone a una funcin aleatoria l11s
roillimas limitaciones. Otro caso extremo representa J.a estacionuridnd completa o la estaclonartdad en el se11tdo estricto cu11ndo toda:i
l11s cnrnctersticas probnbilsticas de fa !uncin alcaLoria, sin exclus in ninguna, son invariantes con respect o a los decalaje.s arbitrarios por el eje de In variable independ ienro. La funcin ni ca Lo ria
X (t) se denomina estacionaria en el sentido estricto, si todas las
Jeytl.'! 1le 1listribuci11 de todos los rdenes iosil>lcs de la funci<'>n
11hi11torin X (l
L\), cunlqui era quo sea 6, coincid en idnticAme11to 1:011 lns corrci1pondientes leyes de 1listribuchn de ln Cu11cin
ale~toria X (t).
A
continua cin, ni balilnr <le la!! [unciones aleatorius
l!Stacionarias, siempre tendremos en cuenta slo fas funciones aletorias estacionarias en el sentido amplio. Por eso, para obreviur,
llamaremos es.tacionori11s 11 tales funciones alontorias sin sealar que
la cstacionarii:lad se enti ende siempre en el sen tido amplio.
Segn la definicin dada, Ja funcin aleatoria con esperan?.o
matomtica varinblo es no estacionaria incluso si la funcin correl ativ a de la misma depende slo de la diferencia de los argumentos.
Sin embargo, tal no cstacionaridad es, eviclentemcnto, no esencial ,
puest o que la funcin aleatoria cent.rada X" (t) = X (t) - m" (t)
es estacionaria siempre que la funcin correl11tiva de la funcin
alen toria X (t) dependa slo de la diferencia de Jos argumentos.
ri~

5 .J. Dtftntctn y propttdade.

prtn~tpal11

195

Como la funci n correlativa de cualqu ier funcin aleatoria es


simtrica, es decir, no cambia de valor al permutar los valores de l os.
argumentos, entonces l \l. funcin correlativa de una funcin al eatori a
t?Stacionaria satisface la condicin
k,. (t' - t) = k., (t - t')
o bien
(5.1. 7)

As pues, la funcin

correla~iva

de una {uncin aleatoria estacionaria

es funcin par de la dilerencia de l os argumentos.

La desigualdad (4.3.2) a que satisface la funci&n correlativa de


cualquier funcin al eatoria toma, en caso de una funcin aleatoria
estacionaria X (t), la forma
(5.1 .8)
1k x ('t) 1<;;: kx (O)= Dx .
As pues, lu foncin correlativa de una funcin Aleatoria estacionaria, cualqu iera que sea i:, no puede ser, en magnitud absoluLa, muyvr
que su valor correspondiente al origen do cvordeuaclas.

Ejemplo 5.1.1. En los ejemplos 4.2.3, 4.2.6 y 4.2.7 dados en eJ captulo


anterior nos encontramos con la funcin correlativa, dependiente slo de la
diferencia de los argumentos, de la forma
ko:('t)=Dxe-<Xl'<I,

i:=t - t'.

La 11ncin aleatoria que tiene ln esperanza matcmtic-a constante y tal funcin


correlativa es estacionaria (en el sontido amplio).
Ejemplo 5 .t .2. La funcin aleatoria examinada en el ejemplo 1,.2.1 es
estacionarla solamente en el caso cuando las dispersiono5 de lM magnitudes
aleatorias lJ y Z son Iguales. En ol caso general de diferentes dispersiones d1! las
magnitudes aleatorias U y Z esta funcin aleatoria no 05 estacionari11. Ahora
bien, la oscilacin armJlica de cierta frecuencia. con runplitu1l y Ca$e all)alorias,
ropresenta en el caso general una funcin aleatoria no estacionaria y slo 011 el
caso particul ar de ser iguales les dispersiones de los codicientes aleatorios ocl juntos al seno y ol coseno, es una funcin aleatoria estacionai.'ia.
Ejemplo 5.1.3. La funcin aleatoria representada en el ejemplo i\.2.3 e
estacionaria cualquiera que sea la densidad de probahil iclad do la lri-cuc11c.la
aleatoria de oscilaciones f (<~) puesto que s11 esperanza matemtica &.'\ Jtln&kamente i~ual a cero, mhmtras quo la fu11ci6n correlativa, <l et~rmi oarls. por l a
frmula (4.2.21 ), dcpl>11tlci s6lo J e l a diferenda de los argumentos.
Ejemplo 5.1.4. Si
mx (t)= a+bt, K"' (t, t ' )= D - "' 11- 1 '1,
cntoocr.s l a !unci6n aleatoria X (t) es no estacionarla. No obstant11, estn no cst.ac.ionarldad no es es-0ncial, puesto que la conespond ieote funcin alentori~
e.entrada X (t) es cstacionarin.

En las aplicaciones tenemos que encontrarnos frecuentemente


con la funcin correlativa exponencial
kx (i:) = D,,e-"' (TJ,
(:l. f .9)
! :'\

t OO

Cllp. 5 Funciones akatoria.t ettactonari<U

Otro t ipo bastante frecuente de func in correlativa de un proceso


aleatorio estacionario os la funcin de la forma
kx (i:)

= D ,,e-" rI cos

ro 0-r

o una funcin ms general de la forrnri


kx (-r) = D:re-rx lI (cos WoT
i' seo

(5.1.10)
Wo

1 i: 1).

(5.1.11)

En fo fig. 5.1.1 se muestn1 el grfico d e una funcin correltltiva


exponencial (5. 1.9). En la fig. 5.1.2 se representa el grfico de la
funcin correlativl\ exponencial do coseno (5. 1.10). Vemos que
k.i;(::>

f i:;. 5.1. 1.

fig. 5.i.2.

nmbas fuuc iones tienen en el origen do coordenadas un punto angular


e l ri.uu la derivada de l a funcin correlativa tiene discontinuidad
d o primer gnero. Para la aproximacin du las funciones correlativas
con la derivarla continua, se pued e
ap licar la expresin (5. 1.11), eligiendo
en sta el coeficiente 'Y de modo que
la derivad a de dicha funcin corre) aliva sea igui\l a cero cu an do -r = O
q
1:
(el lector puede por s mismo com ~-'(u;,.,,.-.,-Wolt!),,r-J.
probar que esto ~e alcanza cuando
y = aho 0 ). E n l o fig. 5. 1.3 se mue!l\:.I'u
Fig. 5.1.3.
el grfico rle tal funcin corre!Ativa.
Ob'servemos q11e la funcin que tiene
fQrQ"la de (5.1.1.1) puede ser correlativa slo en a quelcasocua11do
1 y 1~ a/ w0 puesto que para 1 'Y 1> a / (l)o la condicin (5.1.8) no
se satisface.
IJA continu acin veremos que cualquier !uncin correlativA de 1:1
f unci n aleatoria estacionaria puede ser aproximada, con un grado
cualquiera de precisi n, por la combinacin lineal de l as fu nciones
de l a forma (5 .1.9), (5.1.10) y (5.1. 11).
, Las'lf6rmulas generales dadas en el 4.6 para las esperauza8
matem ticas y las funciones correlativas de l as derivadas de u na
funci n aleatoria son aplicables tambin para las funciones ale11torias
estacionari as. Valindonos de fas frmulas (4.6.2) y (4.6.3), hallamos
ia esperanza matemtica y la fucin correlativa do l a primera deri<'11

'

.~

5.1. Definlci6n 11 propttdadu prlnctpalts

197

vada Y 1 (t) = X' (t) de la funcin aleatoria estacionari a X (t):


') PK,, (t,
""ii1 (t ) = O' K 111 ( t, t
Ot

'' t ' ) =

k" ( )

"

'T

De aq u se ve que la derivadn de una funcin alen toria estacionada


ta mbin es estacionara. De un modo anl ogo hallamos por 1as
frmu las (4.6.6) y (4.6. 7) l a esperanza matemtica y la funcin
correlativa de la derivada del orden p de l a funcin aleatoria estacionaria X (t):
T/'
(t
t')
Q'lP
K
"
(t,
1')
1nvp = O "'uP
=
8tP 8t'P
Ahora bien, todas las derivadas de una funcin aleatoria estacionaria
son funciones aleatori as estacionarias con esperanzas matemticas
iguales a cero; en este caso, l as funciones
correl ativas de las derivadas se determinan por la f6rmulu
k,,p ('t) ... ( - 1)" k(~~) ()

(p = i , 2, ... ).
(5.1 .12)
Fig. 5.l k
Dos funciones aleatorias del mismo
argumento X (t), Y (t) se llaman estaclonariamente li.gadas, s i s u
funcin correlativo recproca es funcin de la diferencia do los 11rgu men tos:
(5.1.13)
K,. 11 (t, t') = kx (i;) T = t - t'.

De la propiedad (4.4.3) de una funcin correlativa r ecproca se


deduce que dos funciones correlativas recprocas de dos funciones
aleat orias estacionariamente ligadas X (t) y Y (t), t.oiuada~ on diferentes 61denes, estn enlazadas por l a correlacin
(5.l.14 )

Grficameute esto significa que la curvo. kv:x: ('t) es lo. reflexin especular de la curv a k"Ji (t') con respecto al eje do ordenadas (fig. 5.1A).
La desigualdad 14.4.5) para lns funciones aleatorias X (t) y Y (t)
est11cionori as y estacionariamente ligadas toma Ja formn

lkxv() 1-< Vkx (O) ky(O) -= V DxD11

(5.1.15)

Las frmulas (4.2.10) y (4.4.6) que dcterminitn las funcione~


correlativas normadas toman, para las funciones aleatorias estacionarias y estacionariamente ligadas, respectivamente Ja forma

r "' (i;) =

r - {T) xy -

kx (T)
kx () '

k.,.v (i:)
Vkx

(O} k 11 (0)

(5.1.16)
(5. 1.17)

198

Cap. 6 Funciones akatol'tas stacio11arta1

Ej('Jl1p1o 5.1.S. Examinemos las funciones aleatorias


X (t) = Z cos ro0t
11 sen ro0t.
Y (t) = -Z sen ot
U cos ro 0 1,
dondo :t y U so11 magnitudes aleatoTias no correlaciouadus con l)Speranz.as u1ttnnt ic11s iguales a cero y dispersiones iguales a D. Es ev idente que l as funciones
c.on~lativas de estas funciones aleat-0Tias se oicprosan por l a frmnla
Ir.~ (-r) = 1, (i;) = D cos w 0 -r.
11

4.:u. La funci n corcelativa rodpnl tlc las luucionos aleat11rius X (1) y Y (t), eu virtud de (3.9 .8), se determina
por Ja frmula
K"y (t, 1' .,., -D cos O>I s~n <~ot'
n sen (J)o! cos t>lol' = )) $01\ lllo (t - /').
Asf p>ll'S, HS f11ncioncs a lo:utorias X (1) y Y (t) son est.acionnriamente liga<ln.
Ejempl o 5.1.6. Examinemos ahora las funclones uleaeorias
X (t) = 7, cos ~>ol
U s1m (J)ot. Y (t) = Z cos ~>ol
V ~eu Wot

que se de.d uce h1 mi~mo q1w cu el cj~mplo


M

donolo ;:, U, V son magnitudes aleatorias no 1,o)rrelacionarlas con esperauzas


mntcmticus igu:oles a cern y la~ mi~mas dispersiones iguill11s a D. B11 vlrtud 1)0
lo~ rcsullados del ojomplo 4.2.1, amba$ funciones aleator\11.5 ~011 e.stacionatia~
puesto quo
Kx (t , t')

= K 11 (t,

t')

= n cos

01 0

(t -

t').

Siu embargo , slas 110 son ligadas estadonarinmente dc.hidn r1 que su funcin
cmrclativa recipro(.n
K.t!I (t, t') = M [ X (1) Y (t' )I ~ D e.ns c~t cos cM'

no

1~

funt;iu do In <liforcncin t -

t'.

Aplicando la frrnnla (4.6.8), se puedo determinar las funcione~


correlativas recprocas de las derivadas de diferentes rdenes <le una
funcin aleatoria estocionaria X (t):
(t t') _ <P+qK.-c (t, t') ( - f)'' 1.(7'+9l ( )
J/
>11,,~q

,,

i)ll' iJt ''I.

- -

"-x

'"t .

A.~ puo~.

las derivatla!I do una func.in nloatori a estacionaria son


funci ones nleatorins estacionarias y e.stacionariamcnle ligadas y sus
funci oJleli correlativas recprocas se determinan vor la frmula
Ku.Pv (T)=(-j qk':N> ('t)
11

(p, q=O, 1, 2 , ... ). (5.1.18)

En pnrticul ar, l a funcin correlativa recproca do una funcin aleato ri a estacionaria X (t) y de su primera derivada se determina por
Ja frmu la
Si la funcin corr,elat iva k" () de la funcin aleato~i a estacionaria X (t) tiene continua la primera derivada, ent onces k~ (O) = O
ya que, segn (5.1.8), k. (T) tiene el rox.imo cuando 't =O. Si la
pri mera derivada do la funcin correlativa es d iscontinua en el punto
=O como, por ejempl o, en los casos (5.1.9) y (5.1.10), entonces,
debido a la paridad de la funcin correlat iva (5.1.7), su derivada

S .:!. b'druclura de u11a /u11cl11 akatorin t6taclo11aria

199

izquierda en el punto T = O es igual en valor absoluto y cont;aria


en signo a la derivada derecha. Como resultado, en este caso tambin
se puede considerar que k~ (O) = O. De este modo, para cualquier
fu ncin a leatori a estacionaria
(5.1.20)
kxv 1 (O) = - k~ (O) =O.
Esto quiere decir que cualquier funcin aleatoria estacionari a y el
valor de su primera derivnda en el mismo punto no estn correlacionados.
Si la funcin aledoria estacionaria est repartida n.ormalmente,
su valor, cualquiera que sea el valor del -argumento, y el de su l)rimera derivada, para el mismo valor del argumento, son independ4e
tes. Claro e.~t, qne de lo dicho no se puede deducir de ningn 'md'o
que la funciu aleatoria estacionaria y su primera deri vada est n,
on genernl , no correlacionadas. Como la derivada de la funcin
correlat iva :;jempre es d ist inta del cero idntico, la magnitud aleat oria estacionaria y su primera derivada siempre estn correlacionadaf! .

5.2. Estructura de una funcin aleatoria estacionaria

Examinemos todas l as funciones aleatorias que se pueden componer de l as sinusoides de diferen tes frecuencial! con amplitudes
y fases aleatorias. Tales funciones aleatorias se expresan por la
frm ula

..

X(t)=m.,+ ~ (Uvseu0>,t + Z vCOS0>,t).

(5.2.i)

\ 1-;a l

donde ro 1 , , w. son l as frecuencias elegidas arbitrariamente,


m x es la espera nza matemitica const ante y Us. . . . , Un Z 1 , , Zn
son las magn itudes aleatorias cuyas esperanzlll! matemticas son
iguales a coro. Vamos a limitarnos al caso en quclus magnHudes
al eatorias U., ... , Un Z 1 , ., Z,. no estn correlacionadas
y tienen por parejas dispersiones iguales D 1U.1 = D [Z. I = D.,.
En este cnso tienen logar las igualdades
M [U.I = M IZ.I = O, D IU.,] = D IZ. I
M!U.U14 l = MIZ.Z14l=0 si . 7'= -v,
M ( U.,Z,,I = O para cualesquiera v, .

= D.,.}

(5.2.2)

La funcin aleatoria X (t) = X (t) - m., determ inada por la


frmula (fi.2:1.) representa en este caso la swna. de l as funciones
*) Como excepcin se puede citar solamente un ca!IO absolutamont.o no
intere~nte para los fines prclicos rcfnrcnte a la magnitud nleat.oria estacionaria
todas las realizaciones de la cual son co~tanies. Tal funcin al eatoria representa
una m~gnitud 11lt>:itoria corriente y de l1cc.ho no e.s unu funcin nlc11tol'in.

200

. Cap. 5 Functo1us aleatorias e.tacionarlas

aleatorias no correlacionadas de la forma


X,, (t) = U,, sen w.., t
Z.., cos ro.., t (v = 1, 2, . .. , n). (5.2.3}

Por consiguiente, conforme a los resultados ohtoniclos en el


4.5, la funcin correlativa do la funcin aleatoria X (t} es igual
a l a suma de la:s funciones aleatorias correlativas X v (t}. Para calcular la funcin correlativa de la funcin aleatoria X,, (t),.sustit uyamos
en (5.2.3) t por t':
X V (t') = V sen >v t' + Zv cos (Ov t'.
(5.2.4)

Entonces, la funcin correlativa de \a funcin aleatoria x .. (t) representar el momento de correlacin de dos funciones lineales (5.2.3)
y (5.2.4) de las magnitudes aleatorias no correlacionadas U v y Z,,
para cuyo clculo se puede aplicar la frmula (3.9.8). Corno resultado obtenuremos
Kx.., (l. t') = Dv sen >vt SC!ll >vt' + DvC'OSW,t cosw..,t' =
=DvC-OS>v(t-t').
(5.2.5)
Esta frmula muestra que todas las {unciones aleatorias X,, (l) :son
estacionarias. Sumando las expresiones (5.2.5) correspondientes a todos los valores v de 1 hasta n, hallaremos la funcin correlativa
de la funcin aleatoria X (t) que tambin depender solumente do la
diferencia de los argumentos 't = t - t'. P or lo tanto, la funcin
aleatoria X (t) determinada por la frmula (5.2.1) es estacionaria
y su funcin correlativa se expresa por la frmula

"

kx(T)= ~ D..,coswv

(f1.2.6)

v=I

Este resultado es vlido para cualquiera

ri

incluso para n

oo

As pes, todas las funciones aleatorias que se pueden componer de


.l!J.S , sinusoides no correlacionadas de diferentes frecuencias, con
magnitudes y fases aleatori as, son iunciones aleatorias estacionarias
s~eurpre que se cumplan las condiciones (5.2.2) *). El conjunto de
frecuencias wi. w2, . , Wn representa el espectro de frecue11cias de
la funcin aleatoria examinada.
Basta ahora no hemos impuesto ningunas restricciones referentos
a la frecuencia w.., en la expresin (5:2.1). Estas ltimas podrfon ser
completamente arbitrarias. Ahora examinemos un caso particular
concern iente al conjunto infinito de frecuencias equid istantes
nv
n
v=-;-(v=1, 2, .. . ), ~W=lv+i-Wv=r

(5.2.7)

*JDejamos al lector quo por si mismo se cerciore do que si las condicfones


(5.2.2 no se cumplen, la funcin aleat-Oria X (1) deter minada por la f6r mu
la (S.2.1) no puede ser estacionaria.

.9 5.:!. Bstructura d11 urla funci(m aleatmit:z. e3lar.ionaria

20!

donde 1' es un nmero vositivo arbitrario. En este caso la funcin


correlativa, determinada por Ja frmula (5.2.6), ser una funcin
peridica con perodo 2T y la frmula (5.2.6) determinar su descomposicin en la serie de Fourier. Los coeficientes de esta serie se determinan por l a frmula conocida en la teora de series de Fourier
+r
k.,(-c)coscuvi:_di: (v=1, 2, ... ).

D.=y)

-T

Pero sabemos que la funcin correlativa de una funcin aleatoria


estacionaria es una funin par. Por cosiguient!l, en la frmula obtenid la funcin subintegral es par y la frmula puede ser escrita
en la forma
T

2 f
(.).2.8)
(v = 1, 2 . .. ).
Dv=y J k., {-t) COSIDv't di:
o
De la frmula (5.2.6) se deriva que para n = oo la dispersin
de la funcin aleatoria X (t} se determina por la frmula
""
(5.2.0)
D,, = k,_. (0) = },; D,..
V=I

De aqu se deduce que si deseamos obtener una funcin aleatoria


estacionaria con d ispersin finita, debemos escoger tales magnitudes
aleatorias U., y Z.,, que la serie (5.2.9) compuesta de las dispersiones
sea convergente.
1'odo lo expuesto es aplicable u cualquier intervalo w entro las
frecuencias vecinas en la frmula (5.2.1) o, lo que es lo mismo, a cualquier valor ele 1' en la frmula (5.2.7). Por eso todos los resultados
o.bteaidos pueden huccrse ex'teosivos torobin a las sumas de sumandos infinitesimales. Pora pasar a este caso, ponemos que *)
U., = UT (w.,,) W, Z., = Z1 (cuv)w (v = 1, 2, ... ). (5.2.10)
Entonce11 la frmnlo (5.2.1), para n

oo, tornar la forma

00

X (t) = m.,, + ~ [U,. (<i>v) sen <i>.,,t + Zr (ID.,) CuSIDvl] >. (!.2.H)
v=l

Luegr ponemos D., =


r
S.,,(<u.,,}=

u.,
/\<iJ

sI (ID.,) w,

donde

2 ("
~~:;- J k,,('t)COSCOvi:di:
u

(v=1, 2 ... ) (fi.2. 12)

*) Al ili s mirmir <1>. el 111wero de sum~udos en (5.2. t} 1) 11 cualq1Jio1 intervalo dado de Ir~cuenc.ias (l', co") crece invursamonte proporcional 11 <iJ. Para
que en este ca!S-0 In componente do Ja funcin aleatoria, que cae en este in tervalo
~ e frecuencias, no aumente infinitamente, es necesari9 que cada sumando en
(f.>.2.1) sea una mRgnitud iufinitamente pequeiia de orden l'!.co. Por eso conviene
separar el multiplicador de u.., y z.., on forma explicita.

202

Cnp. 5 Fu11cio11es o.leatort118 estaclo11arl a.<

Entonces l a frmu la (5.2.6) tomar la forma

.. sI

k.~ (i-) = ~

v,..1

(lv) cos J,i; .<O.

(5.2.13)

La frmula (5.2.9) pa.rn Ja dispersiu de Ja funcin aleatoria X (t)


tomar la forma
~

Dx = kx (0) =

2: s'I. (cov) .w.


v= t

(5.2.14)

En las fnnulas (5.2.11), (5.2.13) y (5.2.14) se muestra con evidencia que si queremos obtener una funcin aleatoria estacionaria
con dispcrsi6n finita, entonces, aumentand o el nmero de sumandos
en la frmula (5.2.11), debemos disminuir proporcionalmente estos
si1mandos. Con otras palabras, aumentando el nmero de frecuencias
en e)! intervalo dado, debemos di~minuir 1>roporcionalmente las
dispersiones de las sinusoides separadas para que la sum a de las
d ispersiones de todos las sinusoides en el int.ervalo dado de frecuenci11s quede finita.
Lls magnitudes Ur (wv) y Zr (rov) en la frmula (5.2.'11) ~e pue<len considerar como los valores de las fu11ciones aleatorias del argumento discret-0 que toma solamente los valores ro 11 i, . . Anlogamente la magnitud sI (w"), que se determina por la frmula (5.2.12),
~e 11uede considerar como funcin del argumento discreto que toma
los valores Wu w2 , En virtud de las frmulas (5.2.10) y (5.2.2),
las funciones aleatorias Ur ((J)v) y Zr (<i>v) no estn correlacionadas
y, adems, los valores de cada una de ellas, al tomar el argumento
diferentes valores, no estn corrclacionodos:

M [ UT (c.lv) Z1 ((J))]
M [UT

(~v)

UT {l ..))

O par11 iod!ll> los v11loros de }

co",

(t) "

M IZT( w.) ZT (l)I =O


para ro 11 =I=

(5.2.15)
Wv-

Para hallar l as dispersiones de las funciones aleatorias Ur (wv)


y ZT (wv). observemos que en virtud de l as frmulas (5.2.10)
y (5.2.6) las frmulas (5.2.2) para las dispersiones de l as magnitudes
aleatorias U" y Zv se pueden escribir en la forma
D[UT(wv)j = D[ZT(lv).wJ=sI(lv).w

(v=1, 2, .. . ). (5.2.16)

Pero en virtud de la frmula (3.9.1)

D IUT (wv) .l)

= D IUr (ro,)l

(.(J)),

D IZr (w.) .(I.)] = D !Zr (w.)I (Aw) 3

5.2. Etriu;turo.

d~

fwicin akatorL11 utactonaria

u11a

203

Sustituyendo estas expresiones en (5.2.16) y efectuando las.reducciones, obtendremos


~ ((A)v)
D[UT(lv)] = D[Zr((l)v)I= ~ (v = 1. , 2, ... ) (5.2. 17.)
Para el ulterior estud io de l as propiedades d'e l os funciones aleatori as
Ur (cov) y Zr (()") observemos que en virtud de (5.2.15) y (5.2.17)

..

,. ~_, M (Ur ((J)v) UT ((J) )1A(l)=M (U} (wv)] /!i.(J) =


11

=D[Ur((J)v)]Al=si(w..,)(v = i , 2, ... ).

(5.2.18)

M [UT(ro.) Ur (w)] = Ku7 (ro., ro) (v, . = 1, 2, .. . )

(5.2.19)

Pero
represonta la funcin correlativa de la funcin aleatoria Ur (4>..,).
Por lo tanto, la frmu la (5.2.18) se puede escribir en la forma

..

~ K i; (ro..,, 4> 11 ) 600

=I

=si (w"}(v =

1, 2, ... ).

(f>.2.20)

La misma frmula tiene lugar para la funcin correlativa de l a


funcin aleatoria Zr (ro..,).
Ahora tenemos todo lo necesario para pasa1 examinar el caso
referente a la suma de sinusoides con amplitudes aleatorias infinitesimales de todas las frecutJocias posibles repartidas continuamente
en la parto posit iva del eje numrico. Sustituyamos en la frmul a
(5.2.11) las magnitudes 11leatorias U..,= Ur (w.) Aro, Z.., =
= Zr (ro .. ) /!i.(J) por las
magnitudes aleatorias infinitesimales
U (<i>) d(J), Z (ro) dro. Sustituyamos correspond ientemente la sumn
por la integral. De este modo determina remos la uncin aleatoria
estacionaria de la formo

..

X (t) = mx + ~ (U (<i>) sen rot + Z ((J)) cos wt) dw.

(5.2.2'1)

En virtud de la ltima frmula (5.2. 7) la sustitucin de la magnitud


dro corresponde al paso a l a magnitud infinitamente grande r. Por eso la funcin s~ (w) determinada por la
frmula (5.2.12) se sustituir por la funcin

.(J) por la infinitesimal

Ssx

(l)

= ~
:i

..f
~

kx ('t) COS (tl't d't.

(5.2.22)

Con ello, las dispersiones de lus magnitudes aleatorias infinitesimales


U ((J)) dro y Z ((J)) doi, eu virtud do la frmula (5.2.17), sern iguales
a s1., (ro) dw.

Cap. S

/l'unclon~

okatorta8

~a<:lonarliu

s;

Sustituyendo en l a frmula (5.2.13) las dispersiones


(wv) (l)
de las magnitudes aleatori as UT (wv) Aro, ZT ((l)v} t>.ro por l as dispersiones infinitesimales s1 ., (()) do> de las magnitudes aleatorias
U (w) dw, Z (w) dro, obtendremos l a frmula siguiente par a la funcin correlativa de la funcin aleatori a X (t) que se determina por la
frmula (5.2.21 ):
kx (T}

..f

Stx (o>)(',()$ WT d(J).

(5.2.2;1)

111 sustitucin anloga en la frmula (5.2.14) da Ja s iguiente expresin de la dispersin de la fuDcin aleatoria X (t):

...

D..,= k" (O) =

Stx

(>) de.>.

(5 .2.V.)

Esta frmula se obtiene tambin de (!:i.2 .23) cuando T = O.


Si en vez de todas las frecuencias posibles tomamos solamente
t vdits las frecuencias del intervalo dado (<i>1 , <0 2), obtendremos la
funcin aleatoria estacionaria
~

X.,,, .,, (t) =

j (U ((J)) sonwt+Z (ro) cosrot jdw,

(5.2.2!i)

cuya dispersin se determinar por l a frmul u

.,,

D 1Xe1, ,.,,(t)J =

Js

1"

(>)do>.

(5.2 .2!i)

f~l

Si en la frmula (5.2.21) se tlividc todo el intervalo de frecucncios


(O, oo) en subintervalos, la funcin aleaLoria X (t) se expresar como
la suma de funciones aleatoria! no correlacionadas de la forma (5.2.25).
Como era de esperar, la dispersin de la funcin al eatoria X (t} se
expresar <:orno la su ma de dispersiones de los sumandos iguales
a las integrales de la forma (5.2.26} extendidas a los subintcrvalos
correspondientes de frecuencias.
De la fr.mul n(5.2.24) y d~ las observaciones anteriqres se ded uce
que la funcin s1,, (w) caracteriza l a distribucin de l a dispersin uo
ln funcin aleatoria X (t) por las frecuencias. En virtud de la frmula
(5.2.16} l a megnitud D., = s~ (wv) ,(l) represeo.la l a dispersin de
un armnico de la frecuencia w., que forma parte do la funcin alontoria ex.aminada de la forma (5.2. 11). Por eso la magnitud s 1 x (<i>) dw
es la dispersin Infinitesimal de un armnico de l a frecuencia: dada ..,
que forma pa1te de la funcin aleat oria (.5.2.21). Si separ amos ahora
de l a funcin aleatoria X (t) el s umando correspondiente a un nter~

205

5. 2. Estructura de u114 / uMi6n aleatoria eltaclonarla

valo pequeo de frecuencias (m, Ctl + A<o), l a dispersin. de este su


m ando se determinar por l a frmula (5.2.26) cuando m1 = .0>,
<2

=- ro+ Aoo:

D (X.,, ..,+L'lro (t)J =

"'+""'

Js

1 ,.

(0>) dci>.

"'

S uponiendo que l a funcin s 1" (c.>) es continua en el punto


cando el teorema del valor medio, obtendremos
D (X.,, *"'" (t}l = t.w ((I)') Ac.o,

(1)

y apli-

dond e w' es ciert.o valor de la frecuencia compnmdido ent re (1)


y a> + A(J). Por;cons iguiente, al pasar al lmite para Am - O la
magnitud (I)' tiende a (1) y obtendremos que
Sx

D [X..,, <+ t>w (l)J


I"
(ro) = t>~l
~w

De aqu est claro que la funcin s 1" (ro) carncteriza la densidad con
q ue las dispersi on es de armnicos separados de la funcin alea toria
(5.2.2'l} van repartidas por el espectro de freeuoncias.
En virt ud de las propiedades estudiadas de la funcin s1,, (eti) esta
fun ci611 se llama densidad espectral de la funcin aleatoria estacionaria X {l). La integral de .la densidad espectral

.,

S1.- (<o)=

S1x

() d.

(!).2.27)

se denomina funcin espect,.al de la funcin aleator ia estacionaria


X (t). Es evidente qno Ja rlcnsidad espectral es la derivada de l a
funcin espectral
(5.2.28)
Slx (00} = s;x ((J))
S ustHuyen do en la [rmula (5.2.27} la e:x.presi1J (5.2.22) de l a densidad csvectrnl, cambiando el orden de integracin y cumpliendo lo
intogro.ci6n con resp ecto u , obtendremos l a :;iguiente expresin
d e la funcin espectral de la funcin nltmtori o estacionarin X (t)
a tr11vlis de su func in corrl'lativ;\:
S 1x(lll) = n2-

..
~

SCll Ca>t'
k,.('r)-- dT.
't

(5.2.2\J)

Comp arando la :frmul,<\ (5.2.27) con l a (5.2.26), vemos que lt\


fun cin espectral r eprosen tu lo dispersin su mario de Jos armnico:
d e 1orlas l as frecuenci ns do O a Ctl que forman parte de la funci(111
olentoria X (t).
La frmula (5.2.21) ex.presa la funcin aleatorin est aciona ri o
X (l) clel ti po examin11rlo a t rn vs de otras dos fu.uci one.~ alentorius

Cni. 5 FundoneN aleatorias estacionarias

U ((J)) y Z (<i>) m1yo argumento e:; la frecuencia w. &;tudiemo.'l las


pro1>iedades de estas funciones aleatorias partiendo de las piopiedades
ya c-t.ucliadas de las funciones aleatorias Ur (w..,) y Zr (>v). De
(5.2.15) est claro que las funciones aleatorias U (>) y Z ((1)) no
estn correlacionadas. Adems, de (5.2.15) se ve que los valores de
cada una de las funciones aleatorins U (oo) y Z ((!)) para cualesquiera
valores, tan prximos como se quiera pero diferentes, del argumento ro
estn no correlacionados. Las dispersiones de l as funciones aleatorias
U(@) y Z {l), en virtud de la frmul a (5.2.17), son infinitas. Ahora
bien,
K,. (w, >') =M {U(w) U(<ll')] = 0 si cu' =t:-w, K" (>,>)=D[U(w)] = oo .
(5.2.30)
Las igualdades anlogas son vlidas para la funcin correl ativa de
la funcin aleatoria Z (>). Por fin, la frmllla (5.2 .20), al pasar al
espectro continuo de frecuencias, toma la forma
00

I<u ((!),

(!)') dw ' = .~!x (ro).

(5. 2.31)

li

De las igualdades (5.2.30} y (5.2.31) se vP. que la funcin correlativa


ele la funcin aleatoria U ((t)), que se cxnmiua como funcin w' para
cualquier valor fijo de CJl, representa una funcin delta impulsiva con
el coeficiente s1x (w). Tal deduccin e5 v/llda tambin con respecto
a la funcin correlativa de l a funciu aleatoria Z (>). As pues, las
funcion es correlativas de l as ftmciones aleatori as U (>) y Z (l) se
determinan por la frmul a

K 11

(~1, l')

Kz (ro, ro') =

S1x

() 6 (w' -

w)

(5.2.32)

A p1 imora vista pa.rece que l as funcione~ correltitivas de las funciones


aleatorias U((!)) y Z (co), determ inadas por la frmul a (5.2.32),
n~ s_ati.sfacen- l a, <;ondicin de simetra, obligatoria para cualquier
fti.cin correlativa. Sin embargo, esto solamente parece. En efecto,
com-p la, funcin delta es igual a cero par a cualquier w' -=/= (t), no
ho,.porta absolutamente a qu sea igual el rnultiplcador adjunt o a la
funcin delta cunndo 1 =fo . Lo que im porta es que para >' = l
ste seo igual a s1" (w). Por eso la frmula (5.2.32) se puede escribir
en la form a

K.,, (6>, (J)') = K, (cu, w') =Vs1.. (6l) s1,, (w') i3 (cv' -w). (5.2.33)
Para cualquier '"' =fo > la ltima expresin de esta frmula es igual
a cero, lo mismo que en la frmula (5.2.32). Cuando '"' = , el
multiplicador adjunt o a la funcin delta en lo frmula (5.2.33) lo
mismo que en la frmula (5.2.32), es igual a
(co).
Vemos que las funciones a:lea.torias U ((J))_y Z (co) de la frecuencia
oi disponen de una serie de propiedades par ticulares. L os valores de

s,,,

5.:!. Estructura de una fu.nctm aleatoria estactonarta

207

cada uua de ellas 1111ra cualesquiera, t ap prximos cc;>mo se quiera;


valores del argumento w, co' no e:>tn correlacionados y sus disper8iones son infinitas. E.sto quiere decir que las realizaciones de estas
funciones alea torias se comportan desordenadamenteypuedencar.nbiar
tan fuertemente como se quiera al pasar de un valor del argumento
a otro, aunque ste sea muy prximo al primero. Estas Junciqnes
aleatorias no son estacionarias , puesto que sus funciones correlativas, segn muestra la frmula (5.2.33), dependen no solamente de la
diferencia de los argumentos, sino tambin de cada uno de los.
argumentos tomados por separado. No . Ob$tante, a pesar de ests
particularidades, las funciones aleatorias U (w) Y. Z (co) son, en .~1
caso general , considerablemente u;is s imples que la. funcin a.le.atoria estacionaria X (t) que se expresa p9r m.edio de las funciQnes aleatorias U (w} y Z (l) por la frmQla (5.2.21). Esto ex.r.l~ca l'a gran
importaucia prctica ele las descomposiciones ospcctrales de las.
funciones aleatorias estacionarias ele la forma (5.2.21).
Ha~ta ahora hemos supuesto que las magnitudes aleatorias
U (w) dw, Z (ro) dw de la frmula (5.2.21) tienen dispersiones infinitesimales s 1" (w) dw, es decir, que el espectro de frecuencias es continuo. Sin embargo, es fcil ver que las frmulas (5.2 .21) y (5.2.23)
abarca n tambin el caso anteriol'D1ente examinado del espectro discreto de frecuencias. En efecto, poniendo en (::i.2.2'1) y (5.2.23)
n

"

U (co)= 2j Uvli(<t> - <>.),

Z (ro)=~ Zvli(<- Wv).

(;',.2.34)

v~1

V !

"

Six(w) = ~ Dvt5{l-!v) 1

(5.2.3.'i)

\l=i.

donde U1 . , U,. , Z 1 , , Z,, son magnitudes aleatorias no correlacionauas, sitntdo D 1U"1 = D IZvl = D "' reduciremos la frmul a (5.2.21) a l a forma (5.2.1) y la frmula (5.2.23) a Ja form;1
(5.2.B). Es fcil ver quo fa frmula (5.2.22), crue expresa la deusi<lad
espectral a travs do Ja funcin corrnlativa, es vlidn tambin en cst1J
caso. En efecto, sustituyendo eu In frmula (5.2.22) la exmisiln
(5.2 .6) de Ja fu11cin correlativa, obtindremo:;

= ~ ~
v=I

Pero

D.,

{.\COI< (<o-oo.,) d-c + J co:; (ui + lv) e th }

208

!(Vase la frmula (2.2.24)1. Por lo tanto,


n

S1x

(CJ)) =

~ Dv [6 ({J)- 00.,)

+ 6 (Ol + Wy)j.

Pero, como {J) >O, (1)v >O, entonces '" + {J)v, cualquiera que sea
el v11 lor positivo de ro, no se convierte en cero y , por consigu iente,
6 (ro
{J)v) = O (v = 1, .. ., n) y obtenemos la frmula (5.2.:15)
lo que demnestrn l a afi rm acin enunciada. As pues, l as ftm ul as
(5.2.22) y (5.2.2::!) son v lidas t ambin en el cuso de un espectro
d iscret o.
En el caso general, cuando las funciones aloatorias U (l) y Z ({J))
representan l as sumas do las funciones aleatorias U, ((,)) y Z 1 ((,)) del
tipo anteriormente examinado y de las combinaciones lineales de las
fun ciones delta con coeficientes aleatorios no correl acionados, la
frmula (5.2.21) determina la funcin aleatoria estacionaria con u n
espectro mixto , que es un espectro continuo con frecuencias aisladas,
repartidas en l, a las cuales corresponden armnicos ai<llados con
dispersiones finitas. La densidad espectral de tal funcin aleatoria
contiene, en forma de sumando, una combinacin lineal de funciones
delta correspondientes a t odas las lfecuenci os l\isladas.
Asf, bemos estudiado u n a clase determinada de funciones aleatori as estacionarillS que tienen una estructura definida, es tlecir, todn,.
las funciones aleatorias estacionarias quo constnn de o~cllaci ones
armnicos de diferentes frecuencias con amplitudeH y fa~es al ()ntorias.
TodAs las funciones aleat orias de este tipo se expresnn por Ja frmula
(;).2.21) y para ellas son vlidas las correlocioncs (5.2.22) y (5.2.2'.~)
cut.re la funcin correlath,a y la densidad espect.ral. Cabe preguntar:
existe11 o no otr as funciones aleatorias estuciooarias, no rcp1'l!sent.alilcs por la descomposicin espectral (5.2.2f), para las cuales las fl"mulas (5.2.22) y (5.2.23} no son vlida!!? Ilesulto que no. Cualquier
funcin aleatoria estacionar ia es represen table por la descomposicin
espect ral (5.2.21). Para toda funcin aleatoria estacionaria que se
puC'd encontrar en los probl emas prcticos existe la densidad espectral (que puede contener como sumando una combinacin lineal de
funciones de l ta), determinable por la frmu la (5.2.22), y su fllflcin
~orrel ativa se expresa mediante la densidad e:ipect ral por la frmul a (5.2.23). Nosotros demostraremo.'I esto en ol 6.6.
La frmula (5.2.23) fue obtenida por primera vez por N. \Viener
para una clase limitada de procesos aleatorios estacionarios y un poco
ms tarde por A. Ya . J inchin para cualesquiera procesos aleatorios
estacionarios. Por eso las frm ulas (5.2.22) y (5.2.23) se llaman com nmente frmulas de W iener-Jinchin y el hecho de que la funcin correlativa de cualquier funcin aleatoria est acionaria puede ser represen Lada en la forma (5.2.23} se denomina teorema dP. WienerJ inchln,

5.2. Estrtutura dt una funcl6n nlat1tria et111cio11arla

2.09

Si en la frinula (5.2.21)
U ((1)) = U 6 {o> - Q), Z (e.o) = Z6 ((1) - Q),
donde U, Z son nlagnitudes aleatorias no correlacionadas con equivalentes dispersiones iguales a D, y O es una magnitud aleatoria
i ndependiente de U y Z, entonces Ja frinula (5.2.21 ) toina la forina
X (t) = m., + U sen Ot + Z cos Qt.
(5.2.36)
Ahora bien, la fr mula (5.2.21) abarca, como un caso particular,
tambin funciones aleatoi:ias estacionarlas que representan sinusoi ~
des de frecuencia aleatoria con. amplitudes y fases aleatorias. 'En e~
ejemplo 4.2.3 se mostr que la funcin correlativa de una funcin>

aleatoria (5.2.36) se determina por la frmula


DO

kx (i:) = D

~ 1 M cos ror dro,

(5.2.37)

donde/ (ro) es la densidad de probabilidad do la magnitud aleatoria Q.


Comparando la frmula (5.2.37) con (5.2.23), vemos que la densidad
espectral do la funcin aleatoria (5.2.36) es igual al producto de Ja
dispersin do las funciones aleatorias U y Z por la densidad de probabilidad de In frecuencia aleatoria Q:
Sx

(ro)

= Df (>)

(5.2.38)

Do l a frmula (5.2.38) se ve que pera cualquier densidad espectral asignada s 1,, (ro) se puede escoger tal densidad de probabilidad
f (ro) de l a frecuencia aleatoria de oscilaciones Q que la funcin aleatoria (5.2.36) tenga l a densidad espectral .s1., (ro). En efecto, integrando
la frmula (5.2.38)con respecto a o> deO a oo y teniendo en cuenta que
f ((1)) =O cuando "><O, obtendremos
DO

Js ,,(Ci>) dro= D Jf(CJ.))dw = D.


1

(5.2.39)

Al determinar de este modo D . hallaremos de 1a frmula (T>.2.38)

f (ro):

f (<ii) = srx~ti>) =

3jx (ti>)
00

(5.2.40)

S 11,. (ro) dw

As pues, entre la infinid ad de tod a.s las funciones aleatorias estacionarias posibles que tienen la densidad espectral dada s1,, ((1)) y dispersin finita, siempre existen tales funciones aleatorias todas lo.s
realizaciones posibles de las cuales son s inusoides puras. Esta<> funciones aleatorias se determinan por la frmu la (5.2.36) en la cual
" -0038

2!0

Ca.p. 5 Funcione tika.torla.s estaciona.rliu

la densidad de probabilidad de la magnitud aleatoria Q se define


por la frmula (5.2.40). Adems de estas funciones aleatorias, existe
una infinidad de otras funciones aleatorias estacionarias, con la densidad espectral dada s1" (ro), cuyas realizaciones no son sinusoides,
sino que representan las combinaciones lineales de una infinidad de
sinusoides. Tales realizaciones pueden ser funciones continuas o pueden tener tambin puntos de discontinuidad de primer gnero, como
vimos en los ejemplos dados en el 4.2 .
.Las frmulas (5.2.22) y (5.2.23) muestran que la densidad espectral es una caracterstica muy importante de la funcin aleatoria
estacionaria. Conociendo la densidad espectral, se puede hallar por
la frmula (5.2.23) la funcin correlativa y, al contrario, conociendo
la funcin correlativa, se puede determinar por la frmula (5.2.22)
la densidad espectral. Ahora bien, para la funcin aleatol'ia estacionaria no importa absolutamente cul es la caracterstica que se asigua: la funcin correlativa o la densidad espectral. Generalmente en
las aplicaciones es ms conveniente asig11ar l a densidad espectral
de una funcin aleatoria estac;ionaria.
Ejemplo 5.2.1. Hallar la deusidad espectral de una funcin aleatoria
estacionaria con funcin correlativa exponencial
k,,('l')=De-l'<I,

Por l a frmula (S.2.22) hallamos


s1,.(ro) =

'2.:

t- al t l COS<i>'td't=

(5.2.41)

z~ s-'~ COSlll'td't

(5.2.42)

La inLegral en esta i6n:nula se caleub fcilmente medla11te In integral por partes.


'foniendo eo vista. abt.ener frmulas ms generales necesarias para los ejemplos
q110 se dan a continuacn, sustituyamos <i> por la magnitud ! Entonces oh
tendmmos

00

~ -

Je-"''senT<l't.

Volviendo n Integrar por partes, obtendrnmos

..

,.~ ~ e -< {0SfJ.'t


.
d;
- -i - - --;;"""

"

a- o

2U

5.2. Estructura de una fimcin aleatoria ettacumarta

De aqu hallamos

z
y

..

.,-c.Tcos.-td't=- 2

..,
JI' d - c.~ cos-r d -r=

l""

-Cl~ coe'td'f

2 +1Li! ,

(5.2.4'.4)

Sustituyeudo esta expresin en el primer miembro de la frmula (S.:i..43)


pejando la integral que ha quedado en la ecuacin obtenida, tendremos

y des

(S.2'.45>
Sustituyendo la expresi6nJS.2.44) siendo ~ () en ta 'f rmula (5 .2.42),
hallaremos lo densidad espectr do la funci6n aleatoria que nos intereso:

(5.2.46)

Por el contrario, considerando asignada la densidad espectral, podemos


determinar, por la frmula (5.2.23), la funcin correlativa:

Esta integral se puede calcular por la frmula (23) dol suplemento. Como resultado obtendremos la !rmula (5.2.41).
Ejemplo 5.2.2. Hallar la densidad espectral de la funcin aleatoria e.~tn
cionaria cuya funcin correlativa se determina por la frmula
k,, ('t) = De-a l ~lcos6)0't.

(5.2.47)
lt~llamos

Sustituyendo esta exvresin en la frmula (5.2.22),


s 1.,(coi) =

"'

~ ~

e- c:tl"<icosro0

"t

cosco't d't =

~ {re-et"(
o

C0$

(>-ro,) "ta'f+

, - CtT COS

(>+illo) 'fcl'f}.

La primeru de estas integrales se determina por I~ frmula (5.2.44) siendo


= CJ> - <i>o. y la segunda , r>or la mism a f6rmula (5.2.44) siendo = 6) <i>o
l'or cons1gu1lJlt.c,

!'

D[ '+(6>- <o)' + "-'+ C<i>+@o)''

l~

s,,,,(c~)=n
o bien

(5.2.48)

14

212

Cap. 5 Funciona aleatorias estacionarlas

El problema inverso rele:rent& a la determinacin de la funcin correlativa,


t.enicudo dada la <lensidad eSJ)<lCtral, lo resolveremos para <l caso en cuestin
en tl prrafo siguienLe.
Ejemplo 5.2.ll. Hallnr In densidad espectral de la funcin o.leatorin ostacionana cuya func.in correlativa se determina por Ja f6rm11l11

kx ('t') =De-"' l 't'I (cos roo't+ V sen (co0 l't' 1).

(!.2./o9)

Susti tuyendo esta exresin en la frmula (5.2.22), halla111os


00

s1,, ("') = -2D


n

~ .-lI (cos ll>o'l"+yson CJlo f 1) coSCJ>'t d=

o
"'

00

=.E...[\ . - "'"cos((l)o-w) 't di:+ jr e-""'cos(roo+(l))'tdt +


:t

,J

,..

+1'

J-"''t'scn

00

(6io-ro) di:+v

J,-o.sen

((1)0+0>) 't'd't'

J.

Las integrales do esta frmula se calcuJau fcilmente por !ns frmulas (5.Z.41i)
y (5.2.45). Como resultado obtendremos

a
s,,, (Cll) = nD[ o;~-/-(lo-(1)):
o

+~+ro) +

bi~l\

V(lo- (1))

o;z+(lllo - m}~

y((l)o+(I))

+ uz+(eoo+(l)li

(5.2.50)

BI prllbloma inverso refcrcute a la determinacin de la !uncin correlativa,


ten iendo dada la densidad espectral, lo resolveremos tambien para este caso
en el prrafo siguiente.
Puest-0 que la densidad espectral, por su sentido, no puede ser negativa
pura ningn valor de (1),, la frmula (5.2.50) tiene sentido solamente cuando
( ; l. ,;; a./lll 0 lo que antes fue mostrado ior otrn via.
, Ejeu1plo_ 5.2 :4. 1-(allar la .funcin correlativa de la func.in aleatoria estacionma: X (t) cuya densidad espoctreJ es constante en el Intervalo (0, (1) 0) e Igual
a cero fuera 'de Mte intervalo:
si O ,;; m ,;; Olo,
$1
(5.2.51)
11"' (lll) = {
"O si (1) > w0

Por la frmula (5.2.23) hallamos

As pues
k.:('t) =

seo <Oo't
--'t--.

(5.2.52)

Dej amos al lector 'que por s mismo compruebe cue a esta !uncin corr.elatin
I(\ ~rresponde ui;-a densidad espectral constante en el intervalo (O, C!J0 ), que
se determina por la (rmula (5.2.51).

213

{J 9. /)e.!composicin espectral de una funcin aleatoria

5.3. Descomposicin espectral de una funcin aleatoria


estacionaria en forma compleja

En el prrafo precedente obtuvimos la descomposicin espectral


de una funGin aleatoria estacionaria rea l en forma real (frmul a

(5.2.21)1:

X (t) =

m.,+

..J

(U (Col) sen 0t +z (Col) coswt) dCJl.

(5.3...1)

Sin embargo, en los problemas prcticos es ms con.Ven~e~.~ cf.e


ordinario representar las oscilaciones armnicas en for~a c 0mpl'jfi
con ayuda do lns conocidas frw.ulas d~ Euler que .exprs!l;:t lii({u.n ;
ciones trigonomtricas a travs de las Ul)ciones expo.n~D:clal~ft. Q:el
argumento imaginari o. Por eso reducimos la descoi:fi.pos'ic'in 'espCltral (5.3.1) a la forma compleja. Sustituyendo en la frmula (5.3.1)
las exp1esiones de las funciones trigonomtricas por las frmulas de
Euler
senColt=
obtendremos

X(t)=m,. +

..

eico _ e-\(l)f

,
2

J[u~~)+ z~w>Je"'rd(I)+
o

r[- u~~) +

z ~l) e-l"''dw.
o
Sustituyamos en l a segunda integral las variables (!) = -. Entonces obtendremos
..
o
X(l}=m., +
Z(0>)-;W(w) e.,'dw+
Z ( -)1iU(-) elltld.

o
En Ja segunda integral podemos sustituir de nuevo la vnrinble de
integracin por la variable ro puesto que la designacin de la variable de integracin en la integral definida no es esencial:

X (t) =mx+

Z (w)-;iU (w) el<o>tdw+

Z (-w)~IU(-Cll) ei"''d<.o.

Introduciendo la funcin aleatoria compleja V (w) determinada por


la frmula
Z(ru)~iU (<i>)
si (!)>O,
(5.3.2)
V((J))= Z( - <0) + 1U(-w} .
O
{

S!

W> .

21~

Cop. S Fu11cionu akal<iritu tstacio11arias

podemos unir ambas integrales en una ni ca y escribiT la frmula


obtenida en la forma

X (t) = mx +

..

J V ((1)) e

(5.3.3)

1 1
"' tUl.

Esta frmula ofrece la descon1posicin es pectral buscada c.l.e la


funcin aleatoria estacionaria X (t) en forma compleja. Esta descomposicin se puede aplicar con mayor senciller. que In (5.3.1) puesto
que todas las operaciones del anlisis so cumplen mucho ms :;implomenle con u11a funcin exponcncinl que con las trigonomtricas ,
y a<lems, laexpresin (5.3.3) es ms compacta que (5.3.1). Por fin,
la frmuJa (5.3.3) expresa la funcin aleatoria estacionaria X (l)
a lravs de una funcin aleatoria V ((1)), mientrns que la frmula (5.3.1)
la expresa medi ante dos funciones aleatorias U ((1)) y Z ((J)}.
Comparando las frmulas (5.3.1) y (5.3.3), vemos que l a integr:icin en la frmula (5.3.1) se extiende u torios los valores positivos de
In rrecuoncia m, y en la frmuh1 (5.3.3), a torios los valores de (J) tanto
Jlll.'lilivos como negaUvos. Este hecho puromenle matemtico uo tieno
stmtido fsico y es consecuencia de que el seno y el coseno ele l a frecul!ncia positiv:1 o> se expresan por las frmulas de Euler por medio
do dos funciones exponenciales e1M 1 y e-fo>t En realidad, amb11s
Billas funciones representan una forma compltlja de las oscilncion~s
Armnicas de una misma frecuencia m quo, por su sentido fsico,
siempre es positiva. Por eso, como siempre al emplear l a forma compleja de oscilaciones armnicas, 111s frecuencias negativas son una
abstraccin matemtica y se introducen solament.e par a mayor sencillez y comodidad.
Estudiemos ahora las propiedades de la funcin aleatoria compleja
V ((J)). An te todo, de la definici n (5.:3.2) de l a funcin aleatoria
V (m) est claro que su esperanza matemtica es idnticamente igual
a cero, ,puest.o que las esperanzas matemticas de las funciones aleatorias U (m) y Z ((1)) son iguales a cero. Hallemos la funcin correlat iva de lo funcin aleatoria V (m). Cuando t.0 >O, (1)1 >O, teniendo
en.cuenta que las (unciones aleatorias U (<t>) y Z (m) no estn.correlacionadas, podemos escribi r

K (m, m')-M[Z((J))-IU(<zl)
2

=M[

-+

Z (ro' J-!U'(CJl') ] 2

z (<zl) -iU (rol 7. (<zl')-Hll


((J)') ]
- - 2- - -
2

...

{M[Z((J))Z(w')J+M [U ((l))U ((t)')I} =

=+

[K, (m, m') + K., (w, cll'}I.

5.3. Dtcomposlcln e1pectral d rma fund6fl al4torla

215

De aquf, tomando en consideraci6n la f6rmula (5.2.32) para las fQn


c iones correl a"tivas de las funciones aleatorias Z ((1)) y U ((1)), obten.
d remos
K 0 ((1), Cll')=+s1,.(w)6((1) -W') si > >0, (l)'>
(5'. S.4)
Cuando 0> <O, Cll' <O
K" (Cll, Cll') = M [ Z (- ID) "1; iU (-<i>)
=

! {M [Z(-

z (-0>')"1; iU (-o>')]

=-

w)Z(- m')J+MIU( - w)U(-6>')1}=

= ! [K,(J<t>I,

Jro' l)+Ku(lwJ, l <t>' J)I.

De aqu, volviendo a aplicar la frmula (5.2.32) y teniendo en cuenta


que 1 ro' 1 - 1 6> 1 = ro - w' cuando ro <O, ro' < O, obtendremos
f(,(w , >') -=

Para ro>O,

! s x( l c.>1)6(ro 1

w') si oo<O, w'<O.

(5.3.5)

w <0

[ Z(li>)-W(w) Z( - m') + IOC-w')J


K, (ro, <t>')-M
2
2
=

... ! {M (Z (<11) Z ( -

w')J -M [U (w) U (-w')l} =

= +IK.(w,

ll:w' 1)-K., (w, :lw' f)J.

De aqu, en virtud de la frmula (5.2.32) se deriva que para


w>O, <J>' <0

Ko ((1), ro') =+ /s1x (w) 6 (w- 1(l)'1 )-sir (Cll) 6 (Cll-1(I)'1 )1 = O.

(5.3.6)

El mismo resultado obtendremos tambin cuando w <O, (I)' > O


lo que, adems, est claro directamente de la propiedad de simetra
de la funcin correlativa. lntroduciendo una 11ueva funcin
1

s,,((l)) =zs1x ( l(l)J),

(5.3.7)

podemos escribir Ja expresin obtenida de la funcin correlativa de la


{uncin aleatoria V ((1)) para todos los valores de (1) y (1) en l a forma
1

K. ((1), (I)') = s,, (oo) o(ro - ro').


(5.3.8)
Ahora bien, la funcin aleatoria V (()) posee completamente las
mismas propiedades que las funciones aleatorias U ((1)) y Z (w) en lo
frmula (5.3.1). Los valores de la funcin aleatoria V (ro) para cualesquiera val ores d iferentes Je () y ro' no estn correl acionados. Su dis

210

Cnp. $

Puncloru~ alcat"rftll 1'$/a clonarins

persin es infinita y la funcin correlativa es proporcional a la fun


cin delta.
Sustituyendo en la frmula (5.3.7) Ja expresin (5.2.22) de la densidad espectral s 1" (m) y tomando en considerar.in que cos 1 w 1't =
= cos fil't, obtendremos

..

sx(())

i Jl' k.,(i;)cosrotdT.
=n

o
Aqu Ja funcin $ubinLegrnl es par. P or eso la integral en los
limites de O a co puede ser sustituida por la mitad de la integral en
los lmites de -oo a oo. Entonces tendremos

...

Sx(<Jl) = +._;t J
k,,(i:)COS(A)td'T.

Por olro lado, podemos


=

..

(5.3.9)

e~cribir

't~

) k,,('T)S-Oll(l>TdT,

(5.3.10)

put!s lo que la funcin subintegral es aqu impar y Ja integral se toma


en lmites simtricos. Multiplicando la frmula (5.3. tO) por la unidad imaginaria t, sustrayndola de la frmula (5.3.9) y teniondo en
cuenta que
cos (A)'t' - i sen wi: = e 1wt ,
obtendremos

...Jr

s X (m) =ln

k X ('T )e-l<'<dr

(5.3.11)

Sustiluyamos ahora en l a frmula (5.2.23) Ja oxprcsin de la densidad


espectral S,.. (co) de (5.3. 7). Entonce~ tendremos
k" (T) = 2

.J

s., (ro) cos W't d(A).

(5.3.12)

Pero la funcin s,. ((!)) es par:

s,. (-w)

s" (()) ,

(5.3.13)

lo que se ve directamente de su definicin (5.3. 7) o de l a frmula


(5.3.9). Por consiguiente, la integral en (5.3.12) es igual a la mitad
de la integral extendida a todo el eje numrico de-oo a oo y podemos
escribir esta .frJD.ula en la forma

..

kr ('t) =

J s.,
-~

(l) COS Wl

dl.

(5.3.14)

5.8. Descrm1poslcln espectral de u.na /unr.1.6 n ale11torln

Ahora observemos que debido a la paridad do la iuncio


imparidad del seno

Sx

217

(w) y la

('<)

0=

Jsx(oo)senwi:di:.

Multiplicando esta igualdad por la unidad imaginaria i, sumndola


miembro a miembro (5.3.14) y tomando en consideracin que
cos ro
i sen oot' = e-im< ,
obtendremos

kx (<) =

""

Sx

(oo) e""~ d. .

t5.3.15)

De est.e modo bemos obtenido la descomposicin espectral de la


funcin correlativa de l a funcin al eatoria estacionaria X (t) en forma
compleja.
Poniendo en (5.3.15) -r = O, obtendremos la siguiente expresin
para la dispersin de l a funcin aleatoria X (t}:
00

Dx =" kx (O)=

Sx

(ro) deo.

(:>.3.16)

As p ues , hemos obtenido la descomposicin espectr al d.e Ja funcin


al eatoria estacionaria (5.3.3), que r epresenta su descomposicin en
sumandos infinitesimales no correlacionados de la forma V (ro) e1"' 1 d.
que expresan las oscilaciones armnicas con amplitudes aleatorias
infinitesimales en forma compleja, y las dcscomposicioues correspondientes de Ja funcin correlativa y de la dispers in (5.;1.15) y (5.3.16).
Las magnitudes al eatorias V(ro) ei>t dro y V (-ro}e -1.. i dro cualquiera que sea el valor de ro, tienen una misma dispersin igual
a s" (ro) doo. La frmula (5.3.16) enuncia que la dispersin de la funcin a leatoria X (t) es igual a l a suma de dispersiones de los sumandos
no correlacionados que forman parte de la expres in (5.3.3.).
Lo expuesto muestra que la funcin s,,, (oo) caracteriza la distribucin de la dispersin de una funcin aleatoria estacionaria rcfcrcntll
al espectro de frecuencias, al igual que la funcin s 1x (ro) introducida
en el prrafo anterior. La diferencia entre ellas consiste solamente en
que l a funcin s 1 x (ro), de acuerdo con el sentido fsico, determina por
completo la dispersin del armnico correspondiente a cada valor
dado de la frecuencia 6.l > O, mientras que la funcin s" (6.>) div ide
a esta dispersin en partes iguales entre las dos componentes complejas V (oo)el.,td> y V (-w)e - io>t dro que corresponden a l valor dado de
l a frecuencia Cll. Con otras palabras, en una descomposicin espectral
real (5.2.21) de una funcin aleatoria estacionaria cada armnic1>

ca,,.

218
~st

5 Fnerin.u. clt:olnria.f; estacionaria1

representado por un sumando


lU (ro) sen rot + Z (<t>) cos wtl dw,

correspondiente al valor dado de la frecuencia (J> > O, mientras que


en una descomposicin espectral compleja (5.3.3} cada armnico
est representado por dos sumandos
V (w) etwt dro y V (-(J>) e-loll dw
y la dispersin de este armnico se divide on partes iguales entre
estos sumandos. Por eso la funcin s1,. (w) est determinada slo
.en el campo de frecuencias positivas reales fisicamente, mientras que
Ja funcin s,. (ro) est determinada para todas las frecuencias tanto
negativas corno positivas, aunque las
s
ltimas existen slo matemticamente.
En la fig. 5.3. 1 se muostra la relacin
entre las funciones s,., (ro) y sh (w).
Como la funcin s,. (w) tiene el mismo
sentido que la s1 ,. (ro} y la diferencia
entre ellas se determina solamente por la
- - - - - ,:+- - - --w
:::- forma matemtica de registro de la des0
composicin espectral de una funcin
aleatoria estacionara real, la funcin
F ig. 5.3.1.
s,. (ID} ge llama densidad espectral da la
funcin aleatoria estacionaria X (t) al igual que la funcin s1" (ID).
La.s frmulas (5.3.H) y (5.3.15) que ligan la funcin correla't iva y la densidad espectral s., (w) representan una forma compleja de
olas frmulas de Wiener-1inchin (5.2.22) y (5.2.23).
En aplicaciones prcticas es siempre ms conveniente utilizar
la forma compleja de la descomposicin esp-0ctral. Por eso, en lo
sucesivo, al hablar de la densidad espectral, siempre tendremos en
cuenta la densidad espectral s., (ID) determinada en todo el eje numdco ro.
Adems de la densidad espectral s,. (ID), para la descomposicin
~pectral de un .funcin aleatoria estacionaria es conveniente intro.duci-r la funcin espectral
(o)

S,,. ((J)) = ~ s,, () d.

_.,.

'& ()bv~o

ql!&

(5.3.17)

la. densidad espectral es la derivada de 'la funcin

.el!P.ectr al:

s,. (<0) = s~ (w)

(5.3.18)

.Sustiiuyendo en la frmula (5.3.17) la expresin (5.3.11) de la densi-0,ad espectr!).l y cumpliendo la integracin con.i:especto a obtendr&mos la siguiente expresin de la funcin espectral a travs de la fun-

219

5.9. Descompo1lcln e1pectr4l de un4 /uncl611 aleatoria

..5

ci6n correl ativa:

2~ 1

S,., (co)-S,, (O) =

l - -lcn

kx('t)

'\'

(5.3.19)

d"t.

Ejemplo 5.3.1. Para la funcin correlativa exponencial


(5.3.~0)

kx {'t) = De-< ftl

..5

la frmula (5.3.11) ofrece la siguiente expresin do la denl!ldad espectral:


s,,(6>)= ~

.-O: l 'ff-hO'fd't.

Para cumplr la iotegrac!n, observemos cue 1 '\' 1 - l' cunndo -r > O y 1-r 1
~ - i- cunndo '\'<O. Por eso, dividiendo el intervalo de integracin en dos
parios, obtundreroos
x((,))=

..

5 e<ci-lw)'<d'\'+ 5,-<a+l<o) 'td] =

o
=

a~l4.> +

a+l6>

o bien, reduc: it-ndo los quebrados a un comn denominador,


D
a

(5.3.21)

a.z+ roz

'" (Cll)=n

Esto resultado concuerd a por comploto con (5.2.46).


E jemplo 5.3.2. Para In funcin correlativa
k., {'t)=D- "'l"I cos C!lo'\'

la fnnuln (5.3. H) da
Sx (c.i)=

..

::i J.,-a

<i-fc.>1' C0\5

(5.3. 22)

6>o't dl'.

-oo

Divid iendo el i ntorvnlo de integracin en dos partos y oxpcesando el coseno

por modio de las funciones oxpn11enditles, obtendremos


o
o
s,..{6>)= ~ [
e<o:-i<O+IO>o)'<d't + ~ cx -!c.>- OIO) Td't +

..
+\

- oo

-Q6

..

e- <a+l<0- lei>ol"d't + \ e-<a+1....1.,.,)Tc/t]=


~

=,..[
1
+
....
a+ t(wow)
+

1
Cl -i{wo+ c.i)

a-{c.>0 - c.i)

+
1

a + i(c.io+6>)

220

Cap . S F11nco1U!s ultalorl11S staclMarlas

Rcducion.Jo los quebrados


obtendremos

K u11

coinn donomi nador y poniMdo ji

~'+wt

Da

p +2 (a'- o>ij) w + .,

x (w) = : l

+ <~~.

(S.3.23)

Ejemplo 5.3.ll. l'srn una func.in correlativa ms eneral


k.x(i:)=De"'" I lcos oo0T
!l<'ll (l)o 1i:1).

+ "/

(5.3.:.!4}

hallamos do un 1t1o<lo complrtamcnle anlogo


,
X

((l))-~[
4:\

1+1v
a+/ {"'i)- W)

1-fy

~ - f (<.io + <}

+
t-tv

a-f((l)o - <Jl

1+1y

a+t(w0 +w)

o bicu, suprimiendo Jas magnitucfos imaginarias,

n [

.,(w)=-zn

a-v (w- w.,)

a'+C<11- 0l0)i

a+v(w;-(l)o) ]

+ a+(w+(l)o)'

(5.3.25)

nednc!ondo los quebrados a un comn rlonomin11dor, obtendremos


'"

(61)

=n

(a-f- ywol ~' +< -vwo) wi


~+Z {a"-Ql~)_w:+wJ

(S.3.26)

Es evidente ruc la frmnl:l (S.S.23) os un caso particular do l':>l.a frmula cuando


y = O. En otro ca.so parLicular, cuando 1 = a / w0 la frmula (5.3.26) loma la

forma

(5.S.27)
Este caso particular Uono una importancia prctica especial, puesto que corrosponde a la funci6n al~11tcria drereociable X (t) que tionc la derivada con
dispersin ini~ (vaso el ojoruplo 4.6.1).
Resnl vnmo~ ahora PI rroblema inverso: considerando asignada la densidad
e~pectral (5.3.26) , httll amos la funcin correlativa. !Zustituyendo la expre.,ln
(5.3.25) 011 111 frmula (l.3. 15), t endremos

1'%('r)-~[

'fJ a-)'(W-c.>o)
a+(o> - mo)~

2.n

tl"'Tdt0+

-~

rJ

C<+)'(Ql..L.Wg) e6ltr,],
a +(6l + <DQ):

-~

Sustituyendo las variables ro - ~


(l)0 en l a primeu integral y w = en la segundo, la frmula obtenida se reduce a la forma
D [

k,. ('t)=n

a009"1o't

rJ

.iT d

a+s -iysenw0'f

-~

.. ef't d

a+'

.,O

l
J.

-~

De aqu , tomando eu consideracin que (vase las frmul as (16) y (22) del suplorn'cnto)

J~=~a -"''' _J..,f


oo

_.,. a:t+t

e "dfJ = { '-"lI

as+'

si 't>O,

-In-"''' si i: <O.

obtendremos, como er11 de O!pcrar, h. frmula (5.3.24). tn el caso particular,


cuando 'V - O, obLcndrcmos para la fu11ci6n correlatln la frmnltt (5.S.22).

.'i.3. Ducompo1lcl6t1 e1pu1NJI de u.no. funcin aleatoria

221

En el 5.1 vimos quo la derivarla de una !uncin aleatoria estaclonorie diferenciable os siempre estacionaria. Por eso se puede
pl11nte11r el -problema: hallar la densidod espectral de la derivada de
una funcin aleatoria estacionaria. ;Conforme a la frmula. (5.1.12)
la funcin correlativa de la derivada Y (t) = X' (t) de la funin
aleatoria estacionaria X (t) es
k111 ('t) = -k; (t).
Sustituyendo aqu l a expresin (5.3:.15) de
la funcin correlativa de la funcin aleatoria
X (t) obtendremos
k 111 ('t) =

..J

w~s.~ (<l) e'"'~ dw .

t'ig. 5.3.2.

Comparando esta frmul a con (5.3.15), vemos que la densidad espectral de l a derivada Y 1 (t) se determina por la frmula
sv1 ( 6>) =

ro~s"

( w).

(5.3.28)

A.s pues, la derivacin de una funcin aleatoria estacionaria conduce


a la multiplicacin de su densidad espectral por ro 2
De l a frmula (5.3.28) se ve que l a densidad espectral de la derivada do una funcin aleatoria estac.ipnaria es igual a cero ,para ro = O
y la curva que la refleja toca al eje de abscisas en el origen de coordenadas (fig. 5.3.2). De aqu resul ta que, para que la integral de la
funcin aleatoria estacionaria X (t) sea una fu ncin aleatoria estacionaria con dispersin finita, es necesario que la densidad espect ral
de la funcin aleatoria X (t) y su primera derivada se conviertan
en coro cuando c.> = O.
Examinando las expresiones de la densidad espectral obtenidas
en los ejemplos anteriores, vemos que l a int egral de la densidad espectral , multiplicada por 6>1 , se converger y, por consiguiente, la dispersin de la derivada de l a funcin aleatori a ser finita slo para la
d ensidad espectral (5.3.26) cuando y = a.lw 0
Es fcil comprender que toda densidad espectral continua sx (ro)
quo no se convierte en cero cualquiera que sea el valor de ro y que
tiende asintticamente a cero cuando 6>-+ 00 1 se puede aproximar,
eon cualquier grado de precisin, por una funcin frac.cionaria racional, es decir, por la relacin de dos polinomios. En efecto, como es
sabido, toda funcin continua, en cualquier intervalo finito de variacin de la variable independiente, puede ser aproximada, con el
grado de precisin deseado, por un polinomio. P uesto que por supos icin, la densidad espectral s,. (6>)-no es igual a cero para ningn
valor de w y tiende asintticamente a cero cuando ro -+ oo, es
conveniente aproximar por el polinomio la magoitud inversa 1/s,. (w).
Con ello, l a densidad espectral s" {w) ser representada por un que-

Cap. 5 Funcions aleatorta.s estaclo1uirtas

222

hrado racional con numerador constante.~Claro est que al tomar tambin en el numerador un polinomio en voz de la constante, se puede
todava ms fcilmente alcanzar el grado deseado de precisin de
aproximacin de la densidad espectral. En este caso en la expresin
de Ja densidad espectral figurarn solamente las potencias pares de (!)
puesto que la densidad espectral es una funcin par. Adems, todos
los coeficientes existentes en el numerador y en el denominador de
la expresin de la densidad espectral sern realos. Por eso todas las
races del numerador y del denominador sern por parejas complejas
conjugadas. Ahora bien, todas las ralees del numerador y del denominador de la densidad espectral racional fraccionaria siempre se disponen de un modo si111trico con respecto a los ejes real e imaginari<>
en el plano do la variable compleja w. Al descomponer este quebrado
racional en quebrados simples, siempre podemos agt'upar las fracciones correspondientes a cada pareja de las races conjugadas puramont(}
imaginarias del denomi11ador y l as fracciones correspondientes a cada
cuatro raices del denominador dispuestas simtricamente con respecto n los ejes real e imaginario. Como resultado obtendremos para cadl\
cuatro rafoes complejas dispuestas simtricamente un sumando de la
forma (5.3.25). A los sumandos del primer t ipo les correspondern
en ln expresin de la funcin correlatva las funciones exponencia
les, mientras que a los sumandos del segunto tipo les corresponder n
las funcines ele la forma (5.3.22) o (5.3.24). As pues, vemos que la
funcin correlativa de prcticamente toda funcin aleatoria estacionaria so puede aproximar, con un grado de precisin cualquiera, por
una combiuacin lineal de las tres funciones correlativas tipo examinadas en los ejemplos anteriores.Esto es lo que determina la Importancia de l as t res (unciones conelativas tipo estudiadas.
Estt claro que, al igual que en todo.'> otros problemas de aproximacin, la representacin aproximada de la funcin correlativa obtenida
por esta va no ser nica.
Para calcular la integral (5.3.16) al determ~nar lo.s dispersiones
declas funciones .aleatorias estacionarias valindose de las densidades
.
eiipetra's cooo-cldas, s ,puede ap1ic.ar la frmula

; ~=;.
n"?

rJ bo (i~}'ln-2 +bt

~~

(ioo) 2 n-a+ ... +bn - dioo)i

+ lln- 1 d ~

1a0 (toon+ai(loo)n-1 + ... + an-1ioo+ 11 n I~

l -

= (- 1)n+1 _::_ An
a0

Dn '

(5.3.29)

donde D. es el determjnante de eJJsimo orden que se obtiene por la


regla s iguiente : en la diagonal principal se ponen Los coeficientes
a-, az, ... , " y los sitios vecinos a ellos se llenan por aquellos de
los coeficientes a 0 , a 1, , que entran cu la lnea dada de modo
que sus nmeros en cada linea se dispongan en orden decreciente;

5.4. Nocin de ruido blanco

223

los sitios que quedan libres se llenan de ceros


a1

a0

a8

a2

D,. = a6 a4

O O O 0 ... 0
a 1 a0 O O . O
a8 a 2 a a0 O

o o o o o o

(5.3.80)

"

A11 es el determinante que se obtiene sustituyendo en D11 los elementos de la primera columna por los coeficientes 60 , b1 , , b,._1:

An =

boaoOOOO ... O
b 43 G1 aa 0 0 ... 0
ba a4 a~ a 2 a ao . .. O
bn-1 O

o o

en particular

11 = .!!:....~.

bo
br
f3 =~ ba

z.

(5'. 3. 3i)

4n

_...!!... /Joa, - b,o0


4o

OtO:

bo a0

z oa,
o "

l4=~ b$

Cl3

b,

' o
a3 a2
o o

O O


04

03

o o

ao

44

. ' o o
a~

Uz
a4

o o

5.4. l\\ociu de ruido blunco

Examinemos Ja Io.ncio aleatoria estacional'ia X (t) con la donsidocl


espectral const an te s 0 Su funcin correlativa, en virtud de la frmula (5.3.15), es
k" (T) = s0

...

elw< d(J).

Pero conforme a la frmula (2.2.22) que expre.;a la funcin delta


impulsiva en formo. de l a integral de Fourier

..

~ e'"'' dv> =

2ru'I (i:).

Por consiguiente, l a funcin correlaUva de una Cunci6n aleatoria


estacionaria con densidad espectral constante s 0 se determinn por

Cap . 5 Funr.iottes aleatorlrls tstacfon.ati a$

hi frmula

k" ('T) = 2n s 0 11 ('t).

(5.4.1)

La funcin aleatoria estacionaria con densidad espectral constante se llama mido blanco estacionario. Este nombre se explica por
cierta analoga que tiene tal funcin aleatoria con la luz blanca: la
luz mencionada representa la suma de todas las componentes espectrales que poseen una misma intensidad; el ruido blanco es l a suma
de l as oscilaciones armnicas de todas l as .frecuencias que tienen una
misma dispersin de amplitud. Con otras palabras, la luminosidad
sumaria de la luz blanca est repartida uniformemente en componentes espectrales, es decir, en frecuencias de l as oscilaciones electromagni?ticas que la componen; la dispersin sumaria del ruido blanco
est repartida uniformemente en frecuencias de las oscilaciones
t1rmnicas que lo componen.
El multiplicador ad junto a la funcin delta
v =

2n s 0

(5.4.2}

se denom ina intensidad del ruido blanco estacionario. La funci6u


correlativa del ruido blanco estacionario se expresa por medio de la
intensidad del mismo por la f6rmula
kx (i') = vB (i:).

(5.4.3)

La frmula (5.4.2) muestra que la intensidad del ruido blanco


estacionario es igual a l a densidad espectral del mismo multiplicada
por 2:n: y, al contrario, la densidad espectral del ruido b lanco estacionario es igual a la intensidad del mismo dividida por 2n.
Generalizando la nocin de ruido blanco, llamemos m ido blanco
a toda funcin aleatoria cuya funcin correlativa contiene como
multiplicador la funcin delta. En concordancia con esta definicin
la funcin correlatha del ruido blanco X (t) se determina por la
frmula
K,.(t, t ') =G(t)o(t-t')=
(t}G (t') B(t-t'>
(5 .4.4)

ve

I,.a luncin G (t) que representa el multiplicador adjunto a la


funcin delta en la expresin de.la funcin correlativa del ruid o blanco
se denomina .Intensidad del mismo. En el caso particular, cuando
la in.tensidad del ruido blanco es constante, ste es estacionario.
Enel cas general, siendo variable la intensidad, el ruido blanco no
es e8t acionsrio.
La frmul a (5.2.32) muestra que las funciones aleatorias U (ro)
y Z ((1)) SO!l ruidos blancos que tienen una misma intensidad igual
a la densidad espectral s1,. (m) de l a funcin aleatoria estacionaria
X (t). Semejantemente l a frmula (5.3.8) mues~ra que la funcin
aleatoria. V (w) representa un ruido blanco cuya intensidad es igual
a la densidad espectral s,, (w) de la funcin a leatoria estacionaria

X (t). La frmula (5.2.21) ofrece la expresin de la funcin aleatori a


estacionada X (t) por medio de los ruidos blancos reals no correla~
cionados U (ro) y Z.(ro). Anlogamente la frmula (5.3.3) expresa la
funcin aleatoria estacionaria X (t) median te el ruido blanco com,
piejo ;f (>).
En el caso general, el ruido blanco V (ro), al iguar que los rmdos
blancos U (w) y Z (w), es no estacionario: Por eso la f&roula (5. 3;3.)
ex.p resa en el ({aso general Ja funcin aleatoria estacionaria del tiein
po X (t) por medio del ruido bl anco no estacionario de la frecuencia
V (ro). Y solamente en el caso particular, cuando. Ja densidad :espect ral s 0 es constante, la frmula (5.3.3) expresa el i:uido blanco.,estaiot
nario del tiempo X (t), que tiene la intensidad 21t8 0 , med iante.. el
ruido blanco estacionario de la frecuencia V (w) cuya intensid!!-d :es
igual a s0 As pues, en este Ca.50 el ruido blanco estacionario X,{t)
tiene la densidad espectral s 0 y l a intensidad 2ru0 y el ruido blanco
estacionario V (w) tiene la intensidad s 0
El ruido b l anco es el tipo ms simple de una funcin aloatoria
deb ido a que sus valores, siendo diferentes los valores del argumento,
no estn correlacionados. A la expresin de una funcin aleator ia
mediante una funcin aleatoria ms simple (ruido blanco) la llamaremos representaci6n can6nica integral de la funcin aleatoria. Las
frmulas (5.2.21) y (5.3.3) dan las representaciones cannicas integra
les de cualquier funci aleatoria estacionaria. Las representaciones
caDni cas integrales de las funciones aleatorias son muy ccnodas para
l as aplicaciones. Precisamente esto explica el gran papel que desempean las descomposiciones espectralet; (5.2.21) y (5.3.3) en his aplicacionCls de la teora de unciones aleatorias cstacionaria::s.
En la naturaleza no hay ruidos blancos perfectos del tipo de la
funcin doltn. Es to se explica por el hecho de que en la naturaleza
no existen objetos ni procesos carentes por completo de inet"cia. Por
eso en todo fennieno fsico el valor de la funcin aleatoria en ol
Jlunto dado determina tambi~n en cierto grado los valores de la
misma en otros puntos cercanos. No existe tal magnitud fsica cuyo
incremento <lur1111te un interv:tl.o de tiempo por m11y iequoiio que
sea pucliern sel' tau grande como se quiera. P aia crear un proceso
aleatorio con el cual alguna magnitud fsica obtuviera ininterrumpidamente inciementos a leatorios con dispersin lifinita se exigida
una potencia ioiinita. Por eso en la natura leza existen solamenlc
tales fun.cioncs aleatorias cuyos valores, en los puntos suficicntement.e prximos, eistn .correlacionados.
As pues, la n ocin de ruido blanco es solamente una abstraccin matemtica cmoda. No obstante, como siempre en la prcti
ca, no hay ninguna necesidad do que los objetos reales corrcspoodan
exactamente a los conceptos cienticos abstractos, en particular,
no h ay ninguna necesidad de que exista un ruido blo.nco perfecto.
Prcticamente el tiempo y otras magnitudes fsicas sc miden siempre
1 ~ - 0\)38

Cop . 5 Fuucioncs al,atoria1 estacto12arla. ~.

con precj:;in hasta cierto iutervalo y todos los v alures de la magnitud


examinada, la diferenci a entre los cuales es menor que este inter valo,
se con::iideran como coincidentes. Por eso, desde el punto de vista
Jll'ctico, la funcin aleatoria puede ser considerada como un ru ido
l.Jll\nco siempre que l a correlacin entre sus valores se haga extensiva
sol:~mente a los iutervalos de variacin del argumento que son menores
t uc el inLervalo mni mo perceptible a l a proci::iin de medlcionos
adopt ada. Con otras palabras, l a funci n aleatoria puede considerarse
como un ruido blanco si e l intervalo de cor relacin <le la m.i.sma es
rncnor que el interval o nlo imo perceptible. Con ello, se llama intervalo de correlactn a Lal intervalo minimo quo lus valol'es de l a funcin aleatoria divididos por cualquier intervalo cns grande se puedan
co11siderar prcticamente 110 correlacion.\dos. Gsta clt~fi nici6n muestra
que la nocin de i ntervalo de correlacin es purau1enLe prcticu y u o
es 1111 concepto wntcmtico riguroso. Por eso paru UJ1a misma fu nt~ic'>n alea toria ol in tervalo de correlacin t cndrt\ diferentes valore11 en
dependencia de cules sean los va lores del coeficiente de correlacin
que vamos a considerar despreciablemcute peque~.
Supougamos que u na funci n aleatoria cstacio11aria con funcin
correlativa kx ('t) puede ser considerada prcticamente como ruido
bl11nco. Surge la pregu nta: cmo determinar la interu;idad de este
millo blanco? Para rec;pondor a esta pregunta, obsenamos que para
u111uldo bla.n c.o perfecto, en virtud de (5.4.3) , ln intensidad so deter mina por la frmula

..,

V= )

kx ('t) d't.

(5.4.5)

- oo

Por l'!lt n misma frmula se determino nalura h1w 11LI! ta1ubi11 la inte11$idad de \JJl ru ido blanco real con fw1ciu correla tiva kx ('t)
distintR de la funcin doltR. En virturl de (o.3.1'1) la integral eo el
miembro derecho de la frmula (5.4.5) p uede ser expresada por medio
del valor de la densida d espectral para 'l - O. Como resultado la
frmula (5.4.5) tomar la forma
V

= 21' Sx (0).

(.5.4.6)

Es obvio que una funcin aleatoria estacionaria cuyas fi10cin


correlativa y densidad espectral se de terminan por las frm ulas
kx (t) = D e-"-1TI,

(5.4.7}

prrictlcamonte puede ser considerada como ruido blanco (ruido blanco real) siempre que o. sea suficientement e grande. En efocto, cuaudo o. es suficientemente grande, el valor de la funcin correlativa
exponencial ser tan pequeo como se quien para t =!=O cualquiera.
P or eso, cuando o. es lo bastante grande, el intervalo de correlacin du

$.4 . V ocln de ruido blan.:o

227

esta funcin aleatoria ser tan pequeo como se quiera. Con ello, su
densidad espectral ser prcticament.e constante en una gama considerable de frecuencias. Es evidente que la gama de frecuencias en la
cual l a densidad espectral (5.4. 7) puede considerars.i prcticamente
c:onstanw puede ser hecha tan grande como se quiera eligiendo
a suficientemente grAnde. En virtud de (5.4.6), 111 intensidad de este
ruido blanco real es igual a 2D/ a, es decir, a la dispersin del niisrno
multiplicada por 2/a..
Ahora bien, la densidad espectro.! de cualquier ruido blanco
e.~taciouario real no es constante, pero puede considerarse p?cticamente constante en cierio intervalo de frecuencias fuera de1 cual
eUa tiende a cero.
Ejemplo 5.4.t . En el ejemplo 4.2.7. fue mostrado que la. !upcin cprreln
~lva do l a corriente que pnsa por el circuito cornpuest de. un coi1densador do
capacidad C, cargado por el !lujo <le partculas cargadas. y de una resiRt oncio
R es funcin oxpon0nc1al <lo 111 difereur.ia de los argumento~ lf6rmula (4.2.43)1.
ExaJninemos un caso p1uticul11r ~n que la media de la carga de cada partr.ulu
q es igual a cero. En este cai;o la funcin correl ativa do l a corriente que pas11 por
el eireulto ~e determina por la f6rmula
D -~<J
k('t) = 2T'

donde T = RC e3 l a corn5tante d el tir.mpo del circuito y 1 es ln densidad media


del fluj o de partculas que van n parar al condensador (la esperanza matern~tl
ca dal nmero do partculas en 1~ unidad de. tiempo) . Supongamos que la densidad medi del Oujo de partculas crece illnutadamente. rnientras que la
magnitud de carga de cada pnrtlcula va disminuyendo do modo que el producto
~n quede c.onMnnte, igual 11 '' Rn e.~te cnso
ltJ
V

k ("t) = 2T t

--

Cuando T-. O es1a funcin tiendo a cero para cualquier T :f= O y k (O)-+ oo.
La intogral de esta funcin, en los lmites infinitos, queda en em caso const1mto,
Igual 11 v. As, para pequeos valore~ de la constante de tiempo T, lH corrie11te
que 1>a~a por el circuito e.s p1xima n.l ruido blanco con intensidnd v. En el limite
p&ro T ~ O. ln c.orrianto on ol circuito repl'osentn un ruido blanco cstnc.lon111fo
ptU"fecto. As pues, el rui.do blanco pcriocto se puede representar fsicarof.nto rnmo
unn sucesin continua de impulso~ nfinitesirnales no correlac.i<>nndos que
~ijfUNI uno tra11 otro con densidad medi:o infinita.
Observarnos que en ul ejemplo examinado el ruido blanco perfocto 11c obtio
no sol11mnntc cunndo T - O, l!!I decir, durante la descorJa del condensador,
que vn cargado por el flujo de partculu, a t.rav~ de una resistencia nuh. Pnosto
que en la naturaleza no exfate la resistencia igual a cero, 6<I pnodc hablar :wlamcnlc de una resistencia muy poqnaia. Esto ilustra el hecho de rull 110 exi~te
un ruido blanco pnrfccto, sino que exif:tcn solnmontc fuudones ale.. t.orfo~ pr.~imas

al ruido blanco.

P11ra reflejar Ja limi tacin de la gama de recuenc1s en la cual


la densidad espectral es constante, se int.roduce geuera lmente l n
nocin no ruido blanc.o de bo.nda. Se denomina ruidQ lit.aneo de banda
a una funcin aleatoria estacionaria cuya donsidnd espectral es cons15

228

Cap. 5 Funciones akatorias estacionaria

tante en cierta gama de frecuencias y e.'! igual a cero fuera de esta


gama:
s0 si 1w .,.;: (1)0 ,
(5.4.8)
s,, (w) = { O si 1w1 > Clo
.Sustituyendo esta expresin do la dcnsid11d eo<pootral en la frmula (5.3.15), hallamos la funcin correl a ti va del ruido blanco de banda:
kx (i:) =

o bien

s0

(Ir .

ei<T d<oi =

~iwui: _e-i(&){)'f

S,

i't

-"'<l

"o
l>x (i:) = -~-sen
't

.l 0 i:.

(5.4.9)

Sustituyendo la expresin (5.4.8) de la densidad espectral en la frmula (5.3.16), hallaremos la dispersin del ruido blanco de banda:
D,, = kx (O) =

"'

So dw

= 2sow0

(5.4.10)

- 00

As pues, la dispersin del ruido blanco de banda es finHa. Desde


este punto de vista l os ms real que el ruidQ blanco perfecto. ::>in
embargo, tampoco los ruidos blancos de banda existen en la naturaleza, puesto que no es posible una variacin discontinua de la densidad
espectral hasta el cero con el valor dado ro 0 de la frecuencia.
La frmula (5.4.!l) muestra que los valores del ruido blanco de
hnda en Jos puntos, divididos por cualesquiera intervalos mltiptes de st/oo 0 , no estn correlacionados. As, los trminos de toda
;;ecuencia aleatoria formada por los valores del ruido blanco da
lianda en los puntos equidistantes, divididos por el iotervalo n l <o,
no estn correlacionados. Con otras palabras, la secuencia aleatoria
de los valores de un. ruido blanco de banda, tomados cada intervalo
n/ro0 , .se puede considerar como ruido blanco dtscreto, es deeir, como
~iii;esi/;l de ip:.pulsos aleatorios no correlacionados. Por eso el ruido
.Jl'!tfnc.o..ie })anda desempea el mismo papel en la teori de secuencias
fi1eatorias--:que el ruido perfecto en l teora de procesos aleatorios
del. argumento que vara continuamente.
'5.5. Fnncioncs aleatorias estacionarias ergdtcas

Para determinar la esperanza matemtica de una funcin alea


toria es necesario conoer su densidad unidimensional de probabilidad. En el caso en que las craracteristicas probabilsticas de la
runcin (:l.leatoria no.son. conocidas, entonces, para la determinacin
experimental de su esp.e ranza matemtica, hay que observar un
nmero suficientemente grande de sus realizaciones para cada valor
dado del argumento t. Entonces, conforme a los resultados del ejem-

.~

5.5. /:'u,.cionu aleator((>S e1taclo1tarta1 .rgdlcas

plo 3.9.2, l a media aritmtica de l a funcin aleatoria para cada va lor


de t, tomada segn todas las realizaciones observadas, puede considerarse como valor de su esperanza matemtica para esta t. Coa otras
palabras, para la deter minacin experiment.al de la esperanza mate.
mtica de u.na funcin aleatori a. se necesita obtener un nmero bas"
tante grande de sus realizaciones y tomar el valor medio de estas
realizaciones para cada valor dado del argumento t. Per.o la..esperanr
za matemtica de una funcin aleatoria estacionaria es constant e.
Por eso cabe pregun tar: se podria utilizar par a la determinacin
experimental de la esper anza mat emtica. de una funcill alEiat9~a
estacionaria l os valores de una reaHzacin suya para dHeret\le
valores del argumento en vez de los valores de 'u n gran nmer o de
diferentes realizaciones para un mis mo valor del arg\llllento? Y en
generul se podra aprovechar la circunstancia de que las caractersticas probabilsticas de las funciones aleatorias estacionarias no
cam bian, cualesquiera que sean los decalajcs en tiempo (o en general
a lo largo del eje del argumento), y deter minar las caractersticas
probabilsticas de la funcin aleatoria estacionaria por una realizacin suya, desplazndola por el eje del argumento mediante todos
los proced imientos posibles? Para resolver esta cuestin, pongamos en
claro cules son las condiciones en que una sola realizacin de la
funcil'l aleatoria estacionaria , desplazada por el eje del argumento
media nte todos los mtodos posibles, puede su ~tituir una gran cantidad de reali zaciones que se observan al toner el argumento un solo
valor fijo.
Ms exactameutc, h111lemos las condiciones en que la esperanza
matemtica de una funcin aleatoria estacionaria puede ser determinada como valor medio en tiempo do las ordonadas de una realiz11ci6n suya tomada arbitrariamente. Con otras palabras, determi o~
mos cules son los condiciones en que para cualquier realizacin :i: (t)
de la funcin aleatoria estacionaria X (t) tiene lugar la igualdad
aprox imado

+
T

mx:::::

x (t) dt.

(5.5.1)

E11 obvio que la integral del segundo miembro de esta frmula tiene
diforentes valores para distintas realizaciones posibles de la fu ncin
al1:.1atoria X (t). Por eso los valores del segundo miembro de la frmula (5.5.1), correspondientes a distin tas realizaciones posibles
de la funcin aleatoria X (t), son v11 lore.<> posibles de la mngni tn<l
uleotora
1'

Y1 =+

JX (t)dt.
o

(5.5.2)

Cap. 5 Funclonts akat<iriat utae1onarla1

La' esperanza nrnl.cmtica de esta magnitud aleatoria es, e"idenle


mento, igual a m,, puesto que la cs1>eraoza matemtica de la funciu
aloatoda estacionara X (t) es constante e igual a m.,. Por eso, para
que se pueda escrLbir lA igualdad aproximada (5.5.t) , es necesaria
y suficiente la pequeiioz de la dispe1sin de la magnitud aleatoria
Y T Bn virtud de la frrnu l11 (4.7.5) para lu dis persin de la integral
de la funcin aletoria, In dispersin de la magnitud aleatoria Y r
se expresa por la frmula
T

D [Y,.] = .-lf r

y1

Jr X (t}dt~mx 'J\. 2] =
u

= ;2

T T

) ) k.d t- t') dt dt'.

(5.5.3)

u ()

Esta frmula mut'$tra que la disper.1in de la magnitud aloatoria Y r


y, por lo tanto, el error cuadrtico medio de la igualdad aproximad u
(5.5. i), se puede hacer tan pequea como se
quiera eligiendo un valor de T bastante
grande, siempre que el vnlor medio de la
funcin correlativa eo el cuadrado con el
lado T tienda a cero al aumentar ilimitadamente el lado de este cuadrado. La condicin suficiente para esto es la existencia d.e
uu tal valor -r0 qui! la funcin correlativa
k,, (-r) pueda ser considerada prcticamente
igual a cero para 1-r 1> i:0 Con otras pnlol' ig. 5.5.1.
bras, para que la dispersin de la magnjtud
aleatoria Y r tienda a cero cuando T-.. oo,
es suficiente que exL5ta el intervalo inilo de correlacin de la Iuncin aleatoria estacionaria X (t).
PAra demostrar lll afirmacin expuesta, supo ugimo~ que para
cualquier & >O existe tal i- 0 >O que

,.

(5.5.~)
< e si 1 't 1 > To.
Dividamos el cuaJ.rado O < t, t' < Ten tre~ zouns con ayuJ.a tlll

1 k.~

(-r)

los rectas t - t' = i: 0 (En la zona St. Solllbre11da eu la fig. 5.5.1,


la funci11 correlativa no sobrepasa su valor en la diagonal k,. (O)
=D,, y en las dos zonas restantes, sciialad ns en la fig. 5.5.1 por la
letra S 2 , la. funcin carrelativa es ruonor quo e. Por consiguiente,

T T

) Jk.,.(t oo

t')dtdl'< Dx t r<.>a S 1 + e iiroa s~ .

(5.5.5)

Pero el rea de la zona S 1 es menor que 1' V2'toV2 = 2T 'to y el


rea sumaria de las zonas seiialndas por la letra S 2 es menor que el

5.5. Funcio1us al~alorio.< <.<taclonarlas br16dlcos

231.

Area del cuadrado T'. Por lo tanto,


T 7

.\o Jo kx(t y

t')dtdt' <2DxT-ro+~r-'

+, kx (t T T

t') dt dt' <

t +e.

20

(5.5.6)

Debido l a pequeei arbitraria de e, el segu ndo miembro de es.ta


desigualdad se puefle hacer tnn pequeo como se quiera eligiendo ur T
suficientemente grande. Ahora bien, de (5.5.3) y (5.5.6) se deriva que
la dispersin de la magnitud aleatoria Y,. tiende a cero .para : - oo
si la funcin correlativa de la uncin aleatoria X (t) tiende a cero
para T - oo.
Las uncioaes aleat.orjas ostacionarias para lM cuales ln t.oma de
1111 ,alor medio )Jrobahillstico por una numerosidad de Loda!I las realizaciones posibles se puedo sust ituir, al calcular las esperanzas matemticas, por la toma de un val or medio simple del tiempo de una
sola r ealizacin tomada arbitrar iamente, se den omi nan ergdicas.
En dependencia de cules son las magnitudes, ligadas con la funcin
alealoria eu cuestin, cuyos esperan7.as matemticas se puede c.alcular a base de w1a sola realizncin suya (cualquiera) tomando un valor medio del argumento, se puede hablar de diferente grado de
crgodicid11d. J!:n pnrticular, acabamos de demostrar que la t endencia
de Ja funcin correlativa kx (t) a cero para ,; -.. oo es ur111 condicin
suficiente de ergodicirlad de la funcin aleatoria esiacion11ria con
re.-;pccto a la espernnza matemtica.
La desigualdad (5.5.6) muestra que la dispersin de la magn itud
aleatoria Y T depende de la relacin cnt.Ie la longitud de registro T
d11 Ja roalizacin de la funcin aleatori a X (t) y el intervalo de cocrelarin 2 To de la misma. As pues, para poder escribir la igualda1I
aproximada (5.5.1) es neces11rio que la longitud de registro 1' lle Ja
Iu11ci.n aleato ria cstacioonria X (t) sea lo suficiouLemcute grande
cu co111puracin cou su intervalo de correli:lcin. Hablando metafricam1<11te, 5e pueJo dticir que la igualdad (5.5.1) es vlida si el iutervalo de registro T de la funcin aleatoria X (l) es lo sufir.ienlomente
gr ande 1arn que so manifil'.!Ste bien su c11rcter olcatorio.
Ejm 1plo 5.5. J. Cul lo.ogi Lud do 1cgf~tro de la rundu ulontoria cstaci<>

oara X {L). que tiene la !uncin r.orrelntivu /Je-a. ll Jcbo Lomarsn 1ara 1fotnr
minar su l!Speranza matem~tica por la frmula (5.~i.1) cl'ln 1111 err!'r c11ndr1irn
medio que no super~ a :Y'D lO?
Segn los datos, 111 d1si>ersi6u de In m1<gnillHI nl~ntnrin Y., 110 1lchc SUJJOra1
u11 esto 1:11so a D/ JO(l. l:'or eso el egimos

111 comlici6n

e = 0 / 200 v hallnwos

D -cn0 _ ...!!_
t
- 200

To purti~ndo d1

Cap. 5

Obtenemos -r1

::::

Fu11t;fotrl'$ 11lnilorias ~1tac:lonarl1Jlf

5,3/a.. !'ara que el primer SUmllJldo dd ~cgundo miembro de

In do:iiunldnd (5.5.GJ uo supw a D/200, es sulicie11te elegir 111 LoniLud de


registro T, partinndo do lo condicin

2DTo

-T--= 200 .
Dt 11qui hnlliu1111s 1'/'t0 = 400 o T :::: :H20/a.. Do este modo, para que el orror
cuadrtico medio, al dctermi nar la esperanzH matcmntlcl\ de la funcio aleatoria
j)(lt lu lt'Tnula (5.$.1). no cxccdn el 10% con rc.specto a lo drsvlacin cuadrtica
10edfn de la funcin RlMtorln. en rr.il~ ceM es suficiente rpgisl.rar la realiMcin
de IA funrin aleat.oria en el intel'valo T 200 veces mayor que el in~rvalo de
rorrdocin 2T0

El v11lor de In funcin correlativa kx (-i:0 ) de la funcin aleatoria


es In esperanza molemtica de la funestacionaria para cualquier
cin aleatoria Z (t) = X (t) X (t + T 0):

k:c (To)

= MXl (t) X (t + 't0)] = JJIJ IZ (t)J.

(5.5.7)

Por llSO en cie.rtas condiciones la funciu correlativa de una funcin


aleatoria estacionaria tambin puede determinarse a base de urJa

sola rcali7.ACin de esta funcin aleatoria tomando su valor medio


roferenle al tiempo. Esto es posible si la funcin aleatoria Z (t) es
ergdica con respecto a la esperanza matemtica. La condicin suficiente <le su crgodicidad es la tendencia a cero de su funcin C-Orrelativa k, ('t) para 1't 1--+- oo que se detcrmiua, cvidOJitcmente, por
el momento de cuarlo orden de Ja funcin aleatoria X (t). Calc.ulemo:i
In funcin correlativa de Ja funcin aleatoria Z (t) para el caso cuundo In funcin aleatoria c~laeiona ria X (t) est rcp11rtida uormalmen Le.
Para eslo hallemos primeramente el momento inicial de segundo
orden do la funcin aleatoria Z (t}:
f, (t, t + 't) = M IZ (t) Z (t T)I =
= M IX (t) X (t +o) X (t 't) X (t + 't0 -{- -t)I.

As pues, el momento inicial de segundo orden de la funcin aleatoria


Z ,(t) representa. el momento central de cuarto orden de los valo1es de
la funcin aleatoria X (t) para los valores del argumento t, t + To,
t 1T, t + -c0 + 't. Ex1iresando este momento mediante la funcin

correlativa de la fw1cln aleatoria X (t) por la frmula (3.11.34),


obtendremos
r, (t, t + ) = Jci, (To)+ 1c1 ('t) + k,, (T + 'fo) k,, (T - -Co)

Aplicando la. frmu la (4.2.12) que liga la funcin correlativa de una


funcin aleatoria con la esperanza matemtica de Ja misma y con
el momento de segundo orden, y teniendo en cuenta que la esperanza
mat.emticn do la funcin aleatori a Z (t) es igual a k., ('t 0), hallamos
lo funcin correlativa de la funcin aleatoria Z (t):
/,, (t) ..,. f, (1, t+-t)-k~ ('to)= k! (-c) +kx (-r -- To) kx('t-'to) (5.5.8)

5.5. /o'unclo1U!$ a.katoria.1 e.<taconar/Q.1 erg6di~os

233

De aqu se ve que l a condicin k,, ('T)-0 para 1T 1- oo t!S sulicien


te para la ergodicidad de la funcin aleatoria Z (t) con respecto o la
esperanza matemtica y para la ergodicidad de la funcin aleatoria
X (t) con respecto a la funcin correlativa.
As pues, el decrecimiento ilimitado de la funcin correlativa
de u na funcin aleatoria estacionaria normalmente repartida para
1T 1- oo, es la condicin suficiente 'd e su ergodicidad tanto con
respecto a la esperanza matemtica como con respecto a la funcin
correlativa. AJ cu mplir est a condicin, la-funcin cor.relativa de una
funcin aleatoria estacionarla X{t) normalment~ repartida, cuand<>
el valor de T es l o suficientemente grande, puede ser determinada
aproximadamente por la frmula

kx (i:o)

~ -} ~ :tfJ (t) z-0 (t +To) dt =

=+ J
T

[z(t) - mx]lz{L + 'To)-m.,]dt.

(5.5.9}

Ejemplo 5.5.2. Las funcio nes aleatorias estacionarias m>rm:tltnenlc ropartidu, cou laa tres funciones correl ativas tipo examina~n.s en los prralos
1mtn1iores, que contienAn como multiplicador una funcin e.xponencinl , son
ergdicu tonto con respecto a l n esperanzo. matemtica como con respecto n la
funcin correlativa , puesto que todas esta~ funciones con-elativa.s tienden 11 corocunndn 1..-1- oo . Por eilO l os o.5poranr,n~ mtlUlmtlca11 y l~s lnncioncs c:orrd11tivns de las mismM SI\ punden determinar vor lM frmulas (:i. ~d) y (.!Ul)puru un valor de T fo 5ufir.ientomento rande.

Ejemplo 5.5.3. l'nra una (uncin aleatoria esta.ciona.r la ~inusoidal de lrucuencia deierminada X (1) - U sen w0 1 Z cos 6loJ,
M IUJ ~ M (ZJ - O,
D 1U) - D (Z) = D, no se cumple la condicin su.Uciente de ergodicidad, pucstn que su fu.nein corrnlativa k:o: (T) - D cos <a 0T no ti onde a cero tu ando 1 . ., 1- oo. Para. establecer si na ee erg6dica o no, calculemos para ella los segundo~
miembros de las frmula, (5.5.1) y (5.5.9). Obt endremos
T
T

M!=+

X (t) dt= ;

r,

(U sen 6lot+Z cos ro0 t) dt ..

ll

=r'Wo- [U (1-cos loT)+Z aen <11oTJ.


De nqul se ve que el i1Cg11nclo miembro de Ja frmula (!'.5 . 1) tiende en esLe caso
a cero, es decir, a la esperania mRteintica do la funci6n alodoriR para T-+ oo .
Por In ~anlo, la funcin el eMnr ia r.stneionaria sinuso idal es eri;dica co n rP.spll(tl\ 11 la esperanza matemtico. De un modo eernojnnte hollamos
T

K~ (o) =

Jf X (t) X (t +o) dt""' -u+zz


2- - cns <Oo'l'.o
ll

p1m1 r1t11dtJs valores de T. De aruf ~ vo quo el sogund<> ullumb1C1 .i~ Ju fru1u l 11 (j .5 .9\ es aproxilnttdamento pruporcional al euadrado de lu aruplitml nl~awrla
A t - Ul
Z 2 rlc ln sinu soidi: y J'Or eso tiene diferP.111~5 \'alorcs 1ara cl istintos

234

Cap. 6 Funciones akaJrias estaclonarlo.r

realiz~iones.

l'or <:onsiguiou tc, la fundn eleawria estll{'jonarja sinusoidal no

ergdic u con resp...<:to a la lunci6n correlativa. Paro coofirmar esta deduccin,


calculomtS adems la dispersin de la inaguitud aleatoria K; (-r0) suponiendo
-que In~ mani111dP.s aleatoria.s U y Z estn repMtidas normalmente. Teniendo
P.$

-0n cu~nla que su 1spera11ia matemtica es igual n la lund6n correlativa kx (-rol =


=:: D cus m0 T 0 ol1tcndremo.~
DIK:(ro)] ::::<M [ (

ai;ze

C09>o'to-DCOS(l)o"to)

- M
l'<ir<I

f)ara la.,

magnitudc~

[u+w;v+z

]=

D (U'+Z+ D"

} :-OS2 6lo-ro.

aleatorias uormalmenle reparlid11.s el momento contra!

.d o cun.rto urdoo e;; igual al cuadrado tri,licado de la dispersin !vase la frmula (2.5.11) ). Por eso M 1uJ = M lZ J = 3D1 y obtendremo~
D [
(To} ) "' D2 cos' >o To

x:

lljcmplo 5.5.4. Cnalqui<r funcin aleatoria estacionnria con rr.alizacl1rne~


pu1nment.e sinusoidales no es orgdica con respecl.o a lu funcin cnrrelntlva
inrlu!o ~ su fondn corrolativa tiende a cero cuando 1't 1- oo. En efecV,
$i la luucin al~ntnria estacionaria X (1) se dntermina por La frmula
X (1) - "'x
U sen Ot
Z cos Q1 1

dondu U y Z son magnitudes aleatorias no correlncionadas, con ~speraoias


motemticQS iguales a cero y dispersiones iguales a D, y Q ~ cualauier magnitud
aleatoria no negativa mdoendiente de l11s magnitudes U, Z, enton~cs, conforme a los resu lados del ejem11lo anterior
T

M:=+

Jo X

(1)

dt""' m~.

US+Z'
x; (-ro)= r-1 J XO (t) XO(t + ro)dl~ --2--cosS:ho
u

r.

La primera frmula muestra que la funcin aleatoria


co n ~a liwcioncs purom~nte sinuwidales es crgdica con respecto a la espcranin
1ntemlfca. La segunda frmula muestra quo fJ .segundo miembro de la frmufo (5,.5.9) tiende .a diferentes llmitos para distintas realizaciones cuando T ..... oo
y no ~iende, para ningunl\ realizacin, a la funcin correlativa.
puru n111clt'S valores ele

Los ejemplos examinados muestran qutl ninguna funcin aleatoria estacionaria, lodas las posibles realizaciones de la cual son sinu-

:soldes, pucdQ ser ergdic11 con respecto a Ja funcin correlativa y, por

-consiguiente, su funcin correlativa no puede ser calculada con ay11d11


de una sola realizacin. En el 5.2. vimos que , cualquiera quo sea
la funcin correlativa kx ("t}, siempre existen funciones aleatorias
-estacionarias, con reali2(1.ciones puramente sinusoirleales, que tienen
osta funcin correlativa. Por eso a toda Iuncin correlativa k:c ("t) lo
corresponden siempre funciones aleatorias estac ionarias tanto org6<licas como no erg6dicas con respecto a la funcin correlativa. Por
lo tanto, conociendo solamente la funcin correlativa de una funcin

5.5. Fu>lcionts aleaiorias eslacionariu er.gcll.caa

235

aleatoria estacionaria, no se pu.ede determiiar si es ella erg.dJita


con respecto a la funcin correlativa o no. Para r esolver est!l cue~'
ti n, siempre se necesita d isponer de una i.n.foi::macih adiejo!ial c~rca
de las caractersticas estadsticas de -la funcin aleatoria estacionaria,
por. ejemplo, conocer que la funcin al~atoria est repartida )J:Ofllla'l~
mente. Como vimos, si se trata de funciones aleatorias estacionarias
normalmente repartidas, basta ,conocer la funcin correlativa pi:1ra
r <?.solver la cuestin acerca de la ergodicidad *).
Hemos visto que para una funcin aleatoria estacionaria, ergdica
con respecto a l a espernza matemtica y Ia. funcin correlativa, hr
esperanza matemtica y la funcin eorreltf:v.a pueden ser. calculad.as,.
por una cualquiera de -sus realizaciones', por las :frmulas. .(5.5.t:)
y (5.5.9), con ello, la fluctuacin de los resultados de lc;is clculos
para distintas realizaciones tiende a cero al aumentar ilimitadamnte
la longitud de las realizaciones T . Esto da razn para sustituir en la$
frmulas (5.5.1) y (5.5.9) la realizacin de la funcin aleatoria por la
propia funcin aleatoria y, pasando al lmite, escribir las ignalrl1\1lcs
exactas

i X (t) dt,

(5.5.10)

' X (t) X (t + -i) dt.

(5.5.11)

m.,= lm
T~>

Ir.<("t:) = lm }
T~>

C:n e~t.ns frmulas el l mite debe entenderse en el sentido probabilstico, es decir, en el sentido de que la esperanza matemtica del cuadrado de la diferencia entre la magnitud y su lmite tiende a cero (el
as llamado lmtte en la media cuadrttca). Ponieudo en la frmula
(5.5.11) i; =O, obtendremos lo. siguiente frmula para la dispersin
de una funcin Clleatora estacionaria, ergdca con respecto a la
funci u corr<llativa:

D~ = li m
T-+oo

~ [X

(t)JZ dt.

(5.(1.12)

l1

Expougamos ahora la interpretacin fsica de la nocin de densidad


espectral de una funcin aleatoria estacionaria. Para esto examinemos
la funcin aleatoria estacionaria X (t) ergdica (con respecto a la
foocin correlaLi n1).
En Jos problemils prcticos la funcin aleatoria X (t} representa
frecuuut~mentc la c.orl'ica.to o la tensin cxistentn en ciert.o circuito.

Vlmos c110 siempre bast.a ('. Ollocor la funcin r.orrelaLiva pora juzga1
ac!'r ca <le ln orgodiciJad de la funcin al~atorla est11cionnria con respl>cti1 a la
~speran..a matcrntico. De oqu se vuede deducir que para juzgar snb10 I ergollicidnd de una funcin aleat.oria cstaciouarn con rMpeeto a Ja funcin c:oTol aliva es Mulidl'nlc conocer el mom1mto de enarto orden d& r..st.a fu11cin afoatoria.

Cap. S l'u11clonu 1>uotoria tttaclonnrltt.

Con ello, la esperanza malemUca m:.: es 111 componente consta.nte de


corriente o de tensin, mientras que l a {uncin aleatoria centrada
X (t) representa las fluc tuaciones de la corriente o ele la tensin.
La magnitud !X (t)l1 es la potencia instantnea ele ln corriente de
fluctuacin, en la resistencia unitaria y la magnitud
T

IV=

y J[X (t)l dt
2

(5.:.i.13)

os la potencia media de la corri ente do fluctuacin on la resistencia unitaria. Pero conforme a la frmula (5.5.12) la magnitud W
para la funcin alentori11 estocionara ergdica X (t) no difiere prcticamente de la dispersin de la funcin aleatoria X (t) para T Lo
suficientemente grande, debido a lo cual se puede escribir

=+ J
T

[X (t)]idt.:::: D ,.

(5.5.111)

o bien, ten iendo en cuenta (5.3.16)


:r
...
w
[X (t)2dt;:::
s.. (Ci>) dCi>.

=+I

J.

t5.5.1.))

E~ta frmula muestra que la densidad espectral Sx (cu) caractori?.a


en este caso la distribucin de la potenca media de 111!! 11uctuuciontl>1
de la corriente en el espectro de frecuencias. Debido a este sentido
fsico de la densidad espectral , a sta so le llama con frecuenci11
densidad especLra.l de pot,ericla de una funcin aleatoria estacionaria.
La frmula (5.5.15) muestra que las fluctuaciones de corriente
pueden tener una densidad espectral constante solamente en aque l
caso cuando la potencia media de estas fluctuaciones es infinita. Esto
confirma la deduccin hecha en el prrafo precedente de que el rui do
blanco no puede existir fsicamente.

5,6. Densidad espectral recproca de dos funcioues


aleatorias estacion11rias y enlazadas estacionarlamentc

Hallemos la funcin correlativa recproca de dos funciones aleatorias estacionarias X (t) e Y{t). Para esto representmosl as por las
descomposiciones espectrales en forma compleja:
X (t) = mx+

..

JV (Ci>) e

(5.IU)

{5.H. 2)

1 1
" dw,

00

y (t) ""mv+

W (Ci>) elit d>,

.~

$.6. Dtn1idad <1pec1ral dt d o1 fu11cionr~ tltaelonaria

237

donde V(w) y W(ro) son dos ruidos bl ancos complejos cuyas lilte.nsidades son guales a las densidades espectrales s., (ro) y s11 (m) de las.
funciones aleatoria:s X(t) e Y(t) respectivamente. Para determinar
la funcin correlati va recproca, hallamos las correspondientes
funciones aleatorias centrales. Con ello, teniendo en cuenta la deterJOinacin de la fuucin correlaliva recproca de l as funciones aleatorias complojas, pasemos en la expresin (5.6.2) de ltl funcin aleatoria
real Y (t ) a lo.s magnit udes conjugadas complejas y cambiemos l a
designacin del argumento y de la va.r iable de integracin. Entonces
obtendremos:

..

X (t) = ~ V (rJ)) elH deo,

yu (t') =

_.,.,

""

} w (w') e-10>1' d-Ol'.

- oo

De aqu bailamos
l. '" (t, t') = M [X(t) Y(t')} =

J JM [l'

""

00

(l) W(111' )1

ci(w1 - (~ 1 > dwdi' .

P ero fo esperanza matemtica bajo el s igno integral representa la


funcin correlativa reciproca de los ruidos blancos V(co) y W((I)):
M {V (l) W ((l)')I = Kow ((1), w').

Por consiguiente, l a funcin correlativa recproca de las funciones aleatorias X(t) e Y(t) se expresa por medio de In funcin correlativa
recproc;,1 tlo los ruios blancos V(w) y W(w) por !>1 frmu la
K ,.1, (t. t') ""'

J ..) K. ,c

""

- oo

(ro. co>') c1((l)t-<o>' 1'>du>

d 111' .

(5..3)

-t'O

Esta Irmuln muestra que en el caso general las funciones aleatorias


pueden estar ligadas no es tacionariamento, 1>uesto
que su funcin correlativa recproca depende de dos nrgumenLos por
so1iarado. Paro que las funciones aleatorias X(t) e Y(t) estn ligadas
esLacio11ar iaU1onte 1 es necesario que sea K rw ((), w') = O para
w'
co; es decir , que los valores de los ruidos blnocos V(<il) y W(w),
si1:mdo 1liferentes los valores de la frecuencia ro, estt!n 110 correlacio
rrndos. En este e.aso la funcin correlativa reci proca de los ruidos
blancos V(w) y W(w) debe cooteMr como multi plicador Lo funcin
d elta:
(5.6.4)
K r.w (w, w') = Sxu (l)6 (w - ro').
~tacionarins,

238

Cap . 5 Funclont oltolorla$ 4toclonorla1

Sustituyendo esta expresin en la frmula (5.6.3) y tomando en consideracin las propiedades de lus [unciones delta , obtendremos
1(.,.11

(t, t') =

""

..

Sxy

(w) dUJ

"" f -~xy (oo)

..f

e 1<cu-., r>,S (> - <~') dw' =

el1-11aw.

Do ucu se ve que en el caso en quo ln fut1cin correlativa recproca


de los ruidos blancos V (F) y W ((1)) se expresa por la frmula (5.6.4) ,
las funciones aleatorias estacionarias X (t) e Y (t) estn ligadas est.aciooariamcnte y s11 funcin correl11tiva recprocu se determina por la
I6rmuln

kxv {"t) =

..J

Sx11

(01) ei dc11.

(f!.(i .!'i).

La frmula (5.G.5) e:s completamente anloga a la (5.:U.5) que expresa


la funcin correlativa de una funcin aleatoria estacionaria por
medio de su deusidad espectral. Esto da razn para llamar a lo funcin Sxv (>} demtdad espectral recproca de dos funciones aleatorias
e~tacionarias y enlazadas estacionariamente X (t) e Y (t). f obvio
que la magnitud Sxv ()) dro r epresenta el momento de correlacin
de l os armnicos V {<i>)el6lt d) y W (w)el"'t d> de una misnH1 frecuencia ) que forman parte de las funciones aleatorias X (t) e Y (t).
Los armnicos de diferen tes frecuencias en las funciones aleatorias
ligadas estacionariamente siempN no est n correlacionados; s61o
los armn icos de la misma frecuencia pueden sor correlacionados.
Ahora bien, la densidad espectral reciproca caracteriza la distribuci6n del enlace correlati vo entre las fwiciones aleotol'ias en el espectro de frecuencias.
La frmula (5.6.5) muestra que la densidad espectral r11cproca
represent. la transformacin de Fourier de la funcin correlativa
recproca. Por eso, aplica:ndo l a frmul a de la transformacin inYc1s3
de Fourier , obtendremos

s,.11 (>) = 2~

..J

kx~ (T) e-i"'T dt.

(5.0.6)

- oo

Esta frmula expresa la densidad espectral reciproca de dos funcio


nes aleatorias estacionarias y enl azadas estacionariamente mediante
su funcin correlativa reciproca.
Ejemplo 5.6.1. Halla.r la donsdorl espcc.f.ral rccpro1:1t de las funciirnc~
aleatorias cstacionorias y enlnza<las 1mtaciooariamenta X (t) e Y (t) cuyu lun-

5.7. SecuMclas aloatllri<U estacionarlas


cn correla tiva recproca

Ole

deterroina. p-0r la f6rmuJa

kxu{i:)=-C~-etlTl11en
l'or 111 frmula (5 .6. 6) hallamc>s

..

s,.11(c) -

f, J

"'''

ll~ =a'+(l)J.

e - <>ll- !ooT sen Wo>d>=

"" e<n+l"'Ot-i<OT d-c+ "' . -cx-c+IOlo t- {O) T dt: J


_..,
o

= _E_ [ f
4nf

_ ..J

eT- Hi)Ot-fCQT

d'f-

..

J,-a.-i--i ~t - h>t J
dT

-oo

o hlon , despus de c.uwplfr la int.ognc.iu y transfoun11clo11cs efome11t5los


2C
l(l)(&)o
Sxy

(6J) =- ~ ~+ 2(a2 - (l)i) (l)+(I); :

Estn frwula muestra que la densidad espectral reciproca de la~ funcio ne~ aledtorias re11les puede ser comploju.
Ejemplo 5.6.2. Hollar l a funcin comllati\a reciproca de las funrionc:>

aleatori u

Y (t) =X (1) -1- X, (1),

Z (1) = X (1)

+ X 2 (t),

d n nclo X (1), X, (t) y X 2 (1) M n funciones aleatorias lllJtacionruias no correln1


cionadas con los funcloues correlativas De"""' 1' 1, D, c cxifYI y Di-"''1' , rcsp11c
tivamente. Mostrar que Ja., !u11cio11es aleatorias Y (1) y Z (!) estn ('nla zadas
cstnciona.r iamente y hallar su densidl\d espectral reclpr<>cH.
Seg n l a definicin d o In funr.i6n c.orrelothR redproca
K vz (t, l')= M [Y(t)
(t')l = M [ XO(t) X (t')J+
+ M (Xf (t) XO(t')J+ M [XO(t) -~ l(t')J+M (X~ {1) Xf

zo

< bien, p uesto que las


h~c.innndtts,

en

funcione~

alnatorias X (t). X , (1) y X 2 (t) uo est 11 corrc>-

K 11 z (t, 1') .,... M IX (t) X (t')f ~ k" (t -

t') .

l) e aqu l se vo que las funcione~ olentorias Y (1) y Z (1) e::;Ln enla:tadM est11cionnrlame nt.e y su funci6n corre)utlva 1ec proca coinciclo c.on ll\ !uncin co1rolatl va ile la funcin aleatoria X (t) . Por lo tanto, la d e nsidad espec.lral r~.c:fprocn
dr. l,.s funC'io ncs 3Jeat.oriM Y (t) y z (t) tllD.lbin col11c hl 11 con la dtusidail ~-~pc<'
t ral de l a funcin ale.atorio X (1):

uzC6!)-~ x ((1)) = _Q_


.. ";'
n o.,.,.
5. 7. Secuencias aleatorias est.'\cionarias

E xaminemos la secuencia aleatoria formacla por los valores de una


funcin aleatoria estacionaria que corresponden a la ::;ecuoncia ilimitada de los valores equidis tD.ntes del argumento con el interv~Jo t.:
Xh =X (to + ht.)
(h =O, 1, 2 .. . . ).
(5.7 1)

Cap. S FitnciO!lf aleatorias estacionarla.


E~ta secuencia aleatoria es estacionaria, puesto que su funcin correlativa depende solamente de la diferencia de los nmeros de los
trminos de la secuencia:

h,.. = M lXf. Xl:+ml=


= ill {X (t 0+ M) X (to + h. + 11u~) ! = k,, (m.).

(5.7.2)

E:.:prese111os nqu fa funcin e-0rrelativa de la funcin a leatoria X (t)


por la frmula (5.3.15}. Entonces, obtendremos
km

J s.. (w)

e1@m!I

dcv.

-<

Dividamos el intervalo de integracin en los segmentos de 2n!Ji


de longitud dispuestos simtricamente con respecto al origen de coordenadas. E11to11ces tendremos
oo

(2v+l )n / "

V= - ~

(2V- l ):t/

l>m =

(w} elc.>m cfui.

Sx

Sustituyendo las variables w = 2 vn/


CI)', en las integrales correspondient.eis, las reducimos t-0das a los mismos limites de integracin:
11/

/;,,, =

Sx ( l '

+ 2 ~n

) el Ol'mlH2vni du>'.

'\'=- oo - n / A

Omitit,ndo la rayn 11dju11ta a la designacin de la vari able de integracin y teniendo en cuenta que e~"1 = 1, podemos escribir la
'frmula obtenida en ln forma
:1/ C.

km =

J[~

-n/

s_.(ro+

:?.~n)]e;,,,.,"dw.

v=-oo

..

P.o r -~iu, in~rotluciendo la destgnacin

si()= ~

s,.(< + 2~") ,

(5. 7.3)

v= - '1IO
~btend remos

k,,.

ni"

J s~ (ui) eiwn~ dw.

(!.7.4)

-11/

En partic11l11r, poniendo rn =O, obtendremos la siguiente expresin


para la dispersin de los trminos el.e la secuencia aleatoria estacio-

.f

:;.7. Sdcumcias aleatorias u t 11r.lonarill$

241

naria
n / f:.

) ~(co) dJ.

Dx=ko=

(5. 7.5)

- nf~

Demostremos que la funcin ~ (w) determinada por la I6rm11la


(5.7.3) es periodica con un perodo de 2rr./ 6.. Para eso sustituyamos en
la frmul a (5.7 .8) cu por la magnitud (1)
2n!6.. Entonces obt.onclremos

Pongamos aqu = v
1 y observemos que , al igual .que v;
rC<'.Orr.e todos lo~ valores enteros de - oo a oo. Como resultado tendremos
2
( Ctl +
)=
Sx ( lt) +
)

~"

s=-oo

Comparando esta frmula con (5.7.3) y teniendo en cuenLa que la


suma no depende ele cmo est d(lsignado el ndice de adicin (ste
recorre todo$ los valores enteros de -- oo a oo) , obtendremos

s~ (ro + ~'T )

;;;.

s~ (cu}.

(!J.7.U)

Jo que demue5tra prr.cisnmeute la afirmacin enunciad a .


La funcin peridica puede ser descompuesta en la serie do Fourier *). Por e~o la fun c in~ (w) tambin puedo ser representada por
uua serie compleja de Fourior:

..

s~(>)=

~ a 1,ei"v".

P- - oo

(5.7.7)

Los coeficientes de esta serie se determinan por la frmu la conocidn


de la Teora <le series de Fouricr:
6

a. p -- _2:t

7t/.,I>

Jl

" (c.>) e-hopa di .

sd

-Tt/I:.

Complrando esta f.rmula con la (5.7.4) ara m = - p, vQmos que


Jos coeficientes <le Fourier de la funcin s,. ((1)) se expresan por medio
de la funcin correlativa do la secuencia nleatori<1:
a. ,,=2i"
A k - p
*) Para esto es suficiente quo la [uncin peridica sea r.ontinu n o troga uo
finito de. rnntos <lo discontinuid1\J <le primer gP.ntro.

nm~.ro

1G- OU38

2~'.!.

Ca p . .") ,..unclo rtf'.f ufratoria.tt

S usli tuycnclo

c:;~a

ex pres in

tstac.t<111a rl-'~

(5.7.7), oblc nd remos

JO

sX' (~>) = ~
~ k - fi 11iwpt. '
2n ~
v= - w

Por iJJ, 1>oniendn aqu -p = m y te niendo en cuentn que m, al igua l


que p, recorre todos los v11lores enteros de -oo a oo, obtenrlremos
00

~ k me -t0>111:i. .
~," (1) -- ~
,, k.J

(.'. 7.8)

Bxprcs~mos horn la funcin aleatoria esl11co11nda X (t) por In


clc11composic:in cspectrnl (5.3.3). Entonces obtundromos } siguiente
frmula para los trminos de In secuencia alontoria estacionaria que
so examina:
...,.

X (to+ t) = X 11 =in,.+

Vd(Ci>) clOl(fo + lAl dhi.

Cumpliendo aqu la.~ mismru; transformaciones que al deducir la


frmul a (5. 7.4), obtend remos
:t/ f;.

Xh

= m., +

JV

..

.i (111)

et..1t\ t~,

(.J. 7 .!l)

- ;1/

dorido
Vd(w)

=e'"''

~ V (111 +

2;,'' ).

(!.7.IO)

v= - oo

A;;i pues, hemos obtenido la representacin espectral de una socuenci11 ulcatoria estacionaria. Con ello, debido a 111 pel'iodicidad do la funcin exponencial del argumento puraroent~ imaginario, el espectro
do frecuencias de la secuo11cia aleatoria so puede considerar concentrad 'en el intervalo 1 Ci> 1
n/6. Las frmul11s (5.7.4) y (5.7.8) soo
a1;1logas a las de Wiener-Jnchin (5.3.11 ) y (.'>.3.15).
Mostremos ahora que la funcin aleatoria Vd (w) on la i:epresenlncin espectral de una secuencia aleatoria estatiouoria no es ms que
un ruido blanco cuya intensidad es igual a ~ ((i.)). Para esto hallemos
la funcin correlativa do la [unain aleatoria Vd ((1)). Con ello, es
suficiente considerarla solamente en el intervalo de frecuenci11s
1 e~ 1 < n / A. Puesto que los sumandos en la s um a que figura en
(5.7.10) han sido obtenidos decalando el mido blanco V (w) en intervalos mltiples del periodo 2n/ 6, todos ellos no est n correlaciona<lOll e11 los lroi tes de un periodo 1 Ci> 1 < ni6. 1'01 eso la funcin
correlativa de la suma oo (5.7 .10) es igu'11 a la s uma de las funciones
correl ativas de Jos sumandos. El mulliplicallor elc.ilo en (5.7 .10)

<

5.7. Suuetu:ia aleatorias 11tadonar/as

243

dar el multip licador e <., - "'')to en la expresin de la funcin co


rrelativr1 de 111 funcin aleatoria Vc1 (w). Por eso, teniendo en cuenta
la frmula (5.3.8) para la funcin correlativa del ruido blanco V (w) ,
obtendremos
Kvd ((1),

w') = ei(O>- o>11-0 [

Sx ( w

+ 2;" ) J6 ((1) -6>').

"IJ.1::- 00

Tomando en consideracin que .el segundo miembro. de lStn Jrmul a,


es igual o cero, siendo w' ;/= c.>,. podemos ~usti~.ulr en eL.:.rouliip1foa,,
dor, delante de la fun cin delt a, w' por w. Entonces, teniendo en
cuenta l a frmula (5.7.3), obtendremos
K c1 (w , w') = 8'.~ (w) 8 (m-w').
(5. 7 .11)
Esta frmula demues tra que la funcin l\leatorin V c1 (w) en el intervalo 1 w 1< rt/d representa w1 ruido bl anco cou intensidad ~ (co).
La fw 1cin ~ (w) representa la densidad espectral de una secuen cia aleatoria estaciona ria. La magn i tud~ (w) dw es igual a la dispersin de loi; armnicos V.i (w)e'O)!iA dw y V 4 (- 6>) e-l0>M dw que
Iormtvl parte de la descomposicin espectral (5.7.9) de la ~ecueucia
aleatoria estacionaria.
Ejemplo 1),7 .1. Jloll nr In deusidnd es11eetriil do u11a secuencia aleatoria
e~tuci onurin con 11\ funcin r.orrelativa km ... Dq 1'"l, O< q < 1.
Jl~;rcsellornos l'tov arul'ntu 11; frmula (5 . 7 .8) en 11\ forma
w

-1

s: (!Al)=!. ( ko+

~ kme- 1.,mA+ ~

k,,,e -J0>mA) .

m-1

Jlotiicndo tn l o primera suma - m = p y olu la l!<!gun1ln, "' = p y t eniendo eu


<:ucnla 'l"~ k _,. = k p, escribamos la frmul a nbtcni<la en la forma

l"1 (c.>)-~
-in

..

(ko+ L.J
"'1
i>=i

..

~ k p . - iO>Pl>)
,.elwpl> + L.J

,_1

(a.1.12

Sustituyendo qu i la expresin d e la funcin 1:orrolallva, 110! C(\rcioramos de que


nmbas s umos representan en estu caso 1nogrcsionos geomtricas. Sumndolas,
obtendr~ino:i l a siguiente expresin d() l a secuenci uleulnria estacionuia quo
so exominn:
(5.7.13)

EJr mplo ~.7.2. Jlllar l a d ensidad uspcctl'ul de In sccuo11ci11 aleotori11 esta


riouaria fotJlloda poi los valorc8 de l a func(m alcalorin estacionaria X (1) co n
la funcin cnrrdativa Dr "' 11 cns ro 0;, to modos 1;11da i nlervalo .
L" lu11ei611 corr~lativn de la secuencia . en cnc~tin s.. determina por la
!rmula

Cap. 5 Fundonu aleatorias ulttclonctr/as

donde q1 = -+ii.>oA, q, ... ,-'14- ii.io<!.. Sustituyendo la expresin obtenicl11 d11


lu funcin correlativa do lo ocuencia en la frmula (5.7.12) y sum:u1do ls.s
pN>grcslones genu1Hricn~. hallaremos la densiilad us>oc tral:
d

tJ.D (

x(ro) = 4n

2+

1 6

q,e "'
-q tw~

'lt
1>4

- q,

+
llM

9zt

i - q,.1<4

+ .1<06q,-

q,

(5.7.14

l..c dojamos al l('(' l.llr que por s mjsmo demuestre quo en el caso de una f1111 ri611 correlativa mns gencr11l (!Ul.24) la densid"d cspoctral ~ expr~MI )(lr la
frmula que se difeTf!ncin de (5.7.14) solamente por el m11ltl>lcador adicional
1 - iy en los sumnmlo' con q1 y por el muHiplica1\or n1lcional 1
1 y on los
sum~ndos con qz.

Las frmulas (5. 7 .13) y (5. 7 .14) rnuestron que ]>a ra tod as las
fu nciones correl ativas tipo de las func iones aleatorias estacionarias,
las densidades espectrales de las secuencias aleatorias estacionarias
correspondientc8 son funciones racionales de la magnitud e1 w~.
Esto da razn para introducir en las frmula.'! (5. 7.4) y (5. 7 .S) en vez
de Ct> una nueva vodable z = e!"'" Entonces, poniendo
t
o~ (z) = -;-~
(w) =

1
Tj .s; ( 1i.\
lnz )

(5.7.1 5)

y ten iendo en cuenta que dz = iz /J,.d<, reduzcamos las frmul11s


(5.7 .4), (5.7.5) y (5.7.8) a la forma

k,,, =

+J
l o~(z) ~:

o~ (z) zm-1 dz.

(5. 7.1G)

e,

Dx =

d(ll)-- :tn.
1
O"

~
L..J

'

(5. 7.17)

-m ,

(5. 7. 18)

1'mZ

17\=-oo

dor.de la integracin se efecta por las circunerencia C1 de radio


unitario con centro en el origen de coordenadas en el plano de la
vrfabl'e compleja z. Esto se ve del hecho de que para todas las w
reales, la variable z es en mdulo igual a la unidad y su argumento
vara de - n a n al variar < de -n/ a n//l.
Las frmulas (5. 7. tG), (5. 7. 17) y (5. 7 .18) se ut ilizan al llevar a cabo las investigaciones tericas de la precisin do los sistemas automticos discretos (de impulso); ellas no son cmodas para efectuar
los c~lcul os prticos.
Con l-fin de reducir las integrales de lasf1mulns(5.7.'1) y (5.7.fl)
11 las integrlileg de las funciones racionales fraccionarias en los lmiLes infinitos de la forma (5.3.29), conviene introducir una nueva varia-

245

5.7. Secuen.ctas aleatorlaJJ estar!onarlas

ble, poniendo
.
:-1
'""!>-i
t>.=-+
i = e'wt. +1
z

(5.7 .~9)

t tg-,>-.
~

De aqui se ve que para los valores reales de ro, la variable J.. es real
y vara montonamente de -oo a +oo al variar w de -n/1.1 a n/1.1.
Adems, ].. es funcin racional de z y, por lo tanto, para todas las
!unciones correlativas tipo y sus combio.aoiones lineales, las densidades espectrales de las secuencias alEatorias estacionarias correspondientes rep-reseotan .funciones racionales -fraccionarias de i;. ne
(5.7.19) se puede expresar la variable z en funcin do ]..:
. !J.
1+0.
(5.:7.20)
t=e"" = 'l-ii.. ..
Derivando (5. 7 .19). hallamos
6
d'J.. = _ _<ll_il_ ~ dro = ( 1 -Hg~ u;2 ) ~ de~= ~ (1 +J..~) dw,
cos<i~

do donde
(5.7 .21)

En virtud de las frmulas (5.7.20) y (5.7.21), introduciendo la desig

-s~~ (A.) = _.3._


s (2arct..,.
A.) =
\ X

20'd (
X

i~ ) .
t+
- ti.

(5 7 -?2)

podeWOS ropresentar las frmulas (5. 7 .4) y (5. 7 .5) en la forma

""r~,

5 -"

''' =

(1+1')"'
""
1-li.
1-j- }.2

(A)

00

D.,= _

..

$.., (A.) 1.~\

'

(5.i.23)

Esta iutegral se puede calcular por la frmula (5.3.29). La frmul a


para l funcin correlativa debe ser transformada, suprimiendo l as
magnitudes imaginarias en el denominador. Entonces obtendremos

_ fJ

km -

(t+i/..)2m

Sx (/\,) (l + ],,2)+1

d]..

-oo

o bieJ1, descomponiendo el numerador por la frmula del binomio de


Newton y teniendo en cuenta quo la funcin
p. ) os par y que Ja
integral de la funcin impar en los liruites simtricos con respecto
111 origen de coordenadas e.s igual a cero,

s..,

(5.7.24)

CAPITULO 1

RHpresentaciones cannicas
de las funciones aleatorias

6.L Tip11s de representaciones cannicas


Para aplicar la Teora rle fuuciones aleatorias a los problemas
prcticos, Lieium gran importancia las expr~ionr.<s de funciones aleatorias arbitrarias en funcin de objetos aleatorios ms shn.plcs. Las
magnitudes aleatorias escalares corrien l.cs representan los objetos
aleatorios ms simples. En los 3.8 y '3.!l vimos que las esperanzas
matemticas, las dispersiones y los momentos ele correlaciu de las
funciones linc.le.s de una cantidad cualquiera de magnitu<lcs aleatorias se calculan muy sencillamente. Con ello, las frmnlll.s parn hls
disporsioJ1ei; y los momentos de correla<;jn se :<implifican con~idcra
Lliemente, si .las magnitudes aleatoria!< de partitla no estn corrclacionndas. As, por ejemplo, para determinar la dispersin de la funcin
lineal de diez magnitudes aleatorias debemos , en el caso general, calc11lar 100 snmandos, mientras que en caso de magnitudes no corrtilacionadas, es nece.~11.rio co.lr;ular solamanto 10 suman<los. J~sta ventaja de las magnitudes no correlacionadas crece rpidamente al
uumentcr el nmero ele las mism11s. Por c:so, naturalmente, surge ln
idea do procurar representar la funcin aloatoria arhitr;1ri;1 X(t)
en la forma
X(t)=mx(t)

+ v~=" I Vvxv (t),

(li.1.1)

donde V" V~ ... son magniturlei; nloatorim; 110 corcclucionad <\S fjuya
esperanzas matemticas son iguales a cero. Los coeficientes ;1djuntos
a las magnitudes aleatoriAs Vv dependen, evidentemente, de In variable. t, es decir, son funciones (no aleatorins) de la variable t. A tocla
representacin de una funcin aleatoria en forma de una combinacin lineal de magnitudes aleatorias no correlaciona!l<1s la llamaremos
descomposici6n cannica de la misma. A las funciones aleatorias V"
las denominaremos coeficientes aleatorios de la descomposici11 cnnQlCa y a las funciones xv (t), /unciones coordenadas.
Expresando la funcin aleatoria X (t) por la descomposicin
cannica, se puede hallar tambin la rlcscomposicin correspondiente
para su funcin correlativa. Para ello pongamos en (6.1.1) t = t':

X (t') = m,,, (t') +

00

}] V,z,, (t').
v=I

(ll.1 .2)

247

Par11 cuolcsquiera valores fijos de t y t', las orngniLudes X (t} y X (t')


d etermiuadas [JOr las frmulas (6.1.1) y (6.1.2) representan las funcione.~ lnea.les de unas ruisruas magnitudes alentorias no correlacio011tlas V v Por lo tanto, el rnonionto de correl11ci6u do .)as.magnitudes
a leatorias X. (t) y X (t') para cualesquiera vu lores fijos de t y t' so
puede calcular por la. .frmula (:UJ.8). Como l'esultado obtendremos
para la funcin correlativn de la funcin alontoria X (t) la frmula

..

_,

K., (t , t') = ~ D.xv (t) :i;... (t').

(6.1.3)

donde Dv son las d ispersiones de las magnitudes aleat-0rias Vv. Al


doducir lo frmula (6. 1.3), admitimos que en el caso general los
coeficientes de la descomposicin cannica V. y las .funciones .coordenadas Xv (t) pueclon ser complejos, puesto que en los problemas pr~c
ticos conviene frecuentecoeo t c tepresentar las Iuo1:ioncs reales por
series con trminos complejos. A ttulo de ejomplo puede servir la
descomposicin de la funcin real on la serie de Fourior con trminos
complejos.
A toda descomposicin do In funcin correlativa de la forma
(6.1.;i) la llamaremos descomposicin camnica de lt1 misma.
Poniendo en la frmula (6.1.3) t' = t, obtendremos la descomposicic11 correspo11cliente piir<l la rlispei-sin de 111 (llncin nleutori11

X (1.):

00

D,,(t) = Kx (t, t)= ~ D .. l;t,(t)i"

{li.1.4)

v=\

El mielo hlauco reprcsen~a el tipo ms simj)le rle una fu11cin


aleatoria. Por eso se puede suponer que muchas operaciones soure
una fwtcin aleatoria arbitraria 8e liarn ms simples, si esta funcin
aleatoria se e.xpresa en fuucio del ruido Ltlnm:o. En el ejem plo !)A.1
vimos que el ruido blanco se puede rcpre..."1?nlnr en for111n ele una secuencia co ntinua de impul~os nlo11torios infinitesimales no co.rrclncionaclns carl11 11no de los cuale:; tiono Ulli\ diSJ)Crsin infinitcsim11l.
Por eso ln ex:.n:esin de la funcin aleatoria en I1111cin del ruido
blanco la extensin de la ro1r~nt11~.i611 tl e su desco1nposicin
cannica (G.1.1) parn el cnso de sum11ndos i11fniLe;;imalcs. Corno
1esultado, la suma en (6.1.1) ser s11stituid11por11no integnil y obttiudremos hl rcpreseutaci6n de la fun1:in aleatoria X (t) en la forina
>.2

X (l)

= m.< {t) + } V (i.) x (t, ;.) d..

(Ci. 1.5)

J.,
donde V (/..)es el ruido blanco de parmetro t.. que vnrfa en el i11to1valo t.. 1 ~ t..~ /..2 . A todn representacin de una funcin ale11Lorio
en forma de intcgrnl (0.1.5) la llarnaremos representacin cannica
lntegral de ln mistna. A los funciones .:r (t, A.) de la vmiable t, corres-

Cap. /) neprescn tacion(!.~ cannit:<t~ tle f1111ri<HU$ <li~o.toriax.

248

pondientes a distintos valores fijos del parmutro ). cm el intervalo


A-:). las denominaremos funciones coordenadas de la representacin cannfoa integral.
De la represent acin cannica integral (6.1.5) de la funcin ale<1to,
rill X (t) se deduce fcilmente la representacin correspcimliente rle
su funcin correlativa. Con ello, teniendo en cuenta que los sumandos
elementales V (A.) x (t, A) d (>..) en la expresin (6.1.5) pueden ser
complejos, a pesar de que la propia funcin aleatoria X (t) es real,
vamos a pasar en la frmula (6.1.5) a lrus magnitudes conjugadas complejas, sustituyendo en esta frmula t por t'. Entonces obten<l1c1nos

C'"t.

;.

X (t') = "'" (t')

+ 1V(/'} :t (t' , A') d';./.

(6.1.!i)

~.

'l'rnnsponiendo en fas frmulas (6.1.5) y (6.1.6) la esperanza matemtica al primer miembro y multiplicando los valores obtenidos
de la funcin aleatoria centrada, tendremos

X(t)X(t') ~

4 1'~

JJV(i,) V(>..')x(t, )x(t

/,' )dJ,d>.: .

(6.1.7)

i.t)l

Ahora , teniendo en cuen t a la definicin (4.2.13) do la fnnci.n correlativa de una funcin aleatoria corn-pleja, cxpcl'scmos la funcin
correlativa del ruido blanco V(A.) por la frmu la

Kv (A., A.')= :lf [V(~.) V (A.')J = G (f.) o(A. -l.').

(6.1.8)

donde G 01.) es la intensidad del ruido blanco V(/.. ). De la frmula


(G.1.7), en vil'tud do (6.1 .8) , obtenemos
).2 )..a

K" (t, t') =

JJJ(. (!.,

1
)

(l, ;..) X (t'. i:) di, dJ.'

>.1 >.
}.~Ni

=)} G(A.)o(..->..') x(t,

7-.)x(t'. /..') df..di..',

(6.1.9)

At >.

<:;nmpllendo aqu la integracin con tospecto a '}..', obtendremos definitivamente


'-
Kx(t, t') = G(i.)x(t, )x(t', X:)d...
(6.1.10)

~.

Esta frmula ofrece la representacin cannica integral de la funcin


correlativa de la funcin aleatoria .'( (t).

6.2. Deuomposlc16ri ca!Wnlca tk una fu"cin ak4tortti

249

Poniendo en la frmu la {6.1.10) t = t', obtendremos la siguientefrmula para l a dispersin de la funcin nleatoria X{t):

D.'C(t) = K .. (t, t)=

"JG{>-) ix{t, }.)lid,.

(6.1.H}

"'

La frmula (6.1.5) muestra que la represent acin cannica Integra l de la funcin aleatoria la expresa en forma de una combinacin lineal de magniiudes aleatorias infinitesimal es, no correlacionadas V(A.) dA con los coeficientes z (t, J.) dependientes de t; coti ello,
la dlspersl6n de l a magnitud aleatoria V (}.) d'J.. es igal a ~ {'J..) d'J...
Aplicando la frmul a (3.9. 7) para .Ja dispersin 'de una comhio'acin
lineal de las magnitudes aleatorias no correlacionadas "Y sustituyendo la suma por la lntegrlll, obtendremos preciBamente la frmula
(6.1.1'1).
Las descomposiciones espectrales de funciones aleatorias estacionarias, examinadas en el captulo precedente, son tipos particulares de las representaciones cannicas integrales del t ipo {6.1.5).
6.2. Descomposicin cannica de una fWl cin aleatoria

Sean V~ (v = 1, 2, ...) magnitudes aleatorias no correlacionadas arbitrarias con esperanzas matemticas iguales a cero y dispersioues iguales a Dv:

M!Vvl = O,
Dv = M

ilf[VvYl=O si

ll V v l2J.

(6.2.1)

Hallemos las condiciones en las que la funcin a leat oria X {t) puede
ser re pre.sentad a por la ilescomposicin cannica (6.1.1) cuyos coeficientes deben ser d ichas magnitudes aleatorias V v P ara esto escribamos la frmula {6.1.i.) en l a formo
x~ (t) =

..

2) V vXv (t).

(<1.2.2)

v~I

Suponiendo que esta descomposicin ha sido oblcni1la, tendremos


M [X (t) V14 ) = ~ M !VvV11I Zv (t).

(6.2.3)

\=I

En virtud de (6.2.1) todos los trminos do esta suma son iguales


cero, a excepcin de tu\ O para el cual el fndice de adicin ves igual
1\ . Por lo tanto, las fr mulns (6.2.3) y (6.2.1) dan
11

MX 0 (t)V11 J=D"z11 (t).

(6.2.4)

250

Cn" 11 flepresenta<limts cnn11itos 1k fu11c1ones al<!alori.a.

(IL2.!j)

Ahora bien, para que la funci n aleatoria X (t) pueda ser representada Jlor la del'co111posicin cannica (6.1.1), es necesario que todas las
funciones coordenadas :r1, (t) se expresen por la frmula (6.2.!j), es
decir, sean iguales a las relaciones entre los momentos de correlacin
de la funcin aleat-0ria xo (t) con las magnitudes aleatorias V y las
dispersiones de las magnitudes correspondientes V.
La frmula (6.2.5) muestra <1ue para hallar la descomposicin
cannica <le la uncin aleatoria X (t) tiene sentido tomar solamento
tales magnitudes aleatorias V. que estn correlacionadas con la
funcin aleatoria X (t). Si cualquie1a de las magni tudes al eatorias V v
110 ust wrrelacionada con la funcin aleatoria X (t), entonces la
funcin coorcfonada correspondiente x. (t), de acuerdo con la frmuln (G.2.5), es idnticamente igu al a cero y el trmino correspondi ente desaparece de la descompo8icin (6.1.1).
El tipo ms simple de magnitudes aleatorias, correlacionadas con
la funcin aleatoria X (t), son las combinaciones lineales de sus
valores para los valores de! argumento t que nos interesan. Por eso,
para represent:ir la funcin aloatoria X (t) por la descomposicin
~ convfone determinar las magnicannica en el int.er valo a ~ t
tudes aleatorias V" por la frmula*)

<

Jl

Vv =

Jav (t) X (t) dt,

(6.2.(i)

(t

donde a, (t) 1>ori ciertas funciones que deben ser elegidns de modo que
las magnitudes V" estn no correlacionadas.
Cambiauclo en fo irmula (6.2.6) la designacin de la variable
de integracin y sustituyendo la expresin obtenida en la frmula
(6.2.5), tendremos
x .(t) =

~ M

ti

[X(t) Ja

11

(t') X (t') dt'] =

et

ti

~,,,

aj) (t')

M [X (t) X (t')] dt'

(G.2-.7)

(t

o bien

x"(t)=

iJ" Ja(t')l(,,(t, t')dt' .

(6.2.8)

a.

. ) Teniendo en cuenta que las 1uagnitud<:s aleatorias v. pueden ser comploias, para que los clculos ulteriores sean ms cmodos, determinamos las
funciones a., (t)- de modo que en (6.2.6) bafo el signo integral haya funciones
conjugadas complejas v (1).

G.~.

Descomposkiin ca11611tea de um1 funci611 aleatoria

251

Estn frmula expresa las fw1ciones coordenadas x11 (t) por medio de
l as funciones a11 (t) y la fun cin correlativa de la funcin a)eatoria,
X (t).
Parn deducir las condiciones a las que c,ieben satisfacer las funcioues " (t) con el fin de que las magnitudes aleatorias -Yv, determinadas por la frmula (6.2.6), sean no correl acionndas, escribamos on
virtud de (6.2.!')
~

Al [VvV 11J=

Jav (t) M [X (t) V) dt = D Ja.v (t}


11

X (t) dt.

(6.2.9)

De aqul se ve que para que las magnitudes a leatorias V v sean no correlacionadas y sus dispersiones sean iguales .a los ..n,(imeroS. C()rresp:o.11t
dientes Dv, las funciones " (t) y xv (t} deben satisflcerl:a_s condici.ones

Ja.,. (t)

(t) dt =

Si

9'= 'V,

(6.2.10)

a
fl

" (l) Xv (t) dt = 1.

(G.2. H )

Co111 nmonte eslas condicione!! se escriben brevemente en la forma


~

) a.v (t) X (t) dt = t5v,

(6.2.12)

donde 6"" es una magnitud igual a la unidad cuando los indices son
iguales e igual a cero cuando los ndices son diferentes (~vv = 1,
v = O para . 9'= v).
Generalmente la igualdnd (6.2.12) se llnmn cortdicin de biortogonalltlad de dos sistemas ele funciones Xv (t) y av (l).
As pues, para que las mugnitudes aleatori(ls V,.. cletcrminu.das por
la frmul11 (6.2.6), senn no correlacionadas y al mismo tiernpo la
fonciu aleatoria X (t) pueda ser representada por la descomposicin
(G.1.1) es necesario que las funciones av (t) y las funciones x.., (t)
determinadas por la frmula (G.2.8) satisfagan la condicin de biortogonalidad (6.2. i2). Es evidente que las condiciones (6.2.8)
y (6.2.J2) s on tamhitin suficientes para que lns magnitud~ nleatorins
V v determi nadas por la l'm1ula (6.2.6), sean no correlacionadas, pero,
desdo luego, esto no demues tra todavia, que, l cumplir las condicione!! (6.2.8) y (6.2.12), la funcin aleatoria X (t) puede ser rt!prosentacl n por l a descomposicin co.nnica (6.1.1 ).
Mostremos ahora que se puede hallar un sistema de pares de
funciones a..,. (t), x,, (t) que satisfagan las condiciones (6.2.8) y (6.2. i2).
Para est o tomemos una secuencia arbitrari a de funciones independien-

tes linealmente f 1 (t), f2 (t), .. .,


magnitudes aleatorias

In

(t), .. . *) y determinemos las

Jl

U,=

J/,(t)X(t)dt

(r=1, 2, ... ).

(6.2.1.3}

"

Las magnitudes aleatorias centradas correspondientes se expresarn


por una frmula aali:>ga

U~=

J/,(t) X (t)dt

(r= 1, 2, ... ).

(6.2.14)

"

Hallemos las dispersiones y los momentos de correlacin k.. d&


las maguitudes aleatorias U1, U2 ... En vrtud de la defiaic'
(3. 7.6) y la frmula (6.2.14) tenemos

k,.=.~f[U~U:J=

ll ll

JJfr(t)/$(t')M[X(t)X(t')Jdtdt'

(i.2.15)

"' o:

o bien
ll ll

J Jf,(t)f,(t')l("(t, t')dtdt'

k,. =

(r. s = 1, 2, .. . )

(fi.2.16}

" "'

Introduciendo , para mayor comodidad, las funciones


ll

z,(t)=

J/,(t')K,,(t, t')dt'

(s= 1, 2, . . . ).

(l>.2.17)

"'

y toma ndo en considnacin que debido a la simetra de la funcin


correlativa

J/, (t) K,.

(t, t') dt =

"

jf

(t) Kx (t', t) dt = Zr (t').

(6.2.18)

"

podemos escrib ir la frmula (6.2. i6) en la forma

ll

"

"

ll

k,.=

f,(t) z,(t)dt=

Zr

(t)j,(t)dt

(r, S= 1, 2, ... )

(6.2.HJ)

A:bora podemM construir el sistema de funciones aleatorias no correlacionad'as Vv , procediendo del modo siguiente. La primera funcin aleatoria V 1 puede sor elegida arbitrariamente, por ojemplo, se
*) Las funclonQs J. (t), / 2 (t), . ... In. (t), .. . se denomin:in inJ.epenJieutes
lioealmente, ~i para ningn valor do n. y ninguno de los valores e, c 2 , ., en
distintos de cero. la combinac!n lineal de estas funciones c.1 1 (t)
czf2 (1) +
(t) es idoticamnte igual a. cero.

+ . .. + c,;fn

6.f!. D-ompoolcl6n c;:innlco de

UM

253

Juncl6n ouowrto

u:.

puede lomar V1 =
La segwida magnitud V2 debo ser elegida de
modo que sea oo correlacionada con V 1 Para esto es s uficiente tomar
V = c31 V,
U: de terminando el coeficiente c21 de la cond icin
<le no correlatividad de V 2 coa V ., etc. L a mngo it ud V v debe sat isfacer v - i coodiciones do oo correl atividad con V 1
Para
s11tisacer estas condiciones, basta to mar por V la 80JDa de la mag11iturl lit y de la combinacin lineal de las magnitudes V .,
Vv - i con coeficientes indefinidos. Ahora bien, pongamos

v._,.

~-~ +u:.

V:=ci1V1

(6.2.20)

Vv=c. 1V1+c.aV: + . . . +e,..

,._,V._,+ lit,

y determinemo$ el coeficiente c 21 do la condicin de no correlativi<lad do las magai\.udes V, y V 1 y, en general, pa.ra cualquier"' determinemos los coeficientes c,1 Cvz , e,,, 1 do la cond icin de no
eorrelatividad de la magni tud V. eoa V 1 V~ , .... v....1 Para hall4lr
esto, 1l e~pejemos sucesivamente U':, ~... , lit en la eeuacin
(ti.2.20):

u~ = ''"
lf! = - C21V 1 + Vz,

Vt- = -

~- ~ .-,.~1~"~' :+" ,;":

e",V' - c.iV: ... : .. ; ,.

(6.2.21)

r
J

Ahora, s uponiendo que todos los coeficientes c. 14 est6n determinados


de modo que las magnitude3 V" V% sean no correlacionadas, expresemos las diSJ>ersiones y los momentos de correlncin de las magnit udes aleatorias lJi,
coo ayuda de l as frmulns (3.\l.7) y (:$.9.8).
<:-0mo resultodo obtond remo:i

u:, ...

v-1

k 11 = Di. l~v "' ~ jc,..,'D+D,.(v =- 2, 3, . . ;)

-c.

(6.2.22)

i-1

k, 1 =

1D 1

(v=2, 3, .. . ),

k.,.=c_,,c.,,D, + . . + cv. 11- 1C11 . -1D14-1 -Cvv.D11

(6.2.23)
(ti.2.24)

( = 2, ... , v-1; \'=3, 4, ... ).


Como lns dispersiones y los rnomenl-0s de correlociu J;V'J' uc las
m a;nitude~ aleatorias O, sou conocidOI!, eotonce:i las frmulas
{6.2.22), (6.2.23) y (Cl.2.24) pueden ser consideradas como ecuacione:1
~1 ue oleterminan los coeficiEnHc.s incgnitos
y las d ispersiones D.
-de la.:s 1uag11itudcs aleatorios V v Hesolviende> sucesivamente est11i1
.ccuacioues, obtendremos IM siguientes frmula_q do recurrencia para

c.,.

Cap. llJ>rtsmloclonLi cannicas de / u nclonei ak alorias

2M

l11s magnitudes D,., e,,.:

k"'
D1= k11 . C"=-v.

(v = 2, 3, ... ),

(v = 2, 3, . . . ),

1
~ (G.2.2!3)

v- 1

D. = k,,,.-Y jc,.~zn"
- 1

-.

e_,, =

F (~ c,. .c,, .D,. -k,


1

1,)

).- 1

= 2. .. . , '11 - 1,\
{ V= 3, <, . .
}

Por est as frmulns se puede determioar succsi v:unente las rnagniLudcs Du c.1 , D2. c,,2, D3, c. 8 ... Como resultado scrlin bailados todos
los coeficientes c,, 1, en las frmulas (6.2.20) y las disper:;iones de las
magnitudes aloatorins no correlacionadas
Empicando el procedimiento expuesto, se p\1ede construir el sistema de magnitudos aleaUlrias no correlacionados pa rtiendo de cualquier sistema de magn itucles aleatorias independiente linealmente. Ya bicimos uso de este
proc<'dimicnto e11 el 3.11 , dontlc en Yez de e,, .. eran los coeficientes 'l'v 11 = -c,I"
Sustituyendo en (6.2.20) la expresin (G.2.14) de l a~ magnitud es
alen torias centradas U:, expresemos las magnitudes aleatorfos V ..
por la frmula (6.2.6) donde los fu nciones (t) se d.itormi nnn por
l as frmulas

v.

ai(t) = /i(t), a,. (t) =

\1- I

Z c,a

11

(t}+ /v (t)

(v

=2 , ~1 ,

... ).

(6.2.2(i)

Susti tuyendo estas expresiones en la frmula (G.2.8) para


.., 1, 2, ... y teniendo en cuenta (6.2:17), obtendremos
X

(t) -

t (t)
D

'

J.

x,.(t)= 1

v-1

[~

c"11 D,..i:io(t) + z. (t)J

(6.2.27)

;=!

(v = 2, 3, . . . ).

Asi pues, el mtodo expuesto ofrece la posibilidad de hallar tal


sistema de .funciones (t), que las magniturles nleatorias correspondientes V de.terminadas por la frmula (6.2.6), seon no correlacionadas, y el sistema correspondiente de foociones coordenadas .i:v (t),
determinadas por la frmula ((1.2.8). Estl!S funcione:s (t) y z., (t)
sa tisfacen la condicin de biortogonaliclad (6.2.12), puesto que esta
oodicin; como hemos visto, es consecuencia \ie la no correlativiy de la frmula (6.2.5) que en
doil de las rnagaitdes aleatorias
este caso tiene la forma (6.2.8). Le dejamos al lector que pot s mismo lleve a cabo la comprobacin dirocta del hecho do que las funciones (t) y x, (t), determinadas por las frmulas (6.2.25), (6.2.26)
y (6.2.27), sat.isfacen lo condicin de biortogonnlidad (G.2.12).

v.

6.2. De.$COmpostcl6n can6nica d~ u)w. funcin aleatoria

255

Eligiendo diversas funciones iniciales f, (t) de las cuales se exige


solamente la independencia lineal, obtendremos diferentes sist emas
do paros de funciones a.., (t), xv (t) que satisfacen las condiciones
(6.2.8) y (.2.12). Ahora bien, debido a la a.r bitraredad de las funciones iniciales f, (t) se puede por una inlinidad de procedimientos
determinar las funciones a.,,, (t), xv (t) que satisfacen las condiciones
(.2.8) y (6.2.12).
Puesto que las realizaciones de la mayora de las funciones
aleatorias que se encuentran en la prctica tienen carcter <isilat.o;:
rio, prcticamente es conveniente E!legir en cal.idad de f.uneiones,g~
partida f, (t) funcioues trigonomtricas, correspondientes .a Q.ist.~.il.
tos perodos, o los productos de las funciones trigonomtricas por las
funciones exponenciales escogidas de un modo cotrespondiente. Por
ejemplo, al elegir arb itrariamente la suc.esin de frecuencias (1) 1 ,
ro 2 , , ro,. .. cuando w,. - '"" so puede to1nar
/ 1 (l) = 1, f 2 n (t) = sen ro,.t, / 2,.+ 1 (t) cos w.t
((i.2.28)
(n=1, 2, ... ).
Al l!Scog1:r las frecuencias ro,, <> 2 , , P.S necesario sola mente preocuparse de que las !wiciones (6.2.28) sean linealmente lndcpcndicotes en el correspondiente intervalo de v11riaci60 de la varial.ilc~ t.
Por l o dems, la eleccin de las frecuencias co,, no se limit.a en nada.
Para resolver alguoos prohlcinas do la Teora de mando automtico
es conveniente aiiadir u las funciones (6.2.28) ao las Iuncionos delta
con las particularidades cu los extremos del intervalo de i ntegracin
6 (t - a), 6 (t - ~) y sus derivadas h asta un orden determinado.
Ejemplo 6.Z. f . HnUar l a d<?scomposicin cannica ele la funci<u aleatoria
X (1) con esperanza inatemlic.a i<lnLicnmente igual a cero y la fundn corre
l11tiva

en

O< <

~l

K,,(t, l ' )=De-lt-l'I,

intervalo
t
1' .
Una vez det.erminndns lns funcion<Js /, (t) por las frmulas (G.2.28), h11ll11mos
por la frmula (6.2.17) las funci one.s z. ( t). Teni(1nclo on cuenta qut' ~n esto c~so
a = O, fl = 1', obtcnoremo~
T

z 1 (t)=D \ c- 0:11-n

dt ' =D { ) , -(l-t') dt'


ll

+ ~ e-ct(t - i dt'} =
t

-D ( 1-e- o:t , 1-e-(T- r) } _ D


-

)_

<t

CL

>

-e- --e

-<.:i

_ 1. 1-1)
-

y unlognmente
T

z 211 (t) ~v

} ~-a1 1 - 1 '1 sen w,,t' dt' =


o

DCL

a'Z-f-w~

[2 s~ uro,,1+ ":'..,...'' e-at _ .-cx<T- t) (scnw~r+

:2.'il

Cap. 6 R epresent.acione1 cu116ntcas de /unciones aleatorias

Zzn+I (t)

=D

e - o:l< -l'J cos ront' dt'

-e+<t-T) ( coswnT- ~ sen ronT)

(1~=1,

2, .. . ).

fisLiluyendo las l!Xprusiones obtoaiclas y las (6.2 .<!.8\ de las funciones f, {I)
~n la frm11la (6.2.19), hallamos los momentos do correlacin de las magnitudes
.aleatQrias U, determinadas por la frmula (6.2.13) . Con ello, todas las integro..les (6. !U3) se calculan e11 este caso de u11 modo nb..~olutamente elemental. Para
Rbrevn, noR limitaremos al e.aso cuando las fror.uencia.s ooh se han elegido mlti.Ples do la frec.uenca fundemenl al ro 1 = 2'!f/ T r Mrcspoodiente al porodo T:
(k = i, 2, . ).

'En

~to

e.aso cM

IJl,. 7'

t, sen w,. 7' = O

y Ja frmula (6.2 .1 9) da

Jf z (t) d l =

k11 =

721) (e - a.T -i+aT),

u
T

k1,2n=k2n,1=

J2n(l}dl=O,
o

r
k1.2n +1 ~ l<in+1,t=

r Zzn..i (t)dt=

2D(1-.-o:r)

az + ro

k2n+1. m+I

= J~n+t (1) COS <~ni dt


o

1'

k>n+I, 2m+t

Zzn+I (t) COS IDml dt=

2Da~ (1-- e- o:T


(ai

+(l);J (a2 + ~>~)

k 2n, 2n =

i\

Da
[
2n. (t} sen Cll,. t dt -- -~~~ '1'

~ +~

k: n, :m =

2 n (t) sen Olml di

2<J)Stn

a.~+ ~

]
(t - e - o:r _
,

2D(l)nWm (t-- e - a.T


(a. + w~) (ai+ro-;,.)

(n , m= t, 2, ... ).

Una vez determinados los momentos de corrclacin k 7 . , calculamos, por las


frmulas (6.2.25), sucesivamente las magnitudes D, , '"'' Dz, "vi D., e"., . ..
Gon ello, nos convencemos de que en oste caso todo los <;oeficie11tP.s e"'" r.on
los ind ices de distinta paridad, S<>n iguales a c~ro. Por [in, con 3y\ldl\ de las
f rmulas (6.2.26) y (6.2.27) hallamf)S la funciones "" (t) y las funciones c<lor..

6.3. F6rmula ara el trmino residual

denadas :r" (t):

at(t)=i,

257

a2 (t) =senw 1 t, a 3 (t}=c31 +cosw 1t,

n-1
:n (t)= ~ c2n. :mim (t)+scnwnt,
m=\

n
ll:n+I

(t)= ~

C2 n+ I, :m-t42m-1

(t)+cos(J)nt

(n=2, 3, . . . ),

m=l

X3

"2 (t)

(t)

(t)= ---v-

Za (t)=--z;-

(i)
n-\

r~n (t) =

.o!n [ ~

Czn, :tmZ2m (t}

+ !n (t)J,

m- 1

z2n+1(t)=

02~+!

C2n + t,zm- 1.t:2m-1(t)+z2n+1(t)J

(n=2, 3, . . . ).

m= I

6 .3. Frmula para e l t.r mino residual


de la descomposicin cannica

La precisin eou que la funcin aleatoria viene re11resentada por


el segmento final de la descomposicin cannica se puede estimar
por la magnitud relativa de la esperanza matemtica dol cuadrado
del mdulo del t~rmino residual o bien, lo que es lo mismo, de la
disper!!in de esle trmino. Poniendo

Rn (t) =X (t) -

" VvX v (t),


::i]

v- t

(6.3.1)

podemos escribir
M 11R,. (t) 121= M [R,. (t) Rn (t)l = M [ 1X (t) 1~1-

,,

- )j {M!X(t) Vvl x.,(t)+M {X(t) Vv! ~ (t)} +


v- 1

L; .tl1[V"V,,.J Xv(t)x.., (t)


'\',= I

(6.3.2)

o bien, teniendo en cuenta (6.2.1) y (6.2.5),


n

11 R.,. (t) l~l =

Dx (t) - ~ {Dvx,. (t) x,, (t) + D-.,xv (t) Xv (t)} +


v=I

+ V=tl
L1 D,,x_. (t) x..,(t) = D x(t)- v=
~ n.., jxv(l)I'
I

(<i.3.3)

Ahora bien, l a dispersin del t rmino residual de l a descomposicin


r;nnnic<i (.1.1) de l a funcin <ileatoria X (t) se expresa por la fr11-ou:18

2iifl

Cap . 6 Rtprtsenlariones cu111inica ele /un.done.< al.:aforia

mula
n

11 R,. (t) 12 1~ /)_. (t) - 2j

D v Xv

v= l

(t) z.

(ti.3 .4)

Como u1111 caracterstica prctica cmoda de la precisin con que


Ju fllnd11 ale~torfa viene re1ireseut<,da aproxim1dnmcnte por el
scgmont.o final de su descomposicin cn11nic11 sirve el error relativo
en la dispersin do la funcin aleatoria
811

__ M 11 l? n ( t) 12]
(t) l>x (1)
.

(6.3.5)

Si la dispersin del trmino residual t iende a cero cuando n--... oo


pal'a todas las t eu el intervalo a~ 1 ~ ~:
lrn ilfl 1R n (t)l1 J= 0

(a .t; t ~ ~),

(().:U-i)

1l-oo

entonce.< se el.ice que la descomposicin (o.1.1) converge en la meclia


rnadrtica. en el intervalo a ~ t ~ ~. Se puede demostrar que para
cualquier funcin aleatoria con dispersin Iinita existo una ininidarl
de descomposiciones cannicas que convergen en la media cuadrtica
a esta funcin alcatorii~ en el intervalo finito asiguado de antemano.
Aqui nos limitaromo.s a fo demos traciu de esta afirmacin par11 un
lip<> particular ele descomposiciones cannicas cuando on calidad de
coeficiel1 tes aleatorios de ln descomposicin V v se elige1t las combinaciones lineales de los valores de la funcin aleatori , centrada X 0 (t)
en Ja serie discreta de puntos de intervalo a.~ t ~ ~ ).
Eligiundo como rnagniLudes Jeatoras V v las combillllciones lineales de Jos va lores de la funcin aleatoria centrada XQ(t) en una sel'ie
discreta ele p1111tos t 1, t 2 , tn, dispuestos en el intervalo a~ t ~ ~.
podemos tomar la primera combinaci{m indicada de un modo absolutamente arbitrario; la segunda combinacin debe someterse a una
nicu condicin de no correlatividad con la primera, ele.; la <lnsima
combinacin lineal debe ser no correl acionada con las n - 1 anteriores.
Como resultado expresaremos los valores do la funcir aleatoria
X (~} .en los puntos ti. t 7 , , t,. por la descomposicin cannica
(6.1.1) que contienen sumandos siu contar la osperanza matemtica
m,. (t). Dejando al l(lctor que obtengu l mismo por tal va la descomposicin cannica de 1n funcin aleatoria X (t) en la serie discretu de
puntos t., t 2 , tn, observemos que esta descomposicin cannica
se obtendr de las frmulas genera.les deducidas anteriormente, si
las funciones " (t) se determloan en forma de com bhinciones linea*) El l()(tor puede hallal' la demostracin pan' el caso general eu ~l !ibl'o
\!e V. s. Pugache\' *Tomfa de [unciones aleatorias y su aplicacin en los prohl e
mas del mando antomtltico., Fizmatgulz, 1962, 60.

6.8. Frmula para el Urmi110 residual

259

les de las funciones delta correspond ientes

" a,.,116 ( l - th)


av (t} = ~

(6.3.7)

11=1

Para esto es suficiente tomar en calidad de funciones/, (t) las .combinaciones lineales arbitrarias de l as mismas funciones delta:
n

f,(t)=

2J /,1tB(t-t,.),
h= I

(6.3.8)

donde /,11 son coeficientes ar bitrarios. E s evic;lel) te que p1ra ci;1l:quier n fini ta existen sol amente n combioaciones linea~mente il).depil)~
dientes de funciones delta del t ipo (6.3.8). En particular, en la frmla
(6.3.8) se puede poner f ,,= 1, f rh = O cuando h =/= r (r = .1 , 2, . .,n).
Sustituyendo l a. expresin (6.3.8) en las frmulns (6.2.17}"y (6.2.19),
determinemos las funciones z, (t), as como las dispe rsiones y los
momentos de correlacin de las magnitudes aleatorias U , (r =
= 1. 2, . . . , n). L uego, determinando por las frmulas (6.2.25) los
coeflcieotes C-vp. y las dispersiones D,, de las magnitudes ale<1torins
V" (v = 1, 2, .. . , n), hallaremos con ayuda de las frm ulas (6.2.26)
los cot>ficiontes avh en lil frrnula (6.3.7). A continuacin, susliluyendo la expr esin (6.3.7) en (6.2.6) y (6.2.8) y cuin}llieudo la integraci n
1teniendo en cuenta la frmula (2.2.6)1, reduzcamos las frmulas
(1$.2.l) y (6.2.8) correspondientement.e a la forma

" a,.hX(lh)
Vv '= ~
, .... -t_

(v=1 , ... , n },

((i.3.9)

x" (l)= LJ,,

~ av1.Fx(l , l11) (v=1, 2, . . ., n}.

(fi.3.10)

1= 1

L11 condicin de biortogon<tlitlacl (G.2. 12) toma la forma

,,
2'. "hX (th) = <5"1'

'= 1

(v, = 1, . .. , n) .

(ti.3.11)

Por fiu, la descomposicin cann ica (6.1 . t ) de la funcin aleatoria


X (t) toma l a forma
n

X (t) = m x (t)

+ V=1
L: Vvxv (t) .

((l .~ . 12)

Demostremos que esta igualdad el\ exacto en todos los puntos t 1,


t 2 , , t,.. Pnrn osto, e n virtud ele (G.3.l), escriba in os
n

11

~ l'"r,. (t1,) = ~~ 2.~ a,.hX (th} :e,. (t1<) =

" ....... 1

v ,.. \ h - 1

"

h-=' 1

v=1

~ X (t1,) ~ <L,.1,x" (t1,)

(le = 1 , 2 .... , n).

( G.3.13)
17"

280

Cap. 6 Rtprtuntaclonts cannica8 de JuncloMs al<!alorla.

Poniendo, para abreviar,


n

bM = ~ ~::,. (th)

,,_,

(k, k = 1, 2, .. . , ll)

(Ci.3.14)

podemos escribir la igualdad (G.3.13) en la fo1ma


n

v=t

h.:t

~ Vvxv(t11) = ~j bh11X(t,. )

(k - 1, ... , n).

(6.3.l 5)

Tomemos ahora las igualclades (6.3.11) correspondientes al valor


fijo del ndice v:

+ x (t2 ) + ... + a,.,.x, (1,.) = O,


t,) + avzXv- J (t~) + + vnXv~t (L-,,) =
av1Xv (t1) + av2Xv (t:) -f- -f(t,,) = 1

"'x1 (t1)

av 2 1

av 1Xv- 1 (

O,

llvnXv

1
/ (6.3.16)

.~~~1.(t~) -~ ~v~X~~I ~~) :-. .. ... ~~v~X~+.I ~t~~=: ~ J


llv1 %,,

(t,}

+ : x,,

(t~)

+ ... + a.,, x,, (t,.) - o

M\Jltiplicando la primera de estas c.cuaciones por h \a segunda


por a:h y, en gcnernl, la 1i-sma ecuncin por ah y sumndolas,
obtendremos en virtud de (6.3.14)
av1b11

av2

b112

+ ... a.11 b1m =

avh

((1.3.17)

Asignando aqu al ndice v los valores v = 1, 2, ... , n, obtendremos


un sistema de ecuaciorrns algebraicits l inealc!\ que determina las
mag nituclcs iucgnita.'i bhk correspondientes al valor dado del ntlice 11. ~s evidente qu e el sistema de ecuaciones (6.3.17) correspondientes o v = t, 2, ... , n, tiene la solucin
(6.3.18)

Est11 solucin es nico, puesto que debido a la independencia lineal


de l as fu nciones vel determinante del sistema de ecuaciones (6.3.17),
compuesto de los coeficientes"~ (v, k = 1, 2, ... , n), no es igual
a cero. Asignando ai indice h en (6.3.18) todos los valores posibles
h = i , 2, ... , n, hallaremos todos los coeficientes bhlt Ahora bien,
l as magni tudes bhA determinadas por la frmula (6.::1.14), con los
mismos ndices h y k son iguales a la unidad y las dems son iguales
a cero. Por consiguiente, la frmula (6.3.15) toma la forma

" V ..x. . (ti.) -X (th)


~

(k = 1, 2, ... , n).

(6.3 .19)

v~1

As pues, nuestra afirmacin que la frmul a (6.3.12) repre:!Cnt11

6.3. F6rmula po.ra el trml110 resid11.a l

261

exactamente la funcin aleatoria X (t) en los puntos t 1 , t 2 , , t,,


queda demostrada.
La frmu la (6.3.19} muestra que en todos Jos pun~os ~ 11 , , t,.
la funcin aleatoria X (t,,) se expresa exactamente por la descomposicin cannica que contiene n trminos. Por lo tanto, la dispersin del trmino residual R,, (t) en este caso es igual a cero. cuando
t = t 11 t 2 , , tn. En el caso de una funcin correlativa continua
las funciones coordenadas x., (t),. determinadas por la frmula
(u.3 .10), tambin son continuas, debido a lo cual tambi"n la dispe;.
sin del trmino resi.dual R,. (t) es funcin continua de t . Por eso~.
eligiendo n lo sufi"cientemen te grande, podemos disponer l os -puntos
t 1 , t 2 , . , tn de un. modo suficiente:o1ente denso en el inter:va:to
a :s:;; t.;;:~ para que l a dispersin del trmirio residual sea tan pequea como se quiera en tod.os los puntos del intervalo a :s:;; t :s:;; ~.
Ahora b ien, al aumentar ilimitadamente el nmero de puntos en el
iuwrvalo a :s:;; t ~ ~ de modo que la distancia mxima entre los
puntos vecinos tienda a cero cuando n-+ oo, obtendremos la descomposicin cannica de la funcin aleatoria, la dispersin de cuyo tr
mino residual tiende a cero cuando n ~ oo, j>ara todos los yalores de t en el intervalo a :s:;; t ~ ~- Como consecuencia de 111 nrbitra riedad de los coeficient.es /,11 en la frmula (.3.8}, podemos
obtener una infinidad de tales descomposir.iones c:mnicas r.onvergentes.
As pues, hemos demostrado quo toda funcin aleatoria que tiene
una funcin correlativa continua puede ser ropresent ado en cualquier
intervalo finito, valindono~ de una infinidad de procedimientos,
por una descomposicin cannica que converge n ella en la media
cu1drtica.
Est cl aro que para la prctica tiene im porLancia no la co11vergencia de la descomposicin cannica, sino la posibHidad do obtener
un error medfo cuadrtico de re presentacin de la funcin aleatoria,
por un nmero pequeo de pri meros trmin os de l a descomposicin
c.anoica, lo suficientemente pequeo. En lo que a esto atae, conviene observar que las perturt>aciones aleatorias de entrada de los
sistemas outomticos, como regl a, no pueden ser represcnlad;ii- con
precisin admisible por un nmero pequeo de trminos de la dcscompo11icin cannica. Sin embargo, en est.e caso el sistemo que se examina deja pasar de ordinario slo un pequeo nmero de primeras funciones coordenadas y, debido a su capacidad de inercia, no rloja 1asar
la mayor parte de dichas funciones. Por eso, para .investig11r la 1>rec.isin de los sistemas automticos, es suficiente de ordinario tomar
en las descomposiciones cannicas de perturbaciones de crutrado un
nmero relativamente pequeo de trminos (de 20 a 30}, 11 pesar de
que con ello se obtiene una precisin muy liaja de representacin de
las propias perturbaciones al eatorias indicadas.

262

Cap. 6 ftprcuntaclones cannicas lk fun cl(,nts alatorias

6.4. Construcein de la dcscorn)()Si ci6n cannica


de unu funcin alenloria por Ja descomposicin ca11nica
dr. su funcin con claliva
En los problemas pl'cticos se logra a veces Jrnllar con re la ti v11
facilidad la descomposicin caunica (6. 1.3) de la funcin correlativa. Demostremos que n est a descomposicin le correspondesiempre
la descomposicin cannica de la propia funcin aleat-oria con las
mismas funciones coordenadas. Supongamos que se logr representar
la funcin correlativa do la funcin aleatorio X (t) por la descompe>5icin cannica

..

K.,. (t , t') = ~ D,.xv (t) x,. (t').

(ll.4.1)

v= l

S upongnmos que esta descomposicin representa la funcn correlativa en el cuadrado a~ t, t' ~ ~ Demostremos que a la descomposicin (6A.1) le corresponde la descomposicin cannica de la funcin
aleatoria X {t) en el intervalo (a, fl) con las mismas funciones coordena<lns:
00

X(t) = m,, (t) +

; V,,x,(t).

(U.4.2)

,~ t

Para Jo doenost.racin basta h11 llar un sistema de fuucione::s av (t)


que satisfaga n, junto co n l as funcionos Xv (t), las condiciones (6.2.8)
y (6.2.12) en el intcrvulo (u, ~). Eotonccs las magnitudes alealori11s
V v determinadas por la frmula (6.2.(i), ~ern no correlacionadas
y sus dispersiones sern iguales a los nmeros correspondiente.~ de Dv.
Con ello. la dispersin 1lcl trmino residual de la descomposicin
(6.4.2) tender a cero (lar11 todos los valores de ten el intervalo (a, p),
e n virLu<l de las frm11lns (6.3.4) y (6.4. 1).
l:'Ma abreviar, introduzcamos para las integr11Jes del producto
de dos funciones la rlesignacin
b

(<p, lj>) =

<p (t} 'lj1 (t) dt.

(6.4.3)

Esta ex_preS!On se denomina comnmente producto escalar de las


[unciones <p (t) y \j> (t), por analoga con la expresin corriente del
producto escal!lr de vectores en el sist-ema de coordenadas cartesianas
rectangulares. Las funciones q> (t) y \j> (t) se llaman ortogonales si
su producto escalar es igual a cero:

(1p, '1jl) =o.


Primeramente hallem9s el sisteo;ia de funciones auxiliares g 1 (t),
g1 (t), .. ., g,. (t) quo poseen la propiedad de sercada una de ellas
ortogonal a todas las ru nciones xv (O con nmeros menores y no ser

.9 6.4. Cot1struccin de la descomposlctt>n cannica


ortogonal a la funcin zv (t) cou el mismo nmero:
(g.., , x,.) = O L < v}, (g..,, x") =FO (v = 1, 2, .. .).

263

(6.4.4)

Para esto tomemos una funcin arbitraria / 1 (t) que satisfaga la


condicin
(6.4.5)
U1 . Xt) *O,
y pongamos
(6.4.&)
K1 (t) = f 1 (t).
Luego tomemos una funcin arbitraria / 2 (t) independiente liuealmente de f 1 (t) y pongamos
gz (t) = b21 g 1 (t)
(6.. 4,. 7)
2 (t).

+/

En v irtud de (6.4.5) y (6.4.6), el coeficiente b21 se puede elegir de


modo que la funcin g 2 (t) sea ortogonal con respecto a x 1 (t). Multi
plicando la igualdad (6.4.7) por x 1 (t) e integrando en los lmites de
a a ~. obtendremos
(g2, X1) = b21 (g,, Xi)
(/z, Xt)
(6.4.8)

'Igualando esta expresin a cero, hall amos b 2,:


/1
21

(h , :ti)
(g,,

(<i.4 .H)

% 1)

Luego hallamos la magnitud (g3 , x 2). Si esta magnitud resulta ser


igual a cero, es necesario cambiar 111 eleccin de la funcin / 2(t) para
satisfacer la condicin (g2 , x 2 ) =fo O. P rosiguiendo de tal modo, supoog&mos que han sido halladas los funciones g 1 (t), g 2 (t), ... , Kn-t (t)
que satisfacen las condiciones (6.4.4). Tomemos uua funcin arbitl'aria In (t) linealment e i ndependiente de / 1 (t), fz (t), .. ., f n- I (t) y supongamos que
gn(t) = b,.g1 (t) + ... + b,.. n- lgn - 1 (t)
f n (t). (6.4.10)

Multiplicando esta igualdad por x 1 (t), integrando en Jos lmites de


a a ~ y teniendo en cuenta qun las funciones Jfa (t), ... gn-i (t) son
ortogonales con rospccto a x 1 (t), obtendremos
(g,., X) = bnl (g, .'t't)
(fn, X) .
(6.4.11)

Igualando a ce10 esta expresiu, hallarnos bn 1 ;


bn1

= -

(n .1:t)

(lit

X)

(6 ,,.,
' 1'>)
;,

Miltipliquemos ahora la i.gualdad (6.4.10) por x (t) ( < n) e integremos en los lmites de a a p. Entonces, tomando en consideracin
que l as funciones C+ (t), .. ., g,._1 (t) son ortogonales con rcs1lecto
a x (t), obtendremos
(gn X)= bn (gt, X)+ .
b,. (g,., X 11 ) +Un .: i:1 ) . (H.4.13)

lW/o

C11p.

(j

Reprrten laclones co1111icas de funrimrrs nlt 11toria.v

Igualando a cero esto expresin obtenemos l o frmula recurrente


purn los coeficientes b,, ,,:
b _
(/,,,;r")+bn1(K,.r)+ ... + b,, , .,_ i(g,,_, ,x)
(6.4 .14)
" 1' - (Cu. x ,)
1

t = 2,

3, .. . l! -- 1).

Una vez delerruinad08 por las frmu las (6.4.14) los coefcieuLos
b,, 1 , b,, . ,, _, , hallamos Ja magnitud (g,., x,,). Si sla resulta igual o cero, debemoll nlcanzar que no sea as, variando la eleccin de la funcin/,. (t). Asi pues, tll procedimiento expuest o permite hallar el sistema de funciones g, (t) que satisfocon las co:nd icioocs (!3.4.li).
Determinemos ahorn l as fnncionos a,, (t) .Por la frm ula

..

a., ( t) -= ~ c;,,,,g1 (t)

(v -= 1 , 2, ... ) .

).-.v

(C.4.15}

Co rno lns funciones Kv (t), Cv+ (t) ... son ortogo1111 les con re~pecto
n t otla:-; las funci ones x 1 (t), . . ., :tv - i (t), entonces la funcin " (l}
es ortogonal con respecto a x 1 (L), x 2 (t), .. ., x,, _1 (t). Por consiguiente, cligieudo los coeficientes Cv>. quech1 alc11nz11r que cada
funcin av (t} sea ortogonnl tambin con respec to a todas las funci<>nel'! x,.+ 1 (t), x,+ 2 (t), . . . , y la intugral de su producto por x,, (t)
sea igual n la unidad. Mul tiplicruido (HA.-15) por .cv (t), in tegrando en
los lmites de a a ~ y t eniendo eu cuenta qui! todas l as funcione:;
F:.r+i g,,+z {t) ... son ortogonales c;on respecto a .:t,, (t), obtendremos
(6.4.16)
lgu nlando esto magnitud a la unidad, hallamos el coefjciente e,,..,:
Cvv =

1
(ll'v :r.,,)

(~i .4 . 17)

Multipliquemos ahora la igualdad (6.4.15) por x 11 (t) ( > v) e integremos en los lm it~ de a a fi. En tonces, tomand o en consideracin
que todas las funciones g .,.+ 1 (t), g .,.+ 2 (t), .. . son ortogonales con
respecto a x 14 (t), obtendremos
(a,,, :r14 ) = Cvv (gv,

X)

+ ... +

Cy,

1<-I

(g 14

_,x..) +
+ Cv (g1,, X14) .

(6.4.18)

Igualando a cero esta expres in, obtenemos la siguiente !1.mul a


recurrente par a los coeficientes cv, 11;
'"" (/lv1 Z.)+ +e,., i<- 1 (C1<-h .e., )
Cv = - - - -- - ,(-1{-.-;r-.,..)- - -- - -

(= v + 1, v +2, ... ,

V =

1, 2, .. . ).

(6 .4 .19)

6.4.

Co11~1r1ucl{m

dt la dtttomposlcln

ca11~11tca

P rosigu.iendo por esta va, se pueden determinar sucesivament41 todos


los coeficientes cv 11 de modo que las funciones a_,(t), determinadas
por la frmula (6.4.15), satisfagan la condfoin de biortogonalidad
(6.2.12). Demostremos que estas funciones satisfacen tambin todas
las cond iciones (6.2.8). Para esto sustituyamos en (6.2.8) la expresin (6.4.1) de la funcin correlativa. Entonces obtendremos~)

=+ ~
00

(t)

D,, (a , Xv)

Xv

(t).

(6A.20)

1
' v- 1

Esta igualdad se convierte en identidad puesto que las fun'cioncs


Zv (t) satisfacen l a condicin de biortogonalidad (6.2.1,2).
Asf pues, el sistema hallado de funciones av (t), junt o con las fun
ciones coordenadas x" (t), satisfAcu todos las condiciones nece~arias.
Por lo tanto, las magnitudes aleatorias V., determinadas por la
frmula (6.2.6), no son correlacionadas en virtud de la igualdad {.2.9)
y sus dispersiones son iguales a los nmeros corrt'spondientcs de D~ .
De aqu se deduce tambin que todos los nmeros de Dv son positivos. Por eso la funcin correlativa puede sor representada por la
descomposicin cannica (6.4.1) solamente con los coeficientes positivos de D ... 'Por fin, en virtud de las frmulas (6.3.4) y (6.4.1), la
dispersin del trmino residual de In descomposicin cannico
(6.4.2) de la fw1ci11 aleatoria X (t) tiende a cero pura todos los ''a lores
de t en el intervalo a~ t ~ ~ Asi pues, hemos clemostrado por vompleto In afirmucin enunciada.
El proceso expuesto de detarminttcin de las iu11ciones a, (t) que
satisfacen, junto con las funciones dadas x,. (t), las condiciones de
biortogon11lid11d (6.2.12) se puede continuar tericamente sin lmites.
Prcticamente, si empre conviene limit11rlo a cierto nmero finito
de funciones. Despus de determinar por el procedimiento expuesto
las funciones g, (t), g2 (t), ... , g,. (t) que satisfacen las condiciones
(6.4.4}, hallnmos las funciones {t) en forma

" (t),

"

n,. (t) = }l c".,.g~ (t) (v = 1. 2, ... , n).

(G.4 .21)

A:=-v

Una vez determioados los coeficientes

c.,. por las frmulas

(6.4. 17)

y (6.4.19) para v ~..., 1, .. . , n, h~llaremos las Iuncione8 a1 (t), .. .


. . . , a,. (t) que satisfacen, joli to con las funciones x 1 {t) , x 2 (t), . . .

. . . , x,. (t), la condicin de biortogonalidad (6.2.12).


Si In funcin correlativa de la funcin aleatoria X (t) se expresa
con suficiente precisin por los primeros n trminos de la descomposicin (6.4.1), en t ooce:i las Iunconll.'l a, (i), ... , an (t) halladas de

>La i ntL'gl'acin trmino a trmino de In 11erle (ll.la.t} es posible si estH


serle converge uniformemente c-00 respecto a cada una do las variable11 en el
int-0rvaln (a, 6). Generalmente esta condicin so cumple, si la funcin eorl'(tlati va
K,. (t, ')u limitada y contiuua.

Cap. 6 J(epresentacion.es canbnicas de f unct,,r>.es aleatorias

W ll

este modo , satisfarn aprox imadamente tambin, junto con las


funcione. x, (t), x2 (t) , . . . , Xn (t), las condiciones (i.2.8). A co nsecuencia tll osto la frmula (6.4.2) ofrccll la de~compos ici6n cannica
a prosim nda de la Juncin aleatoria X (t), que contiene n trminos.
Con ello, la dispersin del trmino residual ser aproximadamente
igual , en virtud de (6.3.4), al trmino residual del segmento correspondiente de la desc.ompos icin (OA . l ) cuando t = t'.
F,jrmrlo 6.4. 1. l:iupongamos que la fu ncin correlutiva ne lq lund n al,alol'in 1:~t.~cio11nria X (t) ~e 1~xprc.<n en ~l intervnlo 1 r 1< 2 T tnr la frmula

..

2J

k,,(tJ =

/)y C0$(l)y't .

\1=71

Al

1~r~~~ntar Cl~lR

frmula

e11 la

foruia

k". (t - t' )= ~ (D,, S~ll <11"1 S(IO ro,.' + Dv CoS ol~t C!)S Colvl' ),
'V':SJ

<1bsurv~nH1s

guo ~t.n <la la dcscom><>S<' U ca1111ic o de la funcin cor1clat.ivn


""o( r11mliodo l t f < 1', JI ' 1 < 1' (111 varinr t y t' en ostos lmites, T ~ 1 - t'
"ar:t 1111 los limiL"s 1 T 1 < 2T). Sogu lo dt11nt1,1rado , u esin descom pCsic.in
ca11111ir.11 <le la funcin correlativa lo cornsponde la de la funcin aleatoria
X (1) Cll rl intervalo f 1 f < J';
u

X (t)= illx-1- ~ (Uv :;cnro,.t .f-Zvc.lvL).


v- 1

A1111 U,, Zv sou magni Ludc~ alMtori:is no C<irrolacion11das con csporauws mutlmticas iguale~ a cu10 y las d isper,;iones JJ IUv) ' ::: lJ f;vl = TJv (v= 1, ... , 11).
J lallcn10~ ahora
med io del mtnd n cxiueslo la.~ fu ncionr,.s " (1) quo
sotislaron, ju uto con os !unciones conrd onadn>:< "v (t), las co n<licioul>.~ de hio rtogonalidail (IS.2. l 2), limitndonos, para sim1ilir.id;id. al caso n = 2, 111 1 = .'ti '!. T,
Ol2 = -:t./4T. En este cllSO tctu~mm~ c.uatro uucinnes coordeu adas;

f"'

z 1 (t)

!'(In

<t,

;r.2 (1)

= cos ro.e,

:r. 3 (t} ~

son

S upongamos tambin que


/ 1 (t) = sen ro1 t,
/: (t) = cos ro 1t, /, (t) = sen

(i)zt,

@2

t,

z 4 (t} = cos

013 1.

/ 4 (t) = cns ro 2 t

y eligimos la primera funcin g 1 (t ) coi ncideute con {1 (t ):


T

g 1 (t) =&mro1t,

(g1o :c1) =

5sen210,1dt=T.
-T

La s~guuda funcin g, (t), ortogoual con rcs11ect.o a la primnra funcin c.oorder1ada :l'.2 (t), la hll5Camos eu la forgia g2 (1) = b 21 g 1 (t)
2 (t). El c11oficiente
b21 lo determinamos de la condicin d~ biortogonali<lad de cz (t) con rnspecto
a z1 "(t). Como resultado obtenem os b 21 = O y

+/

g2 (t)=cosoo.1.

(e,. x 2) =

Jcos~ ro,1 dt ='l'.


'f

267

6.4. Construccin .de la d<scomposici11 ca.nnica

+/

Luego suponemos que sea 8 (t) = b 31g, (t)


b 32 g2 (1)
3 (t) y buscnmos
los coelicientcs b 31 y b 32 de la c ondicin de ortogo11olidad de g 3 (/} con tespei: t o
a x1 (1) y x 2 (t). Como resultado hallamos
g3 (t)= -

8 sen (l)2t + senw 21,


a;-

Suponieodo que g4 (t) = b 41 g 1 (t)

+b

"
(g3, x 3 )=1' ( 1-9iii')
.

g (t)

42 2

+ b.,g, (t) + f, (t)

y determina

dos Jos coeficientes b11 , V. 2 y bu de la condicin de ortogonalidad de g, (t)


con

ru~p<'<'to

.r1 (t),

g4 (t)- -

x 2 (t) y x3 (t). hallamos

4 cos (l) t+cosro t, (g , x4)=T ( .1 - Snt


16 ) .
an
1
2
4

Una vez. detorDlinadi!S las funciones llv (t), ~u><rncmos, c<Jnfori:nc al_.inJ9.d o
ex puesto, que .a1 (t}
c11g1 (t)
c12 g 2 (t)
c,.g~ (t)
<u lf (t) y hallam<is
el coeficiente c11 de la condicin de que la magnitud (a,, x1) es igual a In unidad
y los coeficientes c12, cu y c 14 de la condicin do ortogonalidad de la funr.in
a 1 (t) con rcspeeto a x 2 (t), x 3 (l} y -" (1) . Como resnlt.Hdo ohtr.nclrcmos

T(!ln~~-li 4) (3nscnti>1t-8son<1>~t).

(t)

Ut~puR de p<lner a 2 (t) = c 22 g~ (t)


c 23g 3 (t)
c,.g, (1) y rlctorminar d
<:leficiente c22 de In condicin (a~, x.) ;.= 1 y los confidentes c: 3 y c24 de la ~ou
dic in de Ol'togonalid1td de la fondn a2 (t) con respecto a :r3 (t) y .t 4 (t}, hallamos

3n
T(9n-t6) (3nCOS(llt -4w.sro,t).

az(t)

l lm1 \ C7. ~ulst.o ri 3 (t) ~ r. 03 g 3 (1)


r 3;g, (1) y dote.rmnado ~I COlficil'llle C33
de In ct1111hci611 (o., .:t.} = 1 y (I} coeficiente c34 dn la condicin dt! ortogonalitlnd
<h a3 (t) con resp~cln a ;i, (1), obtendremos

aa<t ) = -

3n
(8 scnro11-.,n&i11c12
"
T ( :rZ-S4)
t).
9

P or fin, pon iendo a, (t) = cug, (t) y hahiondo deti>rmilllldo el cooficieut.c ""
<fo la c.crndid611 (11,, x,)
1, tblelldremos

3n
1 (9nZ- ill) (4 co.s ro.1t-3n.cos (1)21).

LI' ckjnml~ al lector que por s mismo compruch q110 las magnilults ulcat.<wias
r
+~
U 1 = .~ xo (t}sen 10,1 di, Zi = ~ xo (1) cos oo 1t dt,
~T

-T
T
U2 =

T
X (t) sen ro 2t di , Z2 =

J xo

(t) cos m~tdt

-T
-T
no ron corrclacion:1das; :on ell(l , la~ 1nagntudes u, y
y las magnitudes U 2 y Z2 , la dispersiu D 2

z, tienen la d isp~r~in D1

2.68

Cap. 6

R~prcuntacionn

con6ncla dt funcionci akatorias

6.fi. Represcntncln cannico integral de une funcin aleatoria

Sea V (i..) un ruido blanco arbitrario:


l\1f 1V (l.))= O,
}
K, (i.. A.')= M [V p.) V(>.'))= G ('.) (l. - ?.'),

(G.5. l

donde G (i..) es la intensidad del ruido blanco. Hallemos las t:on diciones en que !11 funcin aleatoria X (t) puede ser expresada por
medio de este ruido blanco V (A.) por In integral (6.1.5}. Por.a BSto
hallemos fo funcin correlaeiva recproca de l a funcin aleatoria
X (t) y del ruido blanco V (A.}, suponiendo que la funcin aleatoria
X (t) se expresa por la representacin cannica integral (6.1.5).
Aplicando (4. 7.4) para la funcin correlativa reciproca y la integral
de ella, obtendremos para todos Jos valores de A. en el intervalo
t.,< A.< 1,2
.,

K,,.(l, ?.) -= ~ x(t, )G(i..)6(1.-.)d=G(i-.)x(t, t.).

(U ..).2)

).,

De aqu se deriva que l a funcin coordenada z (t; A.). para cadR v11lor
dado del parmetro >.., debe expresarse por la (rmula
x(t, ?,)=

K,,o~}.) ).) -=

c'i.) M[X(t)V(i..)l.

(6.5.3)

El segundo procedimiento posible de deduccin de esta frmula es


semejante al procedimiento de ded uccin de l a frmula (6.2.5).
Escrib:imos In igualdad (6.1.!i) en la forma
J.1

xu (t} =

V (i..) x (t, )..) dA,

(tl.!l.4)

''

multipliquroosla por la funcin aleatoria V () y tomemos 11.1 esperanza ma~mtica de los miembros derecho e izquierdo de le. igualdad obtenida. Entonces, en virtud de (6.5.1.) obtendremos

,,.

M [X (t) V()]=

JM [l! (J.) V()] x (t, !.) dJ.. =

~.

A<

= JX (t,

i..) G (l.) 6 (/.-)di..= G ()X (t, ).

(6.5.5)

~.

Es precisamente de aqui de donde obtenemos la frmula (6.5.3).


La frmula (6.5.3) muestra que el ruido blanco V (i..) debe ser correlacionado con la funcin aleatoria dada X (t). El ruido bl anco V (i..)
correlacionado con la funcin aleatoria X (t) conviene buscarlo en

6.5. Representacin de una f1mclon aleatoria

269

la misma forma en que buscamos las magnitudes aleator-ias n.o correlacionadas V" at hallar la descomposicin cannic:a de .la f uncin
aleatoria X (t) en el 6.2. Para esto tomemos cierta funcin a (t; A.)
depend iente del parmetro 'A y vamos a buscar el ruido blanco en
l a forma
~

V (A.)=

Ja (t,

A.) X (t) dt.

(6.5.6)

Hallemos las .c ondiciones que"debe satisfoc~r la .funcin a (t, ?..) para


que la funcin V (A.) sea un ruido bll!Dco: Para hallar, es~as concJicio-
nes, sustituyamos la expresin dei.ruido..blanco (6.5 ..6) .9n .la i4rniuJa.
para las funciones coordenadas (6.5.3). Entonces obtendrem.os:
i

--

x(t, A.) = G(/..) M [X (t) V(}.))=

= G~A.)

Ja (t', A.) M [X (t) X (t')l dt' =


"
=
~A.) Ja (t', A.) Kx (t, t') dt'.
(j

De este modo, hemos recibido la


nes coordenadas:
x(L, A.) =

G~}.)

"
siguiente frmula

(6.5.7)

para las funcio

Ja(t' , }.)K,,(t, t')dt'.

(G.!i.8)

Como vemos, e!!ta f6.rmula !:Se "~emeja mucho a la (6.2.8) para liis
Ju.nciones coordenada!:S de la descomposicin cannica; slo que en
vez del nmero -v en ella figura el parmetro ininterrurnpidam(mte
variable A. As pues, hemos recibido una condicin que deben sa tisfacer las funciones a (t, A.) y x (t, A.). Sin embargo, l a condicin
(6.5.8) no es suficiente para que la funcin aleatoria V (J.) sea un
ruido bl anco. Para obtener una condicin adicional a la cual la funcin V (A.) ser ruido blanc-0, multipliquemos la frmul a (6.5.6) por
V (A.') y tomemos la esperanza matemtica de la expresin obtenida.
Entonces hallaremos
/1" 0 p,, A.')= M fV (J.) V (A.')J

~a (t, A.) M LX (t) V (i.')I dt

(li.5.9)

c.

o bien, teniendo en cuenta (tl.5.3),

J<0 (., .')~) a(t, i-.)G(A.')x(t, t..')dt=


et

C (A.')

Ja (t, J.,)
"

X (t , J.'} dt .

(!i.5.10)

:.!70

Cqp. 6 Represmtaclone cann.ira de funciono alratoria

Comparnndo esta frmula con la segundo frmu la (6.5.1), vemos


que para que la funcin aleator ia V (A.) sea un ruido bl anco, es nece
sario que las funciones a (t, A.) y x (t, A.) saLisfngon la r.ondci6n
11

. a (t,

i,) X (t, j..') dt =

~p., - f.').

(1) .~. '11)

Estn coud iciJI es el nn logo ele la dt> biortogonalidad (6.2.12). Para


dislinlos valores de A. y A.' la integral del producto de las funciones
z (t, A.), a (t, }.') debe ser igual a cero, es decir las funciones z (t, >..)
y a (t, 1..') dehen :oer ortogonales.
Hemos visto en el caso de dc.<;composicin cannica que para
cuolcuier funcin 11leot oria se puede siempre hallar las funciones
:r.v (t) y av (t) que sotisocen las condiciones (G.2.8) y (G.2.12), micntrns qne en el caso de representacin cannica integral no existe un
m6lodo ge111m de determiuacio de l11s funciones x (t, .) y a (t. J..)
quc solisfuccn las condiciones (6.5.8) y (6.5.11). A cooLinuocin
11 portaremos u rw serie de ejemplos cuando ~e puede hL\llar fcilmon Lo
tale!< funciones x (t. /..) y a (t. J..).
Las condiciones (6.5.8) y (6.5.1.1) son ll<'cesorias pra que 111 fu11cin aleatoria V (A.). determinada por la frmula (6.5.6), sea un ruido
hlaHCO y para que In funcin aleatoria X (t} pueda ser exprC'siHla en
funcin de este rui do lilanco por medio de la representacin cannica
integral. Es evidente que estas condiciones son suficientes para que
111 !uncin aleatoria V (J..), determinada por la frmu la (H.::.6), sea
un m ido blanco. D emostremos que las condicieneii (G.5.8) y (6.5.11)
junto con la condicin
1..s

I a (t,

l.) .r (t '. i..) di-.= 6 (t -t')

(6.5.12)

At

son suficientes tambin para qu.e la runciu X (t) sea expresada por la
represent11cin cannica integral (6.1.5). Para esto calculemos en el
segundo miembro de la frmula (6.5.4) la integral y demostremos que,
ul"cumplir liis cond'iciones (6.5.8), (6.5.11) y (6.5.12), sta es igual
a la funcin aleat:oriA cen trada X (t). En vlrl11d de las fnnulos
(6.5.6) y (6.5.1 2) tenemos
As

.,

a.

JV(,.)x(t , i..)d>.=} {J a(t', 1.)X(t')dt'} x(t, J..)d>.=


>.t

>.1

ct

A1

JX(f') {. a(t', .)z(t, .)dl.) dt'=


=

,,

JX (t') ~ (t -

"

t') dt'

=X (t).

(fi.5.1 3)

6.5. Rtpr<tufllaclf>n dt 1ma funcin oleotorlo

271

De este modo, hemos demostrado que las tres oondiciones (6.5.8),


(6.5.11) y (6.5.12) son suficientes para que la funcin aleat-0ri a V (A.),
determinada >or In frmula (6.5.6), sea un r uido blanco y para que
la funcin alenloria X (t) se exprese en funcin de este ruido blanco
por la representacin cannica integral (6.1.5).
Ejl'niplo 6.5.1. En el ojemplo 4.6.2 hallam.o s que l a derivada d e.la func n
nleatoria X (t) <'Oll la Cunciu ~orrelati va Do-Jl-l'f tiene la funcin c.orrel atjva
de In forma llase la frmula (4.6.17))
K 111 (t, t') =20a6 tt-l')-0a2 8- c:tll-l't.

Ahora bien, en este caso la foncl u correlativn contie ne el somo.ndo 2Da6 (t - t ')
Ql\O es la funci911 correlativa del ruido blanco. Sin embargo, lo. propia derivada
X (t) no es mid o blnnw, pu est o que en su funcin correlotlva hay todnvla el
! umando DeteAfl-l'I. Puesto que este sumando tiene l a misma formn que la
funcin correlativa e la unrin rucatoria X (t), es natural suponer quo ~o p11c1k
hAllar una combinac16o \al do la funcin aleatori" X (t) 'Y de s11 clcrh1ada X ' (t) .
quo sea un ruido blanco puro. Examin1>mo., Ja suma

v (tl

~ ax

(t)

+ x' (1) .

(c.r.. 1 ~)

.::11 f11nt.i6n corrdativa, com11 fuucin correlaL!,11 de la su rnn de dc>s ru11eo11c


al1:1Lorias , es lg11al a la ~11mu 11( l s funci<>rll's correlativas 'Y corr~lativas rt'<prnros do Jos sumando>'. es dt>eir,

K, {l. 1') =- Kv, (1, t')+aKx {I, n+aKX{/ (1. 1' ).;,-etKX//l {t', t).
Oh:'1v1)wo.~

nhma q ue,

m1

''t'l1l(l do (4.G.11;), 1>11111

K XIJ l

(t, t')~K.,, (t', /)=0.

c11alc~q11i ua l

(G.f>. lii)

y t'
(0.5. i H)

En cfc.-ct.<. al permutar los arumenlos t y t', las expres!oues (4.6.1 4) pasan unu
a la olra . puesto que con cUn el ~ig1111 de deaiguiJdad entre el lrimero y ~I !;<'gu 11dn argumento o:nmbia on el opuesto. Ln S\Jma de cual qlll~l'D. de la$ cxprcsiorocs (.\..ll.14) con otr a expresin, que liena los a rg umentos t y t' pcrmutailos. es
igu nl u cero, qu o <'~ l o qu i' dc11111esLra In igualducl (li .5.16). S u'ftituy<111lo l a~
expresiones de l as funciones correlativas ~o (6.(1.11\) y tenie11Jo e n r.uent11 (C\.5. tr.).
ohtendJ'emos
K 0 (t, t') = 2Da~ (t - t').
(0.fi.17)

Ahnra bien, la fnnei6n aloatorin V (t) = aX + X', dctcrminKda por l a frmu


la (1$.5.14), rapmso11La en este c.oRo un r11ido hlo nc,o con intonsidud igual a 2Dr:t..
Cun ot.ras palahTnS, In funcin al eatoTia examinntlJL X (t) <>SI~, ligada con el Tuido
bliuico V (t). qn o tiC"ne Ja i n t1>nsi dad 2Va, 1or In ccuncin d ifcrcucial lin~ll l
de primer or<ll'n
lnt>grnnclo

~~ l.a

X' -1- aX

V (t).

(fi.!>.18)

1l<'11:1do, pa111 la cnnr!ic.i1u inicial X (le) ... O. o hte>nd rcwo


1

X (1) - c-ctl \ V ('t') n clt.

,,
1.'Xprc5i11. l11lrodu1.cam1s el multiplir~1lor r'" hojo d
,;igno inll'gral y extondamos el limite supcrinr dl' intcgrnci6n ha~LH cierto 11 > t.
ol m ultiplir.:1r l a funri6n s111Jint~g1a/ por IA r111wiu un ilacl cscnlomul:i i (/ - r >.
Trnu.~rormomos co1a

272

ca,,. 6 RpresenttlL'/f)ne8

Igual n cero parn

>

fu11CIO MS

ttatorios

t:

X (t} =

d1t

CfHW 11C0$

e -a(l-'t) V (T) tT-r~

lo

,-a(l-Tl j (1 - -r) V (T) dT.

(6.5.19)

lo

Esta l'xprcsin contit>ne Ju constnnle arbitraria In. l'ara lletlll'minar esta cons tante hRll<'mos l a funcin correlat iva Je la funcin nleat.orio X (t). Aplicando
In 16rmula (lo .7 .3) pata la funcin correl ativa d e la integral lle la funcin 11leetc>rlo y leuieu<lo en cuenta que en rst e casi)

= -.-a(l- T)

C (t, T)

1 (t -

T),

ol>lt1nc.lromos
t1 t1

K,, (t, t'}=

JJ

2aDc- a(l-Tle- a W- T) 1 (t - T) 1 (t' -'t)

6 ('t -

T') ciTd't' -

to fo

... iav \ ,- au+t' - 2 <>1 (t-T) l


t>rimcrmnent.e exnmnemvs d

cn~n

io
r uanolo t < t'.

(l' - T) d't.

Toudr~mos

J
t

Kx (1, t ') =2aD

, - aH+1 - 211d't = n 1, - aW-ll_ e-a<l+t'-2tol.

to

Cunnclo t

> t',

nn virtud J i: la ~im~I ro podemos e.'!CrilJ ir


K,. (I, t')=D , - a<1-t')_e-a(l' + 1- 21,,11.

Heuniltiu o estas frmolns, obt omlremo~

K,. (t, t"J = D{c- alt - t'l _e - u<t+t- to>.

(0.5.20)

De Rqu se ' 'C que> la funcin a lflat Ol"il'I X fl) rnn lu func in t<trrnl ativa
Oc-a1 1- 1'1 se expresa p<>r mctli() del ruhln h lani:o 1 (t), cuya i ntensidad C3 2Da.,
por la fr muln (tl.5.1 11) si !'e pnno t 0 - -oo :

J
_.,.
11

X (t)

V (T) e-a(l - 't) t (1- T) ,JT

(1 <t).

(G.5.2il

Asl' pues, la funcin aleatoria estacionnra con funcin corrt>lntiva exponencial


so exP.resa por l a representacin ca nnica integral (l\.5.2i ) en llll i n t.erYalo sem ilnfimto cualquiera (-oo, 11). L as funcitmes coordenodo~ d o 4'Sta representac in
c nnnica integral so determinan p<>r l a f6Tmnla
:r (t,

1..)

= t-~t-A)

1 (1 -

/,),

(6 ..5 .22)

Para h11ll11r IM func.ioncs a (t, ?.), obsen tlmos que la frm ul n (IU1. l 4),
on In cual el ruid o blanco V (1.) vo ~xpre-oado mPdi11nto la funcin aleatoria
X (t), puede !W'r CMrit.a en In forma

,,

V (1.)=

(c5'(1.- 1)+ et6(/. - t)JX (1)<11

6.5. Hercst11taci61'

De aqu

:xi

ik una funcin. a{'1atoria

ve que
a (t, >.) = b' (/ - t)

+ w~ (>. -

t).

273

(6.5.23)

En el ejemplo que sigue veremos que las funciones x (t, A) y a (t, 11), determi
nadas por h frmulas (6.5.22) y (6.5.23), satisfacon las tres condiciones (6.5.8),
(6.5. U} y (6.5. t2).
Elemplo 6.5.2. Los resultados del ejemplo anterior muestran que la fun
cl6n afeatoria no estacirinara X (t) con la Cunel6n correlativa (ll.5.20) so expresa
por la re>resontaci6n cannica integral (6.5.19) en el i'ntervnlo' finito (1 0 , 1,).
Con ello, las funciones coordenadas x (t, X) y las funciones a (t, >.) van exprt>sadas por las mismas frmulas (6.5.22) y (6.5.23) .
Es fcil cerciorarse de quo en Mte caso las funcione-s;,; (t, 1') y a (t, >.) satis'
facen las tres ecuacione.s (6.5.8), (6.5.11) y (6 .5.12). En efecto, para. t 0 < t <;:

<>-<ti
11

JK,, (t, t')a(t'A.)dt'=

to

lt

=D ~ l-Q'.(t'-11 - e- <><1+1-210> [<5' (X-t')+o:B (X-t') dt' =


to

=-Da (e-O.-t) _ e-a.(t+),- 21ol] +Da .-a.(X-t)_e-<><t+i..-2to)l=O.

Para

10

< 1. < t <

ti

a (t', >.)

/(~ (t,

obtcudremos

11

t') dt' =

io
t

=D

[e- cr<l- 1') _ ,-a11+1' - 2tol {' p.-t') +o: (/..-t')) di'=

11)

=!Ja c-a<t- ).)

+ 6 -et(t+>.-2tol] +Da [e-<>(1-i.l _

6 -a.<r+i..-2to>J =2Dae-ac1-1..

Al div idir las ux1>rcsiu11es o bte11idas p-0r la intensidad del 111ido bl<111co V().).
igual c11 esto caso a 2Da., obtcndremo procisnm~nte. la funcin :r. (t. ).) <lot~rmi
11Acla por la frmula (f;.~.22). As puc:s, lns fnnciones x (t, >.) y a (1, /.) st1tisfar~11
In co11dirit11 ((i.5.8). Luego tonemos
lt

Jx:(t, >.)(l \1,

}.')dt=

to

, -(t- M J (1-X} [6' (1.'-t}-f-et (i.'-t)dt =

tn

f)~' (c-a(i.'-~lt
=-rxe-a(1.'- i.)

(1!-i,)]+et - a(.' - i.lt (>.'-,) =

1 (.' -1.H-e-O.' - l"B (1.'-i.)+

+ne-a(X'-.l t ().'- i.)=e-"!1.'-M6 (1.'-).

Pero 6 (X' - A) = O paro todos los valores d~ A.' I )., Pm eso el multiplicadll'
.,-<>:-;. puede ser m1st.ituido en la expresin obtenida por la unidu<l. :,.,
o()nsiguicnt.o, las funci<lnes x (t, /..) y a (t, A) satisocen lu condid11 (6.5.11 ).
De un inndo absolutamente anlogo nos convonc.omos de que ollas suUslacP.u
tambi n la cond ic.i6o (<>.5.12.).
( 8 - 0938

271,

Cap. 6 Rtpre.sentactones

con{Mit:lf.<:, d.;

funr.iQnl'$ qlealrlri r "

E jem plo 6.5 .3 . Le dejamos al lector <1uo por s mismo se convenza ele q ue
sl X (t) es una func.in aleatoria estacionaria con la funcin c.onclativa
k,.(i:)=Dt-alI

(cosw0't+ : seneoo l" i),


0

entonces la funcin aleatoria

v (t) = x

(t) +"to.X' (t)

+ ~ix (t),

~;=a+

w&.

(U.5 .24)

representa un tuido blanco con intensidad igual a 2Da~. Al cxamiuar la ig11aldad (6.5.24) como ecuacin diferencial con respecto a X (t) y al integrarla, 1105
cercioramos de que la !uncin aleatoria X (t) se expresa a travs del ruido blanco
V (i..) por la frmula
t1

X (t)= ;
0

V (A) . - <i{t - l.> sen <Do (t-i.) 1 (t-1.) di-. (t

<~t 1 ).

(6.5 .25)

-QO

F.stn frmula ofrucc ltt representacin cuunka inl.Cgral de le funcin a l eatori a


X(/) co11 las fu nciones coordenaJxs

1
"'(t, J.) = - -

<Do

.-0t<1- 1sen ro0 (t-J.) 1 (t-1.).

(.5.26)

Las funciont?!l a (1, 1') s e dcterminnn en este r.a.!!O '(lOr la frmuln

a (1, i.) = 6 (}. - t)

+ 2al' (>. -/) + a211 (/. -

t) .

(6.5.27)

Al igual que en ol ejemplo anterior. 11 no puede convoiwerse 1le q1u. la8 [111iriunes
A) y a (t, .), determ inadas por las frmula.~ (6.5.!W) y (ti.5.2i), ~atisfacen
l as coudiciones (6.5 .8), (6.5 .{1) y (6.5.12).

:r (1,

~ 6.(). neprcscutaci n cannica integral


de una fun cin aleatoria estacionari a

E n los 5.2 y 5.3 construimos uua clase de funciones aleatorias


tist acionarias representables por las descomposiciones espectrules
(5.2.21) y (5.3.3). Dado que las funciones aleatorias U (w), Z (w)
y V (w) en stas frmulas son ruidos blancos, la descomposicin
espectral de .una funcin aleatoria estacionaria es, al m ismo tiempo,
tambin S U representacin cannica integral. Aplicando la Teor a de
representaciones cannicas integrales de funciones aleatorias, oxpuest~ en el pr.rafo an terior, ahora podemos demostrar que cual quier
funcin aleatoria estacionaria se expresa por la represent acin cannica integral (5.3.3). Este hecho ha quedado sin demostrar en los
. 5.2 y 5'.3. Al demostrarlo, podemos afirmar q ue la clase de funciones aleatorias estacionarias, construida en los 5.2 y 5.3, incluyotodas l as ftlnciones alea tori as est acionarias.
Para la dmostracin observemos q ue las funciones
(H.G.1)

.~

6.6. Reprtsentacin de una funr.in ak.atc>ria

27!!

satisfacen las ecuaciones (6.5. 11) y (6.5.12). En efecto,


00

r
J

..

r ei(l.-7'')1 dt =

_1_ e-i1''t dt = -121t


2nJ

eiAt

-oo

ei1't

(j ('}..-'A')

'

""

_i_e-i1'1'dJ.. = -I- l elCl-t')).d'}..=(j(t-t')


2n
2nJ

(vase la frmula (2.2.22) que ofrece la representacin de la funcin


delia eo forma de la integral de Fo"Qrier).
.
. :
Para cerciorarse de que las funciones x (t, i.) y a (t, A.), d_tetm.i~~;
das por las frmulas (6.6.1), sat.isfacen tambin )a ecuacin.''( 6.5.8),
basta demostrar que la iptegral

..

J k.,(t-t')a(t', '}..) dt'= 2~ J k,.-(t-t')ei).t'clt'

(6.6.2)

-oo

= ei i.t solamente por el multi..licador independiente de t y tomar este mult.iplicado1 como funcin G ('}..).Efectuando en la integral (G.6.2) la sustitucin d~ las variables T = t - t', obtendremos

se distingue de Ja iuncin x (t, i.)

2~

..J

k x (t-t')e 1' dt' = >.t

J kx(T.)e-'dT.

~'l.

-oo

De aqu se ve que las funciones x (t, A.) y a (t, /..), det.erminadns por
las frm ul as (6.6.1), satisfacen la ecuacin (6.5.8) cuando
G (;.) = -~
En virtud de lo demostrado
tor ia
V p.) =

..J

_.,.

l:lll

2~

k x (i:) c- il.t dT.

(G.G.3)

el pnafo anterior, la funcin alea-

..J

X (t) e-il-I dt

(G.H.4)

representa un ruido blanco cuya in t ensidad es igual a G (:A.) y la


funcin aleatoria X (t) va expresada en funci n de C?stc ruido hliinco
por la l'Cpresentacin cannica integral
X (t) = mx-1-

"

JV(>.) e

1 1
' d.

(lU>.5)

Esl.a frmula difiere de (5.:J.3) rnl omenle por la df.sigORcin de l


trccuencia.

27G

Cap. 6 flp,.,1tnlactones can6ntc4S

d~

fun.clont

al~atorlas

Comparando la frmula (6.6.3) con la (5.3.11), nos convencemos


de que la intensidad G ()..) del ruido blanco V ()..), determinado por
la frmula (6.6.4), coincide con la densidad espectral sx (i.) de la fun
cin aleatoria X (t). Por fin, en virtud de la frmul a general (6.1.10),
la funcin correlativa de la funcin aleatoria estacionaria X (t) se
expresa por la representacin cannica integral

..

kx (t - t') = .~ G p.) c11..1e1M ' di.=

Sx

(A.) ew1-n cD,..

(6.6.6)

-oo

Esta frmula se distingue tambin de la (5.3.15) solamente por


l a designacin de la frecuencia.
Ahora bien, hemos demostrado que cualquier funcin aleatoria
estacioonria se expresa por la representacin cannica integral (6.6.5)
que coincide con su descomposicin espectral (5.3.3).
Demostremos ahora que para ninguna funcin aleatoria no estacionaria la descomposicin espect.r al puede ser su representacin cannica int.egral. En efecto, supongamos que la funcin aleatoria no
estacionaria X (t) se expresa por la representacin cannica integral
(6.6.5). Entonces su funcin correlativa debe expresarse por la
frmula (6.6.6.), es decir, debe depender solamente de l a diferencia
de los argumentos, lo que contradice a la suposicin acerca de la no
estacionaridad de esta funcin aleatoria. Asi pues, si se logra expresar una funcin aleotorin no estacionaria por la descomposicin espectral (6.5.5), la funcin V (f.) no puedo ser 11n ruido blanco en esta
descomposicin. Esto quiere decir que la descomposicin espectral
de una funcin aleatoria no estacionaria Ja expresa solamente a travs
de otra funcin aleatoria V (l..), que en el caso general no es ms sencilla y no da .nada para la prctica.
Examinemos ahora dos funciones aleatorias reales X (t) e Y (t)
que son estncionarias y estacionariamente ligadas. Expresemos 111
funcin aleatoria X (t) por la representacin cannica integral (6.6.5)
y 'la fuucip aleatorio Y (t), por la representacin cannica integral
Y (t)- m11

""

+)

W (i>.) e0 1

'"

(6.6.7)

En este caso el ruido blanco V <') se expresar por la frmula (6.6.li)

..

y el ruido blanco W ('..), por la frmula semejan te

W (1.) = ~ ~ yo (t) e-i).I dt.


_..,

(6.6.8)

Calculeinos la fnncin correlativa recproco de los ruidos blancos


l'1(A.) y W ()..). Para eso pasem,os en (6.6.8) a l as m_agnitudes conju
gadas complejas y cambicmoo las designaciones del argumenlo y de

6.6. Rtpreuntaci6n dt una funcin aleatoria

la variable de integracin.

~2

M [V(/) W (>..')] =
bien

4~2

K...,,('>.. , "-')=

Entonces~obtendremos

JJ

M LX (t).Y (t')J _ew 1- >J>dtdt'

-w -oo

....
Jl

Pero

k:r11 (t - t'fetv:-M>dtdt'.

-oo - oo

La sustitucin de las variables t'


t' da

= t- i: en l a integral con

! Jk,. (-t) e-

K.., (1'.1 A.')=

4 2

Z77

11

-oc

11.t d-c

e lt>.' - /.JI

respefo

dt.

-oo

..,

etv.-i.i1 dt = 2n6(A.-1'.' ).

..J

Por consiguiente, introduciendo la designacin


s,.11 (/..) =

~~

_.,,,

kxy

(-c) e- fl.t d't,

((j.6.9)

obtendremos
K ow

(!., >.') -=

S.r

(J.) 6 (A. - /..').

(6.6.10)

De este modo, hemos demostrado que l a funcin correlativa recproca de l os ruidos blancos en lns representaciones espectrales de
do::s cualesquiera funciones aleatorias estacionarias y estacionariamente ligada.~ contiene como multiplicador la funcin delta. Esto
quiere decir que los valores de estos ruidos blancos, correspondientes a diferentes valores de la lrccuencia, no son correlacionados. En
el 5.G. hemos mostrado esto recurriendo a otros razonamientos.

CAPITULO 7

En t.iopa e informacin conlenida


en las magnitudes aleatorias

7. l. Medicin do JI\ indeterminacin


do remmeuos aleatorios. Nocin de entropa

Todo fenmeno aleatorio est vinculado con cierta indeterminncio. El resultado de observacin de un fenmeno a leatorio no puedo
11er predicho con plena seguridad, es decir, es indeterminado y se
hoce cleterminado solamente despus de In observacin. Por eso, ni
llanificar trabajos rolnciono.dos cou la observacin de fenmenos
aleatorios o al calcular sistemas destinados a funcionar con seales no
conocidas de antemano, debemos tomar eo consideracin la iodetermiirncin de los resultados de observacin de los fenmenos aleatorios, tener c1i cuenta que los resultados de unas mismas acciones y
rruehas pueden ser en ol proceso de trabajo dist.intos. Cabe preguntar
se podra medir In indetermi nacin de fenmenos aleatorios y tenorla 011 cuanta en l\uestros clculos? Para ro.~olver esta cuestin, prestemos atenci11 al hecho ele que en ciertos casos podemos comparar la
indeterminacin do los resultados de diferentes experimentos y decir
con seg1:1ric!ad que la i ndeterminacin de una prueba es mayor que lo
de otr11. As, por ejemplo, si, como resultado de una prueba, el acontecimiento A puerle producirse o no producirse con la probabilidad
de 1/2 y, como resultado de otra prueba, el acontecimiento B puede
sucecler con la probabilidad de 0,99,entonces est claro intuitivamente que la primera prueba posee mayor indeterminacin que la segunda.
En efecto, el resultado el.el pri mer experimento es absolutamente im.p,o..sible.,pr.odecir., Al contrario, prcticomonte podemos estar seguros
de que noaws.. equivocamos a! predecir que, como resultado del segwido experimento, el acontecimiento B se producir. Si en la tercera
prueba el acontecimiento C t iene la probabilidad de 0,9 es evidente
que esta prueba posee mayor indeterminacin que la segunda y menor
que la primera. Esto ejemplo muestra clarameoto que la estimacin
cuantitativa de indeterminacin de Jos resultados de observacin de
los fenmenos aleatorios os, en principio, posible.
Para hallar ol modo de tratar la estimacin cuantitativa de la
indeterminacin de los fenmenos alentorios, imaginmonos que
participando en cunlquier trnbnjo, por ejemplo, en el mando de un
proceso de produccin, liemos efectuado cierto experimento. El resultado del mismo es necesario comunicr.;elo a otros participantes, pHL'a
que puedan cumplir su parte del trabajo. Claro est que la comunica-

7.J. Medldn de la lndrt.rminac16n

279

cin acerca del resultado d.e la prueba liquida 1ior completo la indete~minaci,n quo existia 11ntes de llevar a cabo el e~pedmento.
Para transmitir las comunicaciones se utilizan generalmente los
medios de enlace. La transmisin de comunicaciones se efecta por
l a!I lneas de enlace con ayuda de determinadas seales. Por eso, para
trausmitir una comunicacin, es necesario ponerle en correspondencia
uuu sucesin determinada de seales o, como se dice, cifrar la comunicacin. El cdigo binario es el ms sencillo. En ste l a tran.Smisin
de comunicaciones se efecta por seales de dos tipos. Al ligar con
un tipo !le seal el cero y con el otro, la unidad, reduciremos la codificacin de l a comunicacin a su representacin en forma de una
sucesin de ceros y unidades que alternan de un a roamira det!)rm inaclA. Con ello, es necesario, naturalmente, asegurar que a distintas
comunicaciones les correspondan diferentes sucesiones do ceros
y unid ades. Desde el punto de vist.a terico, al cifrar comunicaciones,
11s necesario tratar de gastar con m11yor economa el tiempo y los
medios requeridos para su trausmisi6n. Esto se puede a lcanzar eligitmdv t.lll procedimiento lle codificacin co11 el cual liea mnimo el
nmero esperable de signos (seales) con ayuda de los cunles i;e
transmit.en las comunicaciones. Es obvio que para asegurar el nt'1mero
mnimo esperable de signos para la transmisin do los comunicaciones
acerca 1lel resulta.do de la prueba en cnostin, es necesario representar los resultados de mayor probabili!lad por las sucesiones m6~ cort1:1R de c.l\ros y nnidade8 y los de menor prohnbillnd, ligarlos t;On
sucesiones ms largas.
P.l posible nmero mnimo esperable de signos requerido pnrn
l iquidar por completo In indeterminocin ele\ resullncio de la prueba,
nl emplear el procedimiento ms econmico de codificacin, conviene
tomnrlo l'Or medida cuont.itativa de 111 indeterminacin del experimen1.o. Con ello, l a unidod <le indeterminacin ser 1111 dgito binario
(en forma abreviada bit) *).
Para renliiar prcticamente el procedimiento de codi!icacin
ms econmico, con el cual la esperanza matemtica del n11Jcro de
dgitos binarios necesarios parn t ransmitir la comu11icacin sobre el
resul t ado .de la prueba sea mnima, se procede del modo siguiente.
Todos lo~ resultados posib l e~ del experimento se clividcu en dos gr upos de nn1ncr11 que la 11rohabilitlnd sumaria de los resultados dH ca1la
grupo son lo ms prxima a In mitad. A un grupo se le asigo a el primer
dgi to binario; ol cero, y al otro, la unidad. Luego cada gru110 ~
divjdc e11 dos subgrupos do modo que la prohnbili!latl surn11ria de los
resnltados de cada subgrupo sea lo ms prxima a un cuarto. IJe tal
manera
contina la divis in de los subgrupos husta que se obt1inga
d subgrupo que contengo 116!0 un resultado del experimento. Lo:;

se

) Bih el! 111111

<:11 '~>anl cHri~v

nhr~viatur11

bina,.io.

tkl trmino ingls hinury cligib quo i11iica

Cap. 7 Entropla e lnform~l6n

280

subgrupos que contienen ms de un resultado se siguen di vidiendo.


Al fin y al cabo lodos los subgrupos contendrn cada uno un resultado
y, con ello, a los resultados ms probables les corresponder menor
cantidad de digitos binarios y a los resulLados menos probables,
una cantidad mayor de los mismos.
Ejempl o 7 .1 .1. Si son posibl"~ ocho rP.snl ta<lo8 del oxrcrim~ntn r1>11 las
probabilidadl-s f/2, 1/lo, f /ll, l/ IG, 1/ 64, 1/64 , 1164, 1/64, e utonces, aplic1111rlo el
procediu1ie11tn expuesto de r.odi!icnci6n, <>bt.<: ndremos la tabla siguout.e:
{

3
4

Pi

1 Dig.

7
1

ti Og. 21 Di. :l lig. 41Oi. ~

8
l

-
1

B4

64

iR

64

1
1

()

Og. 6

l
o

-1

-Ahora bien, la comuniuein sobre el resultado mlis probable del uxperimont_o,.;!Je t.ion& la 11robabilidod de i/'l., se transmtir por un solo dlgit<> blnarlo, Q; . l11.. ~omunlc11c1_6n sobre el segundo resultado del experimento, q ue tiene
In pr~babil'l aad d'e 114, se trausmitir por dos dgitos i y O; la comunicaci6n
del tere~ resultado,. que tione la probabilidad de t /8, se tro.nsmitil:i Jl<>r tres
d lgitos; l a comunicacin sobro el cuarto resultado quo tiene l a probabild ad do
1/ 16, ise traDJmlt lr por cuatro dgitos y 1as comuo1cacione.s acerca de cada un<>
de lo~ demb reaultad()s, cuyas probabilidades son igualea a t /64, se tro.nsroiti
rn pT seis dlgitos.
Rallemos la indeterminaci6n del nperirneoto en cuestin, la cual, segn
la definicin o.nteriorm.ente do.da, .es igual a la esperuza matemtica del nmero de-dlgitos requeridos para transmitir la comu.ntcaci6n sobre el resultado de la
prueba. Los val ores p0slblos del nmero de sjgnos que puede comprender la
<:0municac6n sobre el resultado de l a prueba son 1, 2, 3 4 y 6. Las probabilid~
d es de estos valores son iguales, respectivamente, a 1/2, lJ, 1/ 8, t/t6 y 4. t / f\4 =
- ift6. Por eso la esperanza matemtica del mimero de dlgltos <jllC 11uede cnm-

7.J . Medicin de la tndetermtnactn

281

prender la comunicacin sobre el resultado da la prueba es igual


t
1
t
1
1
H~1.
+2 .
+a .
+4
+s.
~z bits.

16

16

As pues, la lndewrminacin del experimento eo c;uestin es igual a 2 bits.


E jemplo 7 .1.2. Si son posibles ocho resultadC?s del e~p~i:mento y la probab ilidad de cada uno de ellos es igual a 1/8, entonces l pro~dim.lento expuesto
de codificacin de las comunicaciones acerca de los re5Ultados del experi!llento
lo ofrece la tabla siguiente:
1

1Dg.

tiOg. 2 Oig. 3

1
t

1
1

1
1

(i

-:

1
1

1
1

-o

-1

o
--

-1

A11oi-n bien, la comunicncin sobro cualquier r()S11ltndo del oxpel'imcuto ro


fran~mite en este cas<o por tr~s digitos. Y esto era do esperar, puesto que l.o dos.
los resultados de In prueba son equiprobahlcs. La csponnza matemtica dol
nwcre> de dgitos compreuuidos en la c<m1unicad11 e~ tombi11 ig11al a tr~s.
Por lo tanto, lo indeterminacin del experimcuto e11 cuestin es igual a 3 bits.

Examinemos el experimento con n resultados posibles cuyas probabilidades sou todas iguales a potencias enteras de una mitad . Es
fcil comprender que, al emplear el procediniien t o de codific11cin
expuesto, al resultado de la prueba cuya probabilidad es 2-"' l o
corresponder m dgitos binarios, lo que evidencian claramente los
ejemplos citados. As, pues , la esperanza mntemtica del nmero de
d gitos comprendidos en la comunicacin sobre el resultado de l experimento en cuestin es igual
R = ~~m2-m,
(7.1.1)

::82

donde In adicin se reali'la con respecto a todos los resultados posi


bles de la prueba. En oste caso, ost claro que si ciertos ra~ul t11tlos del
experiniento tienen probabilidades iguales, les correspondern
sumandos iguales. Observemos ahora quo en el ca~o en cue:;tin, en
que Ja probabilidad del i-simo resultado de la prueba p = 2-"',
,cJ nmero de dgitos comprendidos en la comunicacin acerca de este
.lesultado del experimento e!! igual al logaritmo binario de i;u probabi
.li<lail tomado con el signo contrario: m = - 9 log p 1 (i = 1, . .. , n}.
Por cs1> la frmula (7 .1.1) se puede escribir en l a forma
n

;,

JI= -

p; ~log p 1

(7 .1.2)

1~1

Esta magnitud, obtenida por nosotros para el caso particular c1Jando


los rirobabilidades de todos los rcsultndos del explrimento se cxpre.sa11 por potencias enteras de una mitad, so toma por medida c11nnti1.at.ivu tic indet.ermi1111cin de cualquier prueba con un nmero iinit.o
de rosultados posibles y :>e llama eri.trop.a del experimento. En ve'l. de
expe1imenlo , ~e riuede hablar de un sistema con nmero finito de
estndos pos ibles que tienen prob11bilida1les as ignadas de ontemnuo.
La cntroill a de (~Ste sistema, determinada por la frmula (7.1.2), es
la medida de indeterminacin U.el si;;temn. Claro est que en In uei
nic.in de l:i entropa (7.1.2) se t ienen en cuenta todos los resultados
posibles <lel experimento, es decir,

"

(i .U1)
L; PF - 1.
1-1
,l,11 cnt.ropa de un experimento con. un mmero finito n > 1 de
rcsultndo!'\ (o de u11 sistema con un nmeJ'o inito de estados posibles}
l>.~ si cmprn po.~itiva, puesto que lo.<; logaritmos de fraccio.n cs propias
on negativos. Si la pruebi1 tiene un solo resultado posible cuya pro
habiliuad es igual n la ttnitlnd , entonces la entropo de la prueba es
:igu.al i. cero. Esto es natural ya que el experimento con Uil solo
resultado 'Posible careee por completo de -indeterminacin. Demos:ti'emo.~ ci:ue entre todos los experimentos posibles, con n resultados
p.S>s'i:~Jes, 'la .'~ayr entropa la poseen los experimentos d resultados
<e(tuip.rolibles. Para la demostraciu, deduzcamos una desigunldad
.auxiliar. que necesitaremos. ms de una vez a continuacin. Observe
.mos que para cualesquiera valores positivos de x

ln

x< .x-1.

(7.1.4)

efecto, el logaritmo e:;1 una funcin monton11 creciente con derivnda montona de.creci'ente. Por consiguiente, se representa por una
-c1i r.va, cuya- 'convexidad esta dirigda hacia arriba, que se encuentra
por com.vleto bajo cualquier tangente a olln (fig. 7 .1.1.). En particu
Jar, la curva que representa al logaritmo natural se halla por com-

.E1}

7.J. Mediei{ln de la indetermlrtacin

283.

pleto bajo la tangente a ella en el punto x = 1 que tiene la ecua~i11


y = x - 1. Precisamente de aqu. se deduce l a desigua l(lad (7. 1.~).
El signo de igualdad en (7.1.4) 1.je.ne lugar sol umente cunncj.o x = 1.

!Poniendo x

1/u, obtendremos

!I

In .!...,.;:..!..-1.
"'

!/:&/

lt

-de donde
l nu= - ln.!. :;;,. 1-.!..
"

Ahora bien, para cualesquiera valores positivos de u


ln ~
~ 1 -..!.
" .

(7 1 5)

7.t, t.
F1g.

Pasando aqu de los logaritmos naturales a los binarios, obtendremos


2 logu::;.,.( 1-

~)2 1og e.

(7.1.6)

Esto es prcisament.e la desigualdad auxiliar buscada.


En virtud de la definicin (7.1 .2), la entropa de un experimento
~oo n resultados equiprobable!I e.5
n

Hp= "1

..!.n. 2 1og..!..=!logn
"1 .!. = ~lo,n.
ll
""'ll
'

(7 .1.7)

t.~ t

i= l

Observemos ahora que las probabilidades iguales do iln, que consti


tuyen en suma la unidad , pueden ser s ustituidas en (7.1.7) por otras
probabilidades cualesquiera p 1 , p 2 , p,,. quo constituyen en total
la unidad. Entonces la entropa de un experimento con n re~ultados
equi prohables se expresar por la frmula
/f 1,= 2logn

"

1=1

f= l

j p1=~ ~p1 2 logn .

Hc~tando de esta expresin la (7.1.2) de la entropa de un oxpe1i111onto con n resultados que tienen las probabilirlades p 1 , ., Pn, tlm<lremos
n

Hp- ll =

2.'

i--1

p1 2lognp 1

De nru, aplicando la desigualdad (7.1.6). obtenemos


,.

ll 1, -H >- =tog e ~
~ p1
i= t

(1-~)
1ip,

loge ( .'-'#
~ p - ....,
~ ..!.)
,.~ O.
(f.
i=l

1=1

Esto demuestra que la entropa de un exporirnento con rcsul tl\dos


equiprobabJes no puede ser menor que la ele otro experimento r.ual-

Cap. 7

Enlrupa

e ln/1mnacin

quiera con el mismo nmero de resultados posibles. Como el signo


de igualdad en (7.1.6) tiene lugar solament.e para u= i , la entropa
de un experimento con resultados equiprobables siempre eii mayor
que l a cualquier prueba que tiene el mismo nmero de resultados
posibles pero diferentes probabilidades de l os mismos.
Observemos todava que, como muestra la frmula (7 .17). ht
entropa de un experimento con resultados equiprobables ser tanto
mayor cuanto mayor sea el nmero de resultados posibles del mismo.
'fodas las propiedades examinadas de la entropa se coucuerd;;u
plenamente eon nuestras ideas intuitivas acerca de la indeterminacin de 105 resultados de observacin de fenmenos aleatorios.
7 .2. Entropa de una magnitud aleatoria.
Entropa condicional media

Extendamos ahora la definicin de entrop[a, daa en el prrafo


nnterior, a l caso de un conjunto infinito de res\\Ltados posibles de
un experimento. Para esto introduzcamos la nocin de entropfa de
una magnitud al eatoria. Examinemos primeramente una magnitud
aleatoria discontinua X cuyos posibles valores x 1 , , Xn tienen las
probabilidades que son iguales a p 1 , , Pn respectivamente. El
experimento tiene en este caso n resultados posibles y las probabilidades de stos son iguales a las de l os valores correspondiente:; de
la magnitud aleatoria X. Tomemos la entropa de este experimento
por la de la magnitud aleatoria discontinua X. De este modo, la
entropia de una magnitud aleatoria discontinua representa la suma,
tomada con signo contrario, de probabilidades de todos sus valores
posibles multiplicados por los logaritmos de estas probabilidades:
n

Ji [X)= -

; p1

i~l

log Pt

(7 .2.1)

Para determinar la entro.pa de una magnitud aleatoria continua


X, dividamos el dominio de sus valores posibles en un nmero finito
de. tnter:vals / 1, , In y tomaremos por el i-simo resultado del
expei:imento el encuentro del valor de la magnitud aleatoria X en
el i-simo intervalo. Las probabilidades de estos resultados del experimento sern
p;

f(x)dx=f(x1)flx1,
1

.,,,
'2]p=1,

(i=1, . . . , n),

(7.2.2)

i=t

donde x 1 es cierto valor medio de x en el i-simo intervalo, Ax 1 es la


longitud del i-simo intervalo y f (x) es la: densidad de probabilidad
de l a magnitud aleatoria X que se supone ser continua en cada uno .de

~~

7 .2. Entropa de '""' magnllud alealorta

los intervalos / 1 , , !,.. La entropa del experimento, en virtud de


l a definicin (7.1.2), ser
H

=-

1... 1

"
= - ~

1-1

11 (x1) x!f ~log lf (xi) x] =


f (x1) [2 log f (x1) + 2log xJ Ax1

o bion
H

=-

f (x;) 'log /

(x1) x1 -

i~l

i~t

(x1) ( 2log x1) 6.x1

(7 .2.3)

E n esta frmula el paso directo al lmite para x1- O es ~mposible,


puesto que en este caso el segundo s umando crece ilimitadamente.
Para vencer este obst cul o , observemos que en los problemas prcticos nos i nteresa generalmente no la indeterminacin absoluta de
cualq uier magnitud aleatoria sino solamente en cunto su indeterminacin es mayor o menor que la de otra magnitud o bien en cunto
ha dism inuido la indetern1inacin de la magnitud aleatoria en cues.
tin como resultado de uno u otro experimento. Y como las diferencias de las entropas no cambian al t ransferir arb itrariamente !IH
origen , entonces el segundo su mando del segundo miembro de 111
frmula (7 .2.3) se p\1ede sustituir por la magnitud constante arbitraria /f 0. E ntonces la entropa del experimento en cuestin se 1loterrn.in ar por la frmula

"

JI= Ho- ~ f (x1) :1og f (x1) Ax;.


i ;;;;s 1

En esta frmula se puede pasar al lmite a l aumentar ilimitadnmenl1>


el nmero de intervalos en el que se divido el ominio de ''alorP.s
posibles e l a magnitud aleatoria X y a l tender a cero las longitu<lcs do todos los int.ervulos. Entone.es la suma pasar a la iotegrnl
y

obtendremos
00

11 = H 0 -

.\

_,.

f (.:i;) 2 log / (x) dx.

(7 .2.li)

Co111(mroente, para sencillez, se supoCJe que 11 0 = O y se determina


la entropa de una mr1gnilud aleatoria continua X por la Irmul11
00

l1 =

_.,.

f (x) 2 log/

(x) dx.

(7 .2.f>)

Observemos a hora 11ue l a integ~al 011 (7.::!.4) y (7.2.5) es la espcrande 111 fuu ciu i log /(X) de l n magnitud a leatoria X.
Por eso ln definicin (7.2.fi) de entropa ele unn magnitud aleatoria
~;i uiat.emlica

Cap. 7 Entropfti ~ l11/ormad1in

continua se puede escribir tambin en la forma


JI ... -M log f (X)J.

(7.2.6)-

Puesto que el origen de la entropa ha sido cambiado arbitrariamente al deducir las frmulas (7.2.~) y (7.2.5), l a entropa de una
magnitud aleatoria continua puede ser tanto positiva como negativa.
Anlogamente al pasar de la escala termomtrfoa absoluta, por ojer.npl o, a la centgrad a, obtendremos los valores de temperatura t anto.
positivos como negativos.
La frmula (7.2.6) determiua tanto la entropa de una magni t ud
aleatoria continua escalar como la de un vector aleatorio cuyas.
coutponeutes son magnitudes aleatoria: continuas. La frmula (7.2.5)
puede servir tambin para la determinacin de la entropa de un
vector aleatorio continuo, si la variable x se entiendo como vector(es decir, como un conjunto de varias variables) y la integral, como.
integral mltiple extendida a todo el dominio do valores posibles
del vector aleatorio X. En forma desarrollada esta frmula se escribir as:

"'

11 = -

...

J/(:r,

1 , ,

x.,) 2 log / (x1 , x,.) dx 1

d:c,..
(7.2.7)

Es fcil comprender que lo entropfo de una magnitud aleatoria.


depende sol amente de la distribucin de las probabilidades do sus:
valol'es y no depende de la disposicin de esta distribucin con respecto al origen de coordenadas. En efecto, la integral (7.2.5) O<>
cambiar si en eJla se efect1a lo sustHucin do Ju variable :r; =
= y - a. Esto quiere decir que las magnitudes aleatorias X y Y =
= X + a tienen la misn10. entropa para cualquier a. En particular,
<!sto es vlido cuando a = - mx De aqo se dcspreude que In entropa de cualqwer magnitud aleatoria no depende de su esperanza
mntem.tica y es igual a la entropfa de la magnitud aleatoria centrada . correspondiente.
E'jeinplo 7 .2.1. La entropfa de la clistribuci6 n t101mal conforme a ('7.2.5) es
oo

..

1
/f(XJ =- - - .-W'
V2nD J

rero
1
-

.r -...

V "t.nU -oo
Por lo tanto,

2D d.i=-1,

( -1- 'log2nD-.=:, log )


2

d:r:.

,8 7 .2. Entropa de una mamitud alt a.loria

28T

Eitmplo 7.2.2. C.o entropa de la distribucin uulforme, ~n vlrtud de (7.!!.5)b

ll [XI "" -

1
f - 1-21og- d;z=2Jog (b-a).
j b- a
b- a
a

l::femplo 7.2.3. Para l a disuibucin oxponcncial J (x) ""


la ent.ro)lla se determi na por la frmula
11 IXI=

Io k-r

kt-b (z

>

CJ)

(2Jog k- kz2Jog ) dx.

..J

;zke-"dz=M(.Yl = f .

)'01

con ~igu irml~,

JI [Xf ~ _ 2Jog k + tJog < = 2Jog

"f.

l\l!s ndelante veremos que una imporLantsima tarea prctica C!5'


hl estimacin de la variacin de la indetermi nacin de la nwgnlturl
aleatoria X despus de efectuar el ex peri mento como resullado dcr
cunl se hace conocido el va lor de otra magnitud aleatoria Y. lntuiti v:>mente est claro que la indeterminacin de la magnitud aleaturi a X disminuir si las magn itudes X o Y son dependientes y perm11 neccr invariable si dich as magnitudes son independient e~.
A con tinuacin veremos que esto es precisamente as para nuestrn
definicin de la med ida de indeter minacin de una rnagnitud 11lea
tori;1.
Para estimar la indeterminl\cin de la magnitud olcalnri n X ,
quo queda despu6s de observar Ja magnitud aleatoria Y , conviene iulrotlucir la nocin de entropa de la magnitud aleatoria X con re~pcc
to 11 la magnitud Y. Es evidente que para est.o es suficiente s ustituir
e11 la frmula (7.2.1) las probabilidades de los "lores de la magnitud X por los probabilidades condicionale.-; corrcs11ondien tes. Scun.
X e Y dos magnitudes aleatorias discontinuas y
p 1=P

( ~:;~ )

(i= 1, . . ., n; j= 1, .. ., m.),
( .2.8}

En virtud del principio de ad icin de probabilidades, las probabilidades no condicionales de los valores de la magnitud Y se det.ernii
nao por Ja frmula

,,

q1=P(Y=y)= ~ p,,
1- 1

(7 .2 .!J~

Cap. 7 l!:ntr<>pa

t}t,,.mar.i6n

y an logamente las probabilidades no cond icionales. de los valores


de la magnitud X se determinan por la frmula
m

p = p (X= X)=

'3

}j

PIJ1

i"'l

i ""\

= 1.

(7 .2.10)

Las probabilidades condicionales de los valores de la magnitud


.aleatoria X con respecto a Y ser n

"

P1J=P(X=x1IY=Y1)=fll., 2::P1 = 1,
q

i=I

(7.2.1'1)

y las probabilidades condicionales de los valores de l a magnitud


aleatoria Y con respecto a X sern
(7.2.12)

Segn l a definicin (7 .2.1) la entropa condicional de l a magnitud


aleatoria X para el valor ciado y 1 de la m agnitud Y se determinar
por Ja frmula

"

lf IX j y;f = - 2j PtJ 2 Jog P 11(j =1, .. . , m).

(7 .2.13)

!=i

La entropia condicional de Ja magnitud X dopende del valor que toml\


la magnitud Y, es decir, ella misma es u na magnitud aleatoria. Por
meclida de indeterminactn de la magnitud aleatoria X. que qued11
despus ele observar la magnitud aleatoria Y , se toma la esperanZ(I
matemt.ica de l a entropa cond icional

"'

1-I y IXJ = M [H rx 1Yll = .}j qEf \X 1y].


J=i

Sus~itl,ryendo

aqu la expresin (7.2.13) de l a entropa condicional

y (om~ndo en consideracin (7 .2.11), obtendremos

fy[XJ= -

z:
"

i=i

~_; p1 2log P .

(7 .2.1~)

;,::.1

Esta magnitud se llama entropa condicional media de la magnitud


aleatoria X con rospecto a Y .
De un modo anlogo se determina la entropa condicional media
<le la magnitud aleatoria Y con respec to a X:
f\.

i-

'ffl

; P1J 2 logQ11 .
t i=I

Hx lYJ= - ~

(i .2. 1.) )

Para determinar la entropa condicional de la magni tud aleator ia continua X coa respecto a la magnitud al'oatori n coutinun }'",

. 1.2. Entropa lle

Ullll- IMf{rtitud

aleatoria

281!

.Qast11 sustituir en la frmula (7.2.5) la densidad, de probabil_idad de


l a magnitud aleatoria X por la densidad de probabilidad condicfona:l
correspondiente / 1 (x 1 y}. Entonces obtendremos

..

H[X I YI=-

I f,(xly)

logf 1 (xjy)dx.

(7.2.16)

Esta magnitud clepende del valor y de la ma~ni.tud aleatoria Y..


Para determinar la entropa condicional media de la magnlt11d a,I~
atori X con respecto a Y, se debe multiplicar .l a e;(P,resin (7'.rt~)
por la densidad de probabilidad f 2(y) de la m:agniid aleatoria. Y
e integrar con respecto a y. Como resultado ohtendi;emos
00

lly!Xl=M'[fl!XIYIJ=

00

J J fz(y)/t(xjy)=logfdx j y)dxdy.

-oo -oo

Pero

f2

(u) f1 (x 1 y) =

(x, y)

es la denfii<lad conjunta do probabilidad de las magnitudes aleatorias X e Y. Ahora bien, la entropa condicional media de la magnitud
aleat.oria X con respecto a Y se determina por la frmula
Hy[XI= -

00

-QO

- co

Jj

f(x , y) 2 logf 1 (x j y)d:.cdy.

(7 .2.17)

Esta frmula p1Jede ser re11rosentada tambin en Ja forma

H 11 IXl = - M z log f 1 (X 1Y)I.

(7 .2.18)

Si !ns magnitudes aleatorias discontinuas X e Y son indepundientes, entonces p = P1JJ P11

y (7.2.1:l) dan

= p , QiJ = q

Il u IXI =JI !XI, Ji,. [Yl

=H

las

IYJ .

frmula ~

(7.2.14)

(7.2.'19)

Lo mismo en. el caso de las magnitudes continuas independientes


X o Y, sus densidades condicionales de proliabilidad coinciden con
las c-orrespondientcs densidades de probabilidad no cond iciouales
y volvemos a obtene.r las frmulas (7.2.19). As pues, si las magnit11des aleatorias X e Y son independientes, todos sus entropas
condicionales y las entropas condicionales medias coinciden con las
correspondientes entropas no condicionales. Jfo el 7.4 demostraremos que si las magnitudes aleato rias X e Y son de11endicntcs, la
magnitud condicional med ia de cada una de cllru; con respecto n ln
otia e:; siempre meno.r que la corrcsJlondientc entropa no conllicio
nnl.

290

Cap. 7 Entropfa e tnfomu:&Ill

Ejemplo 7 .2.4. Las magnitudes aleatorias X e Y tienen distribucin conjunta normal. Hallar la entropa de la. magnitud al eatoria X y su eotropln condicional me1lia con respecto a Y.
CoJUo, segn lv demostrado on el 3.6, las uistribuciones condic.ionales y no
condic ionales d ~ l as cnmponento do un vector aloal.orio DOTmalmcnt11 Tepartidn
son normales, entonces, 11era calcular la entropa y In entro11ia condicio nal de la
magnitud al11al-0ria X. se puede aplicar la frmula deduoida en el ejemplo 7 .2.1.
l'uosto quo conforme e> (3.G. 11) la dsp~rsin condicional de la magnitud aleatoria X 110 depend e del valor 11 de la magnitud Y, la entrooia condicional mndia do
la magnit ud X Clln re:pectn a Y coinci<le con la entropla condicional. Asi pues,
apl icando los resullnd<ts del ejemplo 7.2.1 y lns frmul as (3. 6.G) y (3.6.11)
para l as dispcrsio11os y las lispers!ones condicionales de la!< componentes de
uo v~ctor al eat orio> re partido roormalmente, hallamos
//(XJ=~log

., -

--

2rttCa

v2mrl>[XJ= - 9log
1
2
CJ t C12- C1t
1
2nt
Hu (XJ='log V2mlJ [X 1YJ=T 'log-.
~

Al rominrnr

'11

frmulas, vemos 11ue la P.ntropa condicional medio lle 111


magni t ud X r.on respecto ~ Y es menor que~" CJ1lropla no condicional si cu + O,
M clccir, si lnR mpgni\.ucles X e Y sou depend iontns. S i X o Y 5'lll i ndepenrlient.us.
entonces c12 = O y la entropa conJiclonal mt'<lia es igual a la no rondr.ional.
QS LAS

Examinemos ahora dos magnitudes aleatorias discontinuas X e Y


y hallemos su entropin conjunta, es decir, la ent ropa del vector

aleatorio con las componentes X , Y. Segn la definicin ella e.5


H [X, Y = -

;n L;'" PIJ ~log PIJ

1- 1 1-1

Pero p 11 = p 1QIJ [vase la frmula (7.2.12)1. P or lo tanto,


n
m
11 IX, YI = - 2~ ~ p;j (Zlog p1 + 2JogQ;j} =

-;-1

1- 1

j= I

= - ~ ( }j P11) 2 tog p -

L.

i=l

tn

~ PtJ 2 log Qu.

(7 .2.21))

;~ 1

Observemos nhora que cooforme a (7.2.10)


m

~ p; = P1

1-1

(i = 1, .. . , n).

Por eso el primer sumando en (7.2.20) es la entropa de In mngul tud


aleatoria X. El selfUndo sumando, en virtud de (7.2.15), representa
la entropa condicional media de la magnitud aleatoria Y con respecto a X . Por consiguiente, la frmul a (7 .2.20) puede ser escrita en l a
forma
lI IX, YJ = R !XI+ H ,, [YJ.
(7.2.21)
En virtud de Ja simetra se puede tamb in e.~crib ir
II [X, YJ =ll IYI +Hy IXI.

(7 2.22)

7.$. Propiedad extrema! dt la distribucin

""'"

2Jlt.

Asi pues, la entropia del conjunto de dos magnitudes aleatorias es,


igual a la suma de la ent ropia de una de ellas y la entropa condicional media de la otra.
Si l as magnitudes aleatorias X e Y son. independientes, las"igual
dades (7.2.21) y (7.2.22), en virtud de (7.2.19), toman la forma

R [X, Yl = H [XI

+H

IYJ.

(7 .2.23)

De este modo, l a entropa del conjunto de dos magnitudes aleatorias


independientes es igual a la suma de sus entropas.
Aplicaud9 el mtodo de ,induc.c in, mate.mti.c~, .se: pue.de e.#en~
der las frmulas (7 .2.21) )(.(7.. 2.22~a. ui;t nlnel'o ~rbitrario '<kmagri1tu"
des aleatorias. Como resultado obtendfmos la siguiente frmula pra
l a entropa del conjunto de n magnitudes aleatorias Xto . . . , Xn
(es decir, para la entropa de un vect or aleatorio con las componen
tes X1t ... , Xn):

11 IX 1,

.,

Xnl = Il lX.l + J1 ,., IX2l

+ .. . -+

H,,,, . .. ,,,,._, IX,.l.


(7.2.24)

Si las magnitudes aleatorias X l> ... , X,. son independientes, la


frmula (7 .2.24) tomar l u forma
n

HX., .. . Xnl = l;H[Xd .

(7.2. 25)

i=ot

7.3. Propiedad extrema! de Ja distribucin normal


Demostremos ql1e entre t odas las magnitudes aleatorias que ti enen la misma dispersin, las magnitudes aleatorias normalmente
repartidas son las que 1oseen mayor entropa. En el ejemplo 7.2.1
liemos calculado ya la entropa de distribucin norma l
1

_..!!..

f ,v(xl = v2nf)
- w .

(7.3.1 }

Puesto que
(7 .3.2)
In entropa de la magnitud alcatoiia X puedo ser represc11tada por la
frmula

H IXJ =

f / (x) 1og /,,. (:e) d.'C =

""
-

N'

00

f (1og 2nD) f f.v (x) d:c+ 2~1 (2 loge) f x f


2

-~

-~

(x} dx.

(7 .3.3)

292.

Cap . 7 Hntropta

!n/hrmaciini

Examinemos ahor<1 la magnitud ulcatoria arbitraria Y que tiene


la esperauzu matemtica igual a cero y la misma dispersin D que Ja
magnitud aleatoria normalmente repartida X. La densidad de probabilidad f (y) de la magnitud Y satisface la condicin

..

..

--

-oo

...

) y 2 f(y)dy=) x 2 f(x)dx=) x2 /,y(l:)dx=D.


--

(7 .3.4)

l'or lo tanto, en ambas integrales del ltimo miembro de la frmula (7.3 . .'), la densidad nor.mal de probabilidad IN (x) puede ser sustituida por la densidad de probabilidad f (x). Entonces obtendremos
lI !XJ

,~

..

..

T(log 2nD) r f (x) dx+ +(loi;r e) J x f (x) dx =


2

-~

-~

=-

""

J[ -{ log (2rr.D)- ~

..j f

log e] f (x) dx

o bien, teniendo en cuenta (7.3.2)


/J [XI= -

(x) 9 log fN (:e) dx.

(7 .~~.!:)

Ahora bien, la densidad de probabilidad de una magnitud aleatoria


normalmente repartida en la oxpresin de su entropa, fuera del signo
del l ogaritmo, puede sustituirse por l a densidad arbitraria de probabili dad a la cual corresponden la esperanza matemtica igual a cero y la misma dispersin igual a D.
Rest ando de la expresin (7.:1.5) la expresin
M

~ f (x)ilog / (:r.) dx

H [Y]= -

- oo

de la entropa de la magnitud aleatoria Y, obtendremos

lf!Xl - H[Yl=

..J

/{.:i:) 2 log /,..,<~;) dx .

(7 .3.<J}

Apliquemos ahora la desigualdad (7.1.6). E11 virtud de esta desigualdad podemos escribir
2 1og

f (r.} :-;:;,,

/;.;(:i:)""'

[1 -

fr; (:r)
/(x)

J log
2

(7.3.7)

7 .11 . ln/ormad6n qu <ontitnt n la. magnttudt.t aleatoria..

293

Dado que la dousidad de probabilidad f (x) no puede ser negaiiva,


entonces de (7.3.7) ~e deduce que
(

2 loge f
/(.x)~log~dx#
/,y (x)
J

-~

/(x)

[1- ft1f (r)(r)J dx=

-~

= ~loge[

00

..

-cio

- oo

f f(x)dx-)

/.v(x)dx J=O.

As[ pues, el segundo miembro de la f6rmulo (7.3.6) no puede ser


negativo, d e donde se deriva que
11 !XI ~ H IYJ.
(7.3.8)
En (7.1.(i) el signo de igualdad tiene lugar solnmente en el caso
cuand o u = 1 . Por lo t anto, tambin en (7.3.8) el signo de igualdad
tendr lugar slo en el caso en que la densidad do probabilidad f (x)
coincide indnticamente con la dens idad norm al de probabilidad
IN (x). Esto el! io que demue~tra que l a distrihucin norrnul lienc
mnyor entropia que otra distribucin cualqu ier11 correspondiente
o la misma d ispersin.
De un modo 1tlJsolutamente anlogo se demuestra que entre todas
las distri buciones que ticnon el mismo .inter valo limitado de valores
posibles ele unn magnilud nleatoria continua (a, b)
b

i /(x}dx=1 ,

(7 .a.U)

"

Jo distribucin uoiforme en el intorvnlo (a, b} posee la mayor entropa.


Con ay uda del rrusmo mtodo Re demuestra qu e entre t odas las
magnitudes alea torias cont inuas positivas con la misma esperanza
matemtica m

..

...

f(x)dx=1,

x/(x)dx=m ,
(7.3.10)
o
o
las magni tudes r epar t idas por la ley exponencial poseen l a mayor
entropa.
Le proponemos al lector que por s mismo demut>stro est,ns aserciones en calidad de ejercicio til.
~ 7.4. lntormacl6n que se contiene en las magnitudes
aleatoria.."

Para eliminar por completo l a indeterminacin de una m ngni tu d


alea toria, es necesario efectuar u n experimenlo y determinar el
volor que sta toma. Sin embargo, en lo prctica l a magnitud aleo to-

294

Ca>. 7 Entropia e. informaclon

ria X, que nos interesa, a menudo no se puede someter a una observacir1. Bo tales caso.<; tenemos que contentarnos con la observacin
de o ~ras magnitudes aleatorias y por los resultados do osta observacin sacar conclusiones aellrca de la magnitud X, es decir, obtener la
informacin sobre la magnitud X. Si esto es posible, se dice que las
magnitudes aleatorias que se observan contienen informacin sobre
la magnitud X. Intuitiv romente est claro qu.e la informacin sobre
la m11gnitud aleatoria dada X I!\ puedon contener MlamentA magnitudes aleatorias ligadus de uno u otro modo con dicha magnitud X,
es decir, dependientes de X. Las magnitudes aleatorias independientes de X no pueden contener ninguna in.formacin de X. Ahora bien,
se puede decir que la informacin es una de las formas de manifestacin ele la dependencia entre las magnitudes aleatorias (o entre
fenmenos ms generales).
Es natural que corno merlida do cantid::1d de informacin :so!Jre
la magnitud aleatorl a X que se coot.ieoe en la magnitud aleatoria Y
se toma la disminucin de la indetermina;in de la magnitud X
ohtcnida como resultado de la observacin de la magnitud Y , es
decir, la diferencia entre la entropa de ln magnitud X y su entropa
condicional media con respecto a la magnitud Y. Partiendo de estas
consideraciones, la cantidad de informacin sobre la magnitud aleatoria X contenida en l a magnitud aleatoria Y se det.ermina por la
frmula
I , !XI =H CXI -Hv IXJ.

{7.4.1)

La iutuicin nos sugiere que la cantidad de informacin no puede


ser negativa. Demostremos esto. Par11 ello basta mostrar que la entropa condicional .media de unn magnitud aleatoria no puede sel'
mayor que su entropa no conclicional. Para simplicidml, nos limitaremos ni caso de magnitudes discontinuas X , Y. No obstante, esto
se pue1le demostrar tambin. de un modo absohit.amente semejante,
referente a magnitudes aleatorias r-ontinuas. Sean X e Y dos magnitudei; aleatorias discontinuas cuyos valores de probabilidad se
deterrii.inan por las frmulas (7.2.8)-(7.2.12). La entropa condicional media de In magnitud aleatoria X con respecto a Y, en virtud
de. (7:,2,1:4), se determina por la frmula
JI u [X] = -

" ).i
"' Pii ' lo!{ P1J

i=I

(7.4.2)

J~l

Aplicando la frmula (7.2.10), reduzcamos la expresin de la entropa no condicional de la magnitud X a la forma


n

ll IXJ = -

~ p ~log P1 = -

f =l

,~

2: l=
~ p;2 log p,.

1~1

(7.4.3)

.9 7.4.

lnfor111acin qut st conlitn~

tll

las m4;niludti aleatorias

2.95

Restando miembro a miembro la frmula (7.4.2) de la (7.4.3),


obtendremos

11 fXl-H u IXI

i=I

1-1

="'L.J "1
p
L.J

11

1ogfu
/JI

o bien, teniendo en cuenta (7 .2.11)

" "'

H [XJ-lf11 [Xl= "' "' pfJ 2 logBL.


L.J L.J
Pl'IJ

i-

i= l

(7 .4.4)

En virtud de l a desigualdad (7.1.6)


' log...E.!.L p
. pgJ

2 loge.
(i-filL)
PI/

(7;4.5)

De (7.4.4.) y (7.4.5) se deduce que


n

"'

1.~ 1

.. ,

s rx 1-Fiu!Xl :'.?i1oge ~ Li PIJ( 1 n.

"~;) =
m

loge ( 2j ~ p11t~t

J- 1

i...;l

;. J

Li ~ pq).

(7.4.6)

Pero
n

~ ~

i = I j=t

p;1=1,

i- J

f~ I

l~t

i: p ;q= ~PI j,_t


~ Q1= i.

Por consiguiente, la desig11nldnd (7.4.6) es equivalente a la de.s igualdad


(7.4.7)
II IXI -H 11 JXI ~O.
En (7.4.5) y (7 .4. 7) el sig110 de igualdad puede tener lugar solamente
en el caso cuando PiJ = p 1q para todos los i, j, es decir, cuundo las
magnitudes X e Y son ind ependientes .
As pues, hemos d11mosLrado que Ja caotidlld de inform oci6n
no puede ser negativo y puede ser igual a cero sola mente en el caso
de X e Y i ndependientes. Si lns magnitudes X e Y ~on dependientes,
cad a una de ellas contiene unn cantidad positi va (le informacin
sobro l a otra.
c (7 .2.21) y (7 .2.22) se deduce que

H IXI

+ H:x lYI =

H IYI + H uX,

de donde

H IXJ - flv fXI =H IYJ -H,, IYI.


Esto quiere decir que la cao\idud de informacin que se con\ieoe
en Y sobre la magnitud X es igual a la cantidad de informacin

29G

Cap. 7 f : ntropla e inform11<:llon

quo se contiene en X sobre Y:


l w !XI =

fx

IYI.

(7.4.8)

De (7.2.21) y (7.4.7) se deriv a t nmbin que


H IX, Y) ~ JI [XI
H IYJ.

(7.4.9}

Puesto que segn Jo demostrado, la entropa condicional media


de una magnitud al eatocta no puede ser nunc a mayor que su entropa oo condicional, entonces, de (7.2.24) se deduce la desigualdad
n

JI

!Xs. ... , XnJ ~ ~ H !X1J.

(7.4.10)

1~1

El signo de igualdad tiene lugar en (7.4.9) y (7.4.10) solamente


co ol caso d1:1 magnitudes indepondicntes.
Las frmulas (7.4.9) y (7.4.10) muestran que la entropa de un
vector aleatorio no puede :ser mayor que la 8UIDA de las entropias
de sus componentes y puede ser igual a esta suma solamente en el
caso do componentes independien tes.
De la desigualdad (7.4.10) se desprende tambin que entre Lodos
los vectores aleatorios cuyas componentes tienen entropas asignadas
de antemano, los vectores aleatorios con las componentes independientes poseen Ja mayor ent ropa.
Lu desigualdad (7 .4.10), junto con la propiedad ex.tremal de la
distiibucin normal demostrada eu el prrafo anterior, muestra
que entre todos los vectores aleatorios cuyas componentes tienen
dis persiones asignadas de ontemano los vectores normal mente
distribuidos con las componentes independien tes poseen la mayor
entropa.
Ejemplo 7.4.t. Hall ar la cantidad de w!ormacin ncen~a de una euutponente dcl vector aleatorio normalmente repartido, C(lnteoida en ot ra componente.
En virtud dn l<ls resultados del ejemplo 7.2.lt y lo definicin (7.4. 1) de lo
cantidad de informacin tenemos
(XJ =
V

.!, iiog
2

C11C22

cuc.,-cf.

o blon, toI\lando en considernci6o las rolaciones (3.6. i8) y (a.6.19) entro los
coeflclehtos c 11 y las fs~rslonM y el coeficiente de C(lrrelacin de las compo-

neotes del vecto'r aleatorio,

D D

=~log, r.--::;.
xv
v1-r'
donde r es el cooficiente de coruJaci6n de las magnitudes aleatofi115 X e Y.

11,!Xl=z-'logD

/_!!k,
v

Se puede demostrar todava que por .oingu.oa transformacin


de la magoitud aleatoria observada Y se puede aumeo tar la cantidad
de informacin que sta contiene sobre la magnitud aleatoria X.
Con otras palabras, ninguna fu ncin de la magnitud aleatoria Y puede

{I 7,4, Informacin que se co11tte11e en ta$ magnit udes aleatorio

297

contener mayor cantidad de informacin sobre la magnitud X que Y.


Solamente en el caso de una transformacin recproca univoca, ,
usando la terminologa fsica, transfornrncin reversible, la cantidad de informacin queda invariable. En el caso de una transformacin irreversible, la cantidad de informacin disminuye obligatoriamente.
Es obvio que la cantidad de informacin que se contiene en una
magnitud aleatoria discontinua sobre si misma es igual a su entropa:
I,. [XI = JI IX].
(7.4.H)
En efecto, una vez efectuada la observacin de una magnitud aleatoria, no queda en ella ninguna indeterminacin. For coiisigtiienie .
su entropa condicional media con respecto a s misma es igual acero..
Esto es lo que demustra a la frmula (7.4.H).
Al comparar lo frmula (7.4.11) con (7.4.1), se deduce que ninguna magnitud aleatoria puede contener ms informacin sobre la
magnit ud aleatoria discontinua X que la misma magnitud X. Esto.
est c111ro intuitivamente sin recurrir a lns frmulas.

Captulo 8

Determinacin de las cai.acters ticas


estadsticas segn los resultados
de los eAJ>erimentos
8.1. Dolermiuacin de las probabilidades
de acontecimientos, las (unciones de disb'ibucin
y la!! densidades de probabilidad

Como sabemos, la estabilidad singular de las frecuencias de acontecimientos y de los vlllores medios aritmticos de magnitudes aleatorias es un factor experimental impol'tantisimo que sirvo de base
de la Teorla de las Probabilidades y determina la posibilidad de su
empleo prctico. En el 1.2 dimos la explicacin elemental de estos
factores. En los ejemplos del 3.9 los himos fueron explicados
-teric<1mente con ayuda de las propiedades principales de l as esperanzas matemticas y las dispersiones de magnitudes aleatorias. La
estabilidad lle frecuencias y medias, que se observa prcticamente
y se desprende de los principios fundnmontales de la Teoria do las
Probabilidades, da la posibilidad de determinar por va experimental las caracteristicas estadsticas principales (l as probabilidades de
acontecimientos y las esperanzas matemticas de magnitudes a leatorias). En todos los casos esta posibilidad se determina por el hecho de
que las dispersionos de ciertas foor.iones de los resultados aleatorios
.de los experimentos t.ienden a cero al crecer ilimitadamente el nmero
de pruebas. La frecuencia ele un acontecimiento es la relacin de la
magnitud aleatoria (el nroero de veces de producirse el acontecimiento) al nmero de pruebas, es decir, ella misma es una maguitud
aleatoria. En dititintas series de n expllrimentos iguales cada \loa, la
frecuencia del acontecimiento tomar distintos valores. Sin embargo,
la dispersin de In frecueoci11 siempre puede ser hecha tan pequea
.c<:>'trio se quiera si se realiza en la serie n un nmero de experimentos
lo sufici.e ntemente grande. La media aritmtica de la magnitud aleatoria obtenida en una serie de experimentos os uua magnitud aleatoria, puesto que el valor de la magnitud aleatoria que se examina
es en cada prueba aleatorio. Por consiguiente, en distintas series de
n experimentos iguales la media aritmtica de la magnitud aleatoria
prcticamente siempre tomar d iferentes valores. No obstante, tenien-do la serie un nmero de pruebas n lo suficientemente grande, la
dispersin de la media aritmtica puede ser hecha tan pequea como
.se quiera. Debido a esto l a fluctuacin de J11s medias aritmticas, en
distintas series de n experimentos cada una , ser tan pequea como
:Se quiera siempre que n sea lo bastante grande. As pues, al aumentar ilimitadamente el nmero de pruebas, las frecuencias de aconte.eimientos y las medias aritmticas de magnitudes aleatorias tratan,

8.1. Detmn lnac16n d~ las pro/Jahilldadu

en ciert o grado, '<le dojar de ser aleatorias. y estabilizarse. alrededor de


ias caractersticas tericas correspondientes: probabildades de. acontecimiento.~ y esperanzas matemticas. de magnitudes aleator.ias.
Vemos que es imposible cleterminar exactamente les caractersticas estadsticas a base de experimentos, ya que, cualquiera que
.sea el nmero finito de experimentos, l as frecuencias de acontecimientos y las medias aritmticas do magnitudes aleatorias, calculados
.segn los resul tados aleatorios de las pruebas, ser.o aleatorias.
Adems, es dificil hablar incluso sobre una determinacin aproximada de las caracterst.icas estadsticas, puesto que, cualquiera que
sea el nmero finito de pruebas, las dispersiones demcuenQias y de
medias aritmticas son distintas del cero debido a lo-cual .e;s imposible
estimar de uo modo corriente el error de los resultados. Gon otras
palabras, es imposible valorar un error limite posible y garant izar
que ste no sea superado. Siempre existe, aunque sea, tal vez, muy
peque.a, la probabilidad <le q11e el limite asignado <le uo error sea
sobrepasado. Por eso eo la Teora de l as Probabilidades se suele
hablar no sobre la determinacin, segn los datos experimentales, de
los valores precisos o aproximados de las caractersticiu; estadsticas
sino sobre la estimacin de los mismos. La calidad de estimacin,
es decir, su proximidad a la caracterstica estadistica que se aprecia,
se determina generalmente por l a magnitud que el error de estimacin no puede superar con una probabilidad asignada de antemano.
Esta magnitud siempre puede ser determinada si se conoce la ley
do distribucin de IR estimacin.
Eu virtud de los razonamientos expuestos, se llama estimacin.
de una caracterstica estadlstica (probabilidad, funcin de distribucin, esperanza matemtica, dispersin, momento de correlacin,
etc.) a tal funcin de los resultados de los experimentos que puede ser
tomada como valor conveniente de la caracteristica que se aprecia.
La estimacin de la caracterstica estadsticn os fuucin de los resn ltados de los e.xperimentos y, tal vez, de los parmlltros conocidos
de la distrib ucin de los mismos, pero uo puede depender ds los
parmetros d(;,>sconocidos de la ley de distribucin , en par ticu lar rle
la caracterstica que se aprecia.
La ostimacin de 111 caracterstica estadstica so denomina fundada, l'i, al aumentar ilimitadamente el mmero de expcrirncntos,
:!U esperania matemtica tiend e hacia la caracler11tica que se nprtr
cia y su dispersin iiende a cero. Si, por 1o menos, una de estns dos
condiciones no se ha cumplido, la estimacin se llama no f wiclada.

En la prcticn se emplean de ordinario slo las estimaciones


fu odadas, puesto que nicamente en este caso se pueue obte ner una
estimacin tan precisa como se quiera (es clccir, u.tia probabilidad
de grandes errores ta:u pequea como se quiera) al ser el nmero de
.-xperimentos lo suficientemente grande.

Ca1. 8 fJelerminact 6n a~ In., Crlrt<Cl t:ri$!1Ca8

Lr1 esLimacin cuya esperanza matemtica, cualquiers:i que ~ca


el nmero de experimentos, es igual a ltJ. caracteristica estadstica
que se aprecia se denomina no desplazada. La estimacin cuya e11peran-
za maten1tica no es igual a le. caracteri~tica estad stica que se aprecia se denomina desplazada.
La determinacin de las estimaciones de lus ca racter~ticas
estadsticas, sus leyes de distribucin y los errores admisibles con.
probabilidades correspondientes es la tarea principal do un apart ado
especial de. la Teora de las Probabilirlades denominada Estadstica
Matemtica . La Estadstica Matemtica mod erna rep resenta una
vasta y bien estudiada asigna tura que dispone de numerosos y eficaces mtodos de investigacin y a la cual se han dedicado muclios
libros especiales. Eu esta breve introduccin a la Teora de las
Probabilidades 110 es posible exponer ni siquiera algunos mtodos.
fundamentales de Estadstica Matemtica. Por eso nos limitamns.
aqu a. los procedimientos ms elementales de la determinacin de
las aprecillciones de las caractersticas estadsticas principales. A los
lectores que doseen conocer ms profundamente los mtodo~ de la
Estadstica Matemtica moderna les recomendamos el exc.elente
li bro do H. l<ramer*).
Es convenient e tomar por estimacin ele la probabilidad p de un,
acontecimiento la frecuencia de produccin del mismo p* obtenicla
como resultado de experimentos, es decir , la relacin del nmero
de veces m de suceder el acontecimiento al nmero n de todos los.
experimentos realizados:
(8.1.1)La frecuencia de uu acontecimiento es una magnitud aleatoria
que toma un valor determinado solamente despus de efectuarse el:
experimento. En distintas series de n pruebas cada una, la frecuencia toma distintos valores. Designemos. por X n el nmero aleatorio. de':vecs que. cicuire el ac>ntecimiento si se realizan n experimntos.
iltonces l a frecuencia det acontecimien to, considerada como magnitud aleatori P*, se determina por la frmula

P= ~.
(1

(8.1.2).

Al calcular la estimacin de la probabilidad de un acontecimien tor


la. magnitud aleatoria X" se su.stitu.y e por su v alor m que se ha obtenido como resul tado de los experimentos. En conclusin se obtienel a frmula (8.1.1).
) H. Kramr. Mathe"!atical Methods of St1ulistics. Prin:ctm lln iv Press, t946 (Versi6n rusa : H. Kramer. Mtodos matcmtit.icos de Estn11stica.
Editorial de Literatura Extranjera , 1948).

8.1. J)dtrm l nacl6n tk u probalillladts

301

En el ejemplo 3.9.1. fue mostrado que IR esperanza matemtica


de l a frecuencia l'* y su dispersin se determinan por las frmulas
.(Vanse las frmulas (3.9.25) y (3.9.2G)I

M p = p , D P J= .!!!.L,
ll

(8.1.3)

donde p es la probabilidad buscada del acontecimiento y q = 1 - p. La primera frmula (8.1.3) muestra que la frecuencia del
acontecimiento es la cs~imacin no desplazada do la probabilidad
del mismo. La segunda frmula (8.1.3) muestra que la d~persln
de frecuencia es inversamente proporcional al nmero de expor.imento~ n. Si la calidad de estimacin (8.1.2) se caracteriza por su 4esvla-cin cuadrtica media, se puede decir que el error d~ la ,~estiip acin
de probabilidad de un acon tecimiento, segn la r~rmula (8.1.1),
.decrece inversamente proporcional a Ja ralz. cuadrada del nmro
de experimentos a medida que aumenta este nmero. As, por ejemplo,
al aumentar e l nmero de experimentos 100 veces, el error de estima-cin disminuye 10 veces.
La funcin de distribucin de la magnitud aleatoria X representa
la probabilidad del acontecimi.onto X < x considerada como fun-cin de la variable x. Por eso en calidad de 8.'JLimacin de la funcin
-de distribucin de la m11g11itu1l aleatol"ia X se puede tomar la frecuencia del acontecimiento X < x calculada pnrn 1.orlos los v11lores
le x. Como vimos en el 1.2, al realizar 1~ experim1Jntos, lu frecuencia del acontecimiento X< x siempre so representar por unll curva
-escalonad11, con ello, lns a lturas de los escalones son iguales a 1/n
o mltiples de este nmero. Para hallar la e.~timnci n de la funci n
de distribucin de una magnitud aleatoria continua, est<1 curva
c!'\Calonada comnmente se alisa, es decir, se sustituyo por una curva
ms suave. As p ues, por esti macin de la !uncin de d istri bucin de
unn funcin aleatoria X se toma generalmente [11 funcin obtenida
median.to la diferenciacin de la curva csc11lonada de lil funcin
-0mpirica de distribucin h allada corno curva de la frecuoDcin do!
aconteclmi.onto X < x en [uncin de x. Lo tiiftmmc.iacin puede
ser llevarla a cabo con ayuda de una curva 11naHtica convonionte
-0 n simple vista. En el primer cnso se obtieno una expresin 1111alitica de la estimacin de la funcin do distribucin. En el S(lgumlo
caso la estimacin de la funcin de distrihuci11 se obtiene en forma
de una curva suave que la representa.
L a derivacin de la expresin analtica de la estimacin d e la
funci11 de distribucin de une\ m11gnitud aleatorin es el mejor procedimiento par a hallar la ostmacin de la densidad de probabilidnrl
do la misma. Sil\ embargo, so puede encontrar Lnmbir.i la~ estimaciones de las densidades de probabilidad por medio de la derivacin
grfica de la!I curvas que representan las estimaciones de las funcion es de distribucin. Por fl11 1 se p11ede hallar la e.~timacin de la den-

Cap . 8 Dctcrm.f.uaci6n dP. las co.ractl!ristccas

sidad de probabilidad de una magnit,u d aleatoria, sin determinar


previamente la funcin de distribucin, como la densidad de la fre-
cuencia con que el valor de la magnitud aleatoria va a parar en dis-'
tintos pequeos intervalos del eje numrico. Para esto el intervalo,
en el cual han ido a parar todos los.
valores de la magnitud <1leatoda,
observados como resultado ele los.
experimentos, se divide en intervalos pequeos y para cada intervalo
se determina la relacin entre la
frecuencia con que el valor de la
.r m0gnitud aleatoria alcanza est&
intervalo y su longitud. Los resulJ"ig. $.1.1.
tados obten.idos SI.\ representan gricament.e. Para e~to en cada intervalo se construye un rectngul~
cuya altura es igual a la rel acin de la frecuencia con que el valor
de la magnitud aleatoria vn a parar en este intervalo a su longitud
(fig. 8.1.1). A semejante grfico se le llama poUgono de frecuencias.
Para hallar la estimacin de la densidad de probabilidad, el polgon~
de CrecuenciR.S obtenido se alisa con ayuda de una curva l\nalltic&
conveuicnte. Como resu ltado se obtiene la expresin analtica dela densidad de probabilidad.
8.2. Determinacin de los momentos
de magnitudes aleatori as

Por estimacin de l a esperanza matemtica de una magnitud


aleatoria conviene t omar su media aritmtica obtenida como resul-
tado de experimentos. Supongamos que como resu ltado de n pruebas.
independientes realizadas en iguales condiciones la ioagnitud aleato-ria X ioma los :valores Xtt , Xn Entonces. la estimacin 1n: de
hi 131ip~ranz_a :rna,~em:tica m., se determinar por _la frmula

t8.2.1)'
La estimacin de la esperanza matemtica toma un valor determinado solamente despus de llevar a cabo los experimentos, puesto
q~1e. las magnitudes x 1 , , x,. representan los valores do la magnitud aleatoria z obtenidos como resultado de las pruebas. Designemos por medio de Xu ... , Xn los valores aleatorios de la magnitud
alea.toria X en n experimentos dados. Entonces l a estimacin de la
esperaoza matemt ica de la magnitud .aleatorfa X, considerada antes
de realizar la pr.ueba como magnitud aleatoria, so expresar por la

.~

303

8.2. Determinacin de fo< momentoa

frmula

"
An= ~X;.

(8.2.2)

i~1

En el ejemplo 3.9.2 fue demostJ;ado que la esperanza matemtica


y la dispersin de l a media aritmtica de una magnitud aleatoria
X al efectuar 11. experimentos se determinan rror las frmulas lvaos&
las frmulas (3.9.27)]
M

[.M~J = ~'"

[M~I = n,: ,

La

donde Dx es l a dispersin de la magnitud a leatoria X.


-p~imef~
frmula (8.2.3) muestra que la media aritmtica es una estimacin
no despla:r.ada de la esperanza matemtica de la magnitud aleatoria.
La segunda irmula (8.2.3) muesua que siempre que la precisin
de la estimacin (8.2.2) se caracterice por su desviacin cuadrtica>
media, el error de Ja estimacin de la esperanza matemtica decrece
ioversameute proporcional a lf al aumentar n.
La dispersin do la magnitud alcntoria X r epresenta, segri la
definicin, la esperanza matemtica de la magnitud aleatoria
(X - m,,)z. Por eso la media aritmtica de la magnitud (X - mx)\\'
es una estimacin natural D:, de la d isporsin D :x:
n

D~~~~
"'1 (x-m.,-) 2
1i ,c..,

(R.2.'1)-

l= I

Esta estimacin depende de la esperanza matemtica m,, de la ruagnitud aleatoria X. Por eso puede ser aplicada slo on el caso on que la
esperanza matemtica de la magnitud aleatoria sea c-,ouocida. En
este caso la estimacin (8.2.4), como estimacin de la esperanza
matemtica de l a magn itud aleatoria Y = (X - m,,)2', es una estimacin no desplazada de la dispersin de la magnitud aleat.oria X.
Sin ern.bargo, la esperanza matemtica de una magnitud aleatora
es, como regla , desconocida y se determina por los re~ultados de los
mismos experimentos que la dispersin. En tal es casos conviene
sustituir en la frmula (8.2.4) la esperanza matemtica por su estimacin. Como resultado, paJ"a la estimacin de la dispersi1'in de la
mngnitud alentorin X se obtiene la frmula

"' (
1 L.J
~

l').r~n
xc-ni.,;*)2 .

(8.2.5)

ic:t

No obstante, c.%0 cst.i maci.n resulta ser desplaiatla. Para de.mostrar


esta afirmacin, SU$tituyamos en la frmula (8.2.5) los valores concretos :r.11 x~ de la magnitud aleatoria X, obte.nidos como resul-

Cap. 8 Dctcrmlnaciii" de Las caractt.r1tlca1

tad o de experimentos, por la~ magnitudes aleat.orias correspondient es X h . . , X,, y vamos a co nsiderar In esii maci6n de la dispersin,
s in enlazarla con >ruebas concretas, como magn itud aleatoria:

Z,.

=*i (X; -M~}


2

(8.2.G)

1=1

Para determinar la esperanza inatemtica do esta estimacin, basta


todos los sumandos de l a suma por l11s esperanzas matemticas de los mismos (vase el 3.8). Calculemos previamente las esperan zas matemticas do los sumandos que forman la suma de l a frmula (8.2.6). Conformen la definicin de la dispersin de una magnitud aleatoria, teniendo en cuenta que la esper11oza m atemtica de
1a diferencia X 1 - 1W: es igual a cero. tenemos
M(X1- M.~)J=DLX1 - M~J.
(8.2.7)
susti~ui.J"

Pero

X1-M':=X1-.!.""
.
,, ,i
;-i

X1 =(i -.!.)X-.!.
~ 1X,
n
n. ,J
,_,

donde el ndi.:e i anexo a la sum a muestra quo la adicin se realiza


con respecto a todos los valores del ndice j ele 1 hasta n, salvo el
valor j = i. As pues, la diferencia X 1 - M: repre~en ta un.1 funcin
lineal de n magoitucfos aleo torias Xi> .. . 1 X,.. E~tas magnitudes
son independientes puesto que segn la suposicin los experimentos
son independientes. Por eso, para cakulAT la d isiersin rle Ja diferencia X, - M~ se puede aplicar la frmula (3.!).7) para la dispersin <le una funcin lineal de magnitudes aleatorias no correlacionadas. Dado qne los experimentos, segn la suposicin, se efectan
en c.ondiciones iguales, las disperl'iones do todas las magnitudes
Xi. . . . , Xn son equivnlon tes e iguales a la dispersin Dx de la
~agnitud aleatoria X. Asi pues, aplicando la frmula (3.9.7), obtend re.inos un iumandd igual al producto de Dx por el cuadrado del
.Of:!ficiente aexo a X 1"'f n - 1 sumandos iguales al producto de D"'
por 1/n 2:
,
'f*xl =
n-IDx= -n-ID
D {X;-,r
(8.2.8)
- -n.
:r +-.nn - x

(t 1)'D

Las frmulas (8.2.7) y (8.2.8) muestran que las e.\lpernnzas matemti.c:as de todos los sumandos en la suma de la frmula (8. 2.6) son iguales. Por lo tan to ,
(8.2.!J)
As pues, la esperanza matemtica de la estim acin de la dispersin
.D,, (8.2.6) no es igual a la dispersi n D ", aunque tiende a D,. cuando
a-+ oo, como esto debe ser de acuerdo con 111 definicin de l a esti-

8,g, Deurmina.cin de los mnmc11tos

305

macin. El resultado obtenido muestra que la frmula (8.2.5) dl!


una estimacin desplazada de l a dispersin. Esto quiere ~ecir que,
aplicando la frmula (8.2.5) para estimar la dispersin de una magnl':.
tud aleatoria, obtendremos un error sistemtico. La dispersin
resultar ser por trmino medio menor que Ja rea l.
Para hallar una estimacin no desplazada de la dispersin de la
magnitud aleatoria cuya esperanza matemtica esdesconocida, obser.
vemos que, en vir tud de la frmula (8.2. 9), la es1)eranza matemtica
de una magnitud aleatoria
n

Vn = n-1
--Zn = -n -

~ (X1-l'vf'!.)~
1~

(S.2.10)

i= I

os igual a la dispersin D.-. de Ja magnud aleatoria X. Por eso


la estimacin no desp lazada de la dispersin D., de la mngnitud aleatoria X suele determinarse por la frmula

"

D:= "~ 1 ~

(.1:1 -m1) 2 .

(S.2.11)

i=I

Esta frmula se aplica generalmente para determinar l as dispers iones de magnitudes aleatoria,, por los resultndos de los experimentos
cuando las esperanzas matemticas son desconocidas.
An'logamente se hallan l as estimaciones de los momentos de
correlacin de magnitudes aleatorias. Como, segn la definicin,
el momento ele correlacin kxu de dos magnitudes a leatorins rea los
X e Y es l a esperanza matemtica de la magnitud aleatoria
(X - m,:) (Y - m ), entonces la estimacin natura l del momento
de correlacin es fa media aritmticn do esta magnitud al eatoria:
n

kt11=-} ~

(x1 - m..,)(Y1 - m11) .

{8.2.12)

Esta frmula da una estimacin no desplazada del momento de co~


rrclacin siempre que las esperanzas matemticas de las magniludes
aleatol'ins X e Y sean conocidas.
Si las esperanzas matemticas do las magnitud es aleatorias
X e Y son desconocidas, entonces l a estimacin no desplazatla de
su morrwnto ele correlacin kx.y se ofrece por la frmuln
7x11
,.. =-. .

,. _i

"

"" ( 3:;-mx
") ( y ; -m*)
11 ,

(8.'-'. 13)

i::a l

dond e ~. m~ son las estimaciones ele las esperanzas male:mUclls


de l ns magnitudes aleatorias X, Y respectivnmonte:

"

m~=+ ~
l=1

' " 2 0-0938

j : ,

308

Cap. 8

D~terminactn

lk las

caracter.~ttcas

8.3. Determinacin de Jos momentos


de funciones aleatorias estacionar las

Al determinar las caractersticas de funciones a leatorias estacionarias, se supone comnmente que stas son ergdicas y se ut iliza una
sola realizacin suficientemente l arga de la magnit ud aleatoria,
obtenida experimentalmente. Supongamos que coruo rasultado de
la prueba ha sido obtenida Ja l'cali:c.acin x (t) de la funcin aleatoda estacionara crgdica X (t) en el inter valo O ~ t ~ T. Entonces, en virtud de lo expuesto en el 5.5, por estimacin do la
espcranzn matemtica de la funcin aleatoria X (t) se puede tomar
la magnitud

r
m~=+ ~ x(t) dt.

(8.3.'1)

Segn lo dcltlostrado en el 5.5, la esper anza matemtica de esta


estin1acin es igual a la esper anza matemtica m.., de la funcin
J;

.r;(t t) .r(t)

r'trV\Arll~

j_J~
Fig. 8.S.i.

}"ig. 8.3.1.

aleatoria X (t} y su d ispersin tien de a cero cuando T-+ oo. Por


consiguiente, la frmula (8.3.1) da u na estimacin no desp lazada
deJa,.~sp~ranza matemtica de la funcin aleatoria estacionaria X (t) .
.La estiinAcin. de l a fmcin correl ativa k,. ('T) de una funcin
!!leatoria estncionaria ergdica (con r espec to a la correlativa) se
determina, e'n' virtud de los resultados del 5.5, por la frmula

'!'-~

kHi:)= T~"'

lx(t)-m!'J [x(t-1-)-m~dt.

Aq~ el valor medio ba sido tomado ea el intervalo (O,

(8.3.2)

T - 't') puesto
que .. l as funciones x (t) y x (t+ T) son conocidas conjuntamente
solamente en este intervalo (fig. 8.3.1). La frmula (8.3.2) da la
estimacin de la funcin correlativa para 't' >O. Cuando i: < O, l a
estimaci n de la funcin correlativa se determina de la condicin
de su paridAd

8.9. Dettrmil'l4Cin de los

mame~.101

307

Se puede recomendar que la frmula (8.3.2) se aplique cuando


T/5. Si T tiene grandes valores, el error de la estimacin cl:e la
funcia. correlativa sega. la frmula (8.3..2) aumentar. Si la esti~a
cia. de l a uncia. correlativa, obtea.ida por la. frmula (8.3.2), tientfe
con evidoncia a cero al aumentar T {fig. 8.3.2}, se considera quir J.a
suposicin acerca de la ergodicidad de la funcin aleatoria es justa.
Si la estimacin de la funcin correlativa tiene una co1a di.stinta
del cero (fig. 8.3.3), se considera que la suposicin acerca de la
ergodicidad no se justica. En
estos casos conviene determinar cul k)rJ
es la causa de no ergodicidad.. Eln el
5.5 hemos visto qile una causa
tipica de no ergodicidad de un proceso aleatorio estacionario con respecto a la funcin correlativa es la
presencia de una componente peri~ ;g. 8.S.3.
dica en la propia funcin alea toria.
Si es sta la causa de no ergodicidnd (ms exactamente, de qno atenuacin de la funcin correlativa),
conviene separar de la funcin aleatoria la componente periclica
y slo despus hallar la estimacin de In funcin correlativa aplicando la frmula (8.3.2).
Si en la funcin aleatoria en cuestin hay una componente sinusoidal , entonces, en virtud de los resultados de los ejemplos 5.5.2
y 5.5.3, la frmula (8.3.2) dar en la [uncin correlativa una cosinusoide de la misma frecuencia , cuya amplitud es igual a la mitad del
cuadrado de la amplilud de la componente sinusoidal de la funcin
aleatori a. Prcticamente esta cosinusoide en la forma pura servir
de cola do la funcin correlativa (fig. 8.3.3). Por. eso la frecuencia
y la amplitud de la componente sinusoidal que forma pa1te de nna
funcia. aleatoria estacionaria se determina fcilmente por lo. cola
que se tiene en la estimacin de la funcin correlativa. Al mismo
tiempo, la fase de la componente sinusoidal puede ser determinada
slo por seleccin procurando obtener que desaparezca la componente
peridica en la estimacin correlativa. En el caso de que en la esti
maein de In func.in correlativa haya una componente peridica no
sinusoidal, conviene descomponer esta ltima en 1a serie de Fourier
en los cosenos de las frecuencias correspondientes al perodo. Con
ello, sern determinadas las amplitudes y frecuencias de las sinusoides
correspondientes que forman parte de l a propia funcin aleatoria.
Las fases de estas sinusoides se determinan seleccionndolas por
turno de modo que se logre la desaparicin de las cosinusoidcs correspondientes en la ~cola~ de la funcin correlativa.
De un modo absolutamente anlogo se baila l a estimacin de la
funcin correlat iva recproca de dos funciones aleatorias estacionarias
y estn.cionariamcnte ligados X (t) y Y (t). Si se supone que estas

<

~;

2"

HOS

Ca p . 8 Dett:rmi11(JciV11 tl11 las curactcr$ticas

fm1ciones aleatorins son orgclicas con respecto a la funcin correln.tiva recproca, entonces la estimacin de esta llima a hase de un
p11r de realizaciones x (t) e y (t) de las funciones 11leatoriM X (t)
e Y (t) i1notoda.'l en el intervalo O < t < T se determina por la frmul a

k~v (i:) = r ~ ~

T- t

J [x (t) -m~J

{y (t

+)-mil dt.

(8.3.3)

Es ta frmula ofrece la estimacin de lu funcin correlativa reciproca


para T > O. Cuando ; <O, la estimacin de la funcin correlativa
reciproca, en virtud de la relacin (5.1.14), se determina por lu frmula
~u(T) = fctx(-'t) .
(8.3.4)
Las integrales de las frmulas (8. ~U), (8.3.2) y (8.3.3) pueden
ser calculadas con ayuda de calculadoras analgicas. Al determinar
fas cstimocio11es de l as espeninzas matomi'iticas y funciones cor reluLi vas do funciones aleatorias estacionarias v11lindose de calculado1as digitales y de calcul adoras manuules, las integrales de las frmu111~ (8.3.1), (8.3.2) y (8.3.3) se sustituyen por sumas. Para esto inter
v;1lo (O, 7') se di vide en un grM nmero n de intervalos iguales de
longitud tl = T/n y lll integral en (8.3.1) se sustituye por la suma :
n

111~ -e: 1~ ~

X (

i/1 -

~)

i~ 1

+~
n

l =

;e ( if:> -

~)

i~1

Poniendo aqu, para abreviar, que


X =X

(i6 -

~)

(= 'l ,. , ., n) ,

obtendremos para Ja estimacin de la esperanza matemtica de la

funt<in aleat9ria X (t) la frmula

(8.3.5)
A.nlogamento, para las estimaciones de la funcin correlativa
y de la funcin correlativa recproca obtendremos las frmulas
11 -Jll

k.~(m.)= n-ni
--""
; (x;- 1n:)(xi+m -m.~).

(8.3.6)

i;. f
1

n-m

lr~,(mA)= - kJ
"'1 (x1-m:) (y1..m- m~).
n-m

(8.3.7)

8.3. Dttrml11aci611 de los """"'"~

309

Pasemos ahora a determinax las densidades espectrales de funciones aleatorias estacionarias. Como procedimiento ms sencillo para
halla.r la estimacin de la densidad espectral de una funcirl alea-

toria estacionaria puede servir l a aproximacin previa de estimacin de Ja funcin correl ativa de una de las tres funciones corrolatvas tipo, examinadas en l os ejemplos de los 5.2 y 5.3, o de l a combinacin lineal de tales funciones, con determ.ioacin sucesiva de
la densidad espectral por las frmulas (5.2.22) (5.3.9). Con ello,
l a estimacin de la densidad espectral se obtiene en forma de una
!uncin racional fraccionaria, lo que es muy cmodo para resol\'~r los
problemas prcticos para los cuales se determina la densidad espectral.
En virtud de los resultados del 5.5, la estimacil) de la .fo~ncin
correlativa de una funcin aleatoria estacionaria, ergdica con respecto u ln funcin correlativa
K;(T) ...

T~'T

T-1'

Jo X{t)X(t -+ -r)dt,

tier.de a ln [uncin correlativa k,. ('r):


lim le (-r) = kx (-r),

(8.:U:!)

(8.3.9)

T-oo

en el sentido de que la esperanza matemtica del cuadrado de la diferencia entre K~ (i;) y k:c (-r) tiende a cero cuando T-+ oo. Surge l a
pregunta: Se podra determinar la esti macin de la densidad espectral sustituyendo en l a frmula (5.3.9) directamente la estimacin de
la funcin correl ativa calculada por la frmu la {8.3.2)? Con ello,
es necesario sustituir en la frmula (5.3.9) el intervalo infi nito de
integrncin por el finito (-T, T), puesto que, por la realizacin de
l a funcin aleatorL de longitud T, es imposible determinar por la
frmu la (8.3.2) la estimacin de la funcin cor relativa para 1.- 1 > T.
Para resolver la cuestin planteada, es necesario hallar la esperanzo
matemtica y la dispersin de la fun cin aleatorin
1
s ;(cll)= 2n

1K~('t)COSCJ>'td1:= ~ 5

( K;(-r)cosrotdi;. (8.3.10)

-T

Es fcil ver que, en virtud de las frmulas (8.3.9) y (5.3.9), la esperanza matemtica de la funcin aleatoria ~: (<i>) tiende hacia la
de11sidad espectral s,. (CJ>) de la funcin aleatoria X (t) para T-+ oo.
No obstante, en el caso general, la dispersin de la funcin aleatoria
S~ (ro) 110 tiende a cero cuando T-+ oo. Por lo tanto, la funcin
{8.a.10), obtenida como resultado de la transfor macin de Fourier
de la estimacin de la funcin correlati va, es wrn estimacin no
fundada de la densidad espectral y por eso priicticaroente no puede
servir de estimacin de dicha densidad.

3t0

Cal'. 8 Determinacin de las caracterfsliciu

Para hallar la estimacin fundada de la densidad espectral valin


dose directamente de la estimacin de la funcin correlativa, sin
aproximarla previamente por Ja expresin analtica, observemos
que para la funcin aleatoria normalmente repartida X (t) la funcin
s~ ((1)) posee la propiedad de que para cualesquiera (J) y (1)2 fijas*)
fon
'.2'-N>

Js: (w) d(J)""' Jr s. (l) d(J).

<O<J,

"''

ti)I

()l

(8.3.11)

En (8.3.11) el limite debe comprenderse en el sentido do que la


esperanza matemtica del cuadrado de la diferencia entre las integrales en (8.3.11) tiende a cero para 1'-+ oo. En virtud de (8.3.11) se
puede considerar prcticamente que, cuando T sea suficientemente
grande, ser vlida la igualdad aproxi mada

""Js~ (<o) dCJ> ~ ""Js.~ (c.>) dw

(8.3.12)

Ct>i

WJ

independientemente de la realizacin posible de la funcin aleatoria


X (t) utilizada para el clculo de la funcin S~ ((J)).
Poniendo en (8.3.12) ro 1 = CJlo - a, l 2 = ro 0 + a , para un
valol' de a Jo suficientemente pequeo, obtendremos
~rj-"

~ s., (ro) dw ~ 2as,, (ti.>~).

(8.3.13)

Wl)-Ct

De otro lado, en virlud de (8.3.10)


roo+
r
S~(c.>)
KHt) sen(wo+ci)T-;son (0-a.) T du=

O>o-a;

dw =+)

-_ n2

JK* ( ) cos <ilo't sen""' d


X

1:

1:.

(8.3.14)

Sustituyend l as expresiones (8.3.13) y (8.3.14) en (8.3.12), obtendremos despus de .d ividir por 2a

+J
7'

IG() COSlo;~ona:t d't~s.,(wo)

(8.3.15)

1') Vase J. L. Doob. StochaHic Process~. Iohn Wiley, 1953, chapt. 10,
8 (Vc1sin rusa: J. L. Dooh. Pi:ocosos probal>ilsticos. Editorial de Lif.eratura

Extraujera, 1%6, cap. 10, 8).

au

8.8. Dtltrmlnaein de lo momonto1

De aqu! se ve que de estimacin fundada de la deo.sidad espectral


de una funcin aleatoria estacionaria X (t) puede servir la funcin
1

( )

Sx.

(O)

1
""'n

\ k* ( ) cos wi: sen

"

etT

Ct'f

(8.3.16)

't,

donde ~ ( ) es la estimacin de la funcin correlativa calculada por


la frmula (8.3.2).
Al deducir la frmula (8.3.15), fue a plicado el teorema de la media a la integral del segundo miem bro de la igualdad (8.3.12). Tenemos derecho a hacerlo siempre que la densidad espectral s,, (Cll)
sea continua en el intervalo (w 0 - a, w 0
et). Sin embargo, e.l
t.corema de la media no se puede de ningn modo aplicar a fa i ntg'ra.I
del primer miembl'o de lo Igualdad (8.3.12). Esto se expficii porel
carcter especial de l a funcin aleatoria
(ro). Todas sus realizaciones son funciones que oscilan rpidamente en una gran gama. Adeuuis, siendo T lo suficientemente grande, sus realizaciones, en un
intervalo tan pequeo como se quiera (Cll., (l)z), realiuin en amplios
limites una infinidad de oscilaciones caticas. Por eso el valor de la
funcin aleatoria .; (w) en el punto w 0 es aleatorio, tiene una gran
dispersin y debido a esto no puede ser tomado por su media en este
intervalo. Por este mismo carcter de la.s r ealiiaciones de Ja funcin
1d eat.oria
(ro) se explica el hecho de que la igualdad (8.3.11) es
vlicln , mientras que la propia funcin aleatoria s~ (w), cualquiera
que se11 el valor ro, no tiende hacia el valor correspondiente de l a
d ensidad espectral s,, (w). Como resultado de la integracin, las
oscilaciones de l o funciu aleatoria S;. (w) se aligan, y al ser T lo
suficientemente grande , cuando el nmero de oscilaciones en el interv11lo (w1o <Dz) se hace grande, las desviaciones de esta funcin hacia
arri ba se compensan prcticamente por completo con las oscilaciones hacia abajo y la integral se hace prcticamente independiente
d o la realizacin concreta do la funcin olcotora
(ro). La frmula
(8. 3. 15) es resultado de este alisado de la funcin
(co).
Cuanto mayor sea la magnitud a en l as frmulas anteriores, tanto
111cjor Se al isarn las OS6ilaciones de la funcin aleatoria S; (w),
tanto ms exacta ser l a ig\laldad (8.3.12) para la longitud doda de
lo realiincin 7'. Sin embargo, la igualdad (8.3.13) ser t.onto ms
tixnct11, cuanto menor sea a. Es obvio que esta igualdad es absolut amente oxacta cuando l a densidad expectral s" (Cll} vara linealmente
en el intervalo (6> 0 - a, 6> 0
a). Por eso 1a magnitud a debe ser
elegido lo suficientemente pequea para que la densidad espectral
s., (co) puoda ser considoradn aprox.imadamente como funcin lineal
en el intervalo (lo - a, (1) 0 + a). Ahora bien, la magnitud a debe
:ser escogida en lo frmula (8.3.16) satisfaciendo dos requisitos contra-

s:,

s;

s;

s;

3\Z

Cap . 1/ O etermhuuiiin dt fot eararttrlltlca

dictorios. Es evidente que estos requisitos los satisface el mnyor


vnlor do a para el cual la rlensidad espectral s., (c.>) puede ser considerada aproximndamenle lineal en cualquier intervalo de frecuencias ele longitud 2a. Prcticamente la magnitud conveniente de a
se determina por seleccin.
De un modo semejante, para la estimacin de la densidad espectru l
recprocn lle dos funciones aleatorias estacionarias y estacionariamente ligadas X (t) e Y (t) se obtiene la frmu la

S~v (< >) = 'l~'<f.


1

/.:;y

(T) e-

1"''

-T

so: ~'t

d't.

(8.::1.17)

8.4. Determi nacin de los momentos


Je fu nciones aleatorias uo estacionar las

El clculo de la estimacin de la esperanza matemtica ele u11a


funcin aleatoria estacionaria, valindose de la frmuln (8.3.1),
se puedo considerar como alisado de su rcalii;aci6n obtenicla como
.z:

t'

Fig. 8.4. t.

Pig. 8.4.2.

rcsullndo del experimento (fig. 8.4.1). Es natural que surja la idea


de gencrnliiflr este procedimiento para las Iunciooes aleatorias no
estacionarias y c!.eterminar lo esperanza matemtica ue una funcin
alillitoria: no estacionaria alisando una de sus real iz11cioncs
(fig. 8.4.2). Esto es completamente posible si la realizacin de uno
funci6o aleatoria X (t), obtenida como resultado del experimento,
iis lo suficientemente larga. En esle caso el alisado de la realiz11cin
puede ser efectuado a simple vista o bien aplicando cualquier otro
mtodo de alisado de funciones. Para alisar n s imple vista, es neeesario construir la realizacin obtenida (o anoLarla directamente durante Ja prueba) en una escala lo suficientemente pequea por ol
eje de 111 variable independiente, para que se maniicste lo ms claramente posible la bando llenada por la realizacin . Trazando a Bimple vista la lnea axial de esta banda, obtendremos precisamente
la curva que puede ser tom11da por estimacin de la esperanza tnAtemtica do la unci6n aleatoria.

8.4. D.termi11acl hn de /.f)s mome1.tos

313

Para alisar con ayuda de calculadoras digitales o calculado1as


manuales, se puede aplicar el mtodo de la media mvil. Este mtodo
consiste en que por valor alisado de l. funcin en cualquier punto
t se toma s.u media en cier to intervalo con centro en el punto t. Al
variar t, este inter\lalo se mueve a lo largo del eje t que es lo que
exp lica el nombre dado a este mtodo. Aplicando el mtodo de l
media mYil, obtendremos para la estimacin de la esperanza mate
mtica de una funcin aleatoria no estacionaria l a frmula

m~= 2 ~0

l+To

(8.4.t)
x(s}4s.
1.=r0
Cuanto ms ~randa sea el iritervalo 2T0 en sta :frmula :fa:nto "i:nej<ir
ser el alisado. P or otro lado1si TiJ es mu-y grauae , se alisa"r' 't~'.:
bin la propia esperan?.a matemtica de ln funci6n aleatoria. Por
eso se recomienda elegir T 0 lo suficientemente grande, para que en
cualquier intervalo de longitud 2T 0 el carcter aleatorio de 111 funcin aleatoria dada .~e manifieste lo bastante en la realizacin
anotada (es decir, para que en cualqu ier intervalo de longitud 2T 0
se observe una cantidad suficientemente grande de oscilaciones de
la realizacin}, y lo suficientemen te pequeo para que la esperanza
matemtica de la funcin aleatoria X (t) pueda SP.r considerada
aprox imadamente lineal en cualquier intervalo de longitud 2 T 0
Si estas condiciones no se observan, es imposible en principio
determinar la esperanza matemtica de la funcin aleatoria alisando
una de sus realizaciones. De ejemplo tpico de esta clase puede servir la funcin aleatoria en la cual prcticamente todas las realizaciones posibles se representan por curvas suaves. La esperanza matemtica de tal funciri aleatoria puede ser determinada solamente
teniendo un nmero suficientemente grande de r ealizaciones.
Para determinar la estimacin do l a funcin correlativa de una
funcin aleatoria no estacionaria por el mtodo de alisado, partiremos de la igualdad

Kx (t

+ T, t) =

ftf [X (t

+ T)

X (t)

(8.4.2}

En virtud de esta igualdad, la estimacin del valor de la funcin


correlativa, cualquiera que sea el valor fijo de T, puede ser obtenida
alisand.o la realizacin de la funcin aleatoria

ZT (t} =[X (t+"f} -M~ (t + T}l [X (t)-M; (t}],

(8.'1.3}

que se considera como funcin de ,-. El alisado puede llevarse a cabo


a simple vi:sta, trazando la lnea ax ial de la banda cu la cual osciit1
la realizacin de la funcin aleatori a o bien aplicando cualquier otro
mtodo de alisado de funciones. Al utilizar para el alisado ol mtodo
de la media mvil, obtedremos para la estimacin de la funcin co21-osss

Cap. 11 {)e/ermlnac(clrt de tus t:arar.terstlcas

rrelntiva la frmula

K~(t +i:, t)= 2~

"t+ T1

J [x(s+-r)-m~(s+-c)] [x(s)-~(s}]ds. (8.4.4)

t - T1

La magnitud T 1 debe ser elegida lo ms grande posible, pero tal


que el valor de la funcin cor.r elativa para el valor dado de -e, considerado como funcin de t, pueda ser estimado aproximadamente como
funcin lineal en cualquier intervalo de longitud 2T 1
Conviene subrayar que la determinacin de la esperanza matemtica y de la funcin correlativa de una funcin aleatoria no estacionaria aplicando el mtodo de alisado es posible solamente en el
caso en que la longitud do la realizacin anotada supera considerablemente el intervalo de correl acin de la funcin aleatoria. Noobstante, en este caso la precisin de las estimaciones obtenidas de
tal modo ser considerablemente menor que en el caso de funciones.
aleatorias estacionarias puesto que los intervalos de mediacin en
las frmulas (8.4.1) y (8.4.4) 2T 0 y 2T 1 deben ser por necesidad considerablemente menores que l a longitud de realizacin T (cinco veces.
por lo menos). Al determinar l a esperanza matemtica y la funcin.
correlativa de una funcin aleatoria estacionaria, como intervali>
de mediacin se toma prcticamente toda la longitud de realizacin.
Por eso las esperanzas matemticas y las funciones correlativas de
funciones aleatorias no estacionarias deben determinarse, como regla,.
por varias realizaciones.
Pnra determinar la esperanza ma temtica y la funcin correlativa de una funcin aleatoria no estacionaria por varias realizaciones de la misma, obtenidas experimentalmente, se recomienda emplear para cada realizacin el mtodo de alisado expuesto anteriormenteY tomar las medias aritmticas de los resul tados referentes a distintas realizaciones.
'.
.. Por el mtodo de alisado de uno o varios pares de realizacion&
d:e dps funciones aleatorias se determina de un modo semejante la
funci.i:i. correlativa _recproca de l as mismas.
$tibray~,mqs ~na vez ms que el mtodo.de alisado de u.na o varias
r.!i.aJizl!:'iones .se puede utiHzar para hallar las estimaciones de las
espei:ai'i'za~ ri)at~miiti9as y fnciones correl ativas .de funciones aleatorias:i!iolam~ne: en el caso'en que los intervalos de coi:rel aci6n det.odas 111s funciones aleatorias anotadas son pequeos en comparacin
ci;mJ a longitud. <le cada r.e alizacip obtenida. Sobre. el cumplimiento.
de "e5ta condicin se puede juzgar por el carcter de las realizaciones.
obt~nilil!s .. Si todas. las realizaciones anotadas de las funciones aleatorias son v.i siblemepte oscilaciones. caticas, s.e puede considerar
que el ccar<;ter aleatoriol> de as fUncioiies ese ha manifestaao bastante bi~n~ y para .hallar las esperanzas matemticas y las funciones
correlativ.as reciprocas se puede emplear el mtodo de alisado .de las

8.4. Determinacin de los momentos

315

realizaciones expuesto anteriormente. Con ello, cuanto ms O!lci


laciones caticas efecten las funciones anotadas en el intervalo
de anotacin tanto menor nmero de realizaciones ser necesario.
Para las funciones aleatorias con esperanzas matemticas y dispersiones lentamente variables, las cuales se pueden considerar prximas a las estacionarias (el caso de una no estacionaridad dbil), se
puede limitarse a una realizacin lo suficientemente larga.
Pero si la longitud de las realizaciones anotadas es comparable
con el intervalo de correlacin de la funcin a-latori, por ejemplo.,
si todas las. realizaciones anotadas representan .curvas suaves, entonces es en principio imposible hallar las estimaciones conveniente.s
de las esperanzas matemticas y las funciones corr~lativas y correlativas reciprocas sirvindose del mtodo de alisado de ):as .realiza
ciones. En semejantes casos el nico procedimiento posible de det'erminacin de las estimaciones de las esperanzas matemticas y .de
las funciones correlativas y correlativas recprocas consiste en tomar
un n mero suficientemente grande de realizaciones (del orden de
100) y, examinando los valores de las funciones aleatorias para diferentes valores del arguir\ento como n1agnitudes aleatorias, emplear
las frmulas del 8.2 para el clculo de las estimaciones de sus esperanzas matemticas, dispersio.oes y momentos de correlacin. Este
procedimiento es, desde luego, absolutamente general y puede ser
utilizado en todos los casos. Sin embargo, siempre exige un gran
nmero de realizaciones para obtener una precisin satisfactoria
de Jas estimaciones de las esperanzas matemticas y funciones correlativas. Adems, si la longitud de l as realizaciones anotadas es grande en comparacin con el intervalo de correlacin, este procedimiento
no es racional puesto que no utiliza toda la informacin comprendida
en los resultados de los experimentos. Por eso, si el intervalo de
c.orrelacin de Ja funcin aleatorA es pequeo en comparacin con
la longitud de las realizaciones obtenidas como resultado de las
pruebas, para la determinacin de las esperanzas matemticas y de
las funciones correlativas se recomienda emplear el mtodo ex.puesto
u1s arriba de alisado de una o varias realizaciones.

2t

Suplementos

t . Algunas intcgr11lea delcrminadas


Al !lcdurir ciertas frmulas de la T eorB r1r les Prnhnbilidades hity que
arliear la frmula

..Jr

"'

e"1-hr> c1t = -V
-- tl.ii ,
11

(1)

p1ir:1 cualquier vnl or real do /1 > O y para cuulquil'J' '1 complejo. En porticul nr, cuoudo '1 = O. 111 lnnul11 (1) toma la forn111

vllch

, - ht

' = ~ii .

(2)

- oo

..J

Para dtldunir la l<irmuln (1 ), nongrunos

T ('1)=

el'lt-111

dt.

(3)

Derivandn esta f6tmul11 cnn rc3pe<:LO al pnrmetrn 1 e intcgrandn por >arteil,

obl~od N!mos

l'(r)'=

J t.'ll-h1a1 ~ - 2!t r

-....

e 'lffk- hrt =

o bloo
l ' ('1) -=

.;J.s l (T}).

(4)

Esta fnnula pu~e ser coruildcrada como la ecuacin diferencial que determina
la Integral l (t). Para determioar '()Or completo la in~gral l (TJ) , ahora es sufi
ciente ballar su valor para un valor cualquiera de '1 Lo ms sancillo es calcular
el valor de esta integral para '1 = O, es decir, l a Integral (2):
I (O) =

J"'

e-htdt

(Sl

Sf7

Supmmn

Puesto que esta integral no depende .de cmo est desig11e la la vai:iable de

..J

fntniracln, "" uedr. escribir ta11Jbin

1 (O) ~

M11lti1l irando miembro a miembro las

""

2 (0) -

e-h a.,,
frmula~ (~) y

(6)

(11). obtendremos

00

e - l1tt: dt

, -Ah t-

-oo

J { J ,-,...d.s} ,-htae = JJ.,-c1+J111


~

dtd.t.

-w

Dn

-oo

-oo

-w

o~l.e

E~to

~1~

modo, hemos reducido el problo1n u al clcu lo d~ la integral doble.


integral ><r. calrnla fci lmcuto eu las coordonn~a., polar!!s. Poniendo
ht=rrosq>.
ks ~ r seto cp

r'a':':"" en cousidcracin quo el jacobi:1110 dl' esta tranoformacin "s igual

I =

'

81

)t

Os

Tr Tr

oq -;;.-

Tcoscp Tsen 'P


- T sen <p -;cos<p

- -:;:-,

obtend remos

e-rr dr =

I' "

n e _ ,., u .. h'l ,

1,o;

de donde se deduce precisamente la frmula (2).


J,ft integral de la cruacln (4), iual a

frmu la

V:

para 11 - O. se oxprNa por la

- ...

n 1 (IJ)=" - V11.-e4h.

F.sto es fcil roroprobar por la sust.itucn directa. As!, rues, la frmula (i)
ruoda demostrada.
Ue (1) se dedu~n fcllmcnt.e h18 lrmuills

..J

_.,.,

t21'-le-htdt = 0

{k = t. 2, ... ),

(k = 1. 2, ... )

(7)

(8)

318

Sup~nlO

Pare deducir estas frmulas, derivemos l a frmula (8) con respeel.o al parmetro '1 Cnmo result11d<>

obtcuclr~mos

...

/'> ('l)- ) , 11-1t1t1 dt

(r =1, 2, ... )

_.,.

Poniendo aqu t = O,

rnu~rcmos

..,

Jt-h' 12

/m (0) =

(r=i, 2, ... ).

dt

(9)

Asi pues, LOOns las int.cgralos que nos ioteresrui ron los \"alorcs de derivadas de
Ja integral l (1)) para T) "" O. La primera derivada de la integral I (i) se determina por la lormula (4). Para detmninar las derivndas do rdenes superiores
de la integral f (1)), derivAmos la frmula (4). Enl.Onces obtendremos
!" (l) = 2! .1 (11)

+~ l ' ('l)

(!O)

y en general

r-1
'l
/ c>(l\)=-w- cr-i1 (1\l +w11.-11 (1J).

(11)

Para demostrar esta frmulA, es sufic-icnte utilizar el mtodo de induccin


matemtica. Suponiendn que e.~ti frmula os vlida para cierto valor do r,
demostremos que es vlida tambin para r
1. Derivando la frmul a (11),
obtenem os

/<r+ll ('l)=r;; 1 /cr-ll (lJ)+~/cr-11 (l1}+~

2 1r>(T)) =~ /<r-ll (1)+ 2~2 /trl('l)

lo que era nocesarin domoslrar. As pu~. put.l'W que la frmula (11) es vlida
para r = 2 (Ja frmula (10)1, sta es vf!A pnra cunlquler r.
Snponendo "n (11) que l') = O, obtendremos
r- 1
Jm (0)= 2h 2 ir- ti (0).

(12)

Pero de (4) se tleri\'a que/ ' (0) = O. Por con~iguici1tc, los valores de todas lns
detlvadas de rdenes impares de la inte~ral l ('1) para TJ = O S<>n iguales a ~eru,
lo que demuestra la frmula (7). Ademas, esta frmula est clara sin demostraei6n, puesto que la integral de una !uncin imp11r eo limites simtricos siempre
'i gual 8 cero.
Poniendo en (t2) sucesivatnente r = 2, 4, 6, .. . , 2k, obte11dremos

ea

/' (0) ...

z!,

l (O), IV (O)=

!,

(0),

12--~, (O)= 2;;;; 3 /<t~> (O),

1<2~> (0)= 2~ f /<~A-11 (0).


Multiplicando todas est11~ igualdades entre s y efectuando las simplificaciones
eorrespondionU!s, obtendremQS
/<2A>(0)= 1. 3.5 ii.i.t~k-1) [ (0).

Suplermntos

319

Sustlluyendo aqu1 la expre:>in (2) de la magnitud l (0), obtendremos precisamente la frmula (8).
!Dado que la Iunci6n subintegral en (8) es par, de (8) se deduce una frmula m6s:
(2k-1)11

(k=1. 2, .. ).

2k-Hh~h+l

(13)

Para ln integral anlngo. con potencias impares tiene lugar la frmula

...

,:--1-htt di ""':u.o
(k - 1)1

(k=1. 2, ... ) .

(14)

raro deducir esta frmula, observemos quo pllrn cnolquior o:> O


( 15)

En erecto.

I
~t

- at dt

""'2 J

-~a

,-a"/..

"=2-=ao -2(1

Derivbndo la frmula ( t !\) con respecto Rl parmclro, obtendremos

"' :k-1

- (lt>

dt

(k -

1)1

~ ~-

Pnnleudo aqu a;= h', obt.endrcmC>S precisameuto la fnn11l:i (14).


Con ayuda de la~ frm11las (J ) y (2) se puede calculn.r nlgunas ou-as inlegrn
le.:i determinadas que tenemos que aplicar en ostc libro.
Demostremos que par cualquier valor ioal dG T y pora cualquier o: poltivo

.r. r
.
J

Par~

d.
o:~+ 2

..f

=..::.. e-'11~1

( 1(;)

a;

tle1h1rir esta frmula, observemos que parn c111esquiera y a reales


1
- --

.- =

,-1a~)d-

(17)

En virlud de esta frmul11 111 integral en (1!\) puede ~cr susLituidn ior la i11te~rnl

doble:

..
,

-oo

tsn d
oo)
~8 1~nd
a~ +~

,-ccx+z'dt.

1,. int,ograd611, obtendremos

Can1loia11do el orilt-u

il',..,.t'd
r
J a+;
= J ,-oc:i d:

-~

OQ

it11-1 11i

dt.

( 18 )

-~

l'trn 1:011furme 11 lu frmul (1)


00

'("1

r -'1'-11 du~:oyz~.
, / 1t - 4.
Je

- oo

Sust.ituyeudo

tl~tn 1su-~sin

..

Aunwutando el
dremns

cu (18}, l{'n<lromol!

..

'~ d
-t Vte+ -2
11

c;i

o.,poo~ulc

hasta que

:!('

..

"'*

- <tr --rr dz

, 1; .
V

obtMga el cuadrad o tomplch, nbten-

{- <a V:-~)~}
iV:

V ,-'"' r ex
~

P!l>

d_ .

Hogumns ahor" la sustiludn de lns variahles

Al variar

V;" dC!de (l hnsta oo. 111

variable t cambia llJ011tu11nmeut.e tl o:le -oo


oo. P111 lo t nnto. l::i ecundn (20) tie110
una solo sol11ri6n posiUvo c.on respecto a
(en
la figura daJR se mun>"tra t en !uncin du
Esta
solucin se rlotermina por la frmula
lrn~la

V.l

v ;;.

De aqul hallamo s

__!!._=~ (t+
2

Fig , S.1.

Y:

Sustliuy ~ndo las expNlSloDes (20) y (21)

para

= Oy t

7
J

(21)

Za;

en (19) y teniendo en cuenta que t = -oo

= oo para : = oo, tendremos

~t'fd =Vi
ci2+i

"

t - aJ'f l

r 6_,.

}..,

(1 +

t
) di.
V:~+2al-rt

De aqul, tomando en eonsidorncin que la integral de una funcin impar e n


1, oh-

lmites simtricos es igual e cern y aplicando ltt frm ula (2} para I

,<; uplemnlto

321

l~ndrcm<>s

quo es l o que demuestra a la frmula (16).


De la frmula (16). derivando con re~pocto al
frmula

.. :""'
5

_ .. q.
e11

= { ne-I T 1 para

par~metro

-e> O.

-lnr- c:<f'tl para -e <O.

-r, se oMiono la
(22}

En vlrtud de la frmula conodda de Euler, la frmula (16) puede ser c~rlia


la forma

!Je nqul, teniendo en 1a1enta que en lmites si016tricns La integral de una ltu1cl6r>
impnr es igual a cero y la iot.egral do una funr.in par e5 igual 8 la integral
1l11pl1cada de O a oo, obtendrAmos

..

\' cos'td

J
11

a:,+'l . 2a.

-O:ITI

Suplementos

2. Tabla de lns \'alores de Ja lunuln de Laplace

0 ,00
0,01
0,02

0,03
0,04
0,05

0,06

0 ,07
' 0,08

0,0!l
0,10
1

0,11
0,12

0,13
: 0,14

! a

(u)

f,

0,0000
0,0040
0,0080
0,0120
0,0160

0,36
0,37
0,38
0,39
0,40

0,0199
0,0:!.39
0,0279
0,0319

0,0359
0,0398
0,0438
0,0<\78
0,0517
0 ,0557

<I> (u)

\!

0,26<'.2
0,26i3
0, 2703

1,08
1,09

0,7&

0,273"

1,H

0,7t.i

0,3665
0,3686

1 ,13

0,3708

0 ,42
0,43

O,tG28
o, 1664

o, 1808

0,78
0,79
0,80
0,81
0,82
0,83

0,2764
0,2794
0,2823
0,2852
0, 2881
0,2910
0,2939
0,2967

1,12

0,41

0, 1554
0,1591

0,1844

0,84

0,2995

0,50

0,1879
0, 1915

0,51
0,52

0,1950
0, 1985

0,2019
0,2054

0,85
0,86
0,87
0,88
0,89
0,90
O,!H

0 ,3023
0,3051
0,3078
0,3106
0,3!33
0,3159
0.3186

0,92
0,93

0,3212

1 ,28

0,3238
0,3264
0,3289
0 ,3315
0,3340
0, 3365
0,3389
0,3413
0,3437
0,3461
0 ,31.85
0 ,3508

i,29
1,30
1,31
1,32
1,33
t ,34
1,35
1,36
1,37
1,38
1.39
1,40
1Jt1
1,42
1,43

0,44

0, 1700

0,45
0,46

0, 173t.i

0, 47
0,48
0,49

0,1772

0,77

0,0675

0,18

0,0714

0,19
0,20

0,0753

0,53
0,54
0,55

0,0793
0,0832
0,0871

0,57
0,51\

0,0910

0,59

0,2224

0,0948
0 ,0987

0,2257

o, 96

0,2291

0,2357
0,2389

0,97
O, 98
0,99
1,00
1,01
i,02
1 ,03
1,04
1,05
1,06

0,22
' 0,23
i 0,24

0 ,56

0,2088
0,2123
0,2157

0,2100

! 0,26
i 0,27

o, 1026
o, 1064

0,28

0,1103

0,60
0,61
0,62
0,63
0,64

0,29
0,30
0.31
0,32

0,.1141

0,65

0,2422

0,2454
0,21'86
0,2517
0,2549
0,2580
0,2611

; 0,25

1
t

rn

O, 1179

0,66

0,1217

0,67

0,1255
0,1293

O,G8
0,69
0,70
o, 7t

0,1331

0,1368

1 CD (u)

0,17

0,2{

0 ,72
73
0,74

0,0596

0,1406
0,1443
0, 1480
0,1517

: o.1s
o, t i;

0,0636

1 <l> (u)

o,2324

0,94
0,95

1,07

0,3531

0,3554
0,3577

1,10

1,14
1,15
1,16
i ,17
1,18

1,19
1,20
1,2i
1,22
1,23

1,24

1,25
1,26
t,27

0 , 35\19

0,3621
o. 361.3

0,3729

0,3749
0,3770
0,3790
0,3810
0,3830
0 ,3849
0,3869
0,3888
0,3907
0,3925
0,3944
0,3962
0,3980
0,3997
0,4015
0,4032
0,4049
0,4066
0,4082
0,4099
0,4115
0,4131

0,4147
0,4162
0,4177

0,4192
0,4207
0,4222
0,!.23ts

323

Sup/eme11lo1

Continuacin
u

1
1,411
1 ,(15
1,116
1 ,47
1,18
1,49
1 ,50
l,5t
1,52

t,5a
1,5'
1,55
f ,56
i,57
1,58
t ,59
1 ,60
1 ,61
1,62
1,63
1,64
1,G5
t,66
f ,67
i,68
1,69
t,70
t. 71
t ,72

CD (u)

0,4251
0,4265
0,4279

0.4292
0,4306
0,4319
0,4332
0,4345
0,4357
0,4370
0,4382
0. 4891
0 ,4406
0,4418
0,4429
0,4441
0,4452
l' ,4463
0,4474
O,M181
0,4495
0,4505
0, 45t 5
0 ,4525
0,4535
0 ,t,54S
0,4554
0,~564

0,457ll

1, 73
1,74
1,75
1 ,76
1,77
1 ,78
1,79
1,80
t ,81
1,82
1,83
1 ,84
1,85
1,86
1,87

1,88
1,89
1 ,90
1,91
1,92
1,93
1,94
1,95

1,96
1 ,97
J ,98
t,99
2.00
2,02

<I> (u)

1
0,4582
0,4591
0,4599
0,4608
0,4616
0;4625
0,4633
0,4641
0,4649
0,4656
0, 4664
0,4671
0,4678
0,4686
0,4693
0,4699
0,4706
0,4713
0,4719
0,4726
0,4732
0,4738
0,4744
0,4750
0,4756
0,4761
0,4767
0,4772
0,4783

1u
2,04
2,06
2,08
2,10
2,12
2,14
2,16
2,18
2,2.0
2,22
2,24
2,26
2,28
2,30
2,32
2,34
2,36
2,38
2,110
2,42
2,64
2,46
2,48
2,50
2,52
2,54
2,56
2,58

<I> (u)

1
0,4793
0,4803
0,4812
0,4821
0,4830
0,4~

0,4846
0,4854.
o,~861Y

0,4868
0,4875
0,4881
0,4887
0,4893
0,l.S98
0,4004
0,4909
0,49t3
0,4918
0,4922
0,4927
0,4931
0,4934
0,4938
0 ,494.l
0 ,4945
0 ,4948
0,4951

1u
2,60
2,62
2,64
2,66
2,68
2,7Q
2,'(2

2;14

2.~ '
2;78
2,80
2,82
2,84
2,86
2,88
2,00
2,92
2,94
2,96
2,98
3,00
3,20
3,40
3,60
3,80
4,00
4,50
5,00

cI> (u)

1
0,4953
0,4956
0,4959
0,496t
0,49.63
Q,4965
0;4957
0,4~9

d[4~ti

,4973
0,4974
0,4976
0,4977
0,4979
0 ,4980
0,4981
0,4982
0,4984
0,4985
0,4986
0,49865
0,49931
0,4996
0,499841
0,499928
0,499008
0.499991
0 ,49999\lni

A ouesttos lectores:
tM llh edita libros soviticos traducidos al cspaiiol, ingls, francs y rabe. Entre ellos figuran las-.
mejores obras de las distintas ramos de la ciencia v
l a t.cnica; manuales para los centros de enseanz'supcrior y escuelas tocnolgicas; 1itera~ura sobre ciencias naturales y mdicas. Tambin se Incluyen monogra!las. libros de divulgacin clentllica y ciencia ficcin.
Diriian sus opi niones n Editorial t Mllh, 1 Uizhskf por. 2, Mosc GSP l-t10 129820, URSS.

Libros que sern publicados por la EdJtorial Mir

en 1973

GELFAND l., GLAGOLEVA E., KIR!LOV A


Mt'J'ODO DE COORDENADAS

Es un libro de .lsrail Guelfand, doctor en ciencias fs'icom~t,emticas y profes0r de Ja Uni".ersiJa_d ~~ t.'osc)l, .~~;1l~jai;i_di(
K1rilov, candidato a .doctor en c1enc.ias fis1co~'!lltemat~as y ~e
Elena Glag6leva, colabo?adora: cient1.ffoa. Es'. el..: " ~~ r.~ .
sorie de matemticas: Bibliotea del a escuela flsico

En esta obra sedescribe el nltodo iliJascooidena.<1'~$;

',i<ia:I''

ii'.4eoit

el procedimient-0 para determinar la posicl6n de utt 'pilnto o cullrp<)

con ayuda ila cifras o de otros smbolos.


De un modo ingenioso y comprensible, a fo. ver. que r igurosa
mento cen tfico, so trata de las coordenadas de 11n punto sobro una
recta, sobre un plano, en el e~pacio del espacio cuadridlmeosional,
deJ cubo cuadriaimensonal y de otras cuestiones de inters relacionadas con la matemtica moderna.
En cada una de las parles del libro so dan tareas y prnguntas
n resolver por el lecl<>r. Es un libro de matemticas para los escofaros del tercer aio do la~ escuelas especiales de matemticas y no
exige conocimientos C&lJeciales quu no estn incluidos en el pro
g rama escolar,
Todo el que S(.> intere!!() en las matemticas, leer est.a libro con
sa tisfac.cin.

1:107.Ai':OV YIJ.

PROCF.SOS AJ,EATO llJOS

En el libro de Yu. R6zanov, doct-Or en cieuci11.s isicomalruntiGOs, se estudian la teoria de las probabilidades y los procesos
aleatorios. En el mismo ge e.s;ponen las nociones fundaml.'utales y
los mtodos de la teorla de las probabilidades moderna, en modelos sencillos se analizan las propiedades ms caracte.rsticas de los
procesos aleatorios de di$tin\os tipos, se eamlnau loll problemas
tericos de las probabilidades que son motivo de cierto in ters
para diferentes fines.
Durante la exposicin del material se omple11Jl, generahnente.
mi6todos direct.os de las probabilidadeso, lo cual contribuye al
desarrollo do la intuicin sobre eate particular, do mucha importancia on la resolucin do los problemas teriws de este tipo. Gracias a ~t-0, el libro do Yu. Rzanov se destaca entre otros manuales poi la teora do los proceSQs alea\Qrios. Adems, los primeros
cap1tulos del libro contienen las nociones indispensables de la
lcnda de las probablidades, por eso nn se exigo de lns lectores un
couocimionto previo do otroa manuales ni una preparacin matem tica general.
Es indud~ble que este libro est destinado a atuellos que por
vez primera estudian la teora de las probabilidades y los procesos
nleatorios. Sin lugar a duda.a, ser acogido co11 grau in ters por
los especialistas, sobro todo, por los profesores de estns disciplinas en los centros de eneei8Jlza tcnica superior.
Ante todo, este libro se recomienda a los esludiantu de lu
especialidades fi sicon1etemticas y tcnicas de Jos centros de enseionzo superior, as como a los especialistas que se interesan por
la opllcacin do 111 \eoria do los procesos aleat.orlos.

l. SUVOROV
MATEMATICAS SUPERIORES
Esto libro se debe al doctor en ciencias; fsiomatemtlca:;.
IOROFEl'SUVOROV'. Esta obracompreniloel estudli>.ilelassl'guien'.;.
tes partes do las matemticas supe~ior~s: .g~oni'~trl'?'ailalitica
en el plano y en el espacio, clclo diferencilc:.fategra1 ,icon!:
coptos fundamentales del anlisis matemti;o;'.iieris, ' concepts.
sobre lneas planas y alabeadas, dlferenciacln e integracinrle funciones de varios argumuntos y ecuaciones diferenciales.
Aqu! tambi6n se inelu7en problemas y ejemplos con sus rcsol11ciono~ y algunas indicaciones de tipo metdico. El libro est ilustrado con esquemas geomtricos que facilitan la comprensin det
material y aclaran los mtodos para la solucin de los problemas.
Es libro de text.o para los centros de enseiianza tcnica superior
y media. Su principal mrito es Ja forma clara y concisa en quel!e .:>xpoM ~l material. En ruso so han publicallo ciuco edic.ione"'
de este libro.

En l 97lj La E dit orial M ir l'u bl cara:


pi\tuJl~{AN V.

J,A TEOKl A l>I!: LAS P ll OUAIHU DA DES


Y LA E1:$TAD1S1'1CA MATEMAT ICA
l~st.o tratado ha sido escrito Jo conformidad con el nuevo
c11rHo de In tuora de las probabilidades y de la est.adistica mate-

mtica. El material de esta obra se presenta en tres partes fundamcnt.olM: les dos primeras so dedican a la teora de las probabilidades y 111 ltima, a Ja estadstica matem tica. En este manual se
cstudinn los tu1uas ~iguientc9: prnbabilidad de las hipt<?sis;
frmula s do Bayes; distribucin de Poi!,on; nociones de estadistica melomtica y nocin do corrolacln.
La cuarta edicin de este libro contiene algunos cap tulos
nuevus: distribucin exponencial, vcrCicacin de las hipt.e:tis
oslndslicns v anlisis dispersional uniforme.
En el libro se presta gran atencin a los mtodos ostadisticus de elaboracin de los dalos oxporlm~uto.les, las tablas que
so uxpon".n para los c.~lculos son muy cruodHS. Cada cap Lulo conLien11 problemns y gus respuestas que han ~ido elegidos adecuadamente. A1l om1s, todo capitulo va acoml!nl1do de anlisjs de las
sol uci ones de lo~ problemas del mo\~r1al correspondienl.e.
Esta obr11 contiene 17 cnpitulos, vort1s tablas do nmeros,
22 flgurns y un gran m.mero ilu e jemplos tericos y t.<:nicos. so
1ccomionda para los estudiantes cl o Jns facullaclcs ingenierotcncne y econm icas.

S-ar putea să vă placă și