Sunteți pe pagina 1din 33

Definicin (Probabilidad inducida): Dado un

vector aleatorio x definido sobre , se


denomina probabilidad inducida por el vector a la
aplicacin definida por:

es el espacio probabilistico inducido por x
La distribucin de probabilidad inducida por un
vector aleatorio se puede caracterizar mediante la
funcin de distribucin.
Introduccin: Definiciones
Bsicas
( )
1
( )
x
P B P x B

(
=

B | e
( , , ) P O
:
p
x
P |
( )
, ,
p
x
P |
Introduccin: Definiciones
Bsicas
Introduccin: Definiciones
Bsicas
Introduccin: Definiciones
Bsicas
Introduccin: Momentos de
un vector aleatorio
Introduccin: Momentos de
un vector aleatorio
Introduccin: Momentos de
un vector aleatorio
Introduccin: Momentos de
un vector aleatorio
Introduccin: Momentos de
un vector aleatorio
Introduccin: Momentos de
un vector aleatorio
Introduccin: Cambios de
variables
Introduccin: Cambios de
variables
Distribucin Normal
Multivariada
Como extensin de la Normal Bivariada, se define
la distribucin multivariada. Sea X un vector
aleatorio n-dimensional con vector de medias m y
matriz de varianzas y covarianzas S tal que su
funcin de densidad se define por:
Distribucin Normal
Multivariada. Propiedades
Una combinacin lineal W = aX donde a es un
vector de constantes tiene distribucin normal
multivariada con parmetros a T m y a T S a (T:
transpuesta de a ).
Distribuciones marginales normales: Cualquier
subconjunto o particin de X tiene una distribucin
normal multivariada con sus correspondientes
parmetros.


Distribucin Normal
Multivariada. Propiedades
Distribuciones condicionales normales: la
distribucin condicional de los vectores asociados
seguirn una distribucin normal p-variante con
parmetros, vector de medias y matriz de
varianzas y covarianzas.
Leyes Normales en
Definicin: Un vector aleatorio p-dimensional se dice
que tiene distribucin normal p dimensional, si
cualquier combinacin lineal de sus componentes es
una normal o una distribucin degenerada.


K
p
N
Definicin: Si x tiene una distribucin entonces
existen el vector de medias, , y la matriz de
varianzas-covarianzas, y caracterizan la distribu-
cin, se denotar


p
N
E

( , )
p
X N E
Leyes Normales en
Teorema: Si x tiene una distribucin
entonces su funcin generatriz de momentos es:
K
( , )
p
X N E

1
( ) exp ,
2
P
g t t t t t

= + e
`
)
Leyes Normales en
Teorema: Si x tiene una distribucin
cualquier transformacin lineal tiene
, tiene distribucin normal,
En particular cualquier
componente es normal y cualquier subconjunto
de componentes es normal.
K
( , )
p
X N E
Ax b +
, n p
A
n
be

( , )
p
N A b A A

+
Leyes Normales en
La funcin de densidad de y





1
1
2
1
exp ( ) ( )
2
( )
2
x x
f x

t



`
)
=

( , )
p
X N E 0 >
K
Producto escalar
El producto escalar de dos vectores x,y, ambos en , es
el escalar obtenido al sumar los productos de sus
componentes:
n
1
n
i i
i
x y y x x y
=
' '
= =

La norma (cuadrtica) o longitud de un vector x, es la raz


cuadrada positiva del producto escalar . Se escribe :
x x
'
x
2 2
1
.....
n
x x x x x
'
= = + +
Desigualdad de Cauchy-Schwarz
El producto escalar puede
calcularse tambin como el
producto de las normas por el
coseno del ngulo que forman.
De forma general, se puede
definir el ngulo entre los dos
vectores como:
u
y
x
cos
x y
x y
u
'
=
Desigualdad de Cauchy-Schwarz
Desigualdad de Cauchy-Schwarz: Si dos variable tiene
media cero, el coseno del ngulo que forman dos vectores
es su coeficiente de correlacin. Dado que ,
entonces :

cos 1 u s
x y x y
'
s
Un conjunto de vectores es linealmente
dependiente si existen escalares no todos nulos,
tales que:
Dependencia lineal
1
,....,
p
x x
1
,....,
p
c c
1 1
,...., 0
p p
c x c x =
Donde 0 representa el vector nulo que tiene todos sus
componentes iguales a 0. En particular, el vector de ceros es
siempre linealmente dependiente de cualquier otro vector no
nulo.
Dependencia lineal
La medida de dependencia lineal entre dos variables, x,y, es la
covarianza . La covarianza es el producto escalar estandarizado
de los dos vectores medidos en desviaciones a la media, o
tomando sus diferencias respecto al vector constante. Si
promediamos el producto escalar de estos vectores:

1
x x y y
x x y y
n n


| || |

| |
| | | |
\ .\ .
=
| |
\ . \ .
Dependencia lineal
Dado un conjunto de p vectores linealmente
independientes , en , llamaremos al
espacio generado por esta familia de vectores al
conjunto que contiene todos los vectores z, en ,
los cuales pueden expresarse como combinacin
lineal de ellos . Entonces si z pertenece a este
espacio:
1
( ,...., )
p
x x
p
p
1 1
...
p p
z c x c x = + +
Producto de Kronecker
El producto de kronecker resuelve el problema de
construir matrices grandes cuyos elementos son
matrices dadas ms pequeas y se define para
matrices cualesquiera.
Producto de Kronecker
Dadas dos matrices y , su producto de
Kronecker, que usualmente se representa con ,
se efecta multiplicando cada elemento de la
primera por todos los elementos de la segunda ,
siendo la dimensin de la matriz resultante k*p
para las filas y n*q para las columnas

* k n
A
* p q
B
Producto de Kronecker:
Propiedades
1. Si c es un escalar
2. Si x e y son vectores
3. Se cumple que
4. Si AC y BD existen entonces:
c A A c cA = =

x y y x =

( ) A B A B =
( )( ) A B C D AC BD =
Formas Cuadrticas:
Matrices
Sea A una matriz cuadrada, su expresin general
ser:

Ser A semidefinida positiva si cualquier forma
cuadrtica formada a partir de ella es un nmero
no negativo, para cualquier vector
1 1 1
2
n n n
ii ij i j
i i j i
a a x x
= = = +
+

0 x =
Autovectores - Autovalores
Los vectores propios, autovectores o eigenvectores de
un operador lineal son los vectores no nulos que,
cuando son transformados por el operador, dan lugar
a un mltiplo escalar de s mismos, con lo que no
cambian su direccin. Este escalar recibe el nombre
valor propio, autovalor, valor caracterstico o
eigenvalor.
Autovectores - Autovalores
Formalmente, se definen los vectores propios y
valores propios de la siguiente manera:
Si A: V V es un operador lineal en un cierto
espacio vectorial V, v es un vector diferente de
cero en V y c es un escalar tales que
entonces decimos que v es un vector propio del
operador A, y su valor propio asociado es c.

Av cv =
Autovectores Autovalores:
Propiedades

Teorema Espectral
El teorema establece que -bajo ciertas condiciones-, una
transformacin lineal de un vector puede expresarse como
la combinacin lineal de los vectores propios con
coeficientes de valor igual a los valores propios por el
producto escalar de los vectores propios por el vector al que
se aplica la transformacin, lo que puede escribirse como:

Donde y representan a los vectores
propios y valores propios de .

1 1 1 2 2 2
( ) ( ) ( ) .... v v v v v v v t = + +
1 2
, ...
1 2
, ... v v
t

S-ar putea să vă placă și