Sunteți pe pagina 1din 24

c 


 

  
  

Saltar a navegación, búsqueda

Función de densidad de probabilidad para la distribución normal.

En teoría de la probabilidad, la   


 ,  
 , o, simplemente,   de una variable aleatoria continua es una función,
usualmente denominada j  que describe la densidad de la probabilidad en cada punto
del espacio de tal manera que la probabilidad de que la variable aleatoria tome un valor
dentro de un determinado conjunto sea la integral de la función de densidad sobre dicho
conjunto.

a 
na función de densidad de probabilidad (FDP) es una función matemática que
caracteriza el comportamiento probable de una población. Es una función f(x) que
especifica la posibilidad relativa de que una variable aleatoria continua X tome un valor
cercano a x, y se define como la probabilidad de que X tome un valor entre x y x+dx,
dividido por dx cuando dx es un número infinitesimalmente pequeño. La mayoría de las
funciones de densidad de probabilidad requieren uno o más parámetros para
especificarlas totalmente. La probabilidad de que una variable aleatoria continua X esté
ubicada entre los valores a y b está dada por el intervalo de la FDP, f(x), comprendido
en el rango entre a y b. ” < = œ a b Pr(a x b) f (x)dx La FDP es la derivada (cuando
existe) de la función de distribución: f x dF x dx ( ) = ( ) En situaciones prácticas, la
FDP utilizada se elige entre un número relativamente pequeño de FDP comunes, y la
labor estadística principal consiste en estimar sus parámetros. Por lo tanto, a los efectos
de los inventarios, es necesario saber qué FDP se ha utilizado e indicarlo en la
documentación de evaluación de la incertidumbre.

La definición formal de la función de densidad requiere de conceptos de lateoría de la


medida. Si una variable aleatoria ë sigue una función de probabilidad ë*P su  
con respecto a una medida de referencia ÿ es la derivada de Radon±Nikodym
! i [ i  l

i 

  jt  i l 

  ti  li  i  



i ti: i  
i tit 
 
 t l i i t i i 
ili i i tit 
i t jt  il   
 i t ii  

ili  i  i:   i  i  t 


 t  
ili jt  il í  li t ii 
t   t l   i  i

     l tl 


lii     illt i l
  l i li  i i tl 

    i li i t ii  t  



titi t 

   [  l
ili    l  
lit l j
"#$

a     
l 

i li i t ii   il  iit 

i 
l
 i t  
lil :

yY
 t 
yY !l t tl j l  il%:

yY 
ili ët l lit l "  $ l j l
 li  i it l  l   l  i lit l
definida en dicho intervalo. La gráfica j() se conoce a veces como 


  .

Algunas FDP están declaradas en rangos de a , como la de la distribución


normal.

    

  
  

Saltar a navegación, búsqueda


Distribución normal

Función de densidad de probabilidad

La línea verde corresponde a la distribución normal estandar

Función de distribución de probabilidad

  
ı>0
  

c  



c 
  

 

  

  

   

   0 

   
0


 

c !  
  !

c    

En estadística y probabilidad se llama     ,   "  o


  !   , a una de las distribuciones de probabilidad de variable
continua que con más frecuencia aparece en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica


respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.

La importancia de esta distribución radica en que permite modelar numerosos


fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme
cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal
puede justificarse asumiendo que cada observación se obtiene como la suma de unas
pocas causas independientes.

La distribución normal también es importante por su relación con la estimación por


mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

Algunos ejemplos de variables asociadas a fenómenos naturales que siguen el modelo


de la normal son:

yY caracteres morfológicos de individuos como la estatura


yY caracteres fisiológicos como el efecto de un fármaco
yY  t   i l i  l   i t 
t 
 i 
 
iii 
yY  t  
i l i  l ititltl
yY il i tl ii  
yY    ti l i i t  it 
yY t

i t ii  lt i 


     l

i tí ti& 
j
l li t ii   t ll  i   t l  
'i  t l
il  ili t ii l
li ll 't l  t    l%
  li t ii  l 'i ilt
ít t  l i t ii   
i i  i l ll i tlli t lli t ii 
tli tt    i t i  i  t l i
i t ii  l l  'ti tí ti  t t  tí ti  t
   
 t( li(

!
ilili t ii  l
  llí it i i t ii  

ili ti i  t 

·   
" lt $

yY %i t i
yY Õiii  l
àY Õ%)i  i
àY ÕÕ)i i t ii 
×Y ÕÕ%í iti i  
 i  t it 
 li 
i t ii 
àY Õ*)i     
×Y Õ*%)i    t 
×Y Õ*Õ)i  t í ti
yY *&
i 
àY *%! t ii  il lt i  l 
àY *ÕM t 
àY **!l+  lí itt l
àY *,ii iiliiiit
àY *-! tili
yY , ii tí
iit l  i
àY ,%)  ili'
il
yY -i t ii  l
lj
yY Xi t ii   li  
yY o! tí ti  i
tii il
àY o%R lt 
àY oÕ+ t  li
àY o*! ti i 
  t 
×Y o*%! ti i 
  t  'i  i ilit
×Y o*%%.
t lii 
×Y o*Õ! ti i i  
  t 
yY † Incidencia
àY †.1 Recuento de fotones
àY †.2 Medida de errores
àY †.3 aracterísticas físicas de especímenes biológicos
àY †.4 Variables financieras
àY †.5 Distribuciones en tests de inteligencia
àY †.6 Ecuación de difusión
yY  so en estadística computacional
àY .1 Generación de valores para una variable aleatoria normal
àY .2 Aproximaciones numéricas de la distribución normal y su función de
distribución
yY 10 so de tablas
yY 11 Véase también
yY 12 Referencias
yY 13 Enlaces externos

a #  

Abraham de Moivre, descubridor de la distribución normal

La distribución normal fue presentada por vez primera por Abraham de Moivre en un
artículo del año 1733,2 que fue reimpreso en la segunda edición de su ü
 
j
  
, de 173†, en el contexto de cierta aproximación de la distribución binomial
para grandes valores de . Su resultado fue ampliado por Laplace en su libro ü

 


 
 
(1†12), y en la actualidad se llama Teorema de De
Moivre-Laplace.

Laplace usó la distribución normal en el análisis de errores de experimentos. El


importante método de mínimos cuadrados fue introducido por Legendre en 1†05.
Gauss, que afirmaba haber usado el método desde 174, lo justificó rigurosamente en
1†0 asumiendo una distribución normal de los errores. El nombre de Gauss se ha
asociado a esta distribución porque la usó con profusión cuando analizaba datos
astronómicos3 y algunos autores le atribuyen un descubrimiento independiente del de
De Moivre.4 Esta atribución del nombre de la distribución a una persona distinta de su
primer descubridor es un claro ejemplo de la Ley de Stigler.

El nombre de (campana( viene de Esprit Jouffret que usó el término (bell surface(
(superficie campana) por primera vez en 1†72 para una distribución normal bivariante
de componentes independientes. El nombre de (distribución normal( fue otorgado
independientemente por harles S. Peirce, Francis Galton y Wilhelm Lexis hacia
1†75.[

 ] A pesar de esta terminología, otras distribuciones de probabilidad
podrían ser más apropiadas en determinados contextos véase la discusión sobre
ocurrencia, más abajo.

a   
‰ay varios modos de definir formalmente una distribución de probabilidad. La forma
más visual es mediante su función de densidad. De forma equivalente, también pueden
darse para su definición la función de distribución, los momentos, la función
característica y la función generatriz de momentos, entre otros.

a c  

Se dice que una variable aleatoria continua ë sigue una distribución normal de
parámetros ÿ y y se denota ë  ÿ  si su función de densidad está dada por:

donde ÿ (mu) es la media y (sigma) es la desviación típica ( 2 es la varianza).5

Se llama     $ $ a aquélla en la que sus parámetros toman los
valores ÿ = 0 y = 1. En este caso la función de densidad tiene la siguiente expresión:

Su gráfica se muestra a la derecha y con frecuencia se usan tablas para el cálculo de los
valores de su distribución.
a c   

La función de distribución de la distribución normal está definida como sigue:

Por tanto, la función de distribución de la normal estándar es:

Esta función de distribución puede expresarse en términos de unafunción especial


llamada función error de la siguiente forma:

y la propia función de distribución puede, por consiguiente, expresarse así:

El complemento de la función de distribución de la normal estándar, 1 í ĭ(), se denota


con frecuencia (), y es referida, a veces, como simplemente  %,
especialmente en textos de ingeniería.6 7 Esto representa la cola de probabilidad de la
distribución gaussiana. También se usan ocasionalmente otras definiciones de la función
Q, las cuales son todas ellas transformaciones simples de ĭ.†

La inversa de la función de distribución de la normal estándar (función cuantil) puede


expresarse en términos de la inversa de la función de error:
y la inversa de la función de distribución puede, por consiguiente, expresarse como:

Esta función cuantil se llama a veces la función probit. No hay una primitiva elemental
para la función probit. Esto no quiere decir meramente que no se conoce, sino que se ha
probado la inexistencia de tal función. Existen varios métodos exactos para aproximar la
función cuantil mediante la distribución normal (véase función cuantil).

Los valores ĭ() pueden aproximarse con mucha precisión por distintos métodos, tales
como integración numérica, series de Taylor, series asintóticas y fracciones continuas.

a &  '


    
    

Para grandes valores de  la función de distribución de la normal estándar es muy


próxima a 1 y está muy cerca de 0. Los límites elementales

en terminos de la densidad son útiles.

sando el cambio de variable  = ²/2, el límite superior se obtiene como sigue:

De forma similar, usando y la regla del cociente,

Resolviendo para proporciona el límite inferior.

a c  !  

a c !    


La función generadora de momentos se define como la esperanza de
(ë). Para una
distribución normal, la función generadora de momentos es:

como puede comprobarse completando el cuadrado en el exponente.

a c    

La función característica se define como la esperanza de


ë, donde  es la unidad
imaginaria. De este modo, la función característica se obtiene reemplazando por  en
la función generadora de momentos.

Para una distribución normal, la función característica es

a 
 
Algunas propiedades de la distribución normal son:

1.Y Es simétrica respecto de su media, ÿ

Distribución de probabilidad alrededor de la media en una distribución N(ÿ, ).

2.Y La moda y la mediana son ambas iguales a la media, ÿ


3.Y Los puntos de inflexión de la curva se dan para x = ÿ y x = ÿ + .
4.Y Distribución de probabilidad en un entorno de la media:
%Y lit l "ÿ/ ÿ# $ t 
i

'i  tlX ÕX li t ii 
ÕY lit l "ÿ/Õ ÿ#Õ $ t 
'i  tl
0-,, li t ii 
*Y
 
 tlit l "ÿ/* ÿ#* $ t 
i

'i  tl00o, li t ii ! t 

i  
 tili
 l tli it it l  i& 
t 
 tl  
ti tlt tlili t ii  
t t   ii  tí
i l ij tiil lí it 
l tl 
l itl tl l t 
-Y .ië12ÿ Õ       l t   ë# 12 ÿ#  Õ Õ 
XY .ië12ÿ  12ÿ    il lt i  l 
i
it t  :
àY .   t l ti t ii 3ë#12ÿ#ÿ  #
Õ
Õ
  t i  Rí
 t i  il lt i 
i
it ti   l ti t ii  
 l +     
àY .i i t l ti t ii 

àY .il  i ë il t    i
it 
t  í
àY i i4ll5/il 


Y .i   il lt i i
it 
 l ti t ii t  :
àY .
t ë ii t ii   i


 6 i 7 l


ii  ti


àY . it ii t ii  ë/869ë/


9  t  li t ii  ti

il
i t ii  it
Y .i  il  l  t i
it t  
ii t ii :²   li t
Y .i  il  l  t i
it t  l
i  t l l i  t l
i
it ! t


i t il i t ii   l  t i'
li 
 ;l
t t/)    t  
t l / li 

a          


 
   il&
i% 
il li  t  l  il 
lt i  l  li t ii  l t 

.ië1<9Õ t  

  illt i l t :16% 

t   i i t ii =12<9 26%  ll 


 
         l il=

  ii
tt t   li i t ii 
i t ii  l 
  iit

li  i i t ii  l t 16% t  

ë39#<

  illt i lti


ii i< i9Õ

i t ii  l t  ttlitl tl ll 


li i t ii > l  t  i t ii   l 
 t  
t   i   i
l     i   ili t ii  t 
 t   
  l l  tl li i t ii  l
 t 
  t  l  li i t ii l i  t 
i t ii  l

a 
 

 
i   t li t ii  l :


 
 
   ·
 

6 % %


% < 6 <

Õ <Õ#9Õ 9Õ 9Õ


3 <3 + 3<ı2 0 0

4 <4 + 6<2ı2 + 3ı4 3ı4 0

5 <5 + 10<3ı2 + 15<ı4 0 0

6 <6 + 15<4ı2 + 45<2ı 4 + 15ı6 15ı6 0

7 <7 + 21<5ı2 + 105<3ı4 + 105<ı6 0 0

† <† + 2†<6ı2 + 210<4ı4 + 420<2ı6 + 105ı† 105ı† 0

Todos los cumulantes de la distribución normal, más allá del segundo, son cero.

Los momentos centrales de orden superior (2 con ÿ



   
j


a  (  & 

r
 
ü








Gráfica de la función de distribución de una normal con < = 12 y ı = 3, aproximando la


función de distribución de una binomial con = 4† y  = 1/4
El Teorema del límite central establece que bajo ciertas condiciones (como pueden ser
independientes e idénticamente distribuidas con varianza finita), la suma de un gran
número de variables aleatorias se distribuye aproximadamente como una normal.

La importancia práctica del Teorema del límite central es que la función de distribución
de la normal puede usarse como aproximación de algunas otras funciones de
distribución. Por ejemplo:

yY na distribución binomial de parámetros y  es aproximadamente normal para


grandes valores de , y  no demasiado cercano a 1 ó 0 (algunos libros
recomiendan usar esta aproximación sólo si  y (1 ) son ambos, al menos,
5 en este caso se debería aplicar una corrección de continuidad).
La normal aproximada tiene parámetros < = , ı2 = (1 í ).

yY na distribución de Poisson con parámetro Ȝ es aproximadamente normal para


grandes valores de Ȝ.
La distribución normal aproximada tiene parámetros < = ı2 = Ȝ.

La exactitud de estas aproximaciones depende del propósito para el que se necesiten y


de la tasa de convergencia a la distribución normal. Se da el caso típico de que tales
aproximaciones son menos precisas en las colas de la distribución. ElTeorema de
7erry-Esséen proporciona un límite superior general del error de aproximación de la
función de distribución.

a )   

Las normales tienen una distribución de probabilidad infinitamente divisible: dada una
media ÿ, una varianza 2 • 0, y un número natural , la suma ë1 + . . . + ë de
variables aleatorias independientes

tiene esta específica distribución normal (para verificarlo, úsese la función característica
de convolución y la inducción matemática).

a    

Las distribuciones normales son estrictamente estables.

a ) 


  )     
Alrededor del 6† de los valores de una distribución normal están a una distancia ı > 0
(desviación típica) de la media, < alrededor del 5% de los valores están a dos
desviaciones típicas de la media y alrededor del ,7% están a tres desviaciones típicas
de la media. Esto se conoce como la (regla 6†-5-,7( o la (regla empírica(.

Para ser más precisos, el área bajo la curva campana entre < ı y < + ı en términos
de la función de distribución normal viene dada por
donde erf es la función error. on 12 decimales, los valores para los puntos 1-, 2-, hasta
6-ı son:

 


1 0,6†26†42137

2 0,544736104

3 0,730020337

4 0,36657516

5 0,42667

6 0,†027

La siguiente tabla proporciona la relación inversa de múltiples ı correspondientes a


unos pocos valores usados con frecuencia para el área bajo la campana de Gauss. Estos
valores son útiles para determinar intervalos de confianza para los niveles especificados
basados en una curva normalmente distribuida (o estimadores asintóticamente
normales):

  

0,†0 1,2†155

0,0 1,644†5

0,5 1,56
60? Õ*ÕX*-

600 Õ-o-?*

600- Õ?6o6*

600? *606Õ*

6000 *Õ06-Õ

60000 *?06X

600000 ,,%oÕ

 ll li i ltl l



i l    l
it l    lti
l l ii tí
i t il l
it l 

a  

   

i t ii  lti  ili'


ili
  ;t i  

  t t l <%/9Õ tí ti t l ëëÕ @iti

 
  t    tí ti  iit   

a    



 
  i;  l illt i
lj i

 ë  il  i  l i


it  il i 
i@i t ii@l il jt t  

  li@i t ii@  ltt


 l il i

lj 
a         
yY šRayleigh(ı) es una distribución de Rayleigh si donde
y son dos distribuciones normales
independientes.

yY es una distribución Ȥ² con Ȟ grados de libertad si donde


ëš(0,1) para y son independientes.

yY >šauchy(< = 0,ș = 1) es una distribución de auchy si > = ë1 / ë2 para


ë1š(0,1) y ë2š(0,1) son dos distribuciones normales independientes.

yY >šLog-N(<,ı2) es una distribución log-normal si > =


ë y ëš(<,ı2).

yY Relación con una distribución estable: si


entonces ëš(<,ı2).

yY Distribución normal truncada. si entonces truncando ë por


debajo de r y por encima de dará lugar a una variable aleatoria de media

donde

y es la función de densidad de una variable normal estándar.

yY Si ë es una variable aleatoria normalmente distribuida e > = | ë | , entonces >


tiene una distribución normal doblada.

a     


)   
a *   

De la distribución normal se derivan muchos resultados, incluyendorangos de


percentiles ((percentiles( o (cuantiles(), curvas normales equivalentes, stanines, z-
scores, y T-scores. Además, un número de procedimientos de estadísticos de
comportamiento están basados en la asunción de que esos resultados están normalmente
distribuidos. Por ejemplo, el test de Student y el análisis de varianza (ANOVA) (véase
más abajo). La gradación de la curva campana asigna grados relativos basados en una
distribución normal de resultados.

a (   





 

 t t  li 


li jt t 
 t i   i ilit 
i t ii@ li
@t i l  t   il jt t  
i il i t ii@ l
l  &/l  iit t
 A ii
t   l 

yY & 4 l @ /. i  


yY + tilli 
yY + t B li
yY + tRBC i 
yY + t.
i BDil5
yY 2 l
ilit
l t 5it
l t 
yY + tC B7 
yY + t i .
illt 

a  
  
 

a  
  
  

  


.
@  

i
it  t l ti t ii  iÿ i Õ
E6!t; i  tí ti l l       t  il lt i 
  tit(  t t A 
li@ l ti t ii.
  ti  l i
li lÿl ii@tí
i
li l   
l l       t  t i@ i jt t 
 il lt i i
it  

 i@ÿ li@ i ilit l    i  ë%


ë 

 l  ttE6ll l 


 iti íil  
i 
ë%ë  
 i  l  i 
 il li@l /
 i ilit 
t l 
  t ti t;   j 
En el método de máxima verosimilitud, los valores de ÿ y que maximizan la función
de verosimilitud se toman como estimadores de los parámetros poblacionalesÿ y .

‰abitualmente en la maximización de una función de dos variables, se podrían


considerar derivadas parciales. Pero aquí se explota el hecho de que el valor de ÿ que
maximiza la función de verosimilitud con fijo no depende de . No obstante,
encontramos que ese valor de ÿ, entonces se sustituye por ÿ en la función de
verosimilitud y finalmente encontramos el valor de que maximiza la expresión
resultante.

Es evidente que la función de verosimilitud es una función decreciente de la suma

Así que se desea el valor de ÿ que   esta suma. Sea

la media muestral basada en las observaciones. Nótese que

Sólo el último término depende de ÿ y se minimiza por

Esta es la estimación de máxima verosimilitud de ÿ basada en las observaciones ë1,


..., ë . uando sustituimos esta estimación por ÿ en la función de verosimilitud,
obtenemos

Se conviene en denotar la (log-función de verosimilitud(, esto es, el logaritmo de la


función de verosimilitud, con una minúscula , y tenemos


t  

! t i 
iti  ti  Õ t;t 6

 il ti     ti.i l t


  i@l   iii 3%  ië%33ël l @l    

ili t  


 t@ l ljl   t 
 li@ i ilit ili it    t  

  t t t i    i  l ti   'i 


 i ilit Õ  í  l ti   'i  i ilit 
  l    i  ! t ti       
 ti   
i l   litl ti  i     /F%   t
 ti  

a        

 il ti   'i  i ilitl t i  i


i t ii@ l lti it 
il l lt  
t ll
@
l 
   j 
   l  lt  t i% %
t i'     l G;  ti i@l  i t i 

a  
   
 

!l ti   'i  i ilitl i


li lÿ  t  
 ti  i   l i!l ti   'i  i ilitl i
 i    i  i  l
li@   i 
 l
ti t 
   2   tt i  t    t    l
i l il
li@l  't í     íl
 i 'i  i ilit it  l ti   'i 
 i ilitl i      ti  i   l i Õ :


Esta (varianza muestral( sigue una distribución Gamma si todas las ë son
independientes e idénticamente distribuidas:

con media y varianza

La estimación de máxima verosimilitud de la desviación típica es la raíz cuadrada de la


estimación de máxima verosimilitud de la varianza. No obstante, ni esta, ni la raíz
cuadrada de la varianza muestral proporcionan un estimador insesgado para la
desviación típica (véase estimación insesgada de la desviación típica para una fórmula
particular para la distribución normal.

  
 

  
  

2    
   

 


         

En teoría de la probabilidad y estadística, la   


  de una
variable aleatoria es una función que asigna a cada suceso definido sobre la variable
aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad
está definida sobre el conjunto de todos los eventos rango de valores de la variable
aleatoria.

uando la variable aleatoria toma valores en el conjunto de los números reales,la


distribución de probabilidad está completamente especificada por la 
  , cuyo valor en cada real  es la probabilidad de que la variable aleatoria
sea menor o igual que .
  
a  

yY 







yY Õ
 
yY å


 

  
àY å


 

  
 
yY *


 
 
 
àY *


 
 
 
 
yY A  

a    


Dada una variable aleatoria todos son puntos ë, su    , cë(), es

Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndiceë y se


escribe, simplemente, c().

a 
 
omo consecuencia casi inmediata de la definición, la función de distribucion:

yY  
 
   ! 
yY  
   


Además, cumple

Para dos números reales cualesquiera  y  tal que ( < ), los sucesos y
son mutuamente excluyentes y su unión es el suceso , por lo
que tenemos entonces que:


y finalmente

Por lo tanto una vez conocida la función de distribución c() para todos los valores de
la variable aleatoria  conoceremos completamente la distribución de probabilidad de la
variable.

Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin


embargo para ver una representación gráfica de la probabilidad es más práctico el uso
de la función de densidad.

a    )    








Se denomina distribución de variable discreta a aquella cuya función de probabilidad


sólo toma valores positivos en un conjunto de valores deë finito o infinito numerable.
A dicha función se le llama función de masa de probabilidad. En este caso la
distribución de probabilidad es el sumatorio de la función de masa, por lo que tenemos
entonces que:

>, tal como corresponde a la definición de distribución de probabilidad, esta expresión


representa la suma de todas las probabilidades desde hasta el valor .

a    )    


 

Las distribuciones de variable discreta más importantes son las siguientes:

yY 





yY 




 
 
yY 




yY 


"

yY 


!
"

yY 


#

yY 


$  !    

 %Õ& ' 


 %Õ
yY 




   (



 

a    )    




 

Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos
valores existentes dentro de un intervalo. En el caso de variable continua la distribución
de probabilidad es la integral de la función de densidad, por lo que tenemos entonces
que:

a    )    


 

Las distribuciones de variable continua más importantes son las siguientes:

yY 


(
   
yY 


 

yY 


2
yY 


 
yY 


)  
yY 


# 
yY 


*
yY 



+ 
 ,

S-ar putea să vă placă și