Sunteți pe pagina 1din 43

ESTADÍSTICA.

Curso de Diplomado en Salud Pública


Extremadura

Germán Trinidad Ruiz


Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Índice
1. Introducción .............................................................................................................. 2
2. Estadística descriptiva ............................................................................................... 3
2.1. Escalas de medida .............................................................................................. 3
2.2. Variables ............................................................................................................ 4
2.3. Medidas estadísticas .......................................................................................... 4
2.3.1. Medidas de posición ................................................................................... 5
2.3.2. Medidas de dispersión ................................................................................ 7
2.3.3. Coeficiente de variación ............................................................................. 8
2.4. Gráficos según la escala de medida ................................................................... 9
2.4.1. Gráfico de sectores ..................................................................................... 9
2.4.2. Diagrama de barras ................................................................................... 10
2.4.3. Histograma ............................................................................................... 11
2.4.4. Gráfico de líneas ....................................................................................... 13
2.4.5. Diagrama de cajas ..................................................................................... 13
3. Probabilidad ............................................................................................................ 15
3.1. Definición clásica. Regla de Laplace ............................................................... 15
3.2. Definición frecuentista ..................................................................................... 16
3.3. Definición axiomática. Sensibilidad, especificidad y valores predictivos ....... 17
4. Distribuciones de probabilidad................................................................................ 21
4.1. Distribución normal ......................................................................................... 25
4.1.1. Curvas ROC.............................................................................................. 29
5. Estadística inferencial. Análisis de datos ................................................................ 32
5.1. Muestreo aleatorio ........................................................................................... 32
5.2. Estimación puntual y estimación por intervalo de confianza .......................... 33
5.3. Contraste de hipótesis ...................................................................................... 34
5.3.3. Comparación de dos muestras de datos independientes............................... 36
5.3.4. Tablas de contingencia ................................................................................. 37
Glosario .......................................................................................................................... 38
Resumen ......................................................................................................................... 41
Bibliografía ..................................................................................................................... 42

-1-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.

1. Introducción
Actualmente la Estadística está tomando un papel fundamental en la toma de decisiones
de cualquier empresa. La necesidad de mejorar la gestión de los recursos, tanto
económicos como humanos, para ser competitivos frente a todas las opciones existentes
que se han visto ampliadas con la globalización del mercado, han hecho que el papel de
los análisis de datos tengan una gran relevancia porque si no sabemos medir lo que se
hace, no se puede controlar y si no se puede controlar, no se puede dirigir.
En los nuevos sistemas de calidad, uno de los principales puntos es la medición de
resultados de los procesos productivos, que nos proporcionan la información necesaria
para controlar su buena marcha y corregir aquellos aspectos que lo necesiten, para lograr
la mejora continua y la mayor calidad en la prestación de los servicios.
Dentro de las Ciencias de la Salud, y en concreto en la Sanidad Pública, el uso de la
Estadística está generalizado y es difícil encontrar algún aspecto donde no se recabe
información para ser usada como base para la toma de alguna decisión. Desde los
servicios de gestión económica hasta los propios servicios sanitarios, pasando por la
gestión administrativa o la amplia bibliografía médica con multitud de artículos y libros,
tienen como fundamento algún tipo de análisis de datos.
La Estadística es la ciencia que se encarga de estudiar los datos, a partir de su recogida y
posterior interpretación. Es una rama muy extensa de las Matemáticas que se divide en
dos grandes áreas: estadística descriptiva y estadística inferencial. Cuando se habla de
estadística descriptiva nos referimos a la visualización y resumen de los datos originales,
bien de manera numérica o gráfica. La estadística inferencial es más compleja y con ella
podemos realizar predicciones y estimaciones de lo que puede ocurrir a una población
con solo analizar la información recogida de una muestra.
Este curso está pensado para iniciarse en el mundo de la Estadística, por lo que el punto
de partida es de una persona que no conoce nada del tema. Y, debido a la duración del
mismo, veremos lo fundamental de la estadística descriptiva y algún análisis de datos
utilizado para la estadística inferencial. La idea del curso es que, al terminar, podamos
interpretar el análisis estadístico que nos encontremos cuando leamos un artículo
científico publicado en una revista de salud; al menos lo más básico.
Comenzaremos el estudio de las distintas escalas en las que nos encontraremos a la hora
de estudiar cualquier conjunto de datos. Después seguiremos con las formas de resumir
esa información usando las medidas estadísticas y a continuación veremos distintos
modos de mostrar los resultados a través de su representación gráfica.
Seguidamente, hablaremos de la probabilidad para poder introducir los conceptos de
sensibilidad y especificidad, muy utilizados a la hora de validar pruebas diagnósticas. A
continuación nos encontraremos con una distribución de probabilidad fundamental en
Estadística, llamada distribución normal o campana de Gauss, y veremos una aplicación
a través de las curvas ROC.
Para terminar, iniciaremos nuestra breve andadura sobre los principios de la estadística
inferencial, introduciéndonos en el muestreo aleatorio, la estimación puntual y de
intervalo y llegando a ver los primeros análisis de datos a partir de los contrastes de
hipótesis.

-2-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.

2. Estadística descriptiva
2.1. Escalas de medida
Antes de empezar a medir cualquier cosa necesitamos fijar el concepto de escala de
medida y cuáles son.
Una escala de medida es la manera de clasificar la información que disponemos. Por
ejemplo, si estamos estudiando los grupos sanguíneos, nos encontraríamos con el “0”, el
“A”, el “B” y el “AB”.
O si hablamos del nivel de audición de una persona, podemos establecer una escala
formada por los siguientes valores: “normal”, “leve”, “moderada”, “grave” y “profunda”.
Del mismo modo, si nos interesamos por la altura de los pacientes a la hora de controlar
un determinado tratamiento médico, nos encontraremos con diferentes valores: 1’65
metros, 1’87 metros, 1’75 metros,…
Pues bien, estos tres ejemplos nos servirán para introducir las tres escalas de medida
fundamentales: nominal, ordinal y de intervalo.
La escala nominal, que se correspondería con el ejemplo del grupo sanguíneo, clasifica
nuestros datos de acuerdo con ciertas características, de forma que dos unidades de la
misma categoría son iguales entre sí y diferentes de las restantes categorías.
Algunos ejemplos de datos que se clasifican según una escala nominal serían:
- el sexo: masculino y femenino
- el tipo de parto: cesárea y parto natural
- el municipio de nacimiento: Badajoz, Cáceres, Mérida, Plasencia,…
- los colores: amarillo, blanco, azul, rojo,…
La escala ordinal cumple las mismas propiedades de la escala nominal y, además,
permite ordenar las categorías. En el ejemplo de los niveles de sordera podemos
establecer un orden según la gravedad: la categoría con el nivel más bajo sería “normal”
y la categoría más grave sería la sordera “profunda”.
Otros ejemplos son:
- el pronóstico de un accidente: leve, grave y muy grave
- las notas de un examen: suspenso, aprobado, notable y sobresaliente
- la clase social: baja, media y alta
En todos esos ejemplos podemos establecer un orden mientras que en el caso de los
ejemplos para la escala nominal no se puede realizar una ordenación de las distintas
categorías. Esta es la diferencia entre ambas escalas.
Finalmente, la escala de intervalo, que se correspondería con el ejemplo de la altura de
los pacientes, es aquella que cumple las características de la escala ordinal y dispone de
una unidad de medida. En el caso de la altura, la unidad de medida sería el metro.
Algunos ejemplos de escala de intervalo:
- el peso: 65 kg, 90 kg, 54 kg,…

-3-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
- el nivel de alcohol en sangre: 0’5 gramos por litro, 0’25 gr/l, 0’6 gr/l,…
- la edad: 10 años, 90 años, 45 años,…
- las notas de un examen: 9’8 puntos, 5’4 puntos, 3 puntos,…
- las temperaturas: 0º, -5’8º, 37º,…
Como se observa, los datos se pueden ordenar y además tienen una unidad de medida.
También podemos establecer un intervalo que englobe a todos los posibles valores de la
escala. Para el peso, el intervalo que proporcionaríamos sería de [2’5 kg – 150 kg] y para
las notas de un examen sería [0 – 10].
Esta escala de intervalo podemos transformarla de forma sencilla en escala ordinal, en
caso de que nos interese realizar ese cambio. Por ejemplo, en el caso de la edad podemos
agrupar los distintos valores en las tres categorías siguientes:
- niños: todos aquellas personas menores de 15 años
- jóvenes: entre los 15 y los 25 años
- adultos: los mayores de 25 años
A la hora de realizar cualquier estudio estadístico, una de las primeras cosas que hay que
analizar es la escala que tienen nuestros datos porque dependiendo de ella se podrán
aplicar unas técnicas estadísticas u otras.
2.2. Variables
En algunas ocasiones estas escalas se encuentran nombradas de distinta forma a la que se
ha presentado aquí. Por ejemplo, muchas veces se dice que una variable es cualitativa (o
discreta), cuando se están refiriendo a unos datos en escala nominal u ordinal, o que es
cuantitativa (o continua), refiriéndose a la escala de intervalo.
Una variable es precisamente lo que estamos midiendo. El peso, la altura, las notas de
un examen, el grado de sordera,… todo eso son variables.
Cuando estamos con variables cualitativas, los posibles valores que puede tomar los
llamamos categorías.
2.3. Medidas estadísticas
Las medidas estadísticas nos van a facilitar resumir toda esa cantidad de datos que
hayamos recopilado para poder interpretarlos. Existen distintos tipos:
- Posición, que nos dirán qué valores o categorías se encuentran en la zona
intermedia de todos los datos que disponemos. También veremos algunas medidas
que nos darán otras posiciones distintas de la central.
- Dispersión, que nos darán una idea de la distancia que hay entre nuestros datos y
esa zona intermedia
Dependiendo del tipo de escala que empleemos, las medidas que comentaremos a
continuación se podrán usar o no. A modo de cuadro introductorio de dichas medidas
presentamos la Tabla 1:
Escala Medidas de posición Medidas de dispersión
Nominal Moda -
Mediana
Cuartiles
Ordinal Rango intercuartílico
Deciles
Percentiles
-4-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Escala Medidas de posición Medidas de dispersión
Varianza
De intervalo Media
Desviación típica
Tabla 1.- Medidas según la escala

2.3.1. Medidas de posición


Dentro de las medidas de posición, la más popular es la media. Indica el valor que se
encuentra en la posición central de nuestros datos y su cálculo se ve mejor con el siguiente
ejemplo: supongamos que nuestro conjunto de datos está formado por 10 mediciones del
peso de unos pacientes: 78kg, 73kg, 84kg, 65kg, 80kg, 88kg, 66kg, 60kg, 75kg y 70kg.
La media de estos datos se calcularía sumando todos ellos (739kg) y dividiendo por el
número de datos que tenemos (10 datos), resultando ser 73’9kg.
𝑠𝑢𝑚𝑎 𝑑𝑒 𝑡𝑜𝑑𝑜𝑠 𝑙𝑜𝑠 𝑑𝑎𝑡𝑜𝑠 739
𝑀𝑒𝑑𝑖𝑎 = = = 73,9
𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑑𝑎𝑡𝑜𝑠 10
Gráficamente, dibujemos sobre una línea todos los datos y señalemos la media:

Si nos imaginamos que cada punto azul (cada dato) es una piedra sobre un tablón de
madera, la media es el lugar del tablón donde se queda equilibrado y en posición
horizontal.
Como decíamos al final del apartado de las escalas de medida, dependiendo de cómo sean
nuestros datos podremos usar unas medidas o no. En el caso de la media, únicamente se
puede emplear para datos que estén en escala de intervalo.
Un inconveniente que tiene la media es que se ve afectada por valores extremos. En el
ejemplo anterior, si añadimos al conjunto de datos un peso que difiere mucho de los
demás (digamos que 220kg), la media pasaría a valer 87,2kg, es decir, más de trece kilos
con respecto a la media anterior. Pintándolo en una línea como antes:

El centro de gravedad del tablón se ha desplazado hacia la derecha para lograr el equilibrio
porque hay un dato que está muy alejado del resto.
Con este ejemplo estamos viendo uno de los inconvenientes al que nos enfrentamos
cuando queremos resumir toda la información disponible en un único valor. Como ocurre
en el ámbito sanitario, hay que intentar aplicar todas las herramientas que estén a nuestra
disposición para poder proporcionar mejores diagnósticos. En el caso de la Estadística,
no debemos quedarnos con una única medida o un simple análisis porque estaremos
perdiendo mucha información por el camino, pudiendo proporcionar conclusiones
erróneas en algunas situaciones.
Otra medida de posición es la moda. Con ella podemos saber cuál es la categoría que más
se repite en nuestros datos. Por ejemplo, consultando la estadística del movimiento natural
de la población para el año 2015, extraemos los datos de la Tabla 2:

-5-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Municipio Nacimientos. Año 20151
Badajoz 5.929
Cáceres 2.966
Cuenca 1.522
Granada 8.606
Huelva 5.003
Tabla 2.- Nacimientos en el año 2015

En Granada se encuentra la cifra más alta, por lo que nuestra moda sería “Granada”.
La moda se puede obtener igualmente para datos en escala ordinal o de intervalo.
Como última medida de posición, veremos la mediana, que representa el valor que deja
por debajo al 50% de los datos, ordenados de menor a mayor. Por ejemplo, consideremos
estos datos sobre la gravedad de la sordera entre un grupo de 21 recién nacidos:
o normales -> 10
o leves -> 5
o moderadas -> 3
o graves -> 2
o profunda -> 1
Para calcular la mediana, primero ordenaríamos los datos así: normal, normal, normal,
normal, normal, normal, normal, normal, normal, normal, leve, leve, leve, leve, leve,
moderada, moderada, moderada, grave, grave, profunda
Como tenemos 21 datos, la mediana sería la categoría que dejase por debajo el 50% de
los datos, es decir, sería la que ocupase la posición 11. Si contamos, sería el primer “leve”.
La mediana puede calcularse cuando los datos están tanto en escala ordinal como de
intervalo.
¿Cuál sería la moda en este caso? Como los datos están en escala ordinal, podemos
calcularla y sería la categoría que presenta una mayor frecuencia que es, justamente, la
categoría “normal”. ¿Y la media? No se podría calcular porque no es una escala de
intervalo.
Existen otras medidas que se basan en el orden de las observaciones como la mediana.
Un ejemplo de ellas son los percentiles, usados comúnmente para la talla y el peso de los
bebés. La mediana nos dividía la distribución de los datos en 2 grupos, quedando ella en
el centro. Los percentiles dividirán nuestros datos en 100 grupos. Así, el percentil 1 es el
que deja por debajo un 1% de los datos, el percentil 2 deja el 2% y así sucesivamente
hasta el percentil 99 que deja un 99% de los datos por debajo de él. Hay en total 99
percentiles.
Por ejemplo, cuando el pediatra dice que el peso de un niño se encuentra en el percentil
60 quiere decir que un 60% de los bebés, según los patrones de crecimiento infantil
recomendados por la OMS2, pesan menos que él.

1
Fuente: Instituto Nacional de Estadística. Movimiento natural de la población. Estadística de
nacimientos
2
Organización Mundial de la Salud. Patrones de crecimiento infantil de la OMS.
http://www.who.int/childgrowth/standards/es/

-6-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Y como casos particulares de los percentiles están los deciles y los cuartiles. Los deciles
dividen los datos en 10 grupos y los cuartiles dividen los datos en 4 grupos. Existen 9
deciles y 3 cuartiles.
Hay una correspondencia entre mediana, percentiles, deciles y cuartiles:
- la mediana es igual que el percentil 50, el decil 5 y el cuartil 2 (todos ellos dejan
el 50% de los datos por debajo)
- el percentil 25 se corresponde con el cuartil 1
- el percentil 75 con el cuartil 3
- los percentiles 10, 20, 30,… , 90 se corresponden con los deciles 1, 2, 3,… , 9,
respectivamente
Normalmente, cuando tenemos unos datos en escala nominal, la medida de posición que
se emplea es la moda, si es en escala ordinal se usa la mediana y cuando es de intervalo
se utiliza la media. Aunque también se puede calcular una medida de una escala inferior
sobre datos en una escala superior, es decir, que para datos en escala de intervalo podemos
calcular una moda o una mediana. Pero al revés no.
2.3.2. Medidas de dispersión
Cuando calculamos la media de los pesos de nuestros pacientes después de incluir aquel
dato de los 220kg decíamos que la media era de 87’2kg. ¿Hasta qué punto llega a
representar y resumir esa medida a nuestros datos? ¿Esa medida es suficiente? ¿Todos los
datos estarán cerca de la media?
Pues, como sabemos, habrá alguno que se aproxime y otro que esté más distanciado. Por
este motivo, no solo nos debemos quedar en calcular la medida de posición sino también
indicar cómo de dispersos están nuestros datos en torno a esa medida central.
Para los datos en escala de intervalo podemos emplear la varianza. Veamos cómo se
calcula con el ejemplo de los pesos. Los datos son: 78kg, 73kg, 84kg, 65kg, 80kg, 88kg,
66kg, 60kg, 75kg, 70kg y 220kg.
Como hay que dar una medida de la distancia que hay entre la media y cada dato, tenemos
que hacer la resta entre ellos. Y el resultado lo debemos elevar al cuadrado, como se
muestra en la Tabla 3:
Dato Resta (dato – media) Cuadrado (de la resta)
78 -9,2 84,6
73 -14,2 201,6
84 -3,2 10,2
65 -22,2 492,8
80 -7,2 51,8
88 0,8 0,6
66 -21,2 449,4
60 -27,2 739,8
75 -12,2 148,8
70 -17,2 295,8
220 132,8 17.635,8
Tabla 3.- Tabla de apoyo para el cálculo de la varianza

Una vez completada esa tabla, tenemos que sumar todos esos cuadrados y dividir por el
número de datos. De modo que la varianza sería 1.828’3.

-7-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Debido a que estamos elevando al cuadrado, el dato que nos proporciona la varianza
quizás no es demasiado representativo, por lo que realmente se usa la desviación típica
como medida de dispersión. No es más que hacer la raíz cuadrada de la varianza para
obtenerla. En nuestro ejemplo, la desviación típica sería la raíz cuadrada de 1.828’3, es
decir, 42’8.
¿Qué interpretación tiene la desviación típica? Pues indica la variación o dispersión
“media” que tienen nuestros datos respecto de la media. En ese ejemplo, habría una
dispersión “media” de 42’8kg respecto de nuestra media de 87’2kg.
Podemos comparar esa dispersión media con los mismos datos pero quitando ese valor
extremo de 220 kg que teníamos. En ese caso, la media es de 73’9 kg y la Tabla 3 quedaría
así (Tabla 4):
Dato Resta (dato – media) Cuadrado (de la resta)
78 4,1 16,8
73 -0,9 0,8
84 10,1 102,0
65 -8,9 79,2
80 6,1 37,2
88 14,1 198,8
66 -7,9 62,4
60 -13,9 193,2
75 1,1 1,2
70 -3,9 15,2
Tabla 4.- Tabla de apoyo para el cálculo de la varianza, excluyendo el dato extremo

La varianza sería 70’7 y la desviación típica 8’4kg.


Como puede observarse, la dispersión media de estos datos, quitando aquel que se
encuentra muy por encima de los demás, es mucho menor que antes.
Tanto la varianza como la desviación típica solo la podemos emplear cuando nuestros
datos estén en escala de intervalo.
Para el caso de los datos en escala nominal no existe una medida de dispersión y para el
caso de la escala ordinal podemos usar el rango (o distancia) intercuartílico, que no es
más que la diferencia entre el cuartil 3 y el cuartil 1.
2.3.3. Coeficiente de variación
La comparación de métodos de medida es un problema clásico que no tiene fácil solución.
El coeficiente de variación constituye la primera aproximación al problema. Se define
como el cociente siguiente:
𝑑𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛 𝑡í𝑝𝑖𝑐𝑎
𝐶𝑉 = 𝑥100
𝑚𝑒𝑑𝑖𝑎
Se multiplica por 100 porque se mide en tanto por ciento.
Veamos con un ejemplo el problema. Consideremos estos dos métodos de medir
distancias: el primero mide la estatura de una persona con desviación típica de 1cm y el
segundo mide la altura de un edificio con desviación típica de 2cm. ¿Cuál es el método
preferible?

-8-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
En principio podemos pensar que el más correcto es aquél que tenga una desviación típica
menor. En este caso el de la altura de una persona.
Pero si en lugar de comparar los valores de las desviaciones típicas pensamos con
tranquilidad en los dos sistemas nos daremos cuenta que realmente es mejor el método
que mide la altura del edificio. ¿Por qué? Porque con ese método nos estamos
equivocando con la medición de un edificio de muchos metros de altura únicamente en
2cm mientras que con el primer método estamos errando la altura de una persona en 1cm.
El problema que tenemos es que esas desviaciones típicas no son comparables
directamente, porque están referidas a distintas medias (la media de las mediciones de
edificios será mucho mayor que la media de la altura de una persona).
Para poder compararlas, tenemos el coeficiente de variación.
Suponiendo que la media de la altura de los edificios que hemos medido es de 25 metros
(con desviación de 2cm) y la altura media de las personas es de 1,70 metros (y desviación
1cm), el coeficiente de variación para cada método de medida sería:
- CV = 0’08% (para la medición de los edificios)
- CV = 0’59% (para la medición de las personas)
Vemos que el coeficiente de variación del sistema de medición de edificios es mucho
menor que el de la medición de las personas, por lo que sería más preciso ese sistema de
medición. Cuanto menor sea el coeficiente de variación, mayor precisión tiene el sistema
de medición.
2.4. Gráficos según la escala de medida
La estadística está llena de números, tablas y fórmulas pero todo eso puede llegar a
confundir a una persona que no sea capaz de leerlos de manera correcta. Además, nuestra
mente relaciona mejor los conceptos y facilita la comprensión con las imágenes. Por este
motivo, en la estadística descriptiva uno de los principales recursos es la batería de
gráficos que están a nuestra disposición.
Atendiendo nuevamente al tipo de datos que tengamos, unos gráficos serán más
recomendables que otros.
Del mismo modo, el uso adecuado de los gráficos se hace necesario pues con ellos
podemos estar dando a entender algunas diferencias cuando realmente no las hay.
Iremos viendo todo esto a continuación, poniendo algún ejemplo de gráfico “engañoso”
o confuso.
2.4.1. Gráfico de sectores
El gráfico de sectores consiste en un círculo segmentado en sectores de tamaño
proporcional a la frecuencia de cada uno de los valores de la variable. Este gráfico es
apropiado cuando tenemos un número de categorías pequeño, por lo que se podría usar
en datos distribuidos según una escala nominal u ordinal.

-9-
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.

Grado de sordera Colores Negro Violeta

Azul Cian
10 23
1
2 30 10
Verde Amarillo

Normal
15 Naranja Rojo
Leve 8
3
10 7 3
Moderada Fucsia Blanco

Grave 14 20 Marrón Rosa

Profunda
21 17 Ámbar Magenta
5
9 6 1 13
Malva Turquesa

Gráfico 1.- Ejemplos de gráficos de sectores

Está claro que el gráfico de la izquierda es más fácil de entender que el de la derecha.
Cuando hay muchas categorías tenemos que intentar hacer algún tipo de agrupación si se
quiere mostrar un gráfico de sectores.
2.4.2. Diagrama de barras
Otro gráfico que se utiliza cuando tenemos un grupo de categorías pequeño es el
diagrama de barras. Consiste en un eje de coordenadas en el que se colocan los distintos
valores de la variable en el eje horizontal, con un rectángulo cada uno de ellos de altura
proporcional a la frecuencia del valor. En el eje vertical se presenta la escala que va de 0
hasta, como mínimo, el número de la categoría con más datos (si recordamos, esto sería
la moda).

Nº personas según su grupo


sanguíneo
40 36
35
30 25
25 20
20
15
10 5
5
0
0 A B AB

Gráfico 2.- Ejemplo de diagrama de barras

En el Gráfico 2 tenemos un ejemplo de diagrama de barras con cuatro categorías donde


se muestra una distribución de datos según su grupo sanguíneo.

- 10 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.

Aprobados en el curso Aprobados en el curso


36,2 36 40 36
36 34
35
35,8
35,6 30
35,4
25
35,2
35 20
34,8
15
34,6
34,4 10
34,2 34 5
34
33,8 0
Aprobados Suspensos Aprobados Suspensos

Gráfico 3.- Ejemplo de diagrama de barras confuso. Ambos gráficos representan los mismos datos

En el Gráfico 3 tenemos dos representaciones de un mismo conjunto de datos aunque la


de la izquierda nos hace pensar, nada más verlo, que la clase es muy buena porque la
barra de aprobados es mucho más alta que la de suspensos. Éste es uno de los gráficos
“engañosos” pues realmente el número de aprobados y de suspensos es muy similar. Si
empezamos desde el 0 en el eje vertical (gráfico de la derecha) vemos que la clase no era
tan buena como nos habíamos imaginado al principio.
2.4.3. Histograma
El histograma es una extensión del diagrama de barras. Se dibuja con los rectángulos
unidos entre sí, indicando de ese modo que existe una continuidad en los valores de la
variable. Cada rectángulo que se dibuja tiene un área proporcional a su frecuencia y la
frecuencia se calcula dividiendo los datos en intervalos. El valor que se muestra en el eje
horizontal es el valor medio de cada intervalo.

Gráfico 4.- Ejemplo de histograma

- 11 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Con esta representación podemos saber si la distribución de datos que tenemos es
simétrica o no. Sería simétrica cuando las barras centrales son las más altas y a medida
que nos separamos del centro, tanto por la derecha como por la izquierda, las demás barras
descienden de tamaño sucesivamente. Es decir, cuando nuestros datos se concentran en
la media y van disminuyendo a medida que nos alejamos de ella.
Hablamos de asimetría a la izquierda o negativa cuando las barras más grandes se
concentran en la derecha y de asimetría a la derecha o positiva cuando las barras más
grandes del histograma se concentran a la izquierda.

Gráfico 5.- Ejemplo de histogramas asimétricos

Otra característica de las distribuciones de datos simétricas es que su media coincide con
la mediana y la moda.
Por ejemplo, consideremos los datos de la Tabla 5 referidos a los pesos de una población.
Peso (kg) Nº personas
40 3
50 7
60 15
70 30
80 15
90 7
100 3
Tabla 5.- Recuento de pesos de una población

La media de los datos es 70kg. Y su mediana y moda también.


Si hacemos un histograma (Gráfico 6) podemos ver que, efectivamente, la distribución
de datos que tenemos entre manos es simétrica.

- 12 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.

Gráfico 6.- Histograma de los pesos de la población de ejemplo

Si existiese asimetría a la derecha, la media sería mayor que la mediana y que la moda. Y
si la asimetría fuese a la izquierda, la media sería menor que mediana y moda.
2.4.4. Gráfico de líneas
En algunas ocasiones el diagrama de barras o el histograma se sustituyen por un gráfico
de líneas. Cogiendo el mismo ejemplo sobre la distribución de los valores de tiopurina
metiltransferasa en los pacientes con hepatitis autoinmune, quedaría como se muestra en
el Gráfico 7.

Distribución de los valores de tiopurina metiltransferasa


(TPMT) en los pacientes con hepatitis autoinmune
70 62
60
60

50 45

40

30 22
18
20 12
10 5 4 4

0
2,2 6,6 10,9 15,3 19,6 24 28,3 32,7 37

Gráfico 7.- Gráfico de línea

2.4.5. Diagrama de cajas


Finalmente, el diagrama de cajas o box-plot se representa con un rectángulo cuya
longitud es igual al rango intercuartil, con una recta en su interior que representa la
mediana, siendo los cuartiles 1 y 3 los límites inferior y superior del rectángulo,
respectivamente. Por fuera de éste, se dibujan dos rectas que indican el valor superior y
el inferior de nuestros datos, sin contar los valores extremos.

- 13 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Los valores extremos que se encuentran entre 1’5 veces y 3 veces el rango intercuartil se
suelen representar con un círculo y los que están por encima de las 3 veces el rango
intercuartil se les representa con un asterisco (Gráfico 8).

Gráfico 8.- Gráfico box-plot y sus elementos

En el box-plot que se muestra a continuación (Gráfico 9) tenemos la representación


gráfica de los datos de un conjunto de pacientes con distintos niveles de sordera a los que
se les midió su umbral auditivo (medido en decibelios). Como podemos observar, este
gráfico nos permite detectar rápidamente los valores extremos (hay dos en la categoría
“normal”, uno de ellos más lejos que 3 veces el rango intercuartil, y otros dos en “leve”).

Gráfico 9.- Gráfico box-plot relativo a los niveles de sordera y el umbral auditivo

- 14 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Cuando el rectángulo (o caja) es pequeño significa que los datos de ese grupo están
concentrados. En el ejemplo anterior vemos que tanto en el grupo “normal” como en el
de “sordera profunda” existe una mayor concentración que en el resto.

Además, a partir de este gráfico también podemos saber si existe alguna simetría o no en
los datos de cada grupo. Eso se detecta cuando la mediana divide en dos partes similares
a la caja. Por ejemplo, dentro de las “sorderas profundas” y las “sorderas moderadas”
podríamos ver esa simetría. En el caso del grupo “normal”, los datos que se encuentran
por debajo de la mediana están muy concentrados mientras que los que se encuentran por
encima se reparten entre un rango mayor, de modo que ahí estaríamos ante una
distribución de datos asimétrica por la derecha.
3. Probabilidad
No es ningún secreto descubrir que existen fenómenos que pueden ser explicados de una
manera lógica y determinista. Conociendo todas las variables que actúan sobre el mismo
se podría saber el resultado final. Por ejemplo, con la hora de llegada de un tren: si
conocemos la distancia y la velocidad simplemente aplicando una fórmula podríamos
establecer el tiempo que tardará en finalizar el trayecto.
Existen otros fenómenos donde ese grado de certidumbre disminuye notablemente debido
a que no podemos controlar todo lo que le rodea. Así, por ejemplo, cuando compramos
un número de la lotería de Navidad habrá alguno que pueda tener la certeza de que le va
a tocar pero cuando llega el día 22 de diciembre regresa a la cruda realidad. En estos casos
es cuando hablamos de la “probabilidad de que ocurra un suceso”.
Por esto, la probabilidad, desde el punto de vista subjetivo, es el grado de certeza que se
posee de un suceso.
A lo largo de la historia, y a medida que se ha profundizado en el estudio de los fenómenos
probabilísticos y estos han ido incrementando el nivel de complejidad, se han dado
distintas definiciones de qué era la probabilidad.
3.1. Definición clásica. Regla de Laplace
En el año 1812, señalado en el calendario español por la publicación de la Constitución
de Cádiz, Pierre Simon, marqués de Laplace, publicó de igual manera las bases de la
probabilidad clásica y definió el término como el cociente entre el número de casos
favorables y el número de casos posibles. Se conoce como Regla de Laplace:
𝑐𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑢𝑛 𝑠𝑢𝑐𝑒𝑠𝑜 =
𝑐𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠
Es decir, si hemos comprado un número de los 100.000 que entran en juego en la lotería
de Navidad, la probabilidad de que nos tocara el Gordo se calcularía dividiendo 1 entre
100.000:
1
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑡𝑜𝑞𝑢𝑒 𝑒𝑙 𝐺𝑜𝑟𝑑𝑜 = = 0,00001
100.000
Viendo cómo es ese cálculo podemos deducir los valores mínimo y máximo que tomará
la probabilidad de cualquier suceso. El valor más bajo es cero y se alcanzaría cuando el
número de casos favorables es nulo. Por ejemplo, si metemos en una bolsa 5 bolas de
color azul y nos preguntamos por la probabilidad de sacar una bola de color rojo. Cuando

- 15 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
ocurre esto hablaríamos de un suceso imposible o nulo. Que nos tocara el Gordo sería
casi un suceso imposible.
Por el otro lado, el valor más alto es 1 y se obtiene cuando el número de casos favorables
coincide con el de casos posibles. En la bolsa anterior, la probabilidad de sacar una bola
de color azul sería 1. Aquí nos referiríamos como un suceso seguro.
De modo que los valores de la probabilidad de todo suceso se moverían entre el 0 y el 1.
Es habitual multiplicar esos valores por 100 y expresarse en términos de porcentaje. En
el ejemplo de la bolsa con las 5 bolas azules, habría un 100% de probabilidad de sacar
una bola azul y en el caso de la lotería de Navidad, diríamos que la probabilidad de que
nos tocase el Gordo sería del 0,001%.
Una vez visto esto, la probabilidad de sacar un número par en un dado sería fácil de
calcular. Hay 6 caras, que son los casos posibles, y números pares son 3, que serían los
casos favorables. Entonces:
3
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 𝑢𝑛 𝑛ú𝑚𝑒𝑟𝑜 𝑝𝑎𝑟 = = 0,5
6
O bien, hay un 50% de probabilidad de que salga un número par al lanzar un dado.
3.2. Definición frecuentista
La Regla de Laplace solamente se puede utilizar para fenómenos donde los sucesos sean
equiprobables, es decir, que tengan la misma probabilidad. ¿Qué ocurre si el dado que
tenemos está trucado y una de las caras aparece un número superior de veces que las
demás? Es decir, aquí ya no tenemos que la probabilidad de que salga el 4 es:
1
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 𝑒𝑙 4 = = 0,17
6
No es así porque una de las caras del dado, al estar trucado, aparece un número mayor de
veces que las demás y no podemos considerar que el número de casos posibles es 1.
Por este tipo de fenómenos irregulares, la definición de probabilidad siguió
evolucionando a otra donde se empleaba la frecuencia relativa de cada suceso y que,
además, no solo era de aplicación a esos nuevos fenómenos sino también podía resolver
los problemas de los fenómenos regulares. Ésta se suele denominar definición
frecuentista de la probabilidad.
¿Cómo averiguaríamos la probabilidad de sacar un 4 en el dado? Pues tendríamos que
recurrir a la experimentación y lanzarlo al aire en repetidas ocasiones e ir apuntando el
número de veces que aparece cada una de las caras. Imaginemos que lo lanzamos 100
veces y nos han salido las frecuencias para cada cara del dado que se muestran en la Tabla
6.
Caras Frecuencia (veces que ha salido la cara)
1 15
2 12
3 27
4 14
5 16
6 16
Tabla 6.- Frecuencia de aparición de cada cara del dado

- 16 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Si hacemos la representación gráfica de esa tabla (tenemos 6 categorías así que podemos
usar un gráfico de barras), lo veríamos como se muestra en el Gráfico 10.

Número de veces que sale la cara de


un dado tras 100 repeticiones
30 27
25
20 15 16 16
14
15 12
10
5
0
1 2 3 4 5 6

Gráfico 10.- Diagrama de barras con la frecuencia de aparición de cada cara del dado

Parece que el valor que más se repite es el 3, sería la moda. Por tanto, los sucesos no
tienen la misma probabilidad de ocurrir; no son equiprobables. La probabilidad de que
salga un 4, tras esos 100 lanzamientos, se calcularía así:
𝑛º 𝑣𝑒𝑐𝑒𝑠 𝑞𝑢𝑒 ℎ𝑎 𝑠𝑎𝑙𝑖𝑑𝑜 𝑒𝑙 4
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 𝑒𝑙 4 𝑡𝑟𝑎𝑠 100 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 =
𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠
14
= = 0,14
100
Si el dado fuera perfecto, la probabilidad de salir un 4 veíamos que era de 0,17 y ahora
tenemos que es 0,14 debido a que el dado está trucado.
La probabilidad del resto de caras es fácil de calcular siguiendo la misma regla:
15
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 𝑒𝑙 1 𝑡𝑟𝑎𝑠 100 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = = 0,15
100
12
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 𝑒𝑙 2 𝑡𝑟𝑎𝑠 100 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = = 0,12
100
27
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 𝑒𝑙 3 𝑡𝑟𝑎𝑠 100 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = = 0,27
100
16
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 𝑒𝑙 5 𝑡𝑟𝑎𝑠 100 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = = 0,16
100
16
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑞𝑢𝑒 𝑠𝑎𝑙𝑔𝑎 𝑒𝑙 6 𝑡𝑟𝑎𝑠 100 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = = 0,16
100
Bien, esas serían las probabilidades tras 100 lanzamientos del dado. La definición
frecuentista nos dice que debemos repetir ese lanzamiento un número ilimitado de veces.
Cuanto mayor sea ese número más nos acercaremos a la probabilidad del suceso. Llegará
un momento, quizás tras 1.000 lanzamientos o 1.000.000 de lanzamientos, donde veamos
que esos cocientes se estabilizan, por lo que podemos dejar de seguir lanzando el dado
al aire y determinar la probabilidad de que salga cada una de sus seis caras.
3.3. Definición axiomática. Sensibilidad, especificidad y valores predictivos
A principios del siglo XX, después de varios años en los que los fenómenos
probabilísticos habían dejado de tener importancia, es cuando la probabilidad se convierte
en una rama de las Matemáticas con la llegada de la definición axiomática de

- 17 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Kolmogórov, ideada por el matemático ruso Andréi Kolmogórov y que ha permitido el
desarrollo de la Teoría de la Probabilidad que se conoce en la actualidad, generalizando
y sintetizando todo lo que se había realizado en este campo hasta ese momento.
Un axioma, en Matemáticas, algo que no se puede demostrar pero que se considera como
un principio fundamental para aplicarlo posteriormente a la construcción de otras ideas,
que sí pueden ser demostradas a partir de dicho axioma. Por explicarlo de otro modo, es
un dogma de fe. Así dicho puede parecer que usar un axioma como pilar fundamental
para la construcción de toda una Teoría matemática puede ser arriesgado, pero existen
muchos axiomas, algunos los utilizamos diariamente sin darnos cuenta. Por ejemplo, el
“axioma de la adición” dice que dados dos números, existe otro número que es único y
que representa su suma (es decir, que al poner que 2+3 = 5 estamos aplicando, sin caer
en la cuenta, el axioma de la adición y considerando que el número 5, y solo ese, es la
suma del 2 y del 3). Y a partir de este axioma podemos desarrollar muchas de las
propiedades del Álgebra.
En la Teoría de la Probabilidad construida tras la aportación de Kolmogórov, se usan tres
axiomas. Están muy vinculados con la Teoría de la Medida y la Teoría de Conjuntos y no
los trataremos en este curso porque no es el objetivo, ni la extensión del mismo lo permite.
Pero sí hay que saber que la probabilidad de un suceso puede representarse gráficamente
como se muestra en la Figura 1.

R
A

Figura 1.- Representación gráfica del suceso A

Si A es un suceso, la probabilidad de A la representaríamos como P(A) y sería el cociente


entre el área del círculo (A) y el área del rectángulo (R):
Á𝑟𝑒𝑎 𝑑𝑒 𝐴
𝑃(𝐴) =
Á𝑟𝑒𝑎 𝑑𝑒 𝑅
Como vemos, también estamos usando el cociente de “cosas”, al igual que en la Regla de
Laplace.
Puede ocurrir que la probabilidad de un suceso (A) se vea afectada por otro (B) y hablemos
de la probabilidad de A condicionada al suceso B, que representamos como P(A|B).
Gráficamente lo veríamos como se muestra en la Figura 2.

R
B A∩B A

Figura 2.- Representación gráfica de los sucesos A, B y A∩B

Los sucesos A y B comparten un trozo del espacio, que lo representamos como A∩B (se
lee “A intersecado con B” o “la intersección de A y B”). De ese modo, la probabilidad de
A condicionada a B se obtiene del cociente entre el área común, lo que llamamos A∩B, y
el área del suceso B:

- 18 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
𝑃(𝐴 ∩ 𝐵) 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝑠𝑒𝑟 𝐴 𝑦 𝐵 𝑎 𝑙𝑎 𝑣𝑒𝑧
𝑃(𝐴|𝐵) = =
𝑃(𝐵) 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑑𝑒 𝐵
¿Cuál es la diferencia entre P(A) y P(A|B)? Pues en la primera estamos considerando todo
el rectángulo R mientras que en la probabilidad condicionada nos restringimos a los casos
en los que se cumple la característica de B.
Veamos todo esto con un ejemplo: supongamos que se debe realizar un diagnóstico de
una enfermedad con dos únicos estados, enfermo y sano, y que se dispone de una única
prueba diagnóstica con dos posibles valores, positiva y negativa.
Llevándolo a los términos probabilísticos de antes:
- R sería el conjunto de los pacientes de nuestra consulta
- A es el conjunto de personas que están enfermas (las que están “fuera” de A
constituirían la población sana). En lugar de A, vamos a llamarlo “E” de enfermo
y así los que están fuera de A serían los sanos, “S”.
- B es el grupo de personas que han tenido un resultado positivo en la prueba (las
que están “fuera” de B tendrían una prueba negativa). En lugar de B, los vamos a
llamar “+” y a los que están “fuera” de B los nombramos “–“.
Si nos preguntamos por la probabilidad de que una persona esté enferma en nuestra
población estaríamos hablando de P(E). Y la probabilidad de que las personas tengan un
resultado positivo en la prueba diagnóstica sería P(+).
El resto de probabilidades que veíamos anteriormente significarían lo siguiente, aplicado
a este ejemplo:
- P(E∩+) es la probabilidad de que una persona esté enferma y que haya dado
positivo en la prueba
- P(E|+) es la probabilidad de que una de las personas que ha dado positivo en la
prueba (está en el conjunto +), sea enferma (de las del conjunto E)
- Y si escribimos P(+|E), ¿a qué nos estaríamos refiriendo? Pues a la probabilidad
de que una de las personas que es enferma, haya dado positivo en la prueba
Y ahora vamos a añadir números a nuestro ejemplo para ver cómo se calcularía.
Supongamos que en nuestra consulta tenemos un total de 1.000 pacientes y que tras la
realización de la prueba diagnóstica nos han salido los resultados de la Tabla 7.
Resultado de la prueba
Positivo (+) Negativo (–) Total
Enfermo (E) 320 80 400
Sano (S) 115 485 600
Total 435 565 1.000
Tabla 7.- Recuento de pacientes según su estado y el resultado de la prueba

Las distintas probabilidades que podemos calcular ahí serían:


𝑛º 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑒𝑛𝑓𝑒𝑟𝑚𝑎𝑠 400
- 𝑃(𝐸) = = 1000 = 0,4 (es decir, hay un 40% de enfermos)
𝑛º 𝑝𝑎𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠

𝑛º 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑐𝑜𝑛
𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜 435
- 𝑃(+) = = 1000 = 0,44 (un 44% de resultados positivos de la
𝑛º 𝑝𝑎𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠
prueba)

- 19 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
𝑛º 𝑝𝑒𝑟𝑠𝑜𝑛𝑎𝑠 𝑒𝑛𝑓𝑒𝑟𝑚𝑎𝑠 𝑦 𝑐𝑜𝑛
𝑟𝑒𝑠𝑢𝑙𝑡𝑎𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑝𝑟𝑢𝑒𝑏𝑎 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑜 320
- 𝑃(𝐸 ∩ +) = = 1000 = 0,32 (un 32% de enfermos y
𝑛º 𝑝𝑎𝑐𝑖𝑒𝑛𝑡𝑒𝑠 𝑡𝑜𝑡𝑎𝑙𝑒𝑠
con resultado positivo)

𝑃(𝐸∩+) 0,32
- 𝑃(𝐸| +) = = 0,44 = 0,73 (un 73% de enfermos dentro del grupo a los que
𝑃(+)
la prueba les salió positiva)

𝑃(𝐸∩+) 0,32
- 𝑃(+|𝐸) = = = 0,8 (un 80% de resultados positivos dentro del grupo
𝑃(𝐸) 0,4
de personas enfermas)
Hay varias más que se pueden calcular y, además, cada una de ellas tiene su
denominación. Vamos a ir nombrándolas:
- Prevalencia: es la probabilidad de que una persona tenga la enfermedad. Sería
P(E)
- Sensibilidad: es la tendencia de las personas enfermas a dar positivo en la prueba.
Se correspondería con 𝑃(+|𝐸)
- Falso negativo: es el error que comete la prueba al dar como negativo a una
persona enferma, es decir, lo contrario a la sensibilidad. Es 𝑃(−|𝐸)
- Especificidad: la probabilidad de los sanos a dar negativo, es decir, 𝑃(−|𝑆)
- Falso positivo: otro error que comete la prueba, esta vez dando positivo a una
persona sana. De modo que es lo contrario a la especificidad. Se trataría de 𝑃(+|𝑆)
- Valor predictivo positivo (VP+): confianza de un resultado positivo, 𝑃(𝐸| +)
- Valor predictivo negativo (VP-): confianza de un resultado negativo, 𝑃(𝑆| −)
Tanto la sensibilidad como la especificidad se refieren a los aciertos de la prueba. Es
decir, partimos del estado de salud de la persona (sana o enferma) y con esas dos
probabilidades tendríamos el nivel que tiene nuestra prueba de diagnosticar correctamente
al paciente. La sensibilidad sería para averiguar la efectividad de la prueba con los
enfermos y la especificidad con los sanos.
Los valores predictivos positivo y negativo tratan sobre la confianza que le damos a la
prueba. En estos dos casos partimos del resultado de la prueba y con esas probabilidades
lo que hacemos es calcular el porcentaje de credibilidad que le damos a dicho resultado,
es decir, si la prueba nos ha salido positiva, ¿nos creemos que está enfermo? (y lo mismo
si el resultado es negativo).
Por ejemplo, en nuestra prueba diagnóstica, los valores serían los siguientes:
- Sensibilidad: 𝑃 (+|𝐸 ) = 0,8. Ya lo veíamos antes, el 80% de los pacientes
enfermos dan positivo en la prueba. Por tanto, nuestra prueba acierta en el 80%
de los casos de pacientes enfermos
- Falso negativo: 𝑃(−|𝐸) = 0,2. El 20% de los enfermos tienen un resultado
negativo. Por tanto, nuestra prueba falla en el 20% de los casos de pacientes
enfermos
- Especificidad: 𝑃(−|𝑆) = 0,81. Luego un 81% de los pacientes sanos dan
negativo. Así que la prueba acierta en el 81% de los casos de pacientes sanos
- Falso positivo: 𝑃(+|𝑆) = 0,19. Un 19% de los sanos tienen un resultado positivo.
Falla en el 19% de los pacientes sanos.

- 20 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
- VP+: 𝑃(𝐸| +) = 0,74. Un 74% de los resultados positivos finalmente son
pacientes enfermos
- VP–: 𝑃(𝑆| −) = 0,86. Por tanto, un 86% de los resultados negativos realmente
son pacientes sanos
Si una prueba tiene una sensibilidad alta (por lo que habrá un número de falsos negativos
bajo), será útil para descartar una enfermedad. Y si la especificidad es alta (tendremos
pocos falsos positivos), será útil para confirmar la enfermedad.
Por tanto, en los primeros pasos del diagnóstico de una enfermedad lo aconsejable sería
utilizar pruebas muy sensibles, mientras que en los siguientes se necesitarán pruebas muy
específicas.
En la práctica, los valores que más interesan al médico y al paciente son los valores
predictivos, ya que proporcionan la probabilidad de tener o no la enfermedad a partir del
resultado de la prueba diagnóstica.
También podemos hablar de los “contrarios” de los valores predictivos. El contrario del
VP+ sería la probabilidad de considerar a una persona sana cuando la prueba proporciona
un resultado positivo, 𝑃(𝑆| +), y el contrario de VP– sería la probabilidad de considerar
a una persona enferma cuando la prueba es negativa, 𝑃(𝐸| −). Podemos resumirlo en la
Tabla 8.
Resultado de la prueba
Positivo Negativo
Enfermo Acierto Error
Sano Error Acierto
Tabla 8.- Tipos de error según el resultado de la prueba

El error de la segunda fila es el contrario del VP+ y el de la primera es el contrario del


VP–.
Dentro de esos dos posibles errores hay uno más importante que otro: cuando la prueba
nos da positivo y la persona está sana (error de la segunda fila) el problema que vamos a
tener es que estaremos diagnosticando a una persona sana como si estuviera enferma por
lo que se le aplicará un tratamiento que no le corresponde. Esto podría ser asumible
siempre que el tratamiento no sea perjudicial para su salud.
Pero el error de la primera fila es bastante más importante, porque ahí lo que estamos
haciendo al asumir que el resultado de la prueba nos ha salido negativo y, por tanto,
consideramos como sano al paciente, cuando en realidad está enfermo. Es decir, se nos
están “escapando” los enfermos.
Siempre hay que minimizar ese segundo error, utilizando pruebas cuyo VP– sea lo más
alto posible.
4. Distribuciones de probabilidad
Una función de probabilidad es una función que asigna a cada suceso su probabilidad
de ocurrir. Por ejemplo, ¿cuál sería la función de probabilidad de la variable “número de
caras que obtenemos tras lanzar dos veces una moneda al aire”? La Tabla 9 muestra todos
los posibles resultados que tendremos y sus probabilidades teóricas, es decir, lo que se
espera que suceda si lanzamos la moneda de manera indefinida.
1er lanzamiento 2º lanzamiento Nº de caras Probabilidad

- 21 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Cara Cara 2 0,5 x 0,5 = 0,25
Cara Cruz 1 0,5 x 0,5 = 0,25
Cruz Cara 1 0,5 x 0,5 = 0,25
Cruz Cruz 0 0,5 x 0,5 = 0,25
Tabla 9.- Función de probabilidad tras lanzar dos veces una moneda al aire

Resumiéndolo, tenemos la Tabla 10 con la función de probabilidad de esta variable.


Nº de caras Probabilidad
0 0,25
1 0,50
2 0,25
Tabla 10.- Función de probabilidad tras lanzar dos veces una moneda al aire

Las dos características que debe reunir una función de probabilidad son:
- Todas las probabilidades deben ser mayores o iguales que 0 y menores o iguales
que 1
- La suma de todas las probabilidades de la distribución debe ser igual a 1
La función de distribución es aquella que nos proporciona todos los valores de
𝑃(𝑋 ≤ 𝑥𝑖 ), siendo X la variable en estudio y 𝑥𝑖 los distintos valores de la variable. En el
caso del número de caras tras dos lanzamientos, la función de distribución de probabilidad
es:
𝑃(𝑋 ≤ 0) = 𝑃(𝑋 = 0) = 0,25
𝑃(𝑋 ≤ 1) = 𝑃(𝑋 = 0) + 𝑃(𝑋 = 1) = 0,75
𝑃(𝑋 ≤ 2) = 𝑃(𝑋 = 0) + 𝑃(𝑋 = 1) + 𝑃(𝑋 = 2) = 1
La representación gráfica de esta función de distribución sería la que aparece en la Figura
3.

Figura 3.- Representación gráfica de la función de distribución del número de caras tras lanzar dos veces una moneda

Para leer esa figura: el eje horizontal indica los valores de nuestra variable y el eje vertical
la probabilidad de que ocurra un suceso. Moviéndonos por el eje horizontal de izquierda
a derecha, si nos preguntamos por la probabilidad de obtener menos de 0 caras, el gráfico
nos dice que es 0. Y la probabilidad de obtener menos de 1’5 caras es 0’75.
De un modo general, una distribución de probabilidad es toda tabla, gráfica o expresión
matemática que indica los valores que puede tomar una variable aleatoria y las
probabilidades con que los toma.

- 22 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Para tener determinada una distribución de probabilidad, como vemos en la tabla Tabla
10, solo necesitamos conocer los distintos valores que puede tomar nuestra variable y sus
probabilidades asociadas.
Nuevamente, dependiendo de cómo sea nuestra escala de medida tendremos unas
distribuciones de probabilidad u otras.
Para las variables discretas, las principales distribuciones de probabilidad son:
- Distribución de Bernoulli
- Distribución binomial
- Distribución de Poisson
En el caso de tener una variable continua, las distribuciones de probabilidad más
importantes son:
- Distribución F-Snedecor
- Distribución t-Student
- Distribución chi-cuadrado
- Distribución normal
Cada una de esas distribuciones de probabilidad tienen una gráfica que las representa. En
la Figura 4 se encuentran las funciones de distribución de Bernoulli y binomial.

Figura 4.- Representación gráfica de las distribuciones de Bernoulli y binomial. La primera solo puede tener dos
valores (0 y 1). La segunda puede tener más (en este caso de la gráfica de ejemplo tiene 5 valores)

En las siguientes figuras se encuentran las representaciones de las distribuciones F-


Snedecor (Figura 5), t-Student (Figura 6), chi-cuadrado (Figura 7) y normal (Figura 8).
Para las distribuciones de probabilidad continua se suelen representar las funciones de
probabilidad en lugar de las funciones de distribución.

Figura 5.- Representación gráfica de la distribución F-Snedecor

- 23 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.

Figura 6.- Representación gráfica de la distribución t-Student

Figura 7.- Representación gráfica de la distribución chi-cuadrado

Figura 8.- Distribución normal o campana de Gauss

A primera vista, nos damos cuenta de la diferencia que existe entre las gráficas de las
distribuciones de probabilidad discretas y las continuas. En las primeras, las gráficas están

- 24 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
formadas por rectas que van dando “saltos” formando una especie de escalera mientras
que las segundas son curvas continuas, sin ningún corte.
De todas estas distribuciones de probabilidad, la que tiene una mayor importancia es la
distribución normal, que la veremos con más detalle en el siguiente apartado.
4.1. Distribución normal
En las Ciencias de la Salud, como ocurre en otros campos del conocimiento, la
variabilidad es la norma, es decir, hay que saber aceptar que ciertas distancias con el valor
central se pueden entender como “normales”, en el sentido de no patológicas. Por tanto,
hay que aprender a distinguir qué distancias, por su magnitud, ya no deben ser aceptadas
y pueden ser sospechosas de patológicas. La distribución de Gauss-Laplace, llamada
coloquialmente distribución normal o curva de Gauss, es muy útil para una gran cantidad
de variables biológicas.
Gráficamente, tiene la forma que veíamos en la Figura 8.
Las propiedades más significativas de la distribución normal, que se pueden ver a simple
vista con la gráfica, son las que siguen:
- en la zona central, donde la curva presenta la mayor altura, se encuentra la media
de los datos
- es simétrica respecto de la media
- la media además es la moda (por alcanzarse el máximo en ella) y también es igual
a la mediana (por ser simétrica respecto de la media)
- la distancia a esa media, tanto por la derecha como por la izquierda, nos daría la
desviación típica.
- el área que se encierra bajo la curva vale 1 (en términos de porcentaje, diríamos
que el 100% de los casos está bajo esa curva)
Por ejemplo, la altura de los hombres adultos y sanos de una determinada población puede
aproximarse por la distribución normal. Para decir que es normal, ha sido preciso primero
especificar la edad, el sexo y la población, ya que éstas son variables que podrían originar
diferencias notables. Si, por ejemplo, se mezclan ambos sexos, la distribución resultante
tendría dos “montañitas”, debido a que la altura de sexos es distinta.
La utilidad de la campana de Gauss reside en que permite cuantificar la proporción de
observaciones que se encuentran a cierta distancia de la media. Por ejemplo, si se toma
una vez hacia arriba y una vez hacia abajo el valor de la desviación típica, se incluye al
68% de las observaciones. Y si en lugar de hacer una vez el valor de la desviación típica,
se toma dos veces dicho valor, se incluiría al 95% de las observaciones (Figura 9).

- 25 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.

Figura 9.- Porcentaje de datos entre dos valores bajo la curva

Por ello, es muy útil para construir intervalos en los que cabe esperar que se encuentre un
determinado porcentaje de las unidades.
Así, la distribución normal permite establecer una correspondencia entre los valores de
una variable y el porcentaje de unidades comprendidas entre estos dos valores. Lo que
permite dos usos recíprocos:
1. Dada una probabilidad, buscar un valor: ir de los porcentajes a los valores. Por
ejemplo, ¿cuál es límite de la glucemia que deja por encima el 90% de los
individuos sanos?

Figura 10.- ¿Qué valor de la glucemia deja por encima al 90% de los sanos?

Aquí nos preguntaríamos por el valor que está en esa línea negra.

2. Dado un valor, buscar una probabilidad: ir de los valores a los porcentajes. Por
ejemplo, ¿cuál sería la proporción de MIR que sacan menos de 240 puntos?

Figura 11.- ¿Qué porcentaje de personas están por debajo de los 240 puntos?

- 26 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Nos estaríamos preguntando por el porcentaje de individuos que están en la zona
coloreada.
Para averiguar esas cifras, se han hecho los cálculos necesarios y se han puesto en una
tabla. Dado que diferentes valores de la media y de la desviación típica resultan en
diferentes valores de los intervalos y de los porcentajes, deberían hacerse tantas tablas
como posibles combinaciones de valores de la media y de la desviación típica. Pero eso
no es práctico y por ello se ha recurrido a elaborar una única tabla, suponiendo una media
de 0 y una desviación típica de 1. A esa distribución normal con media 0 y desviación
típica 1 se la denomina distribución normal tipificada.
Utilizar esa única tabla, que mostraremos más adelante, implica que tenemos que
transformar nuestros datos utilizando el valor tipificado, que no es más que restar a cada
dato la media y dividirlo por la desviación típica.
Por ejemplo, si los valores sobre los pesos de una población son 78kg, 73kg, 84kg, 65kg,
80kg, 88kg, 66kg, 60kg, 75kg y 70kg, cuya media es 73’9kg y su desviación típica es
8’4kg, entonces los valores tipificados serían los de la Tabla 11.
Valores originales Valores tipificados
78 0,49
73 -0,11
84 1,20
65 -1,06
80 0,73
88 1,68
66 -0,94
60 -1,65
75 0,13
70 -0,46
Tabla 11.- Transformación a los valores tipificados

Una vez realizado ese proceso de cálculo de valores tipificados, la tabla que hacíamos
mención con anterioridad es la que se muestra a continuación:

α/2 0,0005 0,005 0,025 0,05 0,10 0,16


(0,05%) (0,5%) (2,5%) (5%) (10%) (16%)
Ζ 3,29 2,58 1,96 1,64 1,28 1
Tabla 12.- Correspondencia entre los porcentajes y los valores de la distribución normal tipificada

¿Y cómo se lee esa tabla? Por ejemplo, en la distribución normal tipificada, la proporción
de casos que quedan por encima de 1,96 (cifra sombreada en rojo) es del 2’5% (cifra
sombreada en amarillo). Es decir, hay un 97’5% de los datos que están por debajo de 1’96
y el 2,5% restante está por encima (Figura 12).

- 27 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Figura 12.- Porcentaje de casos que están por encima del valor 1’96 en la distribución normal tipificada

De igual forma, la proporción de casos que quedan por encima de 1’28 es del 10%. Por
lo tanto, por debajo de 1’28 quedan el 90% de los datos.
¿Y cuál es el valor que deja por encima un 0’5% de los datos (o que deja por debajo el
99’5%)? Pues sería el 2’58, según la tabla.
Esta tabla es mucho más completa y extensa, abarcando todos los porcentajes y todos los
valores de la distribución3.
¿Podríamos calcular el porcentaje de casos que se encuentran entre dos valores? Con esa
misma tabla se podría hacer. Por ejemplo, ya sabemos que por encima de 1’96 está el
2,5% de los datos. Del mismo modo, y por ser una distribución simétrica, por debajo de
–1’96 (fijémonos que es un número negativo) está también el 2’5% (Figura 13).

Figura 13.- Porcentaje de casos que están por debajo de –1’96 en la distribución normal tipificada

Así que, por debajo de –1’96 y por encima de 1’96, ¿qué porcentaje de datos hay? Pues
un 5%. Sería la suma de las dos áreas amarillas (Figura 14).

Figura 14.- Porcentaje de casos que están entre los valores –1’96 y 1’96 en la distribución normal tipificada

De modo que la Tabla 12 se puede completar así:

α 0,001 0,01 0,05 0,1 0,2 0,32


(0,1%) (1%) (5%) (10%) (20%) (32%)

α/2 0,0005 0,005 0,025 0,05 0,10 0,16


(0,05%) (0,5%) (2,5%) (5%) (10%) (16%)
Ζ 3,29 2,58 1,96 1,64 1,28 1
Tabla 13.- Correspondencia entre los porcentajes y los valores de la distribución normal tipificada

3
Tabla completa:
https://www.uam.es/personal_pdi/ciencias/dfaraco/docencia/ambientalesmat1/Normal.htm

- 28 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Se pone α y α/2 porque solo hay que multiplicar o dividir por dos para obtener uno u otro
valor. Para pasar de la primera a la segunda fila, se divide por dos y para pasar de la
segunda a la primera se multiplica por 2.
¿Cuál es el porcentaje de casos que se quedan entre –1’28 y 1’28? Como es “entre dos
valores”, miramos la primera fila: 20%. ¿Cuál es el porcentaje de casos que quedan por
encima de 1’28? Como es “por encima” miramos la segunda fila: 10%.
4.1.1. Curvas ROC
Cuando hablábamos de la sensibilidad y especificidad en el apartado 3.3, hicimos
hincapié en pruebas diagnósticas con dos posibles resultados: positivo y negativo. En ese
caso, la definición de sensibilidad y especificidad, así como sus complementarias, es
inmediata y unívoca.
En las pruebas donde hay varios resultados numéricos posibles, la definición de los
términos anteriores no es inmediata sino convencional, ya que dicha definición requiere
establecer un límite o umbral que separe el conjunto de resultados en dos grupos: positivo
y negativo.
Por ejemplo, los resultados de un test que mide la concentración de glucosa en plasma,
en condiciones basales. Dichos resultados, expresados en mg/dl, pueden ser muy
variados: 50, 75, 110, 128, 165, 192,… Ninguna cifra de estas es, por sí misma, positiva
ni negativa. Ahora bien, en virtud de conocimientos fisiológicos y epidemiológicos, entre
otros, se considera que las cifras inferiores a 100 definen un resultado negativo y las
superiores, positivo.
¿Cómo se establecen esos límites? Pues una de las aplicaciones de la distribución normal
que sirve para eso es la llamada curva ROC (Receiver Operating Characteristic4).
Supongamos un conjunto de pacientes sanos donde un determinado estimulador eléctrico
sigue, aproximadamente, una distribución normal de media 5 voltios y desviación típica
de 0’5. Consideremos que tenemos otro conjunto de enfermos para los que la distribución
de probabilidad que tienen se asemeja a una normal de media 6 voltios y desviación típica
también 0’5.

4
El término “Receiver Operating Characteristic” proviene de las telecomunicaciones y analiza la
capacidad de un receptor de señales para discriminarlas correctamente. Una posible traducción sería
“curva característica de la operatividad del receptor”.

- 29 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Figura 15.- Distribuciones normales que siguen los sanos y los enfermos del ejemplo

Si el criterio diagnóstico se establece en 5’5 (que es el punto donde se cortan las dos
campanas de Gauss, Figura 15), los valores de sensibilidad y especificidad se
corresponderían con los individuos que se encuentran bajo las zonas sombreadas en
amarillo y verde, respectivamente, de la Figura 16.

Figura 16.- Especificidad y sensibilidad de la prueba si se selecciona el valor 5’5. Recordemos que la sensibilidad
eran los enfermos que salían positivos en el test y la especificidad eran los sanos que tenían un resultado negativo

Si modificamos el criterio diagnóstico y en lugar de 5’5 consideramos positivo a aquel


que esté por encima de 5’2, entonces la sensibilidad aumenta y la especificidad disminuye
(Figura 17).

Figura 17.- Especificidad y sensibilidad de la prueba si se selecciona el valor 5’2

Y si movemos el criterio diagnóstico hacia el 5’8 la especificidad aumentaría y la


sensibilidad disminuiría. Es decir, cambiando ese valor por el cual nos basamos para
indicar si un paciente da positivo o negativo en la prueba, nuestra sensibilidad y
especificidad varían igualmente. De modo que tenemos un número ilimitado de
sensibilidades y especificidades para la prueba diagnóstica sin más que ir cambiando ese
valor.
La curva ROC contiene todos los posibles valores de sensibilidad y especificidad de una
prueba diagnóstica. Para obtener dicha curva, se calcularían las sensibilidades y
especificidades para cada punto de corte y, posteriormente, se añadirían en un gráfico.

- 30 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Por ejemplo, supongamos que en nuestra prueba anterior hemos obtenido los datos de la
Tabla 14.
Punto de corte 6 5’7 5’5 5’2 5
Sensibilidad 50’0% 80’3% 84’1% 94’5% 97’1%
Especificidad 91’2% 88’4% 84’1% 65’5% 50’0%
Tabla 14.- Sensibilidad y especificidad según el punto de corte

La curva ROC correspondiente sería la dibujada en el Gráfico 11.

Ejemplo curva ROC


100

80
Sensibilidad

60

40

20

0
0 20 40 60 80 100
100 - especificidad

Gráfico 11.- Curva ROC

Como vemos, los datos los dibujamos ordenados según la sensibilidad: primero los
valores más bajos. El eje horizontal de la curva no es el valor de la especificidad
directamente, sino que se calcula restando de 100, la especificidad (es decir, calculamos
lo opuesto a la especificidad, que ya vimos que eran los falsos positivos).
¿La curva ROC nos proporciona el punto de corte para saber cuándo diagnosticar como
enfermo a un paciente con una prueba positiva? La respuesta es que, en cierta medida, sí.
Con esa curva podemos ver gráficamente la relación entre el acierto de la prueba al
identificar individuos enfermos (sensibilidad) y el error que se comete identificando a
individuos sanos como enfermos (falsos positivos).
¿Queremos una prueba con un grado alto de aciertos en los diagnósticos de los individuos
enfermos? Habría que exigir una sensibilidad alta. Pero cuanto mayor sea, también será
grande el número de falsos positivos.
Por regla general, el punto de corte idóneo sería aquel en el que un pequeño aumento de
la sensibilidad ocasione un incremento considerable de la proporción de falsos positivos.
En nuestra gráfica, estaríamos hablando de ese salto que se produce entre los dos primeros
puntos: 8,8% y 11,6% de falsos positivos, que se corresponden con el 91,2% y el 88,4%
de especificidad, respectivamente. Es decir, nuestro punto de corte idóneo sería entre el
5,7 y el 6.
De todos modos, la conclusión es que debería hacerse otro análisis adicional a la curva
ROC, considerando los beneficios y perjuicios de cada punto de corte (¿qué “cuesta” un
enfermo al que se le diagnostica como sano? ¿Y un sano al que se le declara enfermo?
¿Qué “vale” un sano al que se le identifica como tal? ¿Y un enfermo?). Los análisis
estadísticos nos pueden ayudar a tomar ciertas decisiones pero, al igual que ocurre en las

- 31 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Ciencias de la Salud, no debemos cometer el error de quedarnos con una sola prueba para
tomar la decisión final sino que debemos valorar todos los aspectos relacionados para
determinar finalmente la mejor opción.
5. Estadística inferencial. Análisis de datos
La idea fundamental de la Estadística inferencial es que, a partir de un conjunto de datos
debidamente seleccionados de una población, se realizan una serie de operaciones
matemáticas para poder proporcionarnos una idea de lo que le ocurre al conjunto de esa
población.
Por ejemplo, si nos interesa saber cuál es el valor de monóxido de carbono en el aire
espirado por fumadores jóvenes en la ciudad de Badajoz, sería muy costoso, por no decir
imposible, citar a todos los chicos y chicas a su Centro de salud para hacerles la medición.
En cambio, sí que es posible seleccionar a un grupo de ellos, lo que se llama una muestra,
y recopilar los datos. Una vez hecho eso, con los resultados obtenidos de su análisis
podríamos extraer conclusiones sobre toda la población de jóvenes de la ciudad,
determinando el valor de monóxido espirado.
5.1. Muestreo aleatorio
Como el conocimiento de la población lo va a proporcionar la muestra, es lógico que la
misma no se deba tomar de un modo arbitrario, sino que debe representar adecuadamente
a toda la población. Si la muestra no es representativa, nada de lo que se concluya a partir
de ella será válido. Así, para determinar el nivel medio del colesterol de todos los
españoles, la muestra no puede tomarse solo de personas de edad avanzada (pues el nivel
varía con la edad) ni en base a individuos que escojamos a través de la guía telefónica
(pues en ella aparecen preferentemente varones y de clase media-alta).
Para que una muestra sea representativa tienen que reunirse los siguientes factores:
- Todos los individuos de la población deben tener la misma probabilidad de ser
seleccionados e incluidos con la muestra
- La selección de un individuo no puede afectar de ninguna manera a la selección
de otro individuo
Cuando estas premisas se cumplen, decimos que tenemos una muestra aleatoria.
En las Ciencias de la Salud suele ser complicada la selección de una muestra aleatoria
porque habitualmente no se dispone de toda la población objeto de estudio, sino que solo
se pueden utilizar los datos proporcionados por las personas que acuden a la consulta de
un centro hospitalario. Para estos casos es necesario estudiar muy bien la variable que
estamos pretendiendo conocer e identificar aquellos factores que pueden influir en ella
(sexo, edad,…). Después habría que comprobar que la muestra que hemos recogido
presenta una distribución similar a la de la población en esos factores.
En este punto debemos distinguir entre la población objeto de estudio (aquella sobre la
que estamos interesados en dar predicciones) y la población de muestreo (que es la
subpoblación de la población objeto de estudio sobre la cual, por diversas causas, hemos
limitado la toma de decisiones). Si la segunda no es representativa de la primera, las
conclusiones que extraigamos de la muestra solamente serán válidas para esta última.
Existen distintos modos de extraer una muestra aleatoria. Los principales son los
siguientes:

- 32 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
- Muestreo aleatorio simple. En este muestreo se extrae la muestra
convenientemente seleccionada de la población.
- Muestreo sistemático. Para extraer la muestra, se ordenan todos los individuos de
la población, se elige de forma aleatoria al primer individuo de la muestra y a
partir de él y de la ordenación de la población se elige al resto de personas que
formarán parte de la muestra.
- Muestreo estratificado. Aquí se divide la población en grupos (o estratos) y de
cada uno de ellos se extrae una muestra aleatoria, bien por muestreo aleatorio
simple o por muestreo sistemático.
- Muestreo por conglomerados. En este caso, volvemos a tener dividida a la
población en grupos (que ahora los llamamos conglomerados) y hacemos una
selección aleatoria de los conglomerados. Una vez seleccionados, incluimos en la
muestra a todos los individuos de los conglomerados seleccionados (o volvemos
a realizar una selección aleatoria dentro de cada conglomerado a través del
muestreo aleatorio simple o del muestreo sistemático).
5.2. Estimación puntual y estimación por intervalo de confianza
Supongamos que se desea conocer la estatura media de todos los españoles. Si tomamos
una muestra de 100 personas, ¿qué valor elegiremos como el más aproximado para la
media?
Parece razonable que si la media de la muestra es de 1’70m afirmemos que la media de
la altura de todos los españoles es aproximadamente 1’70m.
Un estimador es una función de valores de una muestra, función que ha sido construida
con el fin de dar idea acerca del valor de un parámetro de la población de la que se tomó
la muestra. Se trata de una variable aleatoria, pues desconocemos cuál es su valor.
Cuando extraemos una muestra de la población, podemos calcular el valor del estimador
usando los datos de la muestra. En el ejemplo de antes, 1’70m, que era la media de la
muestra, también será un valor del estimador para toda la población. A ese valor se le
denomina estimación del parámetro.
Un problema fundamental consiste en dar reglas para determinar el estimador que va a
proporcionar “buenas” estimaciones del parámetro. Hay diversos métodos para ello y el
más conocido es el método de la máxima verosimilitud. Pero para nosotros nos basta
con otro método más sencillo llamado método análogo. Este último método dice que
para estimar un parámetro poblacional hay que elegir el parámetro muestral análogo. Es
decir, si queremos estimar la media de la población, nos basta con calcular la media de
una muestra convenientemente seleccionada de dicha población. O si queremos calcular
la desviación típica de la población, únicamente tenemos que calcularla en la muestra.
Estos estimadores puntuales solo dan una idea aproximada del verdadero valor del
parámetro a estimar, no conociéndose cómo de buena es la aproximación; ellos solo dan
el mejor número que puede proponerse como valor del parámetro. Cabía esperar algo así,
porque es demasiado pedir que a partir de una muestra pueda calcularse el valor del
parámetro tan exactamente como si se tomara toda la población. En realidad, lo que
importa es que el valor de la media muestral, por usar a la media como ejemplo, no esté
demasiado alejado de la media de la población. Y eso se comprueba con los intervalos de
confianza.
El objetivo es realizar estimaciones del tipo: “la estatura media poblacional de los
españoles no sé exactamente cuál es, pero es casi seguro que se encuentre entre 1’69m y
- 33 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
1’72m”, es decir, que la media poblacional está dentro de ese intervalo con una cierta
seguridad.
Utilizando terminología matemática, el intervalo de confianza buscado (a, b) para un
parámetro ω y un nivel de confianza 1 – α verifica la siguiente ecuación:
𝑃(𝑎 ≤ 𝜔 ≤ 𝑏) = 1 − 𝛼
Dependiendo del parámetro a estudiar (media, varianza, desviación típica,…) y según la
distribución de probabilidad que siga dicha variable, esa fórmula será más o menos
complicada.
5.3. Contraste de hipótesis
La inferencia estadística se puede hacer sobre parámetros (como hemos visto en el
apartado anterior) o sobre otros aspectos de interés de una variable (como por ejemplo,
saber si sigue una distribución normal). La teoría de la estimación solo se preocupaba de
asignar valores a los parámetros desconocidos, pero en ocasiones es preciso establecer
procedimientos para aceptar o rechazar una hipótesis que se emite acerca de un parámetro
u otra característica poblacional.
5.3.1. Hipótesis nula e hipótesis alternativa
El primer ingrediente en todo test de hipótesis es formular claramente la hipótesis que se
somete a comprobación para ver si es cierta o no. A esa hipótesis se la llama hipótesis
nula y a la comprobación se la denomina contraste de hipótesis.
Como decíamos antes, una hipótesis nula puede ser si nuestra variable sigue una
distribución normal o si la proporción de varones de la población es del 50% o si el
colesterol es independiente de la edad…, es decir, cualquier cosa que se nos ocurra y que
está relacionado con el trabajo que queremos desarrollar.
Frente a toda hipótesis nula, debe haber una que sea contraria. La denominamos hipótesis
alternativa. Por ejemplo, si la hipótesis nula es que la variable sigue una distribución
normal, la alternativa será que dicha variable no sigue una distribución normal. O si la
hipótesis nula es que el colesterol es independiente de la edad, la alternativa será que el
colesterol sí depende de la edad.
El contraste de hipótesis sería el procedimiento por el cual nos decidimos o bien dar por
válida la hipótesis nula o bien considerar la hipótesis alternativa como cierta.
Cuando aceptamos la hipótesis nula como verdadera decimos que el resultado es
estadísticamente no significativo, es decir, que podemos considerar que el azar explica
las diferencias entre nuestros datos y la hipótesis nula planteada.
Y cuando consideramos como válida la hipótesis alternativa hablamos de un resultado
estadísticamente significativo, es decir, hay suficiente variación entre nuestros datos y
la hipótesis nula como para considerar que el azar no es una excusa para explicarla.
Asociado a todo contraste de hipótesis existen dos valores muy importantes: el nivel de
significación (o nivel de confianza) y el valor p. El primero lo decide el investigador y
el segundo se calcula a partir de los datos que tengamos.
Para explicar el significado del nivel de confianza vamos a introducir la Tabla 15, que es
muy similar a la Tabla 8 que veíamos al hablar de los valores predictivos (apartado 3.3).

- 34 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Decisión tomada
Hipótesis alternativa Hipótesis nula
La hipótesis alternativa es cierta Acierto Error
La hipótesis nula es cierta Error Acierto
Tabla 15.- Tipos de error según la decisión tomada

El error de la segunda fila se daría cuando consideramos como válida la hipótesis


alternativa cuando realmente es cierta la hipótesis nula. Si volvemos atrás hacia los
valores predictivos, este error sería como considerar que la prueba que le hacemos al
paciente ha salido positiva, por lo que le vamos a tratar como una persona enferma cuando
realmente está sana.
Este error cometido se le denomina error de tipo I o error α. Por ejemplo, si fijamos un
error α del 0’05 (o del 5%) estaríamos admitiendo que nuestro contraste de hipótesis
puede estar considerando como enfermos a un 5% de personas sanas.
Pues bien, el nivel de significación sería la diferencia 1 – α. Siguiendo con el ejemplo de
antes, si α = 0’05 entonces el nivel de significación sería del 0’95 (o del 95%;
habitualmente se habla en términos de porcentaje para el nivel de significación).
El valor p indica el error α más pequeño que puede escogerse para el cual todavía
podríamos decidirnos aceptar la hipótesis alternativa como válida. Si, por ejemplo, en una
prueba estadística obtenemos un valor p = 0’01 significaría que para un error α superior
a 0’01 (o, lo que es lo mismo, un nivel de significación del 99%) nos decidiríamos por la
hipótesis alternativa. Pero si queremos un error α de 0’001 (o nivel del 99’99%), al ser
más pequeño que ese valor p, tendríamos que aceptar como válida la hipótesis nula
(Figura 18).

Figura 18.- Decidiendo qué hipótesis dar por válida según la posición del error α respecto del valor p

En los siguientes apartados veremos algunos ejemplos de contrastes de hipótesis en


distintas situaciones.
5.3.2. Ajuste con la distribución normal
Cuando estudiábamos la distribución normal decíamos que era la más importante de todas
las distribuciones de probabilidad existentes. Esto se debe a que muchos contrastes de
hipótesis requieren una serie de condiciones para poder emplearse.
Una de esas condiciones es que nuestros datos provengan de una variable que siga una
distribución normal. Y para comprobar eso tenemos el test de Kolmogorov-Smirnov.
En este test la hipótesis nula es que “nuestros datos siguen una distribución normal” y la
hipótesis alternativa es que “nuestros datos no siguen una distribución normal”.
Imaginemos una maternidad donde tenemos recogidos los pesos al nacer de los niños
separados en dos grupos, por un lado los niños de madres adolescentes y por otro los de
madres de más de 25 años.

- 35 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Imaginemos igualmente que hemos realizado la prueba de Kolmogorov-Smirnov y los
datos resultantes son los de la Tabla 16. De la tabla solo nos vamos a fijar en la última
columna, que nos indica el valor p obtenido tras los cálculos oportunos (usualmente para
los contrastes de hipótesis se utilizan paquetes estadísticos, como el SPSS®).
Estadístico Grados de libertad Valor p
Adolescente 0,121 36 0,200
> 25 años 0,210 30 0,200
Tabla 16.- Prueba de normalidad de Kolmogorov-Smirnov

En ambos grupos de datos, tanto para las madres adolescentes como para las de más de
25 años, el valor p es de 0’2. Por tanto, para errores α menores a 0’2 (por ejemplo, para α
= 0’05 o nivel de significación del 95%) debemos aceptar como válida la hipótesis nula,
es decir, que los datos en ambos grupos siguen una distribución normal.
5.3.3. Comparación de dos muestras de datos independientes
Consideremos que en la maternidad del apartado anterior se sospecha que los hijos de
madres adolescentes tienen un peso de nacimiento diferente, probablemente menor, al
peso de los recién nacidos de madres mayores de 25 años.
Supongamos que los datos los tenemos recogidos y que además hemos hecho un primer
análisis descriptivo, con todo lo visto durante el curso hasta ahora, y que los datos de las
medias y desviaciones típicas para cada muestra son los de la Tabla 17.
Muestra Media Desv. típica Tamaño de la muestra
Madres adolescentes 2,5kg 0,17kg 36
Madres mayores de 25 años 3,4kg 0,14kg 30
Tabla 17.- Media, desviación típica y tamaño de la muestra

La pregunta que nos hacemos, viendo esos datos, es si podemos considerar esa diferencia
entre las medias lo suficientemente grande como para ratificar nuestra sospecha e indicar
que, efectivamente, los recién nacidos de madres adolescentes pesan menos que los de las
madres mayores de 25 años.
Para ello, tenemos una prueba que se llama prueba t para igualdad de medias. Esta
prueba se basa en la distribución t-Student. La hipótesis nula del contraste de hipótesis es
que “las medias de los dos grupos son iguales” y la hipótesis alternativa es que “las medias
de los dos grupos son diferentes”.
Si realizamos esta prueba, la salida que tenemos es la Tabla 18.
Estadístico Grados de Diferencia de Diferencia
Valor p
T libertad medias de error
–2,332 64 0,02 –0,90 0,04
Tabla 18.- Prueba t para igualdad de medias

Si queremos un nivel de significación del 95% (α = 0’05), entonces el test nos sale
significativo (el valor p es menor que α) por lo que rechazamos la hipótesis nula y nos
quedamos con la alternativa, es decir, que las medias de los grupos son diferentes. Por
tanto, podríamos concluir que los pesos al nacer de los hijos de mujeres adolescentes son
estadísticamente distintos a los de las mujeres con edades por encima de los 25 años.
¿Qué hubiese ocurrido si hubiésemos obtenido p = 0’15, por ejemplo? En ese caso, como
no es menor que 0’05, lo único que podríamos decir es que la diferencia de medias de los

- 36 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
grupos no es estadísticamente significativa al 95% de confianza, por lo que no podríamos
decir que hubiese relación entre el peso al nacer y que las madres fueran adolescentes o
mayores de 25 años.
¿Y si p = 0’07? Estaría muy cerca del 0’05 pero seguiría siendo mayor. En ese caso,
tendríamos que asumir nuevamente que las diferencias no son significativas al 95% de
confianza aunque sería aconsejable intentar aumentar la muestra para repetir la prueba y
comprobar si la significación se distancia más de ese 0’05.
Para poder usar esta prueba estadística se tienen que cumplir una serie de requisitos:
- Debemos tener una variable en escala nominal (con dos categorías) y otra en
escala de intervalo. En nuestro caso, la variable en escala nominal es si la madre
es adolescente o mayor de 25 años y la variable en escala de intervalo es el peso
de cada recién nacido.
- Las dos muestras tienen que ser independientes. Para nuestro caso lo son porque
un grupo es de recién nacidos de madres adolescentes y otro grupo está formado
por recién nacidos de madres mayores de 25 años, por lo que son niños distintos.
- Es necesario que los datos se aproximen a una distribución normal. Esto es
importante para poder aplicar la prueba t. Esa comprobación se hacía con la
prueba de Kolmogorov-Smirnov.
Si el valor p de la prueba de Kolmogorov-Smirnov hubiera salido por debajo de 0’05
querría decir que los datos no siguen una distribución normal a un nivel de confianza del
95%y, por tanto, no podríamos usar la prueba t para la comparación de medias. Para ello,
deberíamos usar otra denominada prueba U de Mann-Whitney.
5.3.4. Tablas de contingencia
Supongamos ahora que queremos comprobar si existe alguna relación entre el sexo y si
la persona fuma. Los datos los tenemos en la Tabla 19.
Sexo
Total
Hombre Mujer
Sí 65 57 122
¿Fuma?
No 43 68 111
Total 108 125 233
Tabla 19.- Recuentos según el sexo y si es fumador

Aquí tenemos dos variables (sexo y fumar) y ambas están en escala nominal. Para ver la
relación que existe entre las dos, podemos aplicar la denominada prueba chi-cuadrado
de Pearson, que se basa en la distribución chi-cuadrado.
Aplicando el test de la chi-cuadrado, obtenemos la Tabla 20.
Estadístico Grados de
Valor p
chi-cuadrado libertad
4,941 1 0,03
Tabla 20.- Prueba chi-cuadrado de Pearson

La significación está por debajo de 0’05 por lo que podemos considerar que efectivamente
hay relación entre las dos variables con una significación estadística del 95% de
confianza. Esta prueba nos dice simplemente que la relación existe, pero nada más.

- 37 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Si queremos saber si son los hombres o las mujeres los que más fuman, hay que calcular
los valores esperados. Estos se obtienen a partir de los totales de cada fila y columna
(Tabla 21).
Sexo
Total
Hombre Mujer
Sí 56,5 65,5 122
¿Fuma?
No 51,5 59,5 111
Total 108 125 233
Tabla 21.- Valores esperados

Por ejemplo, para calcular la casilla correspondiente a los hombres que fuman:
122
𝐻𝑜𝑚𝑏𝑟𝑒 𝑓𝑢𝑚𝑎𝑑𝑜𝑟 = ∗ 108 = 56,5
233
Y para el cálculo de las mujeres que no fuman:
111
𝑀𝑢𝑗𝑒𝑟 𝑛𝑜 𝑓𝑢𝑚𝑎𝑑𝑜𝑟𝑎 = ∗ 125 = 59,5
233
Las otras dos casillas (‘hombres no fumadores’ y ‘mujeres fumadoras’) se obtienen de la
misma forma.
Una vez calculados esos valores esperados, los compararíamos con los datos de la primera
tabla. Por ejemplo, en el caso de los hombres fumadores tenemos 65 mientras que el valor
esperado es de 56, bastante menor. Justo al contrario ocurre con las mujeres fumadoras:
tenemos 57 en la primera tabla mientras que se esperaban 65, bastantes más. Es decir,
existe relación entre el sexo y si la persona fuma y además, con los valores esperados,
sabemos que los hombres son más fumadores que las mujeres.
Glosario
Coeficiente de variación: cociente entre la desviación típica y la media multiplicado por
100. Expresa el error, medido en desviaciones típicas, por cada 100 unidades de media
(es un %).
Confianza (de un intervalo): multiplicada por 100, porcentaje de intervalos del mismo
tipo que dejan realmente en su interior al parámetro objeto de estudio. Garantía que se
tiene de que la afirmación del intervalo sea correcta. Usualmente del 95%.
Contraste de hipótesis: conjunto de reglas tendentes a decidir cuál de dos hipótesis, la
nula o la alternativa, debe aceptarse en base al resultado obtenido de una muestra.
Cuartil: son los percentiles 25, 50 y 75.
Curva ROC: curva asociada a un método diagnóstico basado en la medición en cada
individuo de una variable (generalmente continua). Se obtiene representando en el plano
las parejas de valores “porcentaje de falsos positivos” y “sensibilidad” asociados a cada
punto de corte.
Datos: resultados de las características que se consideran en los individuos de un estudio
(edad, sexo, altura, peso,…).
Datos cualitativos: aquellas características que se consideran en los individuos que no
pueden expresarse numéricamente (por ejemplo, el grupo sanguíneo).

- 38 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Datos ordinales: aquellos datos cualitativos cuyas categorías o modalidades son
susceptibles de una ordenación lógica y ascendente (por ejemplo, grado de sordera:
normal, leve, moderada, grave y profunda).
Datos cuantitativos: aquellos datos que se expresan numéricamente (por ejemplo, peso).
Datos continuos: aquellos datos que pueden tomar cualquier valor.
Datos discretos: aquellos cuyos valores son números aislados.
Decil: son los percentiles 10, 20, 30, … y 90.
Desviación típica: raíz cuadrada de la varianza.
Distribución: sirve para identificar a una variable.
Distribución de probabilidad: toda tabla, gráfica o función que le hace corresponder a
los valores de una variable su probabilidad.
Error α: probabilidad de decidir la hipótesis alternativa cuando es cierta la nula (en un
contraste de hipótesis).
Especificidad: probabilidad de diagnosticar a un individuo como sano cuando realmente
lo está.
Estadística: conjunto de métodos necesarios para recoger, clasificar, representar y
resumir datos, así como para hacer inferencias (extraer consecuencias) científicas a partir
de ellos.
Estadística descriptiva: conjunto de métodos necesarios para recoger, clasificar,
representar y resumir datos.
Estadísticamente significativo: un resultado o test lo es cuando se concluye elegir la
hipótesis alternativa como cierta.
Estadísticamente no significativo: un resultado o test lo es cuando se concluye elegir la
hipótesis nula como cierta.
Estimación: parte de la Estadística que trata de determinar los parámetros poblacionales
(generalmente desconocidos) con la información que proporcionan las muestras.
Estimación por intervalo: parte de la Estimación que trata de proponer un conjunto de
valores que contienen al verdadero valor del parámetro poblacional (que es desconocido)
con una cierta confianza.
Estimación puntual: parte de la Estimación que trata de asignar un único valor a un
parámetro poblacional desconocido.
Estrato: cada parte en que se divide una población en base a algunas características que
creemos influye en lo que se va a medir.
Falso negativo: suceso que se verifica al diagnosticar, con alguna prueba clínica, a un
individuo como sano cuando realmente está enfermo.
Falso positivo: suceso que se verifica al diagnosticar, con alguna prueba clínica, a un
individuo como enfermo cuando realmente está sano.
Función de densidad: función que le hace corresponder a cada uno de los valores de una
variable continua su probabilidad.

- 39 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Función de distribución: función que le hace corresponder a cada uno de los valores de
una variable la probabilidad de que tal variable tome un valor igual o inferior al dado.
Función de probabilidad: función que le hace corresponder a cada uno de los valores de
una variable discreta su probabilidad.
Gráfico de sectores: representación gráfica en la que en un círculo se asigna a cada
categoría un sector de área proporcional a la frecuencia de la categoría.
Hipótesis alternativa: una de las hipótesis que se contrasta en un test (aquella que se
quiere demostrar fuera de toda duda).
Hipótesis nula: una de las hipótesis que se contrasta en un test (aquella que se debe
asumir como cierta hasta tanto no haya pruebas estadísticas en contra).
Histograma: representación gráfica en la que sobre cada punto (o intervalo) del eje
horizontal se levanta una barra de tanta altura como frecuencia tenga aquel.
Inferencia estadística: parte de la Estadística que se ocupa de la extensión a toda la
población de la información obtenida a partir de una parte de esa población (una muestra).
Intersección de dos sucesos: operación entre sucesos que consiste en obtener un nuevo
suceso con las características que son a la vez de los dos sucesos.
Intervalo de confianza: un conjunto de valores alguno de los cuales, con cierta
confianza, es el verdadero valor de un parámetro desconocido.
Media: valor promedio de las observaciones de una muestra.
Mediana: valor que divide a la muestra ordenada de menor a mayor en dos partes iguales.
Medida de posición: valor que describe cómo se encuentra el resto de la muestra con
respecto a él.
Medida de dispersión: valor que expresa las diferencias o variabilidad entre los datos de
la muestra.
Moda: la categoría o valor que mayor frecuencia tiene.
Muestra: parte de la población que se toma cuando es imposible acceder a toda ella.
Muestra aleatoria: aquella muestra tomada de una población en la que todo individuo
tiene igual probabilidad de resultar elegido para ella, y esto con independencia unos
individuos de otros.
Muestras dependientes: dos muestras lo son si sus datos vienen por parejas (uno de cada
muestra) (por ejemplo, un dato es la presión sanguínea “antes” y otro es “después” de un
tratamiento).
Muestras independientes: dos muestras lo son si las observaciones de una de ellas no
condicionan en nada a las de la otra (por ejemplo, una muestra de la estatura de 5
españoles y 10 franceses elegidos al azar).
Muestreo aleatorio: procedimiento estadístico a seguir para obtener muestras aleatorias
representativas de una población.
Percentil: se define el percentil i-ésimo de una muestra al valor que deja a su izquierda
el 100·i% de los individuos de la muestra ordenada de menor a mayor.

- 40 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
Población: conjunto de individuos acerca de los cuales se desea conocer algo o ver si
alguna afirmación acerca de ellos es cierta.
Población muestral: aquella subpoblación de la población objetivo sobre la cual, por
diversas causas, hemos limitado la toma de observaciones.
Población objetivo: aquella población sobre la que estamos interesados en realizar
inferencias.
Probabilidad condicionada: probabilidad de un suceso cuando se da alguna información
parcial acerca de la verificación o no de otro suceso relacionado o no con el mismo.
Probabilidad de un suceso: medida de la posibilidad de verificación de un suceso.
Rango intercuartílico: diferencia entre el tercer y el primer cuartil de la muestra.
Representación gráfica: dibujo en el que se expresan de manera visual las distribuciones
de frecuencias.
Sensibilidad: probabilidad de diagnosticar a un individuo enfermo cuando realmente lo
está. Restándola de uno se obtiene la probabilidad del falso negativo.
Test significativo: se dice que lo es aquel test que concluyó por la hipótesis alternativa.
Tipificación: procedimiento para convertir una variable aleatoria normal cualquiera en
una variable aleatoria normal tipificada.
Valor p: mínimo error α al cual un resultado es significativo.
Valor predictivo negativo: probabilidad de que un individuo esté sano cuando se le ha
diagnosticado como tal.
Valor predictivo positivo: probabilidad de que un individuo esté enfermo cuando se le
ha diagnosticado como tal.
Variable: toda función que toma diversos valores numéricos, dependientes de los
resultados de un fenómeno aleatorio, con distintas probabilidades.
Varianza: medida de dispersión obtenida dividiendo por el tamaño de la muestra la suma
de los cuadrados de las distancias de cada dato a la media de la muestra.
Resumen
La Estadística reúne una serie de herramientas que permite analizar un conjunto de datos
extraídos de una población sobre la que estamos interesados en estudiar ciertas variables.
Para ello, lo primero es necesario realizar un trabajo previo para concretar qué se quiere
estudiar y cómo se van a recoger los datos. Con las medidas estadísticas podremos
hacernos una primera idea de la información que hemos recabado y comprobar si existen
errores o valores extremos que puedan influir posteriormente en los análisis que
realicemos.
Tras eso, podremos realizar contrastes de hipótesis e inferencias sobre la población objeto
de estudio.
Como dos últimas ideas, primero resaltar la importancia de conocer las medidas,
distribuciones, contrastes,… así como los datos que tenemos entre manos. No todas las
herramientas estadísticas pueden ser aplicadas en cualquier situación pues el mal uso de

- 41 -
Curso de Diplomado en Salud Pública - Extremadura
Escuela Nacional de Sanidad – Escuela de Ciencias de la Salud y de la Atención Sociosanitaria.
Germán Trinidad Ruiz. Estadística.
ellas nos llevará, con mucha seguridad, a conclusiones equivocadas. La segunda idea es
que siempre es mejor utilizar varias herramientas de las que son admitidas por nuestros
datos puesto que, como ocurre en el ámbito de la Salud, una mayor información nos
permitirá alcanzar una mejor decisión.
Bibliografía
De la Puente Viedma C. Estadística descriptiva e inferencial y una introducción al método
científico. Madrid: Editorial Complutense; 2009.
Domenech I Massons JM. Tablas de estadística. 6º Ed. Barcelona: Editorial Herder; 1994.
F. Dawson G. Interpretación fácil de la bioestadística. Detroit: Elsevier; 2009.
Glantz, Stanton A. Bioestadística. 6ª Ed. México: McGraw-Hill Interamericana; 2005.
Guisande González C, Vaamonde Liste A, Barreiro Felpeto A. Tratamiento de datos con
R, Statistica y SPSS. Vigo: Ediciones Díaz de Santos; 2011.
Henquin R. Epidemilogía y estadística para principiantes. Buenos Aires: Corpus; 2013.
Huff D. Como mentir con estadísticas. Barcelona: Critica; 2011.
Johnson R, Kuby P. Estadística elemental. 11ª ed. México: Cengage Learning Editores;
2012.
Martín Andrés A, Luna del Castillo JD. Bioestadística para las Ciencias de la Salud. 4ª
ed. Madrid: Ediciones Norma; 1993.
Navarro Fierro RR. Introducción a la Bioestadística. México: McGraw-Hill; 1987.
Pérez López C. Técnicas estadísticas con SPSS. Madrid: Pearson Educación; 2001.
Verdoy PJ, Beltrán MJ, Peris MJ. Problemas resueltos de estadística aplicada a las
ciencias sociales. Castelló de la Plana: Universitat Jaume I; 2015.
Wayne W. D. Bioestadística. Base para el análisis de las ciencias de la salud. 4ª Ed.
Madrid: Limusa; 2010.

- 42 -

S-ar putea să vă placă și