Sunteți pe pagina 1din 36

Linda EL ESTUDIO ESTADÍTICO

LA ESTADÍSTICA: Conceptos y Terminología

La Estadística es la rama de la matemáticas que tiene como objetivo el desarrollo de TÉCNICAS


para el conocimiento numérico de un conjunto numeroso de datos empíricos (recogidos mediante
experimentos o encuestas) Es decir, se ocupa de recoger, organizar, resumir y analizar una gran
cantidad de datos obtenidos de la realidad para hacer visible lo invisible, e inferir conclusiones
respecto de ellos.

¿Cuándo empezó la Estadística?


La Estadística actual es el resultado de la unión de dos disciplinas que evolucionaron de forma
independiente hasta confluir en el siglo XIX:
Cálculo de Probabilidades el, que nació en el siglo XVII como la teoría matemática de los juegos de
azar. Correspondencia entre Pascal y Fermat (1654) para resolver el problema de los puntos. De Mère,
amigo de Pascal y jugador empedernido, le pidió a Pascal que le ayudara en calcular cómo dividir las
apuestas de una partida empezada que debía interrumpirse cuando llegaba la policía, pues el juego era
ilegal en Francia.
la “Estadística”, o ciencia del Estado, que estudia la descripción de datos, y que tiene unas raíces más
antiguas, de hecho, tan antiguas como la humanidad (censos de población). Desde la antigüedad los
Estados han recogido datos sobre sus habitantes con el objetivo principal de recaudar impuestos y tributos,
y reclutar jóvenes para el ejército. Babilonia, Imperio romano, Carlomagno… España lleva a cabo uno de
los primeros censos de población en el siglo XVI en Perú.
La interacción de ambas líneas de pensamiento da lugar a la ciencia que estudia cómo obtener
conclusiones de la investigación empírica mediante el uso de modelos matemáticos. El impulso
fundamental para la aparición de la Estadística fue la necesidad de estimar cantidades desconocidas a
partir de muestras. Este problema se planteó en el campo de la Astronomía (necesidad de verificar la teoría
de Newton) donde, por falta de precisión de los instrumentos de medición, distintas mediciones de la
misma cantidad conducían a resultados diferentes. El problema consistía en decidir cuál de estas
mediciones era la mejor.
Este problema lo solucionó Gauss, introduciendo la ley normal o gaussiana como modelo de los errores
de medición. La revolución que supuso en la Física Newton, se produjo en la Biología por la obra de
Darwin. Así a finales del siglo XIX Galton (primo de Darwin) y Pearson inventan métodos para medir la
relación entre dos variables y aparece así la idea de regresión y el coeficiente de correlación. En el campo
de las Ciencias Sociales, los primeros trabajos para encontrar relación entre variables son debidos a
Adolfo Quetelet (1796-1874, astrónomo belga de curiosidad ilimitada) y Florence Nightingale (1820-
1910, primera mujer estadística, enfermera británica condecorada con la orden del mérito británico) que
aplicaron la Estadística a problemas demográficos, sociológicos y políticos.
Resumiendo: La Estadística actúa como disciplina puente entre los modelos matemáticos y los
fenómenos reales. Un modelo matemático es una abstracción simplificada de una realidad más compleja y
siempre existirá una cierta discrepancia entre lo que se observa y lo previsto por el modelo. La Estadística
proporciona una metodología para evaluar y juzgar estas discrepancias entre la realidad y la teoría.

Características de la estadística
La Estadística es un conjunto de técnicas. Técnicas analíticas para ver en unos datos lo que
nuestra mirada no es capaz de ver porque son muy numerosos. En Estadística hay tres
tipos de técnicas, tres actividades básicas, tres acciones: Descripción, Relación y
Comparación.
Descripción: Técnicas donde no se infiere, sólo se mira lo que se tiene: la muestra. Se le
calculan descriptores que capten aspectos relevantes de ella. Se dibujan gráficos que la
resuman. La muestra es el fin, no un medio.
Relación: Técnicas que buscan relaciones entre variables, entre diferentes características
medidas a una serie de individuos. Se busca la existencia de relación entre ellas y se
pretende establecer relaciones matemáticas entre ellas.
Comparación: Técnicas que comparan poblaciones de individuos. El objetivo es poder
hablar de la igualdad o de la diferencia entre esos grupos, entre esas poblaciones.
La Relación y la Comparación sí son técnicas donde se infiere, son técnicas inferenciales.
La muestra ahora es un medio, no un fin. Se pretende desde la muestra sacar
conclusiones poblacionales. Desde la relación entre las variables a nivel muestral o desde
la comparación de dos o más muestras se busca hacer afirmaciones poblacionales,
afirmaciones que vayan más allá de lo que se ve, más allá de la muestra.

Es muy importante situar desde el principio cuál es el papel básico de la Estadística. Y ver
la simplicidad que hay detrás de una aparente complejidad. La Estadística es, en realidad,
un mundo caracterizado, aunque desde fuera parezca que no, por un paisaje muy
homogéneo. En Estadística estamos siempre describiendo, relacionando o
comparando. Pero, ¿qué hace cualquier científico en su actividad diaria? También
describir, relacionar y comparar.
Sosteniendo a la Estadística, desde la base, existe un básico paisaje de conceptos del
mundo de la probabilidad: especialmente la noción de variable aleatoria, la noción de
función de distribución, de modelización matemática. Estos conceptos se verán como
complementos de lo que constituye el hilo conductor de la Estadística: la construcción de
técnicas para describir lo que vemos en la muestra y para inferir acerca de lo que no
vemos en la muestra.

Fases del análisis estadístico de los datos de un estudio


Cómo asegurar la calidad de los datos
Es evidente que para que los resultados de un estudio se adecuen a la realidad, los datos deben ser
correctos y deben cumplir con unos estándares de calidad. Es por ello que no tener en cuenta una mínima
calidad de los datos puede conducirnos a concluir nuestro estudio de forma errónea.
Gestión de datos

El Estudio Estadístico Página 2 de 36


La gestión de datos comprende diferentes pasos descritos ampliamente en el capítulo 3 de este manual y
que recordaremos brevemente, remarcando los consejos más prácticos de esta fase. En primer lugar, se
realizará una base de datos con entrada de datos validada que contenga sus filtros y rangos que impedirán
que los valores inconsistentes sean grabados. Esta base de datos almacenará los datos que contiene el
cuaderno de recogida de datos (CRD) reflejando toda la información aportada por los investigadores para
su posterior análisis estadístico. Es importante que el diseño de la base de datos siga el mismo orden que
el CRD. Nos deberemos asegurar de que los datos transcritos en el CRD se pasan de forma correcta a la
base de datos. Los datos que no cumplan los requisitos serán revisados y corregidos, pudiendo aparecer la
necesidad de emitir una “query”, que puede ser identificada tanto durante el proceso de entrada de datos
como durante la codificación y revisión de los datos introducidos. La respuesta será actualizada en la base
de datos cuando se disponga de dicha información.
Revisión de los datos
Existen una serie de procedimientos a realizar en los datos ya introducidos para valorar si contienen
valores incorrectos, que nos pueden conducir a conclusiones equivocadas. Para llevar a cabo este proceso
utilizaremos las técnicas que componen la estadística descriptiva revisando las variables una por una en
búsqueda de valores ilógicos en las mismas o con errores de transcripción.

Definición del análisis estadístico


El análisis estadístico es un apartado dentro del protocolo cuya finalidad es exponer la estrategia de
análisis a seguir. Contemplará la definición de cada una de las variables imprescindibles y secundarias del
estudio y nos informará de la técnica utilizada para la medición y análisis para asegurar la respuesta a la
pregunta planteada en el estudio.
Plan de análisis estadístico
En el plan de análisis se expone y detalla, de acuerdo a los objetivos propuestos, las medidas de resumen
de las variables y cómo serán presentadas (cuantitativas y/o cualitativas), indicando los modelos y técnicas
analíticas que se utilizarán para comprobar las hipótesis del estudio.
Se recomienda que éste sea previo al análisis para no decantarse por opciones que puedan verse alteradas
por los primeros resultados obtenidos. En el plan de análisis también se describe brevemente el software
que será utilizado para el análisis de datos y se establece el nivel de significación estadística para todas las
pruebas estadísticas realizadas con las variables de resultados que por lo general suele ser de 0,05. Se
nombra en él, la utilización de técnicas estadísticas preliminares para asegurar el cumplimiento de los
supuestos estadísticos.
En el caso de que no se cumplan los supuestos establecidos se utilizarán pruebas equivalentes que no
presenten dichas limitaciones, como por ejemplo pruebas no paramétricas. Todo el análisis va a ir dirigido
a responder preguntas concretas y sencillas, generalmente establecidas en el protocolo previo, dejando
claramente definidas las variables principales que se van a utilizar como respuesta, tanto por su
significado clínico como por la forma de cálculo que se va emplear, si lo hubiera (por ejemplo,
recodificaciones o cálculos específicos).
Consideraciones prácticas de la selección de la prueba estadística adecuada
Decidir qué prueba estadística es la adecuada para nuestros datos no es un proceso mecánico. Depende de
cada situación en particular y de los conocimientos del investigador para justificar el porqué de su
decisión. Es muy importante que el investigador se sienta cómodo con la prueba que utilizará, ya que su
capacidad para interpretar de forma adecuada el resultado obtenido dependerá de la correcta comprensión
de la prueba. En los distintos capítulos de que consta este manual se han ido referenciando las distintas
pruebas estadísticas a utilizar según las características de la variable, además de dirigirnos al anexo II
donde se expone de forma esquemática una clasificación de las pruebas estadísticas más apropiadas para
datos apareados e independientes. Hay que tener en cuenta que este esquema nos orientará pero no es el
único ni definitivo. A continuación nombraremos algunas normas que nos pueden facilitar la elección de la
prueba estadística más adecuada para nuestros datos.

El Estudio Estadístico Página 3 de 36


Para elegir la prueba adecuada debemos tener claras las características de las variables a analizar. Existen
las pruebas paramétricas y las pruebas no paramétricas, en función de la distribución de las variables y
pruebas para datos independientes o apareados. Las pruebas que deberemos utilizar serán distintas según
las variables a analizar sean cualitativas o cuantitativas. Una variable cuantitativa presenta una mayor
información que una variable cualitativa, aunque esta última puede llegar a ser mucho más fácil de
interpretar. Un aspecto que debemos tener claro es si nuestros datos se tratan de datos apareados o
independientes. Los datos medidos sobre el mismo individuo serán siempre apareados. Este es el caso, por
ejemplo, de la comparación de las cifras de hematocrito de los individuos de una muestra en dos
momentos del tiempo, antes y después de una intervención. Para esta situación existen pruebas más
potentes, dado que la variabilidad en las pruebas paramétricas de estas mediciones es menor. Si no existe
apareamiento, se habla de datos independientes. Existen unas condiciones de aplicación para ciertas
pruebas de análisis estadístico en datos cuantitativos entre las que es importante la distribución de la
variable. La mayoría de estas pruebas son robustas y toleran relativas violaciones de estas asunciones
sobre su distribución, sobretodo si el número de sujetos estudiado es superior a 30. En caso de que el
número sea inferior, deben emplearse otras pruebas, habitualmente de cálculo más complejo y menos
potentes, llamadas pruebas no paramétricas.
Cuando deseamos evaluar la posible relación entre variables cualitativas, se utiliza la prueba de la Ji-
Cuadrado (capítulo 11) y dependiendo del tipo de estudio se suele utilizar medidas de asociación tales
como el Odds-ratio o OR y el riesgo relativo o RR (capítulo 15). Un ejemplo sería analizar en HD, la
relación entre grupos de gravedad y las diferentes técnicas de educación sanitaria de dieta. Cuando
comparamos dos grupos respecto a una variable cuantitativa, como por ejemplo el valor del Hto. en dos
grupos de pacientes en HD, la técnica a aplicar es la t de Student. En el caso de no cumplirse las
condiciones necesarias para su aplicación debe recurrirse a la prueba no paramétrica equivalente, la U de
Mann-Whitney (capítulo 12).
Si lo que se desea es comparar una variable cuantitativa en más de dos grupos, por ejemplo, la
comparación de la tensión arterial diastólica en tres grupos de pacientes a los que se aplican técnicas
sustitutivas distintas HD/DP/TX, debe realizarse un análisis de varianza (capítulo 12). En caso de que se
demuestre la existencia de diferencias significativas en la distribución de los tres grupos, se justifica su
comparación posterior para detectar cuál de ellos es el que difiere, utilizando técnicas de comparación
múltiple específicamente diseñadas, como son Bonferroni, Tukey o Scheffé. La prueba equivalente no
paramétrica del análisis de la varianza es la prueba de Kruskall-Wallis. Esta prueba nos dice si existen
diferencias en varios grupos, pero no cual de ellas es la que se difiere, por lo que si nuestro objetivo así lo
requiere, hay que realizar comparaciones “dos a dos” con el test no paramétrico, según se trate de datos
independientes (MannWhitney) o de datos apareados (Wilconson). Aunque con la multiplicidad de
pruebas deberá ajustarse el nivel de significación. Si lo que nos interesa es determinar la asociación entre
dos variables cuantitativas, por ejemplo, la edad y el colesterol, la prueba adecuada es la correlación de
Pearson o, si no se cumplen las condiciones de aplicación, la correlación de Spearman (capítulo 13). En el
caso de que pueda asumirse una relación de dependencia lineal de una de las variables respecto a la otra
se habla de regresión.
Aclaraciones sobre cual es el verdadero valor de la p
Aclaraciones sobre cual es el verdadero valor de la p Creemos importante aclarar de nuevo cual es el
interés de la p, tantas veces referenciada en los resultados estadísticos de los estudios, y que nos puede
llevar a confusión. La expresión resultado estadísticamente significativo podría ser sinónimo de “es
improbable que el resultado observado sea debido al azar o rechazo de la hipótesis nula”. O sea, el valor p
se refiere a que la diferencia observada en los datos no es fruto de la casualidad. Tampoco se puede
interpretar como una medida de fuerza de la asociación, así pues si nos encontramos con una p < 0,001 no
quiere decir que la asociación encontrada sea más fuerte o la diferencia más importante que en otro valor
en que la p>0,05, sólo nos está diciendo que el resultado obtenido tiene menos probabilidad de que sea
debido al azar o causalidad. Por coherencia tampoco deberemos ser muy rígidos en el límite del nivel de
significación por ejemplo una p de 0.049 y una p de 0,051 no son lo mismo ya que la primera es

El Estudio Estadístico Página 4 de 36


estadísticamente significativa al nivel del 5% y la segunda no. Sin embargo la probabilidad de observar el
resultado por azar es prácticamente la misma, por ello se recomienda informar del valor obtenido para la
p, sobre todo si es muy próximo al nivel de significación fijado, y así poder valorar de forma adecuada los
resultados que nos están dando.
Población para el análisis
Todo estudio que se precie debe contener una serie de consideraciones que deben estar justificadas en
muchos ámbitos: En primer lugar, deberemos indicar la fuente de la que hemos extraído la muestra
(ámbito hospitalario, atención primaria, servicio de nefrología), así como si ha existido algún mecanismo
de selección de sujetos (aleatorización, por bloques, muestreo sistemático). Posteriormente, deberemos
describir la muestra de pacientes que estamos analizando, teniendo en cuenta las variables recogidas
durante el proceso.
Debemos tener en cuenta variables de tipo sociodemográfico tales como la edad, el género, los estudios
finalizados, la situación laboral, así como también datos antropomórficos como peso, talla e IMC. De cara
a homogeneizar la muestra de pacientes, generalmente se seleccionan aquellos que cumplen ciertos
criterios (criterios de inclusión y exclusión). De esta forma, se conocerá la población diana, es decir, la
población de la que se quiere extraer resultados y se podrá interpretar de forma más correcta los
resultados. Por otra parte, estas características podrán ser tenidas en cuenta para evaluar su influencia en
los resultados, evaluando la posibilidad de extrapolar los resultados y permitir la replicabilidad del estudio
por otros investigadores.
Seleccionar los pacientes de una muestra también obedece a criterios propios de cada estudio, por lo que
es posible que haya más de una población. Generalmente, existe la población formada por todos los
pacientes incluidos en el estudio y que hayan cumplido los criterios de inclusión; pero también se analiza
el grupo de pacientes que, además de haber cumplido los criterios de selección, han permanecido en el
estudio durante por lo menos 6 meses, por ejemplo. Finalmente, en cualquier estudio debe quedar clara la
enfermedad que estamos evaluando, el tiempo de evolución, la gravedad y los criterios diagnósticos
utilizados.
Valoración del análisis de grupos de estudio comparables
En cuanto a las características de la muestra, también es importante analizar la situación clínica al inicio
del estudio para evaluar la homogeneidad basal entre los grupos de estudio y para dar una idea de la
situación de partida de estos pacientes. Para que los resultados de nuestro estudio sean válidos y no tengan
sesgos que alteren nuestros resultados, antes de efectuarse cualquier comparación en la variable respuesta,
deberemos asegurarnos de que los dos (o más) grupos de estudio son comparables inicialmente en relación
a variables que puedan influir en la respuesta. Por ejemplo, si en un estudio que pretende comparar la
eficacia de dos fármacos en los que las mujeres siempre presentan una mayor eficacia, si obtuviéramos
diferencias en la distribución de mujeres en ambos grupos, podríamos estar delante de un problema a la
hora de realizar el análisis puesto que el género podría interferir en la interpretación de los resultados
(posible factor de confusión). Es normal que si disponemos de muchas variables a analizar entre grupos de
estudio, alguna resulte significativa; es por ello que siempre deberá tenerse en cuenta cuando clínicamente
esté justificada su presencia.
Análisis de resultados
Cuando estimamos un parámetro, por ejemplo, disminución de TAS o porcentaje de pacientes diabéticos
que presentan un IMC superior a 35 Kg./m2 , sólo tenemos un grupo de pacientes y podemos estimarlo a
partir de la media y porcentaje, con sus respectivos intervalos de confianza. Así damos el valor observado
muestral y el rango de valores entre los que se incluye su valor. En el caso de que comparemos dos grupos
de tratamiento, por ejemplo, debemos dejar bien claro la prueba que hemos aplicado, así como también la
prueba estadística que hemos considerado. Para el análisis principal, siempre debe indicarse la respuesta
para cada uno de los grupos y el nivel de significación (p-valor). Estos datos crudos sólo hacen referencia
a la probabilidad de que el azar haya podido explicar los resultados, pero no dan una magnitud del efecto
de un tratamiento. Por lo tanto, si nuestra respuesta es categórica debemos estimar el intervalo de
confianza asociado de la diferencia de proporciones, el OR o el RR y si es continua, estimaremos el

El Estudio Estadístico Página 5 de 36


intervalo de confianza de la diferencia de medias y, si se cree necesario, el intervalo de confianza de cada
una de las medias de los grupos. En nuestro ejemplo.
Análisis estratificado
Muchas veces, parece indicado realizar un análisis estratificado de nuestros datos, principalmente de cara
a responder preguntas secundarias que se nos plantean importantes; pero en muchas ocasiones también
puede ser realizado para evaluar la existencia de un factor de confusión que puede influenciar en los
resultados así como para evaluar el cambio del efecto producido en nuestra respuesta dependiendo de
valores de otras variables que actúan como modificadoras del efecto. Primeramente, debemos asegurarnos
que existe un número de sujetos aceptable en cada estrato, aunque siempre que sea coherente puede
realizarse alguna agrupación con sentido clínico.
Las variables para las que se puede estratificar deben ser escogidas cuidadosamente, realizando una
selección apropiada y no realizándolo con todas las variables disponibles. Cuando se tengan definidos los
estratos, podremos realizar pruebas estadísticas sencillas, de acuerdo a nuestros objetivos y tipo de
variables a estudiar. Generalmente deberemos tener los resultados por estratos (por ejemplo fumadores y
no fumadores) y por el global de la población, por lo que a partir de los análisis sencillos, podremos
controlar factores de confusión y variables modificadoras del efecto.
Factores de confusión
Los factores de confusión son variables que interfieren en nuestra variable principal, pudiendo afectar a
los resultados que, con tanto esfuerzo se han obtenido durante el análisis. Siempre que podamos debe
prevenirse en la fase de diseño, aunque no siempre es posible. Podremos identificar un factor de confusión
cuando este factor aparece relacionado con nuestra variable de respuesta y, a la vez, está asociado con
otras variables del estudio que se relacionan con nuestro factor, sin ser una variable intermedia entre estas
relaciones. Cuando tenemos en cuenta un factor de confusión, la relación entre el factor y el efecto que
estamos evaluando se modifica de la misma forma en todos los grupos. Por ejemplo, si estamos
estudiando la relación entre el consumo de café y el infarto agudo de miocardio (IAM), observaremos que
el consumo de café aumenta el riesgo de padecer un IAM. Antes de llegar a esta conclusión, intentaremos
comprobar que esta relación se ha debido sólo al efecto del café y no de otras variables, como por
ejemplo, el tabaco. Si el hecho de ser fumador se correlaciona con un mayor consumo de café y el hecho
de fumar es un factor de riesgo del IAM, estamos hablando de un factor de confusión. La tabla 24 ilustra
el ejemplo:

Los resultados totales muestran una asociación positiva entre el consumo de café y el IAM (OR=3.16;
OR>1), de manera que aparentemente el riesgo de sufrir IAM se ve incrementado por el consumo de café.
Sin embargo, esta relación puede deberse a que el consumo de café está relacionado con un mayor número
de fumadores. Sospechando de esta relación y, estratificando los resultados por hábito tabáquico, nos

El Estudio Estadístico Página 6 de 36


encontramos que la relación para cada grupo o estrato desaparece con OR cercanos a 1. Por lo que
concluimos que el tabaquismo estaba actuando como factor de confusión, produciendo una aparente
relación entre el consumo de café y el IAM. Puesto que no siempre el análisis “a posteriori” va a ser lo
más adecuado, como hemos dicho anteriormente, debemos evaluar durante la fase de diseño si un
determinado factor puede enmascarar los verdaderos resultados de nuestro estudio. Su interferencia puede
evitarse mediante la recogida de datos, restringiendo la selección de pacientes o bien, realizando un
análisis estratificado desde el inicio del estudio..
Importante
El análisis estadístico no es una tarea que se improvisa una vez se han procesado los datos. Por el
contrario, el análisis surge más del marco teórico trazado que de los datos concretos obtenidos, por lo que
se debería tener una idea precisa de cuales serán los análisis principales que se deberán efectuar antes de
comenzar a recolectar datos. Se podrá definir así, con suficiente antelación, qué datos serán capaces de
rechazar o afirmar una hipótesis, qué resultados indicarán una u otra conclusión. Esta actividad es
fundamental para evitar sorpresas lamentables, como por ejemplo la de encontrar que no tenemos
suficientes datos al final del procesamiento, o de que los que poseemos no nos sirven en realidad para
mucho.

Marco conceptual

Población: Una población es el conjunto de todos los elementos a los que se somete a un estudio
estadístico. No debe confundirse la población en sentido demográfico y la población en sentido
estadístico. La población en sentido demográfico es un conjunto de individuos (todos los habitantes de
un país, todas las ratas de una ciudad), mientras que una población en sentido estadístico es un conjunto
de datos referidos a determinada característica o atributo de los individuos (las edades de todos los
individuos de un país, el color de todas las ratas de una ciudad).

Individuo: Un individuo o unidad estadística es cada uno de los elementos que componen la población.

Muestra: Una muestra es un conjunto representativo de la población de referencia, el número de


individuos de una muestra es menor que el de la población.

Muestreo: El muestreo es una técnica que sirve para obtener una o más muestras de población. Éste se
realiza una vez que se ha establecido un marco muestral representativo de la población, se procede a la
selección de los elementos de la muestra aunque hay muchos diseños de la muestra.

Tipos de muestreo: Existen dos métodos para seleccionar muestras de poblaciones; el muestreo no
aleatorio y el aleatorio. En este último todos los elementos de la población tienen la oportunidad de ser
escogidos en la muestra. También puede ser estratificado o no.

Censo: Se entiende por censo aquella numeración que se efectúa a todos y cada uno de los caracteres
componentes de una población.

Encuesta: Se entiende por encuesta las observaciones realizadas por muestreo, es decir son
observaciones parciales.

Datos Estadísticos: Son los resultados del experimento o mediciones de las observaciones realizadas, son
el general, el producto de las observaciones efectuadas en los cuales se produce el fenómeno que

El Estudio Estadístico Página 7 de 36


queremos estudiar. Un dato es cada uno de los valores que se ha obtenido al realizar un estudio
estadístico. Si lanzamos una moneda al aire 5 veces obtenemos 5 datos: cara, cara, cruz, cara, cruz. El
conjunto de datos de los cuales se ocupa un determinado estudio estadístico se llama población.

Valor: Un valor es cada uno de los distintos resultados que se pueden obtener en un estudio estadístico.
Si lanzamos una moneda al aire 5 veces obtenemos dos valores: cara y cruz.

Clasificación de los datos: Los datos estadísticos pueden ser clasificados en cualitativos, cuantitativos,
cronológicos (series de tiempo) y geográficos (series de espacios), etc. Cuantitativos, cuando son
representados por un número. Cualitativos, cuando señalan cualidades y no están representados
numéricamente. Cronológicos, cuando los valores de los datos varían en diferentes instantes o períodos
de tiempo, los datos son reconocidos como cronológicos; y son Espaciales cuando los datos están
referidos a una localidad, espacio, área,

Fuentes de datos Estadísticos: Los datos estadísticos necesarios para la comprensión de los hechos
pueden obtenerse a través de fuentes primarias y fuentes secundarias: Primarias, cuando se va ala origen
mismo de la información o experimento y se toman los datos directamente, y son Secundarias, cuando
se obtienen sin el experimento u observación directa

Método para la recolección de datos: En estadística se emplean una variedad de métodos distintos para
obtener información de los que se desea investigar. Entre ellos tenemos: Entrevista personal, encuestas,
observación con o sin control de un experimento o de poblaciones, Cuestionarios, Mediciones, conteos.

Variables estadísticas

Un Carácter Estadístico es cada una de las características o cualidades que poseen los individuos de una
población.

Cuantitativos: Son aquellos que se pueden medir. Determinan variables estadísticas que pueden ser:

Discretas: Sólo pueden tomar un


número finito de valores
enteros, los valores posibles de
estas variables son aislados.

Continuas: Pueden tomar


cualquier valor dentro de un
intervalo.
2. Las Tareas Estadísticas

2.1 Recoger la Información.

El Estudio Estadístico Página 8 de 36


CUESTIONARIOS: Un cuestionario consiste en un conjunto de preguntas respecto a una o más variables a
medir. El contenido de las preguntas de un cuestionario puede ser tan variado como los aspectos que
mida. Y básicamente, podemos hablar de dos tipos de preguntas: cerradas y abiertas.

Las preguntas cerradas contienen categorías o alternativas de respuestas que han sido delimitadas. Es
decir, se presentan a los sujetos las posibilidades de respuestas y ellos deben circunscribirse a ellas.
Pueden ser dicotómicas (dos alternativas de respuestas) o incluir varias alternativas de respuestas.

ENCUESTAS: El diseño de encuestas es exclusivo de las ciencias sociales y parte de la premisa de que si,
queremos conocer algo sobre el comportamiento de las personas, lo mejor, lo más directo y simple, es
preguntárselo directamente a ellas. Se trata por tanto de requerir información a un grupo socialmente
significativo de personas acerca de los problemas en estudio para luego, mediante un análisis de tipo
cuantitativo, sacar las conclusiones que se correspondan con los datos recogidos.

ENTREVISTA: La entrevista, desde el punto de vista del método, es una forma específica
de interacción social que tiene por objeto recolectar datos para una indagación. El investigador formula
preguntas a las personas capaces de aportarle datos de interés, estableciendo un diálogo peculiar,
asimétrico, donde una de las partes busca recoger informaciones y la otra es la fuente de esas
informaciones. Por razones obvias sólo se emplea, salvo raras excepciones, en las ciencias humanas.

La ventaja esencial de la entrevista reside en que son los mismos actores sociales quienes proporcionan
los datos relativos a sus conductas, opiniones, deseos, actitudes y expectativas, cosa que por su
misma naturaleza es casi imposible de observar desde fuera. Nadie mejor que la misma persona
involucrada para hablarnos acerca de todo aquello que piensa y siente, de lo que ha experimentado o
proyecta hacer.

OBSERVACIÓN: Es un método clásico de investigación científica. Puede asumir muchas formas; puede ser
simple en la cual tanto el observador como los observados participan de la manera más natural posible, y
en este caso el observador deberá tener un plan previo para la información a partir de las notas que vaya
levantando a lo largo de la observación.

REGISTROS: A veces existe información documental en registros. Conviene saber si es así, y el tipo de
registros que se guardas… Sobre todo, para solicitarla.

2.2 Organizar la Información.

Los datos de las encuestas se “vuelcan” en una matriz de datos, y a partir de ellos se elaboran:

Las Tablas de Frecuencias

La distribución de frecuencias o tabla de frecuencias es una ordenación en forma de tabla de los datos
estadísticos, asignando a cada dato su frecuencia correspondiente.

Frecuencia absoluta

El Estudio Estadístico Página 9 de 36


La frecuencia absoluta es el número de veces que aparece un determinado valor en un estudio
estadístico. Se representa por fi.

La suma de las frecuencias absolutas es igual al número total de datos, que se representa por N.

Para indicar resumidamente estas sumas se utiliza la letra griega Σ (sigma mayúscula) que se lee suma o
sumatoria.

Frecuencia relativa

La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el número


total de datos: es un tanto por uno.

Se puede expresar en tantos por ciento y se representa por ni.

La suma de las frecuencias relativas es igual a 1.

Frecuencia acumulada
La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores inferiores o
iguales al valor considerado. Se representa por Fi.

Frecuencia relativa acumulada


La frecuencia relativa acumulada es el cociente entre la frecuencia acumulada de un determinado valor y
el número total de datos. Se puede expresar en tantos por ciento.

Este tipo de tablas de frecuencias se utiliza con variables discretas.

Ejemplo

Durante el mes de julio, en una ciudad se han registrado las siguientes temperaturas máximas:

32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27, 28, 29, 30, 32, 31, 31, 30, 30, 29, 29, 30, 30, 31, 30, 31, 34, 33,
33, 29, 29.

En la primera columna de la tabla colocamos la variable ordenada de menor a mayor, en la segunda


hacemos el recuento y en la tercera anotamos la frecuencia absoluta.

El Estudio Estadístico Página 10 de 36


xi Recuento fi Fi ni Ni

27 I 1 1 0.032 0.032

28 II 2 3 0.065 0.097

29 6 9 0.194 0.290

30 7 16 0.226 0.0516

31 8 24 0.258 0.774

32 III 3 27 0.097 0.871

33 III 3 30 0.097 0.968

34 I 1 31 0.032 1

31 1

Distribución de frecuencias agrupadas

La distribución de frecuencias agrupadas o tabla con datos agrupados se emplea si las variables toman
un número grande de valores o la variable es continua. Se agrupan los valores en intervalos que tengan
la misma amplitud denominados clases. A cada clase se le asigna su frecuencia correspondiente.

Límites de la clase:

Cada clase está delimitada por el límite inferior de la clase y el límite superior de la clase.

Amplitud de la clase:

La amplitud de la clase es la diferencia entre el límite superior e inferior de la clase.

Marca de clase:

La marca de clase es el punto medio de cada intervalo y es el valor que representa a todo
el intervalo para el cálculo de algunos parámetros.

ALEJANDROConstrucción de una tabla de datos agrupados

3, 15, 24, 28, 33, 35, 38, 42, 43, 38, 36, 34, 29, 25,
17, 7, 34, 36, 39, 44, 31, 26, 20, 11, 13, 22, 27, 47,
39, 37, 34, 32, 35, 28, 38, 41, 48, 15, 32, 13.

1º Se localizan los valores menor y mayor de la distribución. En este caso son 3 y 48.

El Estudio Estadístico Página 11 de 36


2º Se restan y se busca un número entero un poco mayor que la diferencia y que sea divisible por el
número de intervalos de queramos poner.

Es conveniente que el número de intervalos oscile entre 6 y 15.

En este caso, 48 – 3 = 45, incrementamos el número hasta 50: 5 = 10 intervalos. Se forman los intervalos
teniendo presente que el límite inferior de una clase pertenece al intervalo, pero el límite superior no
pertenece intervalo, se cuenta en el siguiente intervalo.

Ci fi Fi ni Ni

[0, 5) 2.5 1 1 0.025 0.025

[5, 10) 7.5 1 2 0.025 0.050

[10, 15) 12”5 3 5 0.075 0.125

[15, 20) 17.5 3 8 0.075 0.200

[20, 25) 22.5 3 11 0.075 0.2775

[25, 30) 27.5 6 17 0.150 0.425

[30, 35) 32.5 7 24 0.175 0.600

[35, 40) 37.5 10 34 0.250 0.850

[40, 45) 42.5 4 38 0.100 0.950

[45, 50) 47.5 2 40 0.050 1

40 1

2.3 Presentar la Información.

Los Gráficos Estadísticos

Según sea el carácter estadístico estudiado, se utilizan las siguientes tipos de gráficas:

Diagrama de barras

Un diagrama de barras se utiliza para de presentar datos cualitativos o datos cuantitativos de tipo
discreto.
Se representan sobre unos ejes de coordenadas, en el eje de abscisas se colocan los valores de la
variable, y sobre el eje de ordenadas las frecuencias absolutas o relativas o acumuladas.

Los datos se representan mediante barras de una altura proporcional a la frecuencia.

Ejemplo

El Estudio Estadístico Página 12 de 36


Un estudio hecho al conjunto de los 20 alumnos de una clase para determinar su grupo sanguíneo ha
dado el siguiente resultado:

Grupo sanguíneo fi

A 6

B 4

AB 1

0 9

N 20

Polígonos de frecuencias

Variables discretas

Los polígonos de frecuencias se realizan trazando los puntos que representan las frecuencias y
uniéndolos mediante segmentos.

Ejemplo
Las temperaturas en un día de otoño de una ciudad han sufrido las siguientes variaciones:

Hora Temperatura

6 7º

9 12°

12 14°

15 11°

18 12°

21 10°

24 8°

Variables continuas o datos agrupados

Los polígonos de frecuencias se realizan trazando los puntos formados las marcas de clase y
las frecuencias, y uniéndolos mediante segmentos.

El Estudio Estadístico Página 13 de 36


También se puede construir el polígono de frecuencia uniendo los puntos medios de cada rectángulo de
un histograma.

Ejemplo: El peso de 65 personas adultas viene dado por la siguiente tabla:

ci fi Fi

[50, 60) 55 8 8

[60, 70) 65 10 18

[70, 80) 75 16 34

[80, 90) 85 14 48

[90, 100) 95 10 58

[100, 110) 110 5 63

[110, 120) 115 2 65

65

Diagrama de sectores

Un diagrama de sectores se puede utilizar para todo tipo de variables, pero se usa frecuentemente para
las variables cualitativas.

Los datos se representan en un círculo, de modo que el ángulo de cada sector es proporcional a
la frecuencia absoluta correspondiente.

El diagrama circular se construye con la ayuda de un transportador de ángulos.

Ejemplo
En una clase de 30 alumnos, 12 juegan a baloncesto, 3 practican la natación, 9 juegan al fútbol y el resto
no practica ningún deporte.

El Estudio Estadístico Página 14 de 36


Alumnos Ángulo

Baloncesto 12 144°

Natación 3 36°

Fútbol 9 108°

Sin deporte 6 72°

Total 30 360°

Histograma

Un histograma es una representación gráfica de una variable en forma de barras. Se utilizan


para variables continuas o para variables discretas, con un gran número de datos, y que se han agrupado
en clases.

En el eje abscisas se construyen unos rectángulos que tienen por base la amplitud del intervalo, y
por altura, la frecuencia absoluta de cada intervalo.

La superficie de cada barra es proporcional a la frecuencia de los valores representados.

Para construir el polígono de frecuencia se toma la marca de clase que coincide con el punto medio de
cada rectángulo.

Ejemplo: El peso de 65 personas adultas viene dado por la siguiente tabla:

ci fi Fi

[50, 60) 55 8 8

[60, 70) 65 10 18

[70, 80) 75 16 34

[80, 90) 85 14 48

[90, 100) 95 10 58

[100, 110) 105 5 63

[110, 120) 115 2 65

65

El Estudio Estadístico Página 15 de 36


Histograma y polígono de frecuencias acumuladas

Si se representan las frecuencias acumuladas de una tabla de datos agrupados se obtiene el histograma
de frecuencias acumuladas o su correspondiente polígono.

Histogramas con intervalos de amplitud diferente

Para costruir un histogramas con intervalo de amplitud diferente tenemos que calcular las alturas de
los rectángulos del histograma.

hi es la altura del intervalo


fi es la frecuencia del intervalo
ai es la amplitud del intervalo
Ejemplo

En la siguiente tabla se muestra las calificaciones (suspenso, aprobado, notable y sobresaliente)


obtenidas pr un grupo de 50 alumnos.

Fi hi

[0, 5) 15 3

[5, 7) 20 10

[7, 9) 12 6

[9, 10) 3 3

50

El Estudio Estadístico Página 16 de 36


2.5 Resumir y Caracterizar la Información

Estamos ahora en condiciones de caracterizar la información, resumiendo la misma mediante un


conjunto reducido de valores que describan las características generales de la distribución de
frecuencias.

Parámetros estadísticos

Un parámetro estadístico es un número que se obtiene a partir de los datos de una distribución
estadística.

Los parámetros estadísticos sirven para sintetizar la información dada por una tabla o por una gráfica.

Hay tres tipos parámetros estadísticos:

De centralización.
De posición.
De dispersión.

Medidas de centralización

Nos indican en torno a qué valor (centro) se distribuyen los datos. Las medidas de centralización son:

Media aritmética

La media aritmética es el valor promedio de la distribución.

La media aritmética es el valor obtenido al sumar todos los datos y dividir el resultado entre
el número total de datos.

es el símbolo de la media aritmética.

Ejemplo
Los pesos de seis amigos son: 84, 91, 72, 68, 87 y 78 kg. Hallar el peso medio.

Media aritmética para datos agrupados


Si los datos vienen agrupados en una tabla de frecuencias, la expresión de la media es:

El Estudio Estadístico Página 17 de 36


Ejercicio de media aritmética

En un test realizado a un grupo de 42 personas se han obtenido las puntuaciones que muestra la
tabla. Calcula la puntuación media.

xi fi xi · fi

[10, 20) 15 1 15

[20, 30) 25 8 200

[30,40) 35 10 350

[40, 50) 45 9 405

[50, 60 55 8 440

[60,70) 65 4 260

[70, 80) 75 2 150

42 1 820

Moda

La moda es el valor que más se repite en una distribución. Se representa por Mo.

Se puede hallar la moda para variables cualitativas y cuantitativas.


Hallar la moda de la distribución: 2, 3, 3, 4, 4, 4, 5, 5 Mo= 4
Si en un grupo hay dos o varias puntuaciones con la misma frecuencia y esa frecuencia es la máxima,
la distribución es bimodal o multimodal, es decir, tiene varias modas.
1, 1, 1, 4, 4, 5, 5, 5, 7, 8, 9, 9, 9 Mo= 1, 5, 9
Cuando todas las puntuaciones de un grupo tienen la misma frecuencia, no hay moda.
2, 2, 3, 3, 6, 6, 9, 9
Si dos puntuaciones adyacentes tienen la frecuencia máxima, la moda es el promedio de las dos
puntuaciones adyacentes.
0, 1, 3, 3, 5, 5, 7, 8 Mo = 4
Cálculo de la moda para datos agrupados
1º Todos los intervalos tienen la misma amplitud.

Li es el límite inferior de la clase modal.


fi es la frecuencia absoluta de la clase modal.

El Estudio Estadístico Página 18 de 36


fi--1 es la frecuencia absoluta inmediatamente inferior a la en clase modal.
fi-+1 es la frecuencia absoluta inmediatamente posterior a la clase modal.
ai es la amplitud de la clase.
También se utiliza otra fórmula de la moda que da un valor aproximado de ésta:

Ejemplo
Calcular la moda de una distribución estadística que viene dada por la siguiente tabla:
fi

[60, 63) 5

[63, 66) 18

[66, 69) 42

[69, 72) 27

[72, 75) 8

100

Parámetros de posición

Las medidas de posición dividen un conjunto de datos en grupos con el mismo número de individuos.
Para calcular las medidas de posición es necesario que los datos estén ordenados de menor a mayor.

La medidas de posición son:

Mediana: La mediana divide la serie de datos en dos partes iguales.


Cuartiles: Los cuartiles dividen la serie de datos en cuatro partes iguales.
Deciles: Los deciles dividen la serie de datos en diez partes iguales.
Percentiles: Los percentiles dividen la serie de datos en cien partes iguales.

Mediana

La mediana es la puntación de la escala que separa la mitad superior de la distribución y la inferior, es


decir divide la serie de datos en dos partes iguales.

El Estudio Estadístico Página 19 de 36


Es el valor que ocupa el lugar central de todos los datos cuando éstos están ordenados de menor a
mayor.

La mediana se representa por Me. La mediana se puede hallar sólo para variables cuantitativas.
Cálculo de la mediana

1 Ordenamos los datos de menor a mayor.


2 Si la serie tiene un número impar de medidas la mediana es la puntuación central de la misma. 2, 3, 4,
4, 5, 5, 5, 6, 6 Me= 5
3 Si la serie tiene un número par de puntuaciones la mediana es la media entre las dos puntuaciones
centrales. 7, 8, 9, 10, 11, 12 Me= 9.5

Cálculo de la mediana para datos agrupados

La mediana se encuentra en el intervalo donde la frecuencia acumulada llega hasta la mitad de la suma
de las frecuencias absolutas.

Es decir tenemos que buscar el intervalo en el que se encuentre .

Li es el límite inferior de la clase donde se encuentra la mediana.

es la semisuma de las frecuencias absolutas.

Fi-1 es la frecuencia acumulada anterior a la clase mediana.

ai es la amplitud de la clase.

La mediana es independiente de las amplitudes de los intervalos.

Ejemplo: Calcular la mediana de una distribución estadística que viene dada por la siguiente tabla:

fi Fi

[60, 63) 5 5

[63, 66) 18 23

[66, 69) 42 65

[69, 72) 27 92

[72, 75) 8 100

100

El Estudio Estadístico Página 20 de 36


100 / 2 = 50
Clase modal: [66, 69)

Mediana

La mediana es la puntación de la escala que separa la mitad superior de la distribución y la inferior, es


decir divide la serie de datos en dos partes iguales.

Es el valor que ocupa el lugar central de todos los datos cuando éstos están ordenados de menor a
mayor. La mediana se representa por Me. La mediana se puede hallar sólo para variables cuantitativas.

Cálculo de la mediana
1 Ordenamos los datos de menor a mayor.
2 Si la serie tiene un número impar de medidas la mediana es la puntuación central de la misma. 2, 3, 4,
4, 5, 5, 5, 6, 6 Me= 5
3 Si la serie tiene un número par de puntuaciones la mediana es la media entre las dos puntuaciones
centrales. 7, 8, 9, 10, 11, 12 Me= 9.5

Cuarteles

Los cuartiles son los tres valores de la variable que dividen a un conjunto de datos ordenados en cuatro
partes iguales.
Q1, Q2 y Q3 determinan los valores correspondientes al 25%, al 50% y al 75% de los datos.
Q2 coincide con la mediana.

Deciles
Los deciles son los nueve valores que dividen la serie de datos en diez partes iguales.
Los deciles dan los valores correspondientes al 10%, al 20%... y al 90% de los datos.
D5 coincide con la mediana.

Percentiles
Los percentiles son los 99 valores que dividen la serie de datos en 100 partes iguales.
Los percentiles dan los valores correspondientes al 1%, al 2%... y al 99% de los datos.
P50 coincide con la mediana.

Cálculo de los cuartiles


1 Ordenamos los datos de menor a mayor.

2 Buscamos el lugar que ocupa cada cuartil mediante la expresión .


Número impar de datos
2, 5, 3, 6, 7, 4, 9

Número par de datos

El Estudio Estadístico Página 21 de 36


2, 5, 3, 4, 6, 7, 1, 9

Cálculo de los cuartiles para datos agrupados

En primer lugar buscamos la clase donde se encuentra , en la tabla de las frecuencias


acumuladas.

 Li es el límite inferior de la clase donde se encuentra la mediana.


 N es la suma de las frecuencias absolutas.
 Fi-1 es la frecuencia acumulada anterior a la clase mediana.
 ai es la amplitud de la clase.

Ejercicio de cuarteles: Calcular los cuartiles de la distribución de la tabla:

fi Fi

[50, 60) 8 8

[60, 70) 10 18

[70, 80) 16 34

[80, 90) 14 48

[90, 100) 10 58

[100, 110) 5 63

[110, 120) 2 65

65

Cálculo del primer cuartel

Cálculo del segundo cuartil

Cálculo del tercer cuartil

El Estudio Estadístico Página 22 de 36


Deciles
Los deciles son los nueve valores que dividen la serie de datos en diez partes iguales.
Los deciles dan los valores correspondientes al 10%, al 20%... y al 90% de los datos.
D5 coincide con la mediana.

Cálculo de los deciles

En primer lugar buscamos la clase donde se encuentra , en la tabla de las


frecuencias acumuladas.

 Li es el límite inferior de la clase donde se encuentra la mediana.


 N es la suma de las frecuencias absolutas.
 Fi-1 es la frecuencia acumulada anterior a la clase mediana.
 ai es la amplitud de la clase.

Ejercicio de deciles: Calcular los deciles de la distribución de la tabla:

fi Fi

[50, 60) 8 8

[60, 70) 10 18

[70, 80) 16 34

[80, 90) 14 48

[90, 100) 10 58

[100, 110) 5 63

[110, 120) 2 65

65

Cálculo del primer decil Cálculo del segundo decil

Cálculo del tercer decil Cálculo del cuarto decil

Cálculo del quinto decil Cálculo del sexto decil

El Estudio Estadístico Página 23 de 36


Cálculo del séptimo decil Cálculo del octavo decil

Cálculo del noveno decil

BRAYAN GUIOOO Percentiles

Los percentiles son los 99 valores que dividen la serie de datos en 100 partes iguales.
Los percentiles dan los valores correspondientes al 1%, al 2%... y al 99% de los datos.
P50 coincide con la mediana.

Cálculo de los percentiles: En primer lugar buscamos la clase donde se

encuentra , en la tabla de las frecuencias acumuladas.

 Li es el límite inferior de la clase donde se encuentra la mediana.


 N es la suma de las frecuencias absolutas.
 Fi-1 es la frecuencia acumulada anterior a la clase mediana.
 ai es la amplitud de la clase.

Ejercicio de percentiles

Calcular el percentil 35 y 60 de la distribución de la tabla:

fi Fi

[50, 60) 8 8

[60, 70) 10 18

[70, 80) 16 34

[80, 90) 14 48

[90, 100) 10 58

[100, 110) 5 63

[110, 120) 2 65

65

El Estudio Estadístico Página 24 de 36


Percentil 35

Percentil 60

Medidas de dispersión

Las medidas de dispersión nos informan sobre cuánto se alejan del centro los valores de la distribución.

Las medidas de dispersión son:

Rango o recorrido
El rango es la diferencia entre el mayor y el menor de los datos de una distribución estadística.

Desviación media
La desviación media es la media aritmética de los valores absolutos de
las desviaciones respecto a la media.

Varianza
La varianza es la media aritmética del cuadrado de las desviaciones respecto a la media.

Desviación típica
La desviación típica es la raíz cuadrada de la varianza.

Desviación media

La desviación respecto a la media es la diferencia entre cada valor de la variable estadística y la media
aritmética.
Di = x - x

La desviación media es la media aritmética de los valores absolutos de las desviaciones respecto a la
media.

La desviación media se representa por Dx

Ejemplo

Calcular la desviación media de la distribución: 9, 3, 8, 8, 9, 8, 9, 18

El Estudio Estadístico Página 25 de 36


Desviación media para datos agrupados

Si los datos vienen agrupados en una tabla de frecuencias, la expresión de la desviación media es:

Ejemplo

Calcular la desviación media de la distribución:

xi fi xi · fi |x - x | |x - x | · fi

[10, 15) 12.5 3 37.5 9.286 27.858

[15, 20) 17.5 5 87.5 4.286 21.43

[20, 25) 22.5 7 157.5 0.714 4.998

[25, 30) 27.5 4 110 5.714 22.856

[30, 35) 32.5 2 65 10.174 21.428

21 457.5 98.57

Varianza

La varianza es la media aritmética del cuadrado de las desviaciones respecto a la media de una
distribución estadística.
La varianza se representa por .

Varianza para datos agrupados

El Estudio Estadístico Página 26 de 36


Para simplificar el cálculo de la varianza vamos o utilizar las siguientes expresiones que son equivalentes
a las anteriores.

Varianza para datos agrupados

Ejercicios de varianza

Calcular la varianza de la distribución: 9, 3, 8, 8, 9, 8, 9, 18

Calcular la varianza de la distribución de la tabla:

xi fi xi · f i xi2 · fi

[10, 20) 15 1 15 225

[20, 30) 25 8 200 5000

[30,40) 35 10 350 12 250

[40, 50) 45 9 405 18 225

[50, 60 55 8 440 24 200

[60,70) 65 4 260 16 900

[70, 80) 75 2 150 11 250

42 1 820 88 050

Propiedades de la varianza
1. La varianza será siempre un valor positivo o cero, en el caso de que las puntuaciones sean iguales.
2. Si a todos los valores de la variable se les suma un número la varianza no varía.
3. Si todos los valores de la variable se multiplican por un número la varianza queda multiplicada por
el cuadrado de dicho número.

El Estudio Estadístico Página 27 de 36


4. Si tenemos varias distribuciones con la misma media y conocemos sus respectivas varianzas se
puede calcular la varianza total.

Si todas las muestras tienen el mismo tamaño:

Si las muestras tienen distinto tamaño:

La varianza, al igual que la media, es un índice muy sensible a las puntuaciones extremas.
Desviación típica

La desviación típica es la raíz cuadrada de la varianza.


Es decir, la raíz cuadrada de la media de los cuadrados de las puntuaciones de desviación.
La desviación típica se representa por σ.

Desviación típica para datos agrupados

Para simplificar el cálculo vamos o utilizar las siguientes expresiones que son equivalentes a las
anteriores.

Desviación típica para datos agrupados

Ejercicios de desviación típica


Calcular la desviación típica de la distribución: 9, 3, 8, 8, 9, 8, 9, 18

Calcular la desviación típica de la distribución de la tabla:


xi fi xi · fi xi2 · fi

[10, 20) 15 1 15 225

El Estudio Estadístico Página 28 de 36


[20, 30) 25 8 200 5000

[30,40) 35 10 350 12 250

[40, 50) 45 9 405 18 225

[50, 60) 55 8 440 24 200

[60,70) 65 4 260 16 900

[70, 80) 75 2 150 11 250

42 1 820 88 050

Propiedades de la desviación típica

1. La desviación típica será siempre un valor positivo o cero, en el caso de que las puntuaciones sean
iguales.
2. Si a todos los valores de la variable se les suma un número la desviación típica no varía.
3. Si todos los valores de la variable se multiplican por un número la desviación
típica queda multiplicada por dicho número.
4. Si tenemos varias distribuciones con la misma media y conocemos sus respectivas desviaciones
típicas se puede calcular la desviación típica total.

Si todas las muestras tienen el mismo tamaño:

Si las muestras tienen distinto tamaño:

Observaciones sobre la desviación típica


1. La desviación típica, al igual que la media y la varianza, es un índice muy sensible a las
puntuaciones extremas.
2. En los casos que no se pueda hallar la media tampoco será posible hallar la desviación típica.
3. Cuanta más pequeña sea la desviación típica mayor será la concentración de datos alrededor de
la media.

Coeficiente de variación

El coeficiente de variación es la relación entre la desviación típica de una muestra y su media.

El coeficiente de variación se suele expresar en porcentajes:

El Estudio Estadístico Página 29 de 36


El coeficiente de variación permite comparar las dispersiones de dos distribuciones distintas, siempre que
sus medias sean positivas. Se calcula para cada una de las distribuciones y los valores que se obtienen se
comparan entre sí. La mayor dispersión corresponderá al valor del coeficiente de variación mayor.

Ejercicio: Una distribución tiene x = 140 y σ = 28.28 y otra x = 150 y σ = 24. ¿Cuál de las dos presenta
mayor dispersión?

La primera distribución presenta mayor dispersión.


El Modelo de Gompertz y su aplicación en Seguridad Alimentaria
El Modelo de Gompertz y su aplicación en Seguridad Alimentaria

Benjamin Gompertz, miembro de una distinguida familia judía de orígenes germanos y holandeses, nació
el 5 de marzo de 1979 en Londres, donde también murió el 14 de julio de 1865. No tuvo acceso a la
enseñanza universitaria debido a sus creencias religiosas, por lo que estudió de forma autónoma.
Centrando su atención en las matemáticas, consiguió unirse como miembro a la Society of
Mathematicians of Spitalfields, lo que le facilitó la posibilidad de seguir formándose.
Desde la adolescencia, Gompertz ya estaba familiarizado con los tratados de los matemáticos ingleses y
franceses del siglo XVIII como Newton, Maclaurin o Emerson.
Dicen de él que su sed de conocimiento era tan grande que, de niño, sus padres tenían que apagar y hasta
esconder los candelabros y las velas de casa para evitar que se quedara toda la noche estudiando; él, por su
parte, seguía con sus investigaciones en el jardín, a la luz de la luna.

A lo largo de su vida, formó parte de numerosas sociedades de prestigio como la Royal Astronomical
Society, la London Mathematical Society, la Society of Actuaries y la Royal Statistical Society, entre otras,
a las cuales dedicó gran parte de su talento y sabiduría.

Función de Gompertz
Durante los años 20 del siglo XIX, se establecieron en Reino Unido las compañías de seguros Guardian
Insurance Office (1821) y Alliance Assurance Company (1824), esta última dirigida por el propio
Gompertz durante varios años.

Aplicando procedimientos del cálculo diferencial a cuestiones actuarias, consiguió presentar su “ley” o
paper sobre la mortalidad ante la Royal Society). El trabajo, titulado “On the nature of the function
expressive of the law of human mortality, and on a new mode of determining the value of life
contingencies” explicaba su ley de la siguiente manera:
“Es posible que la muerte sea la consecuencia, fundamentalmente, de dos causas que coexisten; la primera
es un componente independiente de la edad (factores externos) y la segunda uno dependiente (el deterioro
propio del envejecimiento), el cual crece exponencialmente a medida que la edad avanza (Hooker, 1965).
El documento fue publicado en 1825 por Philosophical Transactions, de la Royal Society.

El Estudio Estadístico Página 30 de 36


Esta “ley”, conocida como la Ley de Mortalidad de Gompertz, nos muestra cómo los ratios de mortalidad
(obtenidos a través de tablas de mortalidad o supervivencia) aumentan en una progresión lineal (O’Connor
y Robertson, 2005). Así, y con fines actuariales, Gompertz pensó en reducir toda esa masa de datos de las
tablas a un formato más simple conocido, desde entonces, como la ecuación de Gompertz (Kirkwood,
2015).

�(�) = � × � 𝛽�
µ = mortalidad a la edad x.
α y β = constantes.

Esta función (1), modificada posteriormente (2) por William Makeham (teniendo más en cuenta los dos
componentes), fue utilizada por las aseguradoras del momento para calcular cuotas, indemnizaciones, etc.

�(�) = � × � 𝐵� + �

µ = mortalidad a la edad x.
α y β = constantes.
γ = constante que representa la mortalidad independiente a la edad.

Cuando los ratios de mortalidad con los que se trabaja se llevan a una escala logarítmica, se obtiene una
línea recta conocida como función de Gompertz. La pendiente de dicha función indica el ratio actuarial de
envejecimiento (o ratio de envejecimiento). Las diferencias en la pendiente y, por tanto, en el ratio de
envejecieminto, pueden explicar las diferencias en la longevidad de distintas especies.

El Modelo de Gompertz
Antes de desglosar el modelo, ver qué parámetros tiene en cuenta, etc., vamos a definirlo como un modelo
cinético (Roberts, 1989; Fakruddin, 2011) y primario (Whiting and Buchanan, 1993; Fakruddin, 2011).
 Cinético Este tipo de modelos se basan en la respuesta del agente de estudio, crecimiento o
supervivencia bajo determinadas condiciones (McMeekin et al, 1993).
 Primario Un modelo primario describe, fundamentalmente, el número de microorganismos en función
del tiempo. Se cuantifican en unidades formadoras de colonias (UFC) / ml, formación de toxinas, de
metabolitos o en función de la absorbancia, por ejemplo (CollCárdenas y cols, 2001).
A partir de los resultados derivados del empleo de modelos primarios, como es este, se desarrollan los
secundarios y terciarios, en cuyas definiciones no vamos a entrar.

El Estudio Estadístico Página 31 de 36


Volviendo a los modelos primarios, actualmente son bastantes los que están validados y pueden
emplearse, como por ejemplo:

A la hora de emplear un modelo, en este caso primario, hay que seguir una serie de etapas :
1. Diseño
a. Definir el objetivo experimental.
b. Enumerar todas las variables y su relevancia.
c. Rango de fluctuación de las variables.
d. Selección del medio (sustrato).
e. Características del microorganismo.
f. Competencia con otros microorganismos.

2. Acumulación de datos
Se obtienen a través de la propia experimentación; es decir, estimando de manera directa o indirecta
(García, 2003) los valores del parámetro que estemos estudiando (recuento en placas, turbidimetría,
citometría de flujo, etc.). Todos estos valores serán los que, mediante métodos estadísticos, conformaran la
curva de crecimiento / inactivación.

3Ajuste de la curva
Una vez obtenidos los datos, se modela la curva de crecimiento del microorganismo que se está
estudiando (García, 2003), pudiéndose derivar, así, los parámetros que se han tenido en cuenta y que han
afectado a la curva obtenida (Whiting, 1993).

El Estudio Estadístico Página 32 de 36


4. Obtención del modelo
Cuando ya se tiene la gráfica, se pueden manipular los datos y valores obtenidos para elaborar un
modelo secundario o terciario (CNTA, 2013). En este caso y, al ser el modelo que se está tratando uno
primario, no se desarrollará el proceso de “transformación” a modelos superiores.

5. Validación
Para validar un modelo (generalmente aplicado a un microorganismo concreto), se suelen analizar
distintos estadísticos y/o parámetros. Entre los más utilizados, destacan los siguientes:
 Coeficiente de determinación (R2 )
 Control de valores residuales
 Significación estadística y significación biológica
 Varianza
Se tratará la importancia y los métodos de validación de los modelos en otro apartado, de manera más
detallada.

Derivación del Modelo de Gompertz

La derivación para microbiología de alimentos de la ecuación modificada de Gompertz (2) se puede


sintetizar en la siguiente expresión:

 Velocidad específica de crecimiento (µ). � = B × C/e


 Duración de la fase de latencia (LPD).𝐿𝑃� = (� − 1)/𝐵
 Máxima densidad de población (MPD).�𝑃� = � + �

Validación de modelos predictivos en microbiología de los alimentos

El Estudio Estadístico Página 33 de 36


En la actualidad, no hay un criterio publicado y aceptado internacionalmente que pueda establecer
cuándo un modelo es válido (es decir, cuya aplicación es precisa y cuyos resultados pueden inferirse al
mundo real) y cuando no (Buchanan et al. 1997; Giffel et al. 1999).
Tradicionalmente, se han venido utilizando estadísticos como el coeficiente de determinación o la
MSE (mean square error) para hacerse una idea de la validez del modelo evaluado (Ross, 1996;
McClure et al. 1994). A continuación, haremos un breve repaso de estos elementos y otros empleados
en la validación:

 MSE
Se trata de una medida de la variabilidad que no se debe a cambios en los factores (Giffel et al. 1999),
fundamentalmente aquellos que son extrínsecos, sino que se debe a la variabilidad inherente a la
biología o a errores sistemáticos.
Así, cuanto menor sea el valor de la MSE, mayor es la adecuación del modelo y sus resultados (Adair
et al. 1989 y Sutherland et al. 1994; Giffel et al. 1999). Se calcula sumando los cuadrados de los
errores y dividiendo entre el número de grados de libertad; es decir, nos informa sobre la diferencia
entre lo que se ha estimado y lo observado.
 Coeficiente de determinación (R2 ) Esta medida nos indica el ajuste de los datos obtenidos a un
modelo lineal; es decir, nos informa sobre qué cantidad de la variabilidad observada se debe al ajuste
lineal de los datos en el modelo (Giffel et al. 1999). De este modo, cuanto mayor sea el valor de este
estadístico (que se mueve entre 0 y 1), mejor será la predicción del modelo (Grau and Vanderlinde
1993, Duffy et al. 1994; Sutherland et al. 1994; Giffel et al. 1999).
 Accuracy factor o factor de precisión y Bias factor: Estos dos factores, descritos y desarrollados
inicialmente por Ross (1996), son, en cierta medida, valores promedio definidos a partir de distintas
concepciones del ‘promedio’ (Baranyi et al. 1999).
 El factor de precisión es la media de las distancias mínimas que hay entre cada punto y la línea
obtenida a través de la regresión lineal aplicada en el modelo; es, por tanto, una medida de desviación
que, hablando en plata, nos dice lo cerca que la predicción está de lo observado (Ross, 1996).

Representación típica de confrontación entre los valores de la predicción y los observados. La


distancia entre los puntos y la línea son una muestra de la precisión. Fuente: Baranyi et al. 1999.

 El bias factor nos muestra si, en promedio, los valores observados están por debajo o por encima,
gráficamente, de la línea obtenida. Dicho de otra manera, nos da una idea de la desviación estructural
del modelo (Giffel et al.1999). Este factor tiene una relevancia especialmente importante por los

El Estudio Estadístico Página 34 de 36


resultados que se obtienen de su utilización, pues nos indica si el resultado de un determinado
parámetro está sobreestimado o subestimado respecto a lo que se observa (Giffel et al. 1999).

Así, un bias factor menor de 1 significa que estamos ante lo que se suele llamar “fail-safe model”
(Ross, 1996); es decir, un modelo que, a pesar de no ser muy preciso en la predicción, no comporta
ningún riesgo (Ross, 1996; Giffel et al. 1999).

Por ejemplo, si los tiempos observados en los cuales crecen unos determinados microorganismos
fueran mayores que los de las predicciones (bias factor< 1), pese a que no sean del todo precisas,
aportan un margen de seguridad (Baranyi et al. 1999; Giffel et al. 1999).
Del mismo modo, hablaremos de “fail-dangerous model” (Ross, 1996) cuando el factor sea mayor que
1 y conlleve un riesgo para la salud.

Donde: GT = tiempo de crecimiento; n = número de observaciones utilizadas en el cálculo.

Ambos factores cobran un especial interés en tanto que nos permiten hacer comparaciones entre
distintos modelos El uso de los dos supone un paso adelante hacia el establecimiento de un criterio de
validación de modelos objetivo y práctico.
Todos estos elementos resultan interesantes para validar un modelo aunque, recordemos, no haya
ningún criterio aceptado y reconocido por la comunidad científica para este asunto (Buchanan et al.
1997.
Aplicación en Seguridad Alimentaria
Como se ha comentado en apartados anteriores, existen diversos factores que afectan al crecimiento
microbiano en los alimentos intrínsecos y extrínsecos, que comprometen, en mayor o menor medida,
la estabilidad de los alimentos y, consecuentemente, la seguridad alimentaria.

En este contexto, el análisis de riesgos se presenta como una herramienta básica en la prevención de
los riesgos asociados a los peligros microbiológicos de los alimentos (AESAN, 2011).

Las etapas de esta herramienta se pueden ver en la introducción del trabajo, de forma sintetizada.
Pero, ¿dónde encaja la microbiología predictiva en todo este sistema? – En la evaluación de riesgos,
fundamentalmente. En ella, el empleo de modelos predictivos puede ser un instrumento muy útil.

El Estudio Estadístico Página 35 de 36


Se ha definido la evaluación de riesgos, anteriormente, como un proceso de determinación de la
probabilidad y gravedad de los efectos nocivos que podrían derivarse de un peligro de origen
alimentario.y como el pilar científico fundamental del análisis de riesgos en su conjunto.También se
han comentado las fases que lo integran.

Así, la utilización de los modelos como el de Gompertz, dentro de la evaluación, resulta interesante en
cuanto que nos pueden aportar información fiable sobre la estabilidad de un determinado
microorganismo en un alimento concreto y bajo unas condiciones determinadas (Signorini, 2008),
incluyendo aquellas relativas a cualquier fase de la cadena alimentaria como la producción o la
distribución (García, 2003), “de la granja a la mesa” (Signorini, 2008). Por tanto y, por las
características propias del modelo, se pueden estimar las variaciones en el número de
microorganismos y realizar una evaluación de la exposición a los mismos (Fakruddin et al, 2011). De
este modo, la utilización de la microbiología predictiva, con una concepción más amplia, puede ayudar
de forma importante en la realización de una buena evaluación de riesgos en alimentos (Coll-Cárdenas
y cols, 2001).

Bibliografía
https://uvadoc.uva.es/bitstream/10324/18086/1/TFG-M-N520.pdf
https://matematicasiesoja.wordpress.com/estadistica/
https://matematicasiesoja.files.wordpress.com/2018/01/comohacerunestudioestadisticoeso.pdf
https://searchdatacenter.techtarget.com/es/definicion/Analisis-estadistico

El Estudio Estadístico Página 36 de 36

S-ar putea să vă placă și