Sunteți pe pagina 1din 4

Análisis de Regresión

En análisis de regresión es una herramienta de frecuente uso en Estadística

que permite estudiar y valorar las relaciones entre diferentes variables

cuantitativas tenidas en cuenta mediante la construcción de una ecuación.

El esquema básico de análisis de regresión plantea un proceso o modelo en

el cual se analiza la relación entre una variable dependiente (porque es influida por

el resto) y una o varias variables independientes o fijas (las que influyen en el

objeto de estudio). Gracias procesos de regresión estadística es posible entender

el modo en que la dependiente es afectada por cambios en los valores de las

independientes.

Aplicaciones Prácticas del Análisis de Regresión

Este tipo de estudios tiene aplicaciones para la vida cotidiana, desde el

estudio de accidentes de tráfico en una determinada zona geográfica hasta

comprobar si un plan de estudios es recomendable o no desde el punto de vista

de la tasa de abandono escolar, por ejemplo.

Crítica al Análisis de Regresión

Una crítica común a este tipo de modelo de predicción matemática es no

son óptimo, pues suele confundir correlación con causalidad. Esto quiere decir que

las conclusiones que aporta este tipo de procesos están siempre sujetas a

factores que pueden influir en su exactitud, como la falta de información sobre lo

estudiado o la existencia de fallos en la medición o recolección de datos.


Objetivo del Análisis de Regresión

El objeto de un análisis de regresión es investigar la relación estadística que

existe entre una variable dependiente (Y) y una o más variables independientes

(,...). Para poder realizar esta investigación, se debe postular una relación

funcional entre las variables. Debido a su simplicidad analítica, la forma funcional

que más se utiliza en la práctica es la relación lineal. Cuando solo existe una

variable independiente, esto se reduce a una línea recta:

donde los coeficientes b0 y b1 son parámetros que definen la posición e

inclinación de la recta. (Nótese que hemos usado el símbolo especial para

representar el valor de Y calculado por la recta. Como veremos, el valor real de Y

rara vez coincide exactamente con el valor calculado, por lo que es importante

hacer esta distinción.)

El parámetro b0, conocido como la "ordenada en el origen," nos indica

cuánto es Y cuando X = 0. El parámetro b1, conocido como la "pendiente," nos

indica cuánto aumenta Y por cada aumento de una unidad en X. Nuestro

problema consiste en obtener estimaciones de estos coeficientes a partir de una

muestra de observaciones sobre las variables Y y X. En el análisis de regresión,

estas estimaciones se obtienen por medio del método de mínimos cuadrados.


Diagrama de Dispersión

Un diagrama de dispersión o gráfica de dispersión o gráfico de dispersión

es un tipo de diagrama matemático que utiliza las coordenadas cartesianas para

mostrar los valores de dos variables para un conjunto de datos.

Se emplea cuando una o varias variables está bajo el control del

experimentador. Si existe un parámetro que se incrementa o disminuye de forma

sistemática por el experimentador, se le denomina parámetro de control o variable

independiente y habitualmente se representa a lo largo del eje horizontal (eje de

las abscisas). La variable medida o dependiente usualmente se representa a lo

largo del eje vertical (eje de las ordenadas). Si no existe una variable dependiente,

cualquier variable se puede representar en cada eje y el diagrama de dispersión

mostrará el grado de correlación (no causalidad) entre las dos variables.

Un diagrama de dispersión puede sugerir varios tipos de correlaciones entre

las variables con un intervalo de confianza determinado. La correlación puede ser

positiva (aumento), negativa (descenso), o nula (las variables no están

correlacionadas). Se puede dibujar una línea de ajuste (llamada también "línea de

tendencia") con el fin de estudiar la correlación entre las variables.


Prueba de Hipótesis

Es una regla que especifica si se puede aceptar o rechazar una afirmación acerca

de una población dependiendo de la evidencia proporcionada por una muestra de

datos.

Una prueba de hipótesis examina dos hipótesis opuestas sobre una

población: la hipótesis nula y la hipótesis alternativa. La hipótesis nula es el

enunciado que se probará. Por lo general, la hipótesis nula es un enunciado de

que "no hay efecto" o "no hay diferencia". La hipótesis alternativa es el enunciado

que se desea poder concluir que es verdadero de acuerdo con la evidencia

proporcionada por los datos de la muestra.

Con base en los datos de muestra, la prueba determina si se puede

rechazar la hipótesis nula. Usted utiliza el valor p para tomar esa decisión. Si el

valor p es menor que el nivel de significancia (denotado como α o alfa), entonces

puede rechazar la hipótesis nula.

Un error común de percepción es que las pruebas estadísticas de hipótesis

están diseñadas para seleccionar la más probable de dos hipótesis. Sin embargo,

al diseñar una prueba de hipótesis, establecemos la hipótesis nula como lo que

queremos desaprobar. Puesto que establecemos el nivel de significancia para que

sea pequeño antes del análisis (por lo general, un valor de 0.05 funciona

adecuadamente), cuando rechazamos la hipótesis nula, tenemos prueba

estadística de que la alternativa es verdadera. En cambio, si no podemos rechazar

la hipótesis nula.

S-ar putea să vă placă și