Sunteți pe pagina 1din 8

PARTE I

1. CONCEPTOS TEÓRICOS QUE FUNDAMENTAN LA TÉCNICA


MULTIVARIADA DE ANÁLISIS FACTORIAL.
Existen ocasiones en las que el investigador dispone de una matriz de información
en la que podríamos prescindir de algunas variables, sin que la información global
disminuya de forma significativa. El método de los componentes principales (CP) y
el análisis factorial AF son métodos que permiten explicar, con un número reducido
de nuevas variables a las que llamaremos factores, la información recogida en un
determinado experimento. Son por tanto técnicas estadísticas, que intentan explicar
la información recogida en una matriz de datos con n individuos y K variables, a
partir de W factores, siendo W<K.
El análisis de componentes principales y el análisis factorial son dos técnicas
conceptualmente distintas, aunque el procedimiento matemático es similar en
ambas.
Componentes principales. Esta técnica es uno de los principales métodos
multivariantes que se utilizó. Consiste en condensar la información aportada por un
conjunto de K variables en un conjunto W de componentes, también llamados
factores, siendo W<K. Cada uno de los W factores es combinación lineal de las K
variables.
En el análisis de CP no tenemos ninguna hipótesis previa, pero sabemos que el
100% de la variabilidad de las K variables se explica por K factores, cada uno de
los cuales es combinación lineal de las variables originales. Evidentemente, no
vamos a pretender sustituir las K variables por K factores, a veces de difícil
interpretación, pero los factores recogen la variabilidad de las variables originales
de forma desigual. En muchas ocasiones, pocos factores recogen un porcentaje de
variabilidad alto; por lo tanto, podríamos explicar la mayor parte de la variabilidad
original a partir de ellos.

En primer lugar empezaremos con algunos conceptos y es preciso mencionar que


aunque la técnica matemática del análisis factorial es similar al análisis de
componentes principales, los fundamentos teóricos son distintos.
El análisis factorial supone que hay una parte común, Comunalidad, de la
variabilidad de las variables, explicada por factores comunes no observables. Cada
variable tiene una parte de su variabilidad no común propia de cada variable; a ésta
variabilidad no común la llamaremos factor único. Se asume que los factores únicos
correspondientes a las variables son independientes entre sí.
En el análisis factorial distinguimos dos tipos: análisis factorial exploratorio o
llamado también AFE y el análisis factorial confirmativo llamado AFC.
En el análisis factorial exploratorio, el investigador no tiene a priori una hipótesis
acerca del número de factores comunes, éstos se seleccionan durante el análisis.
En el AFC, el investigador parte de la hipótesis de que existe un número
determinado de factores, los cuales tienen un significado determinado. Un ejemplo
clásico de AFC es el estudio de Spearman sobre los factores que conforman la
inteligencia. Partía de la hipótesis de que la inteligencia la componen un factor
general G y otros factores: capacidad de análisis verbal, capacidad de análisis
matemático y capacidad de integración espacial. Otro modelo clásico es el que
considera que los factores antropométricos e intelectuales de un individuo se deben
a dos factores principales, uno genérico y otro socio cultural.

2. MODELO MATEMÁTICO.
Los conceptos que se han mencionado anteriormente se resumen en el siguiente
modelo:

X ij =a1 j F i 1 +a2 j F i2 +… …+ akj F ik +U j

En la expresión antes descrita, Xij es el valor de la jésima variable correspondiente


al iésimo caso, Fij son los coeficientes factoriales correspondientes al iésimo caso y
aij las puntuaciones factoriales. Uj es el factor único correspondiente a la jésima
variable. La diferencia del modelo del análisis factorial respecto al de componentes
principales es que el análisis factorial supone que la variabilidad de cada variable
tiene una parte explicable por factores comunes y otra independiente de las demás
variables.
En un modelo factorial, partimos de la base de que sólo una parte de la variabilidad
de cada variable depende de factores comunes y, por lo tanto, debemos buscar una
comunalidad inicial para cada variable. Inicialmente construimos un modelo de
regresión múltiple para cada variable. En cada uno de los modelos figura una
variable distinta como variable dependiente y el resto como variables
independientes. El coeficiente de determinación de modelo en que cada variable
figura como variable dependiente se considera como comunalidad inicial. Por
ejemplo, supongamos que en un fichero de datos disponemos de las variables
PESO, TALLA y EDAD; construiremos un modelo de regresión múltiple en el que
la variable dependiente sea el Peso, y la edad y la talla las variables independientes
de dicho modelo. En seguida, construimos otro modelo de regresión múltiple, en el
que la variable dependiente sea la edad, el peso y la talla las variables
independientes. Por último, construimos un tercer modelo en el que la variable
dependiente sea la talla, el peso y la edad las variables independientes. Supongamos
que los coeficientes de determinación de los tres modelos han sido 0.7 para el peso,
0.57 para la edad y 0.64 para la talla. Dichos coeficientes de determinación se
consideran como comunalidades iniciales en los modelos factoriales.

3. ÍNDICE DE DISCRIMINACIÓN O ANÁLISIS DE ÍTEMS


Concepto: El índice de discriminación es la correlación entre las puntuaciones de
los sujetos en el ítem y sus puntuaciones en el test. En otras palabras: si el ítem
discrimina entre los que tienen una adecuada madurez neuropsicológica en el test
de los que no la tienen. El coeficiente utilizado fue el de la correlación biserial-
puntual corregida. En la Escala de Psicomotricidad las correlaciones ítem-test de
los ítems fluctúan entre 0.15 y 0.41; aportando de este modo al alfa de Cronbach de
la escala homogéneamente. En la Escala de Lenguaje Articulatorio las
correlaciones ítemtest corregidas fluctúan entre 0.30 y 0.66. En la Escala de
Lenguaje Expresivo las correlaciones ítem-test corregidas fluctúan entre 0.32 y
0.51.
Por ejemplo, para la Escala de Lenguaje Comprensivo las correlaciones ítem-test
corregidas fluctúan entre 0.23 y 0.50. En la Escala de Estructuración Espacial las
correlaciones ítem-test corregidas fluctúan entre -0.01 y 0.58. En la Escala de
Visopercepción las correlaciones ítem-test corregidas fluctúan entre 0.23 y 0.67.
Para la Escala de Memoria Icónica las correlaciones ítem-test corregidas fluctúan
entre 0.12 y 0.35. Para la Escala de Ritmo las correlaciones ítem test corregidas
fluctúan entre 0.20 y 0.54.
4. CREACIÓN Y ANÁLISIS DE LA MATRIZ FACTORIAL
A partir de una matriz de correlaciones, el Análisis Factorial extrae otra matriz que
reproduce la primera de forma más sencilla. Esta nueva matriz se denomina matriz
factorial y adopta la siguiente forma:
1 2
1 P11 P21
2 P12 P22
3 P13 P23
4 P14 P24
5 P15 P25
6 P16 P26

Cada columna es un factor y hay tantas filas como variables originales.


Los elementos Pij pueden interpretarse como índices de correlación entre el factor i
y la variable j, aunque estrictamente sólo son correlaciones cuando los factores no
están correlacionados entre sí, es decir, son ortogonales. Estos coeficientes reciben
el nombre de pesos, cargas, ponderaciones o saturaciones factoriales. Los pesos
factoriales indican el peso de cada variable en cada factor. Lo ideal es que cada
variable cargue alto en un factor y bajo en los demás.

5. CREACIÓN DE COMPONENTES O FACTORES


Generalmente en estudios cotidianos es utilizada la estadística descriptiva clásica,
pero la necesidad de analizar un gran número de factores que influyen
simultáneamente en una o varias variables dependientes. Para alcanzar este objetivo
se ha planteado la utilización de las técnicas multivariantes a las que se pueden
definir como: "un conjunto de métodos estadísticos que analizan de forma
simultánea dos o más variables observadas'".
Podríamos mencionar que las técnicas de análisis de datos son sencillas ya que
utilizan básicamente álgebra lineal, que a su vez son métodos descriptivos ya que
no buscan ninguna hipótesis probabilística y dan prioridad a los datos, sin embargo
al buscar una interpretación de los factores formulan "hipótesis a posteriori" una
vez realizados los análisis de los datos. Otra de las características importantes es
que utilizan la mayor cantidad de datos en su análisis, de tal manera que no sea
necesario identificar las variables a ser seleccionadas, es el mismo análisis el que
dirá que variables deberán ser eliminadas al no aportar en el análisis. Los métodos
factoriales toleran una pérdida de información a cambio de una mayor
significación, adicionalmente estos métodos brindan representaciones gráficas,
generando mapas con las representación estructurada de filas y columnas. Dentro
de los métodos factoriales son tres los más relevantes: Análisis de componentes
principales denominado también ACP, diseñado para el estudio de tablas métricas o
de escalas métricas, Análisis Factorial de correspondencias AFC, que estudia las
tablas de contingencia o de frecuencias; y, Análisis de correspondencias múltiples
ACM, que analiza los ficheros de encuestas, que recogen respuestas.
El Análisis de Componentes Principales es una técnica estadística que busca
sintetizar la información, reduciendo el número de variables, disminuyendo la
pérdida de información. Los componentes principales o factores encontrados son
una combinación lineal de las variables analizadas originalmente. La principal
ventaja de la utilización de esta técnica estadística es que cada componente es
independiente entre si. La interpretación de los factores se la realiza deduciendo su
relación con las variables, esta no es evidente de forma a priori, por lo que el
conocimiento sobre el tema analizado es de vital importancia.
Adicionalmente a lo anotado es importante hacer hincapié en cuatro temas:
Análisis de la matriz de correlaciones; que es importante observar la matriz de
correlaciones entre las variables, mientras más altas sean estas menores serán los
factores que explicarán gran parte de la variabilidad total.
Selección de factores la cual buscará que el menor número recoja la mayor
variabilidad posible, a estos se denominarán componentes principales.
Análisis de la matriz factorial, en la cual los componentes principales formarán una
matriz con las variables que mostrarán las correlaciones entre ellas. La matriz
tendrá tantas filas como componentes principales y tantas filas como variables.
Interpretación de los factores, la que nos servirá para poder interpretar fácilmente
un factor se deben tener en cuenta que los coeficientes se aproximen al, que cada
variable tenga coeficientes elevados solo con una variable y que no existan
coeficientes similares".
6. CONCLUSIONES
El Análisis Factorial es una técnica que consiste en resumir la información
contenida en una matriz de datos con V variables. Para ello se identifican un
reducido número de factores F, siendo el número de factores menor que el número
de variables. Los factores representan a la variable original, con una pérdida
mínima de información.
El modelo matemático del Análisis Factorial es parecido al de la regresión múltiple.
Cada variable se expresa como una combinación lineal de factores no directamente
observables.
Podemos distinguir entre Análisis Factorial Exploratorio, donde no se conocen los
factores "a priori", sino que se determinan mediante el Análisis Factorial y, por otro
lado estaría el Análisis Confirmatorio donde se propone "a priori" un modelo,
según el cual hay unos factores que representan a las variables originales, siendo el
número de estos superior al de aquellos, y se somete a comprobación el modelo.
Para que el Análisis Factorial tenga sentido deberían cumplirse dos condiciones
básicas: Parsimonia e Interpretabilidad, Según el principio de parsimonia los
fenómenos deben explicarse con el menor número de elementos posibles. Por lo
tanto, respecto al Análisis Factorial, el número de factores debe ser lo más reducido
posible y estos deben ser susceptibles de interpretación sustantiva. Una buena
solución factorial es aquella que es sencilla e interpretable.

7. FUENTES DE CONSULTA EMPLEADAS


 Álvarez Cáceres, Rafael. Estadística multivariante y no paramétrica con
SPSS. Ediciones Díaz de Santos, S.A., Madrid, España, 1995.
 Abascal, Elena, e lldefonso Grande. Métodos multivariantes para la
investigación comercial. Barcelona: Ariel, 1989.
 Pérez López, Cesar. Técnicas de análisis multivariante de datos.
aplicaciones con spss Nº Edición:1ª ,Año de edición:2004
 Vicente y Oliva, María A. de Madrid, Análisis multivariable para las
ciencias sociales (2003) Madrid, Pearson-Prentice Hall, 2003
PARTE II

1. ¿Cuándo es adecuado o recomendable realizar un Análisis Factorial?


En análisis factorial resultará adecuado cuando existan altas correlaciones entre
las variables, que es cuando podemos suponer que se explican por factores
comunes. El análisis de la matriz de correlaciones será pues el primer paso a dar.
Analíticamente, podemos comprobar el grado de correlación con las siguientes
pruebas o test:

Test de esfericidad de Bartlett.

Es necesario suponer la normalidad de las variables. Contrasta la H0 de que la


matriz de correlaciones es una matriz identidad (incorrelación lineal entre las
variables). Si, como resultado del contraste, no pudiésemos rechazar esta H0, y el
tamaño de la muestra fuese razonablemente grande, deberíamos reconsiderar la
realización de un AF, ya que las variables no están correlacionadas.

Indice KMO (Kaiser-Meyer-Olkin) de adecuación de la muestra.


Estos coeficientes miden la correlación existente entre las variables j e i, una vez
eliminada la influencia que las restantes variables ejercen sobre ellas. Estos
efectos pueden interpretarse como los efectos correspondientes a los factores
comunes, y por tanto, al eliminarlos, aji - representará la correlación entre los
factores únicos de las dos variables, que teóricamente tendría que ser nula. Si
hubiese correlación entre las variables (en cuyo caso resultaría apropiado un
AF), estos coeficientes deberían estar próximos a 0, lo que arrojaría un KMO
próximo a 1. Por el contrario, valores del KMO próximos a 0 desaconsejarían el
AF.

2. ¿Cuál es el criterio que se debe tener en cuenta para no considerar un ítem


o pregunta en la creación la matriz factorial?
El análisis factorial se ha propuesto como método no de análisis sino de
construcción de tests y escalas: se lleva a cabo un análisis factorial con un
número grande de ítems y se escogen como punto de partida los que tienen sus
pesos mayores en el mismo factor con el propósito de construir un instrumento
claramente unidimensional.
Cuando se adopta este procedimiento, lo que se aconseja es no construir un solo
instrumento sino varios simultáneamente con la misma muestra; todos los ítems
se analizan en el mismo análisis factorial; cada factor (o algunos factores) darán
origen a varios instrumentos independientes. Un inconveniente de este enfoque
es que los ítems serán necesariamente muchos y harán falta muestras muy
grandes.

3. ¿Cuáles son sus criterios en los que se deben basar para considerar que la
matriz factorial obtenida es válida?
(1) juzgar la relevancia y representatividad del contenido del test (validez de
contenido) y
(2) establecer hipótesis predictivas (validez criterial) que, a su vez, pueden
contribuir a arrojar luz acerca de la naturaleza del constructo.

4. ¿Cómo se determina la cantidad de factores o componentes?


La matriz factorial puede presentar un número de factores superior al necesario
para explicar la estructura de los datos originales. Generalmente hay un conjunto
reducido de factores, los primeros, que son los que explican la mayor parte de la
variabilidad total. Los otros factores suelen contribuir relativamente poco. Uno
de los problemas que se plantean, por tanto, consiste en determinar el número de
factores que debemos conservar, de manera que se cumpla el principio de
parsimonia.

5. Cuando un ítem o pregunta se encuentra con valores dispersos en varios


componentes o factores, ¿Cómo determina a cuál pertenece?
En muchas ocasiones, los datos son más fáciles de comprender cuando se
estandarizan, de modo que se midan en unidades comparables.

S-ar putea să vă placă și