Documente Academic
Documente Profesional
Documente Cultură
Del planteamiento del problema surgen, por lo tanto, los objetivos internos y externos
de la investigación.
¿Qué hacer para evitar esto? La primera regla que debemos aprender es tener siempre
presente el problema que se va a investigar. Así, si el libro que estamos consultando se
refiere en general a la "toma de decisiones", y nuestro estudio es "la toma de riesgos",
nos interesarán únicamente aquellos capítulos, fragmentos o frases relacionados con
estos últimos.
Otra sugerencia importante es leer con sentido crítico, tanto para obtener aquella
información importante para nuestra investigación, como para aprender de los errores
teóricos o metodológicos de otros autores. De este modo, evitaremos tener que descartar
material que nos pareció importante durante su lectura, pero que más tarde
consideramos repetitivo o irrelevante.
Por supuesto, existen diferencias obvias entre los temas de investigación que hacen más
o menos importante esta parte de la investigación, o que la convierten en una tarea fácil
o dificultosa. En una investigación donde el objetivo fundamental es, por ejemplo,
determinar el grado de adaptación de una especie Z a una zona más desértica que la de
origen, los problemas del marco teórico pueden ser resueltos con bastante simplicidad.
En cambio, estos problemas pueden ser esenciales y habrá que dedicarles el mayor
esfuerzo intelectual y tiempo a un estudio que intentase determinar los valores que
predominan en el sistema educativo.
Una vez terminadas nuestras lecturas, así como la elaboración y clasificación de las
fichas, estaremos en posición de elaborar nuestro marco teórico, que se basará en la
integración de las fichas.
El orden que llevará la integración estará determinado por el objetivo del marco teórico.
Si, por ejemplo, es de tipo histórico, recomendaríamos un orden cronológico de las
teorías y/o de los hallazgos empíricos. Si la investigación se relaciona con una serie de
variables y tenemos información de teoría, así como de estudios previos de cada una de
esas variables y de la relación entre ellas, sería conveniente delimitar secciones que
abarcaran cada uno de los aspectos relevantes, a fin de integrar aquellos datos
pertinentes a nuestro estudio.
Es en esta fase de la investigación donde la identificación de las fichas nos permitirá
hacer referencia a éstas para poder extender o aclarar algún punto. Además, la correcta
identificación de las fichas y del tema a que se refieren, nos permitirá reunir todas las
tarjetas que se relacionan con un mismo tema y leer cada una de éstas para su
integración, en lugar de leer varias veces todas las tarjetas que fueron recopiladas.
Todo investigador debe hacer uso de conceptos para poder organizar sus datos y
percibir las relaciones que hay entre ellos.
De acuerdo con la idea del realismo científico, los objetos de estudio existen en el
mundo empírico (tangible) pero la teoría pertenece al mundo conceptual del
pensamiento. Si el investigador acepta esta visión, debe hacer lo posible para que
existan conexiones entre estos dos mundos.
Si el investigador y el lector y usuario del estudio en su forma escrita han de tener la
misma noción del objeto, son necesarias normas fijadas y no ambiguas de
correspondencia para establecer el modelo teórico con el objeto empírico. Estas son las
definiciones de conceptos teóricos que sirven de puentes entre teoría y empiria.
Si, por ejemplo, hemos definido operativamente dos variables, "distancia" medida
en kms. y "duración" medida en minutos, podemos usarlas para definir
nominalmente un tercer concepto, "velocidad" = "distancia" / "duración".
Otra regla general útil dice que el investigador debe intentar operar con tan pocos
conceptos y variables teóricos como le sea posible. Esta recomendación lleva el nombre
de "navaja de Occam", y se remonta al siglo XIV, atribuyéndose a Guillermo de Occam.
Definición operacional.
Una definición operacional es, esencialmente, aquella que indica que un cierto
fenómeno existe, y lo hace especificando de manera precisa y, preferiblemente, en qué
unidades puede ser medido dicho fenómeno. Esto es, una definición operacional de un
concepto, consiste en un enunciado de las operaciones necesarias para producir el
fenómeno. Una vez que el método de registro y de medición de un fenómeno se ha
especificado, se dice que ese fenómeno se ha definido operacionalmente.
Por tanto, cuando se define operacionalmente un término, se pretende señalar los
indicadores que van a servir para la realización del fenómeno que nos ocupa, de ahí que
en lo posible se deban utilizar términos con posibilidad de medición.
• Ordenar la percepción.
• Valorar lo percibido.
• Guiar la acción individual.
• Facilitar la comunicación.
Requisitos de los conceptos:
Esquema de la investigación.
Se formula para:
• Filosóficas
¿Qué tesis existen al respecto?
¿Qué teorías tratan de explicarlo?
Es la consideración de lo que
• ¿Cuál es la teoría clásica? se ha investigado (teorías,
1. Marco teórico. • ¿Cuáles son las teorías hipótesis, tesis) acerca del
opuestas a la clásica? objeto de nuestra
investigación.
• ¿Cuál es la teoría
predominante?
Descripción y/o provocación
del fenómeno. Aquí se
1. Exposición de muestra la información,
datos. directamente relacionada con
la hipótesis, obtenida de la
investigación.
• Valoración e
Es el análisis crítico de los
interpretación del
datos obtenidos.
material obtenido.
• Resumen. Es la parte del escrito que
tiene como finalidad mostrar
en qué se sustentan las
conclusiones que se
obtuvieron.
• Conclusiones y/o Es el resultado de la
recomendaciones. investigación.
Bibliografía:
LAS HIPÓTESIS
Para plantear una hipótesis adecuada, debemos tener en cuenta los siguientes puntos:
1. Los términos que se empleen deben ser claros y concretos para poder definirlos
de manera operacional, a fin de que cualquier investigador que quiera replicar la
investigación, pueda hacerlo.
2. Las hipótesis deben ser objetivas y no llevar algún juicio de valor; es decir, no
debe definirse el fenómeno con adjetivos tales como "mejor" o "peor", sino
solamente tal y como pensamos que sucede en la realidad.
3. Las hipótesis deben ser específicas, no sólo en cuanto al problema, sino a los
indicadores que se van a emplear para medir las variables que estamos
estudiando.
4. Las hipótesis deben estar relacionadas con los recursos y las técnicas
disponibles. Esto quiere decir que cuando el investigador formule su hipótesis
debe saber si los recursos que posee son adecuados para la comprobación de la
misma.
5. La hipótesis debe estar directamente relacionada con el marco teórico de la
investigación y derivarse de él.
Tipos de hipótesis:
• Hipótesis nula. Para todo tipo de investigación en la que tenemos dos o más
grupos, se establecerá una hipótesis nula.
Otro ejemplo:
Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté
realizando. En los estudios exploratorios, a veces, el objetivo de la investigación podrá
ser simplemente el de obtener los mínimos conocimientos que permitan formular una
hipótesis. También es aceptable que, en este caso, resulten poco precisas, como cuando
afirmamos que "existe algún tipo de problema social en tal grupo", o que los planetas
poseen algún tipo de atmósfera, sin especificar de qué elementos está compuesta.
Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los
X poseen, en alguna medida, las característica Y". Por ejemplo, podemos decir que
todas las naciones poseen algún comercio internacional, y dedicarnos a describir,
cuantificando, las relaciones comerciales entre ellas. También podemos hacer
afirmaciones del tipo "X pertenece al tipo Y", como cuando decimos que una tecnología
es capital - intensiva. En estos casos, describimos, clasificándolo, el objeto de nuestro
interés, incluyéndolo en un tipo ideal complejo de orden superior.
Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde
estaremos en presencia de una relación entre variables.
Cuando las variables son más de dos, las estructuras más frecuentes son:
Bibliografía:
DIAGRAMA DE GANTT
POBLACIÓN Y MUESTRA
Una población está determinada por sus características definitorias. Por lo tanto, el
conjunto de elementos que posea esta característica se denomina población o universo.
Población es la totalidad del fenómeno a estudiar, donde las unidades de población
poseen una característica común, la que se estudia y da origen a los datos de la
investigación.
Entonces, una población es el conjunto de todas las cosas que concuerdan con una
serie determinada de especificaciones. Un censo, por ejemplo, es el recuento de todos
los elementos de una población.
Cuando no es posible medir cada uno de los individuos de una población, se toma
una muestra representativa de la misma.
La muestra descansa en el principio de que las partes representan al todo y, por tal,
refleja las características que definen la población de la que fue extraída, lo cual nos
indica que es representativa. Por lo tanto, la validez de la generalización depende de la
validez y tamaño de la muestra.
Tipos de muestras.
Muestreo aleatorio simple: la forma más común de obtener una muestra es la selección
al azar. es decir, cada uno de los individuos de una población tiene la misma posibilidad
de ser elegido. Si no se cumple este requisito, se dice que la muestra es viciada. Para
tener la seguridad de que la muestra aleatoria no es viciada, debe emplearse para su
constitución una tabla de números aleatorios.
Muestreo tipo: la muestra tipo (master simple) es una aplicación combinada y especial
de los tipos de muestra existentes. Consiste en seleccionar una muestra "para ser usada"
al disponer de tiempo, la muestra se establece empleando procedimientos sofisticados; y
una vez establecida, constituirá el módulo general del cual se extraerá la muestra
definitiva conforme a la necesidad específica de cada investigación.
EL MUESTREO
Las poblaciones que el investigador puede estudiar son muy diversas, pero
generalmente se relacionan con personas. Por ejemplo, puede estudiar la opinión de las
amas de casa con respecto a ciertos métodos de planificación familiar, la edad promedio
de los alumnos de una escuela, el coeficiente intelectual promedio de los universitarios,
etc.
Datos y unidades.
Un dato es cada uno de los elementos de información que se recoge durante el
desarrollo de una investigación y en base a los cuales, convenientemente sintetizados,
podrán extraerse conclusiones en relación con el problema inicial planteado.
Cualquier información, por más pequeña y fragmentaria que sea, puede considerarse
como un dato, siempre y cuando pueda colaborar de algún modo a esclarecer los
problemas que nos planteamos en un estudio. Saber, por ejemplo, que la persona N
opina que las pruebas nucleares deben ser proscritas, es un dato. Esa información, por sí
sola, carece prácticamente de valor, pues poco nos dice de las reacciones que despiertan
las pruebas de armas atómicas en la gente. Pero el valor del dato reside no en su alcance
individual, en lo que nos expresa por sí mismo, sino en su posibilidad de ser integrado
en conjuntos mayores. Cuando agrupamos muchas informaciones de carácter similar,
cada dato se hace valioso dentro de una perspectiva más amplia. Así, en nuestro
ejemplo, si consultamos la opinión de muchas personas, podemos llegar a enunciar que
un determinado tanto por ciento de ellas están en contra de los ensayos nucleares e
integrar esa información, a su vez, en un estudio sobre las opiniones de determinado
conglomerado social.
Las fuentes de datos pueden ser personas, situaciones o hechos que se observan
directamente, o materiales bibliográficos de diversa naturaleza. Las llamamos unidades
de datos y, a su conjunto, a la suma de todas las unidades, se le da el nombre de
universo o población. Podríamos decir que una población o universo es, entonces, el
conjunto de todas las cosas que concuerdan con una determinada serie de
especificaciones. En general, toda investigación puede considerarse como una búsqueda
de los datos apropiados que permitan resolver ciertos problemas de conocimiento. Estos
datos son obtenidos a través de un conjunto de unidades que constituyen el universo
relevante para la investigación.
Existen universos que resultan demasiado amplios para el investigador, pues éste no
tienen ni el tiempo ni los recursos para abordar el estudio de cada una de las unidades
que lo componen (el conjunto de ciudadanos de un país, la flora de una región o las
innumerables galaxias). Para resolver este inconveniente, se acude a la
operacionalización del universo mediante la extracción de muestras.
Universo y muestra.
Una muestra es un conjunto de unidades, una porción del total, que nos representa la
conducta del universo en su conjunto.
Una muestra, en un sentido amplio, no es más que eso, una parte del todo que llamamos
universo y que sirve para representarlo.
Sin embargo, no todas las muestras resultan útiles para llevar a cabo un trabajo de
investigación. Lo que se busca al emplear una muestra es que, observando una porción
relativamente reducida de unidades, se obtengan conclusiones semejantes a las que
lograríamos si estudiáramos el universo total. Cuando una muestra cumple con esta
condición, es decir, cuando nos refleja en sus unidades lo que ocurre en el universo, la
llamamos muestra representativa. Por lo tanto, una muestra representativa contiene las
características relevantes de la población en las mismas proporciones en que están
incluidas en tal población. Sus conclusiones son susceptibles de ser generalizadas al
conjunto del universo, aunque para ello debamos añadir un cierto margen de error en
nuestras proyecciones.
• Muestra accidental. Es aquella que se obtiene sin ningún plan preconcebido; las
unidades elegidas resultan producto de circunstancias fortuitas. Si entrevistamos
a los primeros 50 transeúntes que pasan por cierta calle o medimos la
profundidad del mar a lo largo de un trayecto entre dos puntos cualesquiera,
estaremos en presencia de una muestra accidental; los datos obtenidos podrán o
no representar al universo en estudio. El investigador no puede saber hasta qué
punto sus resultados podrán proyectarse, con confiabilidad, hacia el conjunto
más amplio que desea conocer.
• Muestra por cuotas. Consiste en predeterminar la cantidad de elementos de cada
categoría que habrán de integrar la muestra. Así podemos asignar una cuota de
50 hombres y 50 mujeres a una muestra de 100 individuos, asumiendo que ésa
es la distribución de la población total. Por más que esa presunción llegue a ser
válida, no deja de existir cierta arbitrariedad en este modo de proceder, por lo
que la rigurosidad estadística de las muestras por cuotas se reduce
considerablemente.
• Muestra intencional. Las unidades se eligen en forma arbitraria, designando a
cada unidad según características que para el investigador resulten de relevancia.
Se emplea, por lo tanto, el conocimiento y la opinión personal para identificar
aquellos elementos que deben ser incluidos en la muestra. Se basa,
primordialmente, en la experiencia de alguien con la población. Estas muestras
son muy útiles y se emplean frecuentemente en los estudios de caso, por más
que la posibilidad de generalizar conclusiones a partir de ellas, sea en rigor nula.
En algunas oportunidades se usan como guía o muestra tentativa para decidir
cómo tomar una muestra aleatoria más adelante.
Muestras aleatorias.
Como dijimos, en ellas cada uno de los elementos del universo tiene una probabilidad
determinada y conocida de ser seleccionado. Los procedimientos más usuales para la
obtención de muestras aleatorias son:
• Azar simple. Este procedimiento se inicia confeccionando una lista de todas las
unidades que configuran el universo, numerando correlativamente cada una de
ellas. Luego, mediante cualquier sistema (tabla de números al azar, programas
de computación), se van sorteando al azar estos números hasta completar el total
de unidades que deseamos que entren en la muestra. De este modo, la
probabilidad que cada elemento tienen de aparecer en la muestra es exactamente
la misma. Si cada uno de los elementos que integran la población no tiene la
misma posibilidad de ser elegido, se habla entonces de una muestra viciada. Este
método nos garantiza una selección completamente aleatoria, pero resulta muy
lento y costoso, pues nos obliga a elaborar listas completas de todas las unidades
de interés, lo que a veces es sencillamente imposible. Por este motivo, sólo se
emplea cuando los universos son relativamente pequeños. Este método no será
adecuado si, por ejemplo, queremos sacar una muestra de todas las personas
analfabetas que existen en un país. En cambio, si nuestra intención es extraer
una muestra del universo de todos los alumnos que ingresan a una universidad
en un determinado año, resultará muy adecuado.
• Azar sistemático. También se requiere de un listado completo de las unidades
que integran el universo en estudio. Luego se efectúan las siguientes
operaciones:
1. Se calcula la constante K, que resulta de dividir el número total de unidades que
componen el universo por el número de unidades que habrán de integrar la
muestra:
K = N/n
Donde:
2. Se efectúa un sorteo para elegir un número que sea inferior o igual al valor de K.
Como primera unidad para integrar la muestra se elige aquella que, en la lista
general, posea idéntico número de orden al sorteado. Si designamos con A este
primer valor, la segunda unidad elegida será la que lleve el número A + K, la
tercera corresponderá a A + 2K y así sucesivamente hasta llegar a A + (n – 1)K.
N = 2.800
n = 70
K = 2.800 / 70 = 40
1° unidad 32
2° unidad 32 + 40 72
3° unidad 32 + 80 112
....
70° unidad 32 + 2760 2.792
Bibliografía:
El uso de nuestros sentidos es una fuente inagotable de datos que, tanto para la
actividad científica como para la vida práctica, resulta de inestimable valor.
2. La entrevista. Consiste en una interacción entre dos personas, una de las cuales -
el investigador - formula determinadas preguntas relativas al tema en
investigación, mientras que la otra - el investigado - proporciona verbalmente o
por escrito la información que le es solicitada.
Existen además otros procedimientos de recolección de datos primarios, entre los que
figguran el llamado cuestionario de autoaplicación, los tests, los diagramas
sociométricos, las escalas y diferenciales semánticos, etc. sin embargo, todos tienen su
origen, en última instancia, en las dos principales técnicas mencionadas.
LA OBSERVACIÓN CIENTÍFICA.
La observación puede definirse como el uso sistemático de nuestros sentidos en la
búsqueda de los datos que se necesitan para resolver un problema de investigación.
La principal ventaja de esta técnica en el campo de las ciencias del hombre radica en
que los hechos son percibidos directamente, sin ninguna clase de intermediación,
colocándonos ante una situación tal como ésta se da naturalmente. De este modo, no se
presentan las distorsiones que son usuales en las entrevistas, como la subjetividad del
objeto investigado.
Esta reacción frente a la presencia de terceros debe tenerse en cuenta siempre que se
pretenda utilizar la técnica de la observación con seres humanos. Para evitar las
perturbaciones mecionadas, se han diseñado dos procedimientos:
La observación, debido a su utilidad, es una técnica que se puede utilizar, junto con
otras, para recabar información; por ejemplo, la observación se puede utilizar en un
estudio exploratorio, y para el estudio final se pueden usar otras técnicas como
cuestionarios, entrevistas, etc.
La observación participante puede variar desde una afiliación total al grupo hasta una
participación limitada y condicionada, tanto en cuanto al tiempo como en cuanto a las
funciones asumidas por el observador. No es necesario que éste lleve a cabo
exactamente las mismas actividades que realizan los demás miembros del grupo; en
lugar de ello, puede buscarse algún papel que sea aceptable dentro de la comunidad y
que el observador pueda desempeñar razonablemente bien. En todos los casos, es
importante que no se divulgue la verdadera finalidad de su participación y que cuide
todos los detalles de su aspecto personal, de sus gestos y ademanes, de las palabras y
opiniones que expresa, para no aparecer como un participante anómalo, porque esto
puede generar hacia él una actitud de desconfianza o un trato atípico, bloqueando la
información que recibe y llegando hasta a distorsionar las actividades que el grupo
normalmente realiza.
Resulta indispensable registrar toda observación que se haga, para poder organizar
luego lo percibido en un conjunto coherente. Los medios más comúnmente utilizados
son: cuadernos de campo, diarios, cuadros de trabajo, gráficos y mapas.
El problema del registro puede llegar a ser sumamente delicado cuando se trata de la
observación de fenómenos de tipo social. En muchas circunstancias es prácticamente
imposible tomar notas durante el transcurso de la observación, pues ello originaría
sospechas y recelo. En situaciones extremas, no habrá más remedio que confiar en la
memoria, con todas las limitaciones que esto supone. Este inconveniente se allana
cuando los observadores son varios, ya que pueden redactar independientemente sus
informes para luego compararlos entre sí, completando y depurando los datos obtenidos.
En cuanto a los datos para registrar, es posible adoptar diversas posiciones. Puede
actuarse con suma flexibilidad, recogiendo sólo aquellos datos que van apareciendo,
anotando las impresiones generales que causan los sucesos, de una manera espontánea y
poco organizada. Se trata de una observación no estructurado o no formalizada, que
ofrece las ventajas de su gran capacidad de adaptación frente a sucesos inesperados y de
no pasar por alto ningún aspecto importante que pueda producirse.
Identificación del niño: (se puede dar su nombre, o hacer referencia a alguna
característica física o a algún número que permita identificarlo).
1 2 3 4 5
Golpeó a un niño
cerca de él.
Le dijo palabras
insultantes a un niño
cerca de él.
Le dijo palabras
insultantes a un niño
que estaba lejos de él.
La entrevista es una forma específica de interacción social que tiene por objeto
recolectar datos para una indagación.
La ventaja esencial de la entrevista reside en que son los mismos actores sociales
quienes proporcionan los datos relativos a sus conductas, opiniones, deseos, actitudes y
expectativas. Nadie mejor que la misma persona involucrada para hablarnos acerca de
aquello que piensa y siente, de lo que ha experimentado o piensa hacer.
Pero existe un importante inconveniente que limita sus alcances. Cualquier persona
entrevistada podrá hablarnos de aquello que le preguntemos pero siempre nos dará la
imagen que tiene de las cosas, lo que cree que son, a través de su carga subjetiva de
intereses, prejuicios y estereotipos. La propia imagen que el entrevistado tiene de sí
mismo podrá ser radicalmente falsa y, en todo caso, estará siempre idealizada,
distorsionada, mejorada o retocada.
Este problema nos obliga a dejar fuera de esta técnica a problemas y temas que son
mejor explorados por medio de otros procedimientos. Por otra parte, nos obliga a
utilizar, a veces, caminos indirectos, mediante preguntas que alcancen nuestro objetivo
elípticamente, utilizando rodeos. Es clásico el ejemplo de que las personas nunca
contestan la verdad respecto de sus ingresos personales en dinero, ya sea porque los
disminuyen (ante el temor de estar frente a algún inspector de impuestos), o porque los
aumentan (con fines de ostentación social o para reforzar su autoestima).
Para que una entrevista tenga éxito, es preciso prestar atención a una serie de factores:
es importante que la apariencia exterior del entrevistador resulte adecuada al medio
social donde habrá de formular sus preguntas. El entrevistador habrá de ser una persona
de por lo menos una cultura media, que comprenda el valor y la importancia de cada
dato recogido y la función que su trabajo desempeña en el conjunto de la investigación.
Tendrá que ser mentalmente ágil, no tener prejuicios marcados frente a ninguna
categoría de personas y, sobre todo, ser capaz de dejar hablar libremente a los demás,
eliminando por completo todo intento de convencerlos, apresurarlos, o agredirlos con
sus opiniones. La entrevista habrá de realizarse a las horas más apropiadas para las
personas que responden, teniendo en cuenta que su posible duración no afecte la
confiabilidad de los datos.
Las entrevistas más estructuradas serán aquellas que predeterminen en una mayor
medida las respuestas por obtener, que fijan de antemano sus elementos con más
rigidez, mientras que las entrevistas informales serán las que transcurran de un modo
más espontáneo, libre, sin sujetarse a ningún canon establecido.
Entrevistas no estructuradas:
• Entrevista por pautas o guías: Se guían por una lista de puntos que se van
explorando en el curso de la entrevista. Los temas deben guardar una cierta
relación entre sí. El entrevistador hace muy pocas preguntas directas, y deja
hablar al respondente siempre que vaya tocando alguno de los temas señalados
en la pauta o guía.
Todas estas formas de entrevistas (que tienen en común su poca formalización) poseen
la ventaja de permitir un diálogo más profundo y rico, de presentar los hechos en toda
su complejidad, captando no sólo las respuestas a los temas elegidos sino también las
actitudes, valores y formas de pensar de los entrevistados.
Entrevistas formalizadas:
Entre sus principales ventajas, podemos mencionar su rapidez y el hecho de que pueden
ser llevadas a cabo por personas con mediana preparación, lo cual redunda en su bajo
costo. Otra ventaja es su posibilidad de procesamiento matemático.
Tipos de cuestionarios.
a. Preguntas con opciones: el sujeto tiene dos o más opciones para contestar. Por
ejemplo:
SÍ NO
Correcto Incorrecto
Electricidad Ropa
Combustible
Gas Otros
Leer Ir al teatro
Ver TV Descansar
Ir al cine
Con respecto a los cuestionarios enviados por correo, el punto más importante que debe
considerarse es que, por lo general, el porcentaje de personas que lo devuelven es muy
reducido y, además, la muestra que contesta los cuestionarios, está sesgada; es decir,
puede tener alguna característica en común, por ejemplo, cierto interés en el tema, y dar
un tipo especial de respuestas.
SOCIOGRAMA.
Se construye pidiendo a cada miembro que señale a las personas que más congenian con
él y las que menos lo atraen. Esta información se recoge mediante el uso de breves
cuestionarios de dos o tres preguntas, y luego es procesada para construir el diagrama
correspondiente.
TESTS PSICOLÓGICOS.
Emplean una gran variedad de técnicas específicas. Una buena proporción de ellos
utiliza la formulación de preguntas anotadas en algún formulario apropiado (el test) y
que por lo general se autoadministra. En otros casos, se propone a la persona la
realización de ciertas actividades pautadas y se observa su desarrollo. Se registra el
tiempo empleado en su ejecución, las reacciones que se producen, el desempeño de
ciertos roles, etc.
Desde un punto de vista general, estos tests pueden considerarse como observaciones
realizadas en condiciones artificiales, preparadas y definidas de antemano.
TÉCNICAS PROYECTIVAS.
Se basan en presentar algún estímulo definido a los sujetos para que ellos expresen
libremente, a partir de estos estímulos, lo que piensan, sienten o ven.
Bibliografía:
ORDENAMIENTO DE DATOS.
Para que los datos sean útiles, necesitamos organizar nuestras observaciones, de modo
que podamos distinguir patrones y llegar a conclusiones lógicas.
RECOMENDACIONES:
Si se trabaja con muestras, definir las condiciones que deben reunir antes de extraerlas.
La información obtenida, antes de ser organizada y analizada, se conoce como datos sin
procesar puesto que aún no han sido tratados mediante ningún método estadístico.
La cantidad de datos más grande y los detalles más minuciosos pueden no contener la
información más útil para la toma de decisiones administrativa. Una parte importante de
la planeación de sistemas de información administrativa consiste en resumir y presentar
los datos de modo que se pueda obtener la información crítica de manera rápida y
sencilla.
La ordenación de datos es una de las formas más sencillas de presentarlos, los forma en
orden ascendente o descendente.
Ventajas:
La distribución de frecuencias.
Una forma en que podemos comprimir los datos es la tabla de frecuencias o distribución
de frecuencias. Las distribuciones de frecuencias sacrifican algunos detalles, pero
ofrecen nuevas perspectivas sobre los patrones de datos.
Una distribución de frecuencias es una tabla en la que los datos se organizan en clases,
es decir, en grupos de valores que describen una características de los datos.
Una distribución de frecuencias muestra el número de observaciones del conjunto de
datos que caen en cada una de las clases.
La suma de todas las frecuencias relativas es igual a 1,00 o a 100%. Esto es así debido a
que una distribución de frecuencias relativas aparea a cada clase con su fracción o
porcentaje apropiados del total de datos. Por consiguiente, las clases que aparecen en
cualquier distribución de frecuencias, ya sean relativas o simples, son completamente
inclusivas. Todos los datos caen en una u otra categoría. Las clases son mutuamente
exclusivas, es decir, ningún punto de dato cae en más de una categoría.
La categoría "otros" se conoce como clase de extremo abierto cuando permite que el
extremo inferior o el superior de una clasificación cuantitativa no esté limitado.
Los esquemas de clasificación pueden ser tanto cuantitativos como cualitativos y tanto
discretos como continuos. Las clases discretas son entidades separadas que no pasan de
una clase discreta a otra sin que haya un rompimiento. Los datos discretos son aquellos
que pueden tomar sólo un número limitado de valores.
Los datos continuos pasan de una clase a otra sin que haya un rompimiento. Implican
mediciones numéricas. Los datos continuos pueden expresarse con números
fraccionarios o con enteros.
Las variables discretas son cosas que se pueden contar y las continuas son cosas que
aparecen en algún punto de una escala.
Pasos:
1. Decidir el tipo y número de clases para dividir los datos. De acuerdo con la
medida cuantitativa o un atributo cualitativo. Necesitamos decidir cuántas clases
distintas usar y el alcance que cada clase debe cubrir. el alcance total debe
dividirse entre clases iguales, esto es, el ancho del intervalo, tomado desde el
principio de una clase hasta el principio de la clase siguiente, necesita ser el
mismo para todas las clases.
El número de clases depende del número de puntos de dato y del alcance de los
datos recolectados. Cuantos más puntos de dato se tengan o cuanto más grande
sea el alcance, más clases se necesitarán para dividir los datos. Como regla
general, los estadísticos rara vez utilizan menos de 6 y más de 15 clases.
Ancho de los intervalos de clase = (valor unitario siguiente después del valor
más grande
de los datos – valor más pequeño de los datos) / número total de intervalos
Debemos utilizar el siguiente valor más alto de las mismas unidades, ya que
estamos midiendo el intervalo entre el primer valor de una clase y el primer
valor de la siguiente.
2. Clasificar los puntos de dato en clases y contar el número de datos que hay en
cada clase.
Las gráficas dan los datos en un diagrama de dos dimensiones. Sobre el eje horizontal
podemos mostrar los valores de la variable (la característica que estamos midiendo).
Sobre el eje vertical señalamos las frecuencias de las clases mostradas en el eje
horizontal.
Histogramas.
Un histograma que utiliza las frecuencias relativas de los puntos de dato de cada una de
las clases, en lugar de usar el número real de puntos, se conoce como histograma de
frecuencias relativas. Este tipo de histograma tiene la misma forma que un histograma
de frecuencias absolutas construido a partir del mismo conjunto de datos. Esto es así
debido a que en ambos, el tamaño relativo de cada rectángulo es la frecuencia de esa
clase comparada con el número total de observaciones.
Polígonos de frecuencias.
Se añaden dos clases, una en cada extremo de la escala de valores observados. Estas dos
nuevas clases que contienen cero observaciones permiten que el polígono alcance el eje
horizontal en ambos extremos de la distribución.
Un polígono de frecuencias es sólo una línea que conecta los puntos medios de todas las
barras de un histograma. Por consiguiente, podemos reproducir el histograma mediante
el trazado de líneas verticales desde los límites de clase y luego conectando tales líneas
con rectas horizontales a la altura de los puntos medios del polígono.
Ojivas.
Las frecuencias acumuladas se grafican por medio de una ojiva en forma de escalera,
debido a que la frecuencia aumenta de a saltos.
RECOMENDACIONES:
Usar 5 clases como mínimo y 15 como máximo para agrupar los datos, en función del
número de datos disponibles.
Tener cuidado con la clasificación automática que hacen los paquetes estadísticos.
Al calcular frecuencias relativas – como proporción – trabajar con cuatro dígitos
después de la coma, para evitar errores de redondeo en la suma.
CONCEPTOS:
• Clase de extremo abierto: clase que permite que el extremo superior o inferior de
un esquema de clasificación cuantitativo no tenga límite.
• Datos continuos: datos que pueden pasar de una clase a la siguiente sin
interrumpirse y que pueden expresarse mediante números enteros o
fraccionarios. Datos numéricos que admiten infinitos valores entre dos valores
cualesquiera; generalmente surgen de una medición.
• Datos discretos: datos que no pasan de una clase a la siguiente sin que haya una
interrupción; esto es, donde las clases representan categorías o cuentas distintas
que pueden representarse mediante números enteros. Datos numéricos que no
admiten valores intermedios entre dos valores sucesivos; generalmente surgen
de un conteo.
• Datos sin procesar: información antes de ser organizada o analizada por métodos
estadísticos. Conjunto de datos que no han recibido ningún tratamiento
estadístico.
• Polígono de frecuencias: línea que une los puntos medios de cada clase de un
conjunto de datos, trazada a la altura correspondiente a la frecuencia de datos.
Representación gráfica de la distribución de frecuencias en forma suavizada de
una variable continua.
ANÁLISIS DE DATOS
Bibliografía.:
COHEN Y MANION
COLÁS Y BUENDÍA
TAYLOR Y BODJAN
Fiabilidad: ante un mismo hecho hacer la misma observación, por ejemplo con
dos observadores. También se utilizan coeficientes de correlación entre las puntuaciones
dadas por los observadores. La solución pasa por el entrenamiento de los observadores
Casos posibles:
Solución: igualmente con entrevista a los que no han contestado y hacer una
correlación entre unos y otros (no sobre las causas de la contestación sino sobre las
respuestas entre unos y otros) se ven si existen diferencias significativas entre un grupo
y otro.
4.-Fiabilidad y validez en las entrevistas
Validez superficial: que midan lo que deben medir. Existen otros tipos de validez
más importantes.
Existen modos de limar las dificultades de cada técnica. Cada técnica tienen unas
dificultades que le son propias. s i se utilizan dos técnicas las dificultades no se suman
sino que se restan (es una intersección)
Validez del informante: una vez recogidos los datos se devuelve de nuevo al
informante para que valide lo dicho. Esto disminuye problemas de planteamiento de
preguntas y errores de registro o interpretación de respuestas.
5.-La triangulación
Intenta resolver problemas de validez: una solo técnica da una fuente de error,
dos técnicas se intersectan disminuyendo el error.
- Dentro del propio método, sirve para analizar la fiabilidad del método
- De métodos.
6.-El informe
Apartados
5.-Conclusiones
Existen normas para la redacción del informe porque es un sistema tan abierto
que es necesario dar pistas para una lectura clara:
- De un solo caso
*Técnica pregunta-respuesta
- De casos múltiples:
b) Orales