Sunteți pe pagina 1din 61

MARCO TEÓRICO

En el planteamiento de una investigación es necesario hacer explícito aquello que nos


proponemos conocer, por eso es imprescindible definir el problema que se va a
investigar.

Del planteamiento del problema surgen, por lo tanto, los objetivos internos y externos
de la investigación.

Ningún hecho o fenómeno de la realidad puede abordarse sin una adecuada


conceptualización. El investigador que se plantea un problema, no lo hace en el vacío,
como si no tuviese la menor idea del mismo, sino que siempre parte de algunas ideas o
informaciones previas, de algunos referentes teóricos y conceptuales, por más que éstos
no tengan todavía un carácter preciso y sistemático.

El marco teórico, marco referencial o marco conceptual tiene el propósito de dar a la


investigación un sistema coordinado y coherente de conceptos y proposiciones que
permitan abordar el problema. De éste dependerá el resultado del trabajo. Significa
poner en claro para el propio investigador sus postulados y supuestos, asumir los frutos
de investigaciones anteriores y esforzarse por orientar el trabajo de un modo coherente.

El fin que tiene el marco teórico es el de situar a nuestro problema dentro de un


conjunto de conocimientos, que permita orientar nuestra búsqueda y nos ofrezca una
conceptualización adecuada de los términos que utilizaremos.

El punto de partida para construir un marco de referencia lo constituye nuestro


conocimiento previo de los fenómenos que abordamos, así como las enseñanzas que
extraigamos del trabajo de revisión bibliográfica que obligatoriamente tendremos que
hacer.

Veamos un ejemplo... Si deseamos conocer las causas de la delincuencia juvenil, será


conveniente aproximarnos al tema desde varios aspectos: desde el plano psicológico,
psicosocial, económico, legal, etc. También será necesario esbozar la concepción que
tenemos de sociedad y de delicuencia juvenil (el fenómeno en estudio), porque nuestra
comprensión del fenómeno variará si partimos de apreciarlo como una conducta
disfuncional (por ejemplo) que afecta a individuos impropiamente integrados a sus
grupos de referencia o, por el contrario, como una expresión de una contracultura que se
origina en una crisis de valores de la sociedad existente.

En muchos trabajos de investigación no se presenta una sección aparte denominada


"marco teórico", sino que se exponen sus características dentro de lo que se denomina
"revisión bibliográfica" o "antecedentes".

En otras ocasiones, cuando se trata de una investigación donde el marco referencial se


reduce a algunas pocas proposiciones, éstas pueden insertarse al comienzo del trabajo,
sin merecer una aclaración mayor. Es el caso de estudios aplicados o de investigaciones
que buscan extender conceptos bien conocidos o nuevos estudios.

En síntesis, el marco teórico responde a la pregunta: ¿qué antecedentes existen? Por


ende, el marco teórico tiene como objeto dar a la investigación un sistema coordinado y
coherente de conceptos, proposiciones y postulados, que permita obtener una visión
completa del sistema teórico, sobre el conocimiento científico, que se tiene acerca del
tema. La conclusión del marco teórico debe ser que existe un problema científico y ése
es el que los investigadores van a abordar.

Es acá donde se realiza la descripción y análisis de las investigaciones previas o de los


antecedentes teóricos que llevan al planteamiento del problema.

En general, se podría afirmar que el marco teórico tiene como funciones:

• Orientar hacia la organización de datos y hechos significativos para descubrir las


relaciones de un problema con las teorías ya existentes.
• Evitar que el investigador aborde temáticas que, dado el estado del
conocimiento, ya han sido investigadas o carecen de importancia científica.
• Guiar en la selección de los factores y variables que serán estudiadas en la
investigación, así como sus estrategias de medición, su validez y confiabilidad.
• Prevenir sobre los posibles factores de confusión o variables extrañas que
potencialmente podrían generar sesgos no deseados.
Recordar!!! No puede haber un marco teórico que no tenga relación con el problema.

Cómo se debe leer para formular un marco teórico.

Una vez que se ha seleccionado el tema y se ha establecido el problema, se debe realizar


una lectura sistemática. ¿Qué quiere decir esto? La sistematización se refiere
fundamentalmente a la necesidad de leer, a fin de desarrollar el marco teórico de la
investigación, teniendo en cuenta el problema que se va a investigar.

Esto tiene tres razones:

• Para poder concretar el marco teórico.


• Para que sea relevante el tema de nuestra investigación.
• Para ahorrar tiempo e incrementar nuestra eficiencia.

Si nos dedicamos a hacer referencia a ciertos artículos, o a consultar libros como si


estuviéramos leyendo por placer, lo más probable es que obtengamos resúmenes muy
extensos que comprendan la mayoría de los puntos de la lectura en cuestión o, por el
contrario, pequeños resúmenes irrelevantes o ininteligibles.

¿Qué hacer para evitar esto? La primera regla que debemos aprender es tener siempre
presente el problema que se va a investigar. Así, si el libro que estamos consultando se
refiere en general a la "toma de decisiones", y nuestro estudio es "la toma de riesgos",
nos interesarán únicamente aquellos capítulos, fragmentos o frases relacionados con
estos últimos.

Otra sugerencia importante es leer con sentido crítico, tanto para obtener aquella
información importante para nuestra investigación, como para aprender de los errores
teóricos o metodológicos de otros autores. De este modo, evitaremos tener que descartar
material que nos pareció importante durante su lectura, pero que más tarde
consideramos repetitivo o irrelevante.
Por supuesto, existen diferencias obvias entre los temas de investigación que hacen más
o menos importante esta parte de la investigación, o que la convierten en una tarea fácil
o dificultosa. En una investigación donde el objetivo fundamental es, por ejemplo,
determinar el grado de adaptación de una especie Z a una zona más desértica que la de
origen, los problemas del marco teórico pueden ser resueltos con bastante simplicidad.
En cambio, estos problemas pueden ser esenciales y habrá que dedicarles el mayor
esfuerzo intelectual y tiempo a un estudio que intentase determinar los valores que
predominan en el sistema educativo.

Por ello, es recomendable que el investigador, al comenzar a estudiar su tema, trate de


poner al día sus conocimientos por medio de una sistemática y amplia consulta
bibliográfica. En general, se recurre a alguno de los siguientes lugares:

• Una biblioteca (privada o pública)


• Una librería
• Una hemeroteca
• Redes informáticas.

La recapitulación no debe ser pasiva, será conveniente formular redes esquemáticas,


comparar puntos de vista, establecer análisis y síntesis, confeccionar fichas.

Integración del material.

Una vez terminadas nuestras lecturas, así como la elaboración y clasificación de las
fichas, estaremos en posición de elaborar nuestro marco teórico, que se basará en la
integración de las fichas.

El orden que llevará la integración estará determinado por el objetivo del marco teórico.
Si, por ejemplo, es de tipo histórico, recomendaríamos un orden cronológico de las
teorías y/o de los hallazgos empíricos. Si la investigación se relaciona con una serie de
variables y tenemos información de teoría, así como de estudios previos de cada una de
esas variables y de la relación entre ellas, sería conveniente delimitar secciones que
abarcaran cada uno de los aspectos relevantes, a fin de integrar aquellos datos
pertinentes a nuestro estudio.
Es en esta fase de la investigación donde la identificación de las fichas nos permitirá
hacer referencia a éstas para poder extender o aclarar algún punto. Además, la correcta
identificación de las fichas y del tema a que se refieren, nos permitirá reunir todas las
tarjetas que se relacionan con un mismo tema y leer cada una de éstas para su
integración, en lugar de leer varias veces todas las tarjetas que fueron recopiladas.

Es fundamental en toda investigación que el autor incorpore sus ideas, críticas y


conclusiones con respecto tanto al problema como al material recopilado. También es
importante que se relacionen las cuestiones más sobresalientes, yendo de lo general a lo
concreto, es decir, mencionando primero generalidades del tema, hasta llegar a lo que
específicamente está relacionado con nuestra investigación.

Definición de términos básicos.

Todo investigador debe hacer uso de conceptos para poder organizar sus datos y
percibir las relaciones que hay entre ellos.

Un concepto es una abstracción obtenida de la realidad y, por tanto, su finalidad es


simplificar resumiendo una serie de observaciones que se pueden clasificar bajo un
mismo nombre.

Algunos conceptos están estrechamente ligados a objetos y a los hechos que


representan, por eso cuando se define se busca asegurar que las personas que lleguen a
una investigación conozca<n perfectamente el significado con el que se va a utilizar el
término o concepto a través de toda la investigación.

El problema que nos lleva a la definición de conceptos es el de que muchos de los


términos que se utilizan en las ciencias sociales son tomados del lenguaje vulgar y,
generalmente, el investigador los utiliza en otro sentido.
La definición conceptual es necesaria para unir el estudio a la teoría y las definiciones
operacionales son esenciales para poder llevar a cabo cualquier investigación, ya que los
datos deben ser recogidos en términos de hechos observables.

De acuerdo con la idea del realismo científico, los objetos de estudio existen en el
mundo empírico (tangible) pero la teoría pertenece al mundo conceptual del
pensamiento. Si el investigador acepta esta visión, debe hacer lo posible para que
existan conexiones entre estos dos mundos.
Si el investigador y el lector y usuario del estudio en su forma escrita han de tener la
misma noción del objeto, son necesarias normas fijadas y no ambiguas de
correspondencia para establecer el modelo teórico con el objeto empírico. Estas son las
definiciones de conceptos teóricos que sirven de puentes entre teoría y empiria.

Hay dos tipos de definiciones:

• Definiciones empíricas que anuncian cómo se va a observar o medir el concepto


en el mundo real, o en la empiria, como se le suele llamar. Dado que la
definición explica las operaciones para la observación, es llamada a veces
definición operacional.

• No es necesario definir todas nuestros conceptos teóricos directamente con


definiciones empíricas, que son a veces difíciles de construir. En muchos casos
es un sucedáneo aceptable una definición nominal, que describe el sentido del
concepto usando otros conceptos que han sido ya adecuadamente definidos
(empírica o nominalmente).

Si, por ejemplo, hemos definido operativamente dos variables, "distancia" medida
en kms. y "duración" medida en minutos, podemos usarlas para definir
nominalmente un tercer concepto, "velocidad" = "distancia" / "duración".

No es necesario definir continuamente palabras como "ser humano", "día" y "comprar"


si son usadas en sus sentidos habituales indicados en los diccionarios corrientes. El uso
de lenguaje común y significados estándar de palabras tiene también la ventaja
suplementaria de hacer el informe más comprensible para el profano.
Sin embargo, cada campo de la ciencia tiene sus conceptos teóricos especiales y para
nombrarlos se necesitan algunas palabras especiales. A veces las palabras del lenguaje
estándar han sido adoptadas para uso científico y han adquirido un significado especial,
cuya definición puede encontrarse en los manuales sobre ese campo. En ocasiones las
palabras adecuadas se han tomado prestadas del griego o del latín. Y, finalmente,
algunas palabras completamente nuevas se han acuñado por investigadores con
inventiva. En cualquier caso, cada investigador debe usar el vocabulario normal de su
campo de investigación tanto como le sea posible, para que pueda beneficiarse
directamente de resultados anteriores y, a la inversa, sus nuevos resultados sean fáciles
de leer y así contribuyan de manera efectiva a la teoría general de ese campo.

Otra regla general útil dice que el investigador debe intentar operar con tan pocos
conceptos y variables teóricos como le sea posible. Esta recomendación lleva el nombre
de "navaja de Occam", y se remonta al siglo XIV, atribuyéndose a Guillermo de Occam.

Definición operacional.

Las definiciones operacionales constituyen un manual de instrucciones para el


investigador. Deben definir las variables de las hipótesis de tal manera que éstas puedan
ser comprobadas.

Una definición operacional asigna un significado a una construcción hipotética o


variable, especificando las actividades u "operaciones" necesarias para medirla o
manipularla.

Una definición operacional es, esencialmente, aquella que indica que un cierto
fenómeno existe, y lo hace especificando de manera precisa y, preferiblemente, en qué
unidades puede ser medido dicho fenómeno. Esto es, una definición operacional de un
concepto, consiste en un enunciado de las operaciones necesarias para producir el
fenómeno. Una vez que el método de registro y de medición de un fenómeno se ha
especificado, se dice que ese fenómeno se ha definido operacionalmente.
Por tanto, cuando se define operacionalmente un término, se pretende señalar los
indicadores que van a servir para la realización del fenómeno que nos ocupa, de ahí que
en lo posible se deban utilizar términos con posibilidad de medición.

Las definiciones operacionales pueden ser:

• Medidas: cuando se observan y clasifican las variaciones.


• Experimentales: indican cómo manipular una variable.

Las definiciones operacionales son definiciones limitadas, cuyo propósito es permitir


que el investigador se acerque a los aspectos de la realidad a estudiar. Siempre existe el
peligro de fragmentar un concepto de tal forma que se aleje (o carezca de relevancia)
respecto a su significado real. Pero se aproximan a aspectos significativos de la realidad
conceptual.

Las definiciones operacionales establecen un puente entre los conceptos o


construcciones hipotéticas y las observaciones, comportamientos y actividades reales.
Es decir, el científico o investigador opera en dos niveles: el de los conceptos e
hipótesis (Nivel I) y el de la observación y manipulación (Nivel II). Los dos niveles
están conectados por una definición operacional.

En las situaciones experimentales, las definiciones operacionales especifican lo que los


experimentadores hacen para manipular una o más variables independientes. Estas
definiciones indican, literalmente, las operaciones involucradas.

Función de los conceptos o definiciones operacionales:

• Ordenar la percepción.
• Valorar lo percibido.
• Guiar la acción individual.
• Facilitar la comunicación.
Requisitos de los conceptos:

• Ha de existir acuerdo y continuidad en la atribución de determinados contenidos


figurativos o determinadas palabras.
• Deben estar definidos con precisión: contenido semántico exactamente
establecido.
• Tienen que tener una referencia empírica: deben referirse a algo aprehensible,
observable (aunque sea indirectamente).

Reglas para definir.

La función de la definición consiste en presentar los rasgos principales de la estructura


de un concepto para hacerlo más preciso, delimitándolo de otros conceptos, a fin de
hacer posible una exploración sistemática del objetivo que representa. Para ello es
necesario tener en cuenta:

• Validez significa que nuestra definición se ajusta al concepto. Debe referise


justamente a ese concepto y no a algo similar. Si nuestra definición es válida,
estamos midiendo justamente lo que pretendemos medir y no otra cosa.

• Fiabilidad o reproductibilidad significa que si repetimos nuestra medición o


registro, el resultado será siempre el mismo.

• Dar la esencia. La definición debe dar la esencia de lo que se intenta definir, es


decir, su naturaleza, sus notas características, sus límites.
• Evitar tautologías. No debe directa o indirectamente contener el objetivo.
Ejemplo: la economía es la ciencia que estudia los fenómenos económicos. No
debe ser circular. Es decir, se debe evitar, por ejemplo, definir al entendimiento
como la capacidad de pensar y, a su vez, a la capacidad de pensar como a la
actividad de entendimiento. Un círculo vicioso consiste en dos (o más)
definiciones nominales que se refieren la una a la otra mientras que los
conceptos usados en estas definiciones no tienen definición real para vincularlos
a la empiria.
• Debe ser afirmativa. Toda definición debe expresarse siempre en términos
afirmativos, nunca en términos negativos.
• Empleo de lenguaje claro. Debe expresarse en palabras claras y asequibles, no
debe contener metáforas o figuras literarias.
• Significado preciso y unitario.

La fase de establecer "definiciones de trabajo" está estrechamente vinculada a la


decisión que se tome con respecto a los instrumentos de recogida de datos que se
utilizarán.

Las definiciones de trabajo son adecuadas si los instrumentos o procedimientos basados


en ellas agrupan datos que constituyen indicativos satisfactorios de los conceptos que
intentan representar.

¿Pueden modificarse las definiciones cuando el trabajo avanza? Sí, de hecho en


investigación cualitativa es habitual, porque la comprensión por parte del investigador
de lo que está estudiando muchas veces se hace más profunda cuando la investigación
avanza. Por otro lado, si las definiciones que han servido como base para mediciones
cuantitativas se cambian después de reunir datos empíricos, se han desperdiciado los
datos correspondientes a la vieja definición que se habían reunido.

Esquema de la investigación.

Es la estructura que permite ubicar el objeto de la investigación en el marco que lo


comprende y analizar las partes de que consta.

Se formula para:

• Apreciar el objeto de estudio de forma total y en cada una de sus partes.


• Estructurar el escrito.
• Organizar el acopio de información.
• Planear nuestras actividades.

En el modelo que sigue se tratan los aspectos generales de una investigación.


El trabajo será más fácil si se desglosan al máximo el objeto de estudio y los aspectos de
la investigación.

PREGUNTAS ORIENTADORAS CONCEPTO

¿Qué conceptos vamos a utilizar?


Consisten en la precisión de
¿Qué criterios usaremos?
1. Definiciones. los conceptos, acepciones o
¿Cuál es nuestra concepción del criterios que vamos a utilizar.
tema?
Condiciones históricas que rodean Comprende el estado o
el objeto de estudio. hechos que prevalecen en el
ambiente en que se presenta
• Marco histórico. Consideración de los factores el objeto de estudio.
externos que tienen relación con el Constituye el contexto
objeto de la investigación. histórico de la investigación.
¿Cuál es el origen del objeto de la
investigación? Son el origen y el desarrollo
del objeto de estudio.
• Antecedentes. ¿Qué evolución ha tenido? Conocer la evolución de lo
que estamos investigando nos
¿Qué otras investigaciones facilita su comprensión.
similares se han hecho?
¿Cómo es el área que comprende?
Es la situación del objeto de
• Ubicación del ¿Cómo se manifiesta? la investigación en la
objeto de estudio. disciplina, materia o especie
¿Qué relación guardan entre sí las que lo comprende.
partes del área?
¿Cómo es el objeto de estudio?

• ¿Cuáles son sus partes?


• ¿Qué relación existe entre el
objeto y su contexto?
• ¿Cuáles y cómo son sus
características intrínsecas?
• ¿Qué efectos produce?
• ¿En qué períodos se
encuentra el fenómeno?
Es la "disección", el análisis,
• ¿Qué aspectos coordinados el estudio minucioso de las
• Descripción del y subordinados presenta? características, propiedades,
objeto de relaciones, formas de
investigación. ¿Qué circunstancias condicionan al manifestarse... el
objeto de la investigación? desglosamiento de lo que
investigamos.
• Éticas.
• Geográficas
• Económicas
• Ecológicas
• Tecnológicas
• Teóricas
• Culturales
• Religiosas

• Filosóficas
¿Qué tesis existen al respecto?
¿Qué teorías tratan de explicarlo?
Es la consideración de lo que
• ¿Cuál es la teoría clásica? se ha investigado (teorías,
1. Marco teórico. • ¿Cuáles son las teorías hipótesis, tesis) acerca del
opuestas a la clásica? objeto de nuestra
investigación.
• ¿Cuál es la teoría
predominante?
Descripción y/o provocación
del fenómeno. Aquí se
1. Exposición de muestra la información,
datos. directamente relacionada con
la hipótesis, obtenida de la
investigación.
• Valoración e
Es el análisis crítico de los
interpretación del
datos obtenidos.
material obtenido.
• Resumen. Es la parte del escrito que
tiene como finalidad mostrar
en qué se sustentan las
conclusiones que se
obtuvieron.
• Conclusiones y/o Es el resultado de la
recomendaciones. investigación.

Bibliografía:

Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed.


Mac Graw - Hill.

Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª


ed. México (1994). Ed. Trillas S.A.

Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª


ed. México (1998). Ed. Limusa S.A.

Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen


- Humanitas.

LAS HIPÓTESIS

Podemos definir la hipótesis como un intento de explicación o una respuesta


"provisional" a un fenómeno. Su función consiste en delimitar el problema que se va a
investigar según algunos elementos tales como el tiempo, el lugar, las características de
los sujetos, etc.

Llegar a comprobar o rechazar la hipótesis que se ha elaborado previamente,


confrontando su enunciado teórico con los hechos empíricos, es el objetivo primordial
de todo estudio que pretenda explicar algún campo de la realidad.

Para plantear una hipótesis adecuada, debemos tener en cuenta los siguientes puntos:

1. Los términos que se empleen deben ser claros y concretos para poder definirlos
de manera operacional, a fin de que cualquier investigador que quiera replicar la
investigación, pueda hacerlo.

Una hipótesis sin referencia empírica constituye un juicio de valor.

Si una hipótesis no puede ser sometida a verificación empírica, desde el punto


de vista científico no tiene validez.

2. Las hipótesis deben ser objetivas y no llevar algún juicio de valor; es decir, no
debe definirse el fenómeno con adjetivos tales como "mejor" o "peor", sino
solamente tal y como pensamos que sucede en la realidad.
3. Las hipótesis deben ser específicas, no sólo en cuanto al problema, sino a los
indicadores que se van a emplear para medir las variables que estamos
estudiando.
4. Las hipótesis deben estar relacionadas con los recursos y las técnicas
disponibles. Esto quiere decir que cuando el investigador formule su hipótesis
debe saber si los recursos que posee son adecuados para la comprobación de la
misma.
5. La hipótesis debe estar directamente relacionada con el marco teórico de la
investigación y derivarse de él.

Las hipótesis deben ser producto de la observación objetiva y su comprobación, estar al


alcance del investigador.

Requisitos de las hipótesis:


Las hipótesis deben:

• Establecer las variables a estudiar, es decir, especificar las variables a estudiar,


fijarles límite.
• Establecer relaciones entre variables, es decir, la hipótesis debe ser especificada
de tal manera que sirva de base a inferencias que nos ayuden a decidir si explica
o no los fenómenos observados. Las hipótesis deben establecer relaciones
cuantitativas entre variables.
• Mantener la consistencia entre hechos e hipótesis, ya que éstas se cimentan, al
menos en parte, sobre hechos ya conocidos. Por tanto, las hipótesis no deben
establecer implicaciones contradictorias o inconsistentes con lo ya verificado en
forma objetiva.

Tipos de hipótesis:

• Hipótesis nula. Para todo tipo de investigación en la que tenemos dos o más
grupos, se establecerá una hipótesis nula.

La hipótesis nula es aquella que nos dice que no existen diferencias


significativas entre los grupos.

Por ejemplo, supongamos que un investigador cree que si un grupo de


jóvenes se somete a un entrenamiento intensivo de natación, éstos serán
mejores nadadores que aquellos que no recibieron entrenamiento. Para
demostrar su hipótesis toma al azar una muestra de jóvenes, y también al
azar los distribuye en dos grupos: uno que llamaremos experimental, el
cual recibirá entrenamiento, y otro que no recibirá entrenamiento alguno,
al que llamaremos control. La hipótesis nula señalará que no hay
diferencia en el desempeño de la natación entre el grupo de jóvenes que
recibió el entrenamiento y el que no lo recibió.

Una hipótesis nula es importante por varias razones:

1. Es una hipótesis que se acepta o se rechaza según el resultado de la


investigación.
2. El hecho de contar con una hipótesis nula ayuda a determinar si existe una
diferencia entre los grupos, si esta diferencia es significativa, y si no se debió al
azar.

No toda investigación precisa de formular hipótesis nula. Recordemos


que la hipótesis nula es aquella por la cual indicamos que la información
a obtener es contraria a la hipótesis de trabajo.
Al formular esta hipótesis, se pretende negar la variable independiente.
Es decir, se enuncia que la causa determinada como origen del problema
fluctúa, por tanto, debe rechazarse como tal.

Otro ejemplo:

Hipótesis: el aprendizaje de los niños se relaciona directamente con su


edad.

Hipótesis nula: no existe diferencia significativa entre el aprendizaje en


niños de diversas edades.

• Hipótesis conceptual. Es la hipótesis que se formula como resultado de las


explicaciones teóricas aplicables a nuestro problema. Nos ayuda a explicar desde
el punto de vista teórico el fenómeno que estamos investigando.

Es la hipótesis orientadora de la investigación, intenta enfocar el


problema como base para la búsqueda de datos. No puede abarcar más de
lo propuesto en los objetivos de la investigación o estar en desacuerdo
con ellos.

Podemos enunciarla como una relación causal o determinante


proveniente del planteamiento del problema, de donde se desprenden las
variables.

• Hipótesis de trabajo. Es aquella que le sirve al investigador como base de su


investigación, o sea, trata de dar una explicación tentativa al fenómeno que se
está investigando. Ésta es la hipótesis que el investigador tratará de aceptar
como resultado de su investigación, rechazando la hipótesis nula.

Se dice que la hipótesis de trabajo es operacional por presentar


cuantitativamente (en términos medibles) la hipótesis conceptual o
general.

• Hipótesis alternativa. Al responder a un problema, es muy conveniente proponer


otras hipótesis en que aparezcan variables independientes distintas de las
primeras que formulamos. Por tanto, para no perder tiempo en búsquedas
inútiles, es necesario hallar diferentes hipótesis alternativas como respuesta a un
mismo problema y elegir entre ellas cuáles y en qué orden vamos a tratar su
comprobación.

Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté
realizando. En los estudios exploratorios, a veces, el objetivo de la investigación podrá
ser simplemente el de obtener los mínimos conocimientos que permitan formular una
hipótesis. También es aceptable que, en este caso, resulten poco precisas, como cuando
afirmamos que "existe algún tipo de problema social en tal grupo", o que los planetas
poseen algún tipo de atmósfera, sin especificar de qué elementos está compuesta.

Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los
X poseen, en alguna medida, las característica Y". Por ejemplo, podemos decir que
todas las naciones poseen algún comercio internacional, y dedicarnos a describir,
cuantificando, las relaciones comerciales entre ellas. También podemos hacer
afirmaciones del tipo "X pertenece al tipo Y", como cuando decimos que una tecnología
es capital - intensiva. En estos casos, describimos, clasificándolo, el objeto de nuestro
interés, incluyéndolo en un tipo ideal complejo de orden superior.

Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde
estaremos en presencia de una relación entre variables.

Sólo en los casos de investigaciones explicativas es necesario formular claramente


cuáles son las hipótesis de la investigación. En las investigaciones descriptivas y, con
más razón, en las exploratorias, es posible omitir las hipótesis, ya sea porque éstas son
tan amplias y poco definidas que dicen muy poco a quien lee el informe de
investigación, o porque no es posible o necesario verificarlas.

Dificultades para la formulación de hipótesis:

• Falta de conocimientos o ausencia de claridad en el marco teórico.


• Falta de aptitud para la utilización lógica del marco teórico.
• Desconocimiento de las técnicas adecuadas de investigación para redactar
hipótesis en debida forma.

Utilidad de las hipótesis:

El uso y formulación correcta de las hipótesis le permiten al investigador poner a prueba


aspectos de la realidad, disminuyendo la distorsión que pudieran producir sus propios
deseos o gustos. Pueden ser sometidas a prueba y demostrarse como probablemente
correctas o incorrectas sin que interfieran los valores o creencias del individuo.

Estructura de las hipótesis:

Una hipótesis generalmente se especifica por la estructura SI - ENTONCES (cuando


intervienen dos variables).

Cuando las variables son más de dos, las estructuras más frecuentes son:

• Si P, entonces Q, bajo las condiciones R y S.


• Si P1, P2 y P3, entonces Q.

Bibliografía:

Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed.


Mac Graw - Hill.
Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª
ed. México (1994). Ed. Trillas S.A.
Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª
ed. México (1998). Ed. Limusa S.A.
Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen
- Humanitas.

DIAGRAMA DE GANTT

Es un método gráfico de planeación y control en la que un proyecto se divide en


distintas actividades y se realizan estimaciones acerca de cuánto tiempo requiere cada
una de ellas, así como el total de tiempo necesario para terminar el proyecto totalmente.
En otras palabras, esta gráfica muestra las relaciones de tiempo entre los eventos de un
programa y fue desarrollada por Henry L. Gantt.

La gráfica de Gantt se compone de una hoja a la izquierda y de un gráfico de


barras a la derecha. Cada fila de la hoja muestra, de manera predeterminada el nombre y
la duración de una tarea del proyecto. En la parte superior del gráfico existe una línea de
tiempo. Debajo de ella hay barras que representan la tarea correspondiente de la hoja.
La ubicación de una barra de tarea en la línea de tiempo muestra cuándo comienza y
finaliza la duración de la tarea. Las tareas se listan de arriba hacia abajo en el orden en
que se realizarán. La ausencia de una barra significa que no hay trabajo relacionado con
la tarea durante un periodo de tiempo determinado.

Las gráficas de Gantt son útiles para el seguimiento de proyectos relativamente


pequeños, los cuales están integrados de actividades que se realicen con consecuencia
ordenada; también para planear actividades que se desarrollen en serie, siendo su
principal ventaja es que es sencillo y un excelente instrumento de comunicación con los
usuarios finales.

POBLACIÓN Y MUESTRA

Una población está determinada por sus características definitorias. Por lo tanto, el
conjunto de elementos que posea esta característica se denomina población o universo.
Población es la totalidad del fenómeno a estudiar, donde las unidades de población
poseen una característica común, la que se estudia y da origen a los datos de la
investigación.

Entonces, una población es el conjunto de todas las cosas que concuerdan con una
serie determinada de especificaciones. Un censo, por ejemplo, es el recuento de todos
los elementos de una población.

Cuando seleccionamos algunos elementos con la intención de averiguar algo sobre


una población determinada, nos referimos a este grupo de elementos como muestra. Por
supuesto, esperamos que lo que averiguamos en la muestra sea cierto para la población
en su conjunto. La exactitud de la información recolectada depende en gran manera de
la forma en que fue seleccionada la muestra.

Cuando no es posible medir cada uno de los individuos de una población, se toma
una muestra representativa de la misma.

La muestra descansa en el principio de que las partes representan al todo y, por tal,
refleja las características que definen la población de la que fue extraída, lo cual nos
indica que es representativa. Por lo tanto, la validez de la generalización depende de la
validez y tamaño de la muestra.

Leyes del método de muestreo.


El método de muestreo se basa en ciertas leyes que le otorgan su fundamento
científico, las cuales son:

• Ley de los grandes números: si en una prueba, la probabilidad de un


acontecimiento o suceso es P, y si éste se repite una gran cantidad de veces, la
relación entre las veces que se produce el suceso y la cantidad total de pruebas
(es decir, la frecuencia F del suceso) tiende a acercarse cada vez más a la
probabilidad P.

• Cálculo de probabilidades: La probabilidad de un hecho o suceso es la relación


entre el número de casos favorables (p) a este hecho con la cantidad de casos
posibles, suponiendo que todos los casos son igualmente posibles. El método de
establecer la probabilidad es lo que se denomina cálculo de probabilidad.

De estas dos leyes fundamentales de la estadística, se infieren aquellas que sirven de


base más directamente al método de muestreo:

• Ley de la regularidad estadística: un conjunto de n unidades tomadas al azar de


un conjunto N, es casi seguro que tenga las características del grupo más grande.

• Ley de la inercia de los grandes números: esta ley es contraria a la anterior. Se


refiere al hecho de que en la mayoría de los fenómenos, cuando una parte varía
en una dirección, es probable que una parte igual del mismo grupo, varíe en
dirección opuesta.

• Ley de la permanencia de los números pequeños: si una muestra suficientemente


grande es representativa de la población, una segunda muestra de igual magnitud
deberá ser semejante a la primera; y, si en la primera muestra se encuentran
pocos individuos con características raras, es de esperar encontrar igual
proporción en la segunda muestra.

Tipos de muestras.

Muestreo aleatorio simple: la forma más común de obtener una muestra es la selección
al azar. es decir, cada uno de los individuos de una población tiene la misma posibilidad
de ser elegido. Si no se cumple este requisito, se dice que la muestra es viciada. Para
tener la seguridad de que la muestra aleatoria no es viciada, debe emplearse para su
constitución una tabla de números aleatorios.

Muestreo estratificado: una muestra es estratificada cuando los elementos de la muestra


son proporcionales a su presencia en la población. La presencia de un elemento en un
estrato excluye su presencia en otro. Para este tipo de muestreo, se divide a la población
en varios grupos o estratos con el fin de dar representatividad a los distintos factores que
integran el universo de estudio. Para la selección de los elementos o unidades
representantes, se utiliza el método de muestreo aleatorio.

Muestreo por cuotas: se divide a la población en estratos o categorías, y se asigna una


cuota para las diferentes categorías y, a juicio del investigador, se selecciona las
unidades de muestreo. La muestra debe ser proporcional a la población, y en ella
deberán tenerse en cuenta las diferentes categorías. El muestreo por cuotas se presta a
distorsiones, al quedar a criterio del investigador la selección de las categorías.

Muestreo intencionado: también recibe el nombre de sesgado. El investigador


selecciona los elementos que a su juicio son representativos, lo que exige un
conocimiento previo de la población que se investiga.

Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se puede


seleccionar las unidades de la muestra en forma aleatoria y después aplicar el muestreo
por cuotas.

Muestreo tipo: la muestra tipo (master simple) es una aplicación combinada y especial
de los tipos de muestra existentes. Consiste en seleccionar una muestra "para ser usada"
al disponer de tiempo, la muestra se establece empleando procedimientos sofisticados; y
una vez establecida, constituirá el módulo general del cual se extraerá la muestra
definitiva conforme a la necesidad específica de cada investigación.

Bibliografía: EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA, Mario Tamayo


y Tamayo, 1998.

EL MUESTREO

Cuando un investigador realiza en ciencias sociales un experimento, una encuesta o


cualquier tipo de estudio, trata de obtener conclusiones generales acerca de una
población determinada. Para el estudio de ese grupo, tomará un sector, al que se conoce
como muestra.

Las poblaciones que el investigador puede estudiar son muy diversas, pero
generalmente se relacionan con personas. Por ejemplo, puede estudiar la opinión de las
amas de casa con respecto a ciertos métodos de planificación familiar, la edad promedio
de los alumnos de una escuela, el coeficiente intelectual promedio de los universitarios,
etc.

Desde luego, es de fundamental importancia que se empiece el estudio definiendo la


población que se va a estudiar. Las poblaciones suelen ser muy numerosas, por lo que es
difícil estudiar a todos sus miembros; además de que esto no es posible, no es necesario.
Es como si quisiéramos estudiar la composición química del agua de un río y para ello
tratáramos de analizar todo el líquido que corre por su cauce, cuando solamente
necesitamos algunas muestras para realizar ese estudio y para llegar a conclusiones
generalizables con respecto a la composición química del agua a todo el río.
En ciencias sociales, las muestras no se obtienen tan fácilmente, puesto que los eventos
se relacionan siempre con personas, las cuales son mucho menos estables en cuanto a
sus pautas de actividades, valores, actitudes y conductas que algunos de los fenómenos
que se estudian en las ciencias naturales.

El momento metodológico de la investigación está constituido por la definición y


especificación del diseño que se va a utilizar y por la tarea de operacionalización de
variables (convertir en operativos, en manejables, a los diversos elementos que
intervienen en el problema que se va a investigar).

La operacionalización se refiere de dos tipos de elementos:

• El universo, en tanto conjunto de unidades o fuentes de datos que es preciso


reducir a proporciones manejables para poderlo explorar.
• Las variables, en tanto conceptos abstractos a los que es preciso dar contenido
concreto para poder efectuar sobre ellos las mediciones correspondientes.

La operacionalización del universo es la tarea de encontrar una forma de obtener


información relevante sin necesidad de acudir a la medición de todo el universo posible
de datos. Es el aspecto cuantitativo de la operacionalización y, para resolverlo,
tendremos que apelar a la estadística, mediante técnicas de muestreo. La
operacionalización de las variables, de naturaleza cualitativa, tiene por objeto encontrar
los indicadores a través de los cuales se expresa concretamente el comportamiento de
las mismas.

La relación que existe entre la operacionalización y el tipo de diseño se origina en que,


de acuerdo con el método general que se va a utilizar (o sea, el diseño), se requerirá de
uno u otro tipo de datos, operacionalizar de cierta manera o de otra. Inversamente, de
acuerdo con las posibilidades concretas de operacionalizar en uno u otro sentido las
variables y el universo considerado, será más o menos adecuado un cierto tipo de
diseño. Por esta razón, ambas tareas deben encararse simultáneamente.

Datos y unidades.
Un dato es cada uno de los elementos de información que se recoge durante el
desarrollo de una investigación y en base a los cuales, convenientemente sintetizados,
podrán extraerse conclusiones en relación con el problema inicial planteado.

Cualquier información, por más pequeña y fragmentaria que sea, puede considerarse
como un dato, siempre y cuando pueda colaborar de algún modo a esclarecer los
problemas que nos planteamos en un estudio. Saber, por ejemplo, que la persona N
opina que las pruebas nucleares deben ser proscritas, es un dato. Esa información, por sí
sola, carece prácticamente de valor, pues poco nos dice de las reacciones que despiertan
las pruebas de armas atómicas en la gente. Pero el valor del dato reside no en su alcance
individual, en lo que nos expresa por sí mismo, sino en su posibilidad de ser integrado
en conjuntos mayores. Cuando agrupamos muchas informaciones de carácter similar,
cada dato se hace valioso dentro de una perspectiva más amplia. Así, en nuestro
ejemplo, si consultamos la opinión de muchas personas, podemos llegar a enunciar que
un determinado tanto por ciento de ellas están en contra de los ensayos nucleares e
integrar esa información, a su vez, en un estudio sobre las opiniones de determinado
conglomerado social.

Las fuentes de datos pueden ser personas, situaciones o hechos que se observan
directamente, o materiales bibliográficos de diversa naturaleza. Las llamamos unidades
de datos y, a su conjunto, a la suma de todas las unidades, se le da el nombre de
universo o población. Podríamos decir que una población o universo es, entonces, el
conjunto de todas las cosas que concuerdan con una determinada serie de
especificaciones. En general, toda investigación puede considerarse como una búsqueda
de los datos apropiados que permitan resolver ciertos problemas de conocimiento. Estos
datos son obtenidos a través de un conjunto de unidades que constituyen el universo
relevante para la investigación.

Existen universos que resultan demasiado amplios para el investigador, pues éste no
tienen ni el tiempo ni los recursos para abordar el estudio de cada una de las unidades
que lo componen (el conjunto de ciudadanos de un país, la flora de una región o las
innumerables galaxias). Para resolver este inconveniente, se acude a la
operacionalización del universo mediante la extracción de muestras.

Universo y muestra.

Una muestra es un conjunto de unidades, una porción del total, que nos representa la
conducta del universo en su conjunto.
Una muestra, en un sentido amplio, no es más que eso, una parte del todo que llamamos
universo y que sirve para representarlo.

Sin embargo, no todas las muestras resultan útiles para llevar a cabo un trabajo de
investigación. Lo que se busca al emplear una muestra es que, observando una porción
relativamente reducida de unidades, se obtengan conclusiones semejantes a las que
lograríamos si estudiáramos el universo total. Cuando una muestra cumple con esta
condición, es decir, cuando nos refleja en sus unidades lo que ocurre en el universo, la
llamamos muestra representativa. Por lo tanto, una muestra representativa contiene las
características relevantes de la población en las mismas proporciones en que están
incluidas en tal población. Sus conclusiones son susceptibles de ser generalizadas al
conjunto del universo, aunque para ello debamos añadir un cierto margen de error en
nuestras proyecciones.

Las muestras pueden ser clasificadas, en una primera división en probabilísticas y no


probabilísticas.

En las muestras probabilísticas, la característica fundamental es que todo elemento del


universo tiene una determinada probabilidad de integrar la muestra, y esa probabilidad
puede ser calculada matemáticamente con precisión. En las muestras no probabilísticas
ocurre lo contrario y el investigador no tiene idea del error que puede estar
introduciendo en sus apreciaciones.

Las muestras no probabilísticas más usadas son:

• Muestra accidental. Es aquella que se obtiene sin ningún plan preconcebido; las
unidades elegidas resultan producto de circunstancias fortuitas. Si entrevistamos
a los primeros 50 transeúntes que pasan por cierta calle o medimos la
profundidad del mar a lo largo de un trayecto entre dos puntos cualesquiera,
estaremos en presencia de una muestra accidental; los datos obtenidos podrán o
no representar al universo en estudio. El investigador no puede saber hasta qué
punto sus resultados podrán proyectarse, con confiabilidad, hacia el conjunto
más amplio que desea conocer.
• Muestra por cuotas. Consiste en predeterminar la cantidad de elementos de cada
categoría que habrán de integrar la muestra. Así podemos asignar una cuota de
50 hombres y 50 mujeres a una muestra de 100 individuos, asumiendo que ésa
es la distribución de la población total. Por más que esa presunción llegue a ser
válida, no deja de existir cierta arbitrariedad en este modo de proceder, por lo
que la rigurosidad estadística de las muestras por cuotas se reduce
considerablemente.
• Muestra intencional. Las unidades se eligen en forma arbitraria, designando a
cada unidad según características que para el investigador resulten de relevancia.
Se emplea, por lo tanto, el conocimiento y la opinión personal para identificar
aquellos elementos que deben ser incluidos en la muestra. Se basa,
primordialmente, en la experiencia de alguien con la población. Estas muestras
son muy útiles y se emplean frecuentemente en los estudios de caso, por más
que la posibilidad de generalizar conclusiones a partir de ellas, sea en rigor nula.
En algunas oportunidades se usan como guía o muestra tentativa para decidir
cómo tomar una muestra aleatoria más adelante.

Muestras aleatorias.

Como dijimos, en ellas cada uno de los elementos del universo tiene una probabilidad
determinada y conocida de ser seleccionado. Los procedimientos más usuales para la
obtención de muestras aleatorias son:

• Azar simple. Este procedimiento se inicia confeccionando una lista de todas las
unidades que configuran el universo, numerando correlativamente cada una de
ellas. Luego, mediante cualquier sistema (tabla de números al azar, programas
de computación), se van sorteando al azar estos números hasta completar el total
de unidades que deseamos que entren en la muestra. De este modo, la
probabilidad que cada elemento tienen de aparecer en la muestra es exactamente
la misma. Si cada uno de los elementos que integran la población no tiene la
misma posibilidad de ser elegido, se habla entonces de una muestra viciada. Este
método nos garantiza una selección completamente aleatoria, pero resulta muy
lento y costoso, pues nos obliga a elaborar listas completas de todas las unidades
de interés, lo que a veces es sencillamente imposible. Por este motivo, sólo se
emplea cuando los universos son relativamente pequeños. Este método no será
adecuado si, por ejemplo, queremos sacar una muestra de todas las personas
analfabetas que existen en un país. En cambio, si nuestra intención es extraer
una muestra del universo de todos los alumnos que ingresan a una universidad
en un determinado año, resultará muy adecuado.
• Azar sistemático. También se requiere de un listado completo de las unidades
que integran el universo en estudio. Luego se efectúan las siguientes
operaciones:
1. Se calcula la constante K, que resulta de dividir el número total de unidades que
componen el universo por el número de unidades que habrán de integrar la
muestra:

K = N/n

Donde:

N = número total de unidades que componen e universo.

n = número total de unidades que integrarán la muestra.

2. Se efectúa un sorteo para elegir un número que sea inferior o igual al valor de K.
Como primera unidad para integrar la muestra se elige aquella que, en la lista
general, posea idéntico número de orden al sorteado. Si designamos con A este
primer valor, la segunda unidad elegida será la que lleve el número A + K, la
tercera corresponderá a A + 2K y así sucesivamente hasta llegar a A + (n – 1)K.

Supongamos un universo constituido por 2.800 elementos, del que


deseamos obtener una muestra de 70 casos. Tenemos entonces:

N = 2.800

n = 70

K = 2.800 / 70 = 40

Ahora, mediante cualquier procedimiento, buscamos al azar un número


entero cuyo valor figure entre los límites de 1 y 40. En este caso, el
número elegido es el 32. Entonces, las unidades que pasarán a formar
parte de la muestra serán las que lleven los siguientes números de orden:

1° unidad 32
2° unidad 32 + 40 72
3° unidad 32 + 80 112
....
70° unidad 32 + 2760 2.792

Las ventajas y desventajas de este procedimiento son casi idénticas a la


de las muestras al azar simple. Los procedimientos computacionales
hacen mucho más fácil efectuar el sorteo de las unidades y no existe el
riesgo de que la muestra quede sesgada por algún tipo de regularidad que
no conocemos y que esté presente en el universo.
• Muestras por conglomerados. Esta técnica tiene utilidad cuando el universo que
se requiere estudiar admite ser subdividido en universos menores de
características similares a las del universo total. Se procede a subdividir el
universo en un número finito de conglomerados y, entre ellos, se pasa a elegir
algunos que serán los únicos que se investigarán; esta elección puede realizarse
por el método del azar simple o por el del azar sistemático. Una vez cumplida
esta etapa, puede efectuarse una segunda selección, dentro de cada uno de los
conglomerados elegidos, para llegar a un número aún más reducido de unidades
muestrales. La ventaja de esta técnica es que obvia la tarea de confeccionar el
listado de todas las unidades del universo. Su desventaja mayor radica en que, al
efectuarse el muestreo en dos etapas, los errores muestrales de cada una se van
acumulando, lo que da un error mayor que para los métodos anteriores. La
técnica de conglomerados suele utilizarse cuando queremos extraer muestras de
los habitantes de un conjunto geográfico amplio, por ejemplo, una gran ciudad o
un conjunto de pueblos, por lo que se procede a tomar cada pueblo o grupo de
manzanas como un conglomerado independiente; del mismo modo, se la utiliza
para conocer las reservas forestales y marinas, para estudiar las estrellas y otros
casos semejantes.
• Muestras estratificadas. Este método supone que el universo puede desagregarse
en sub – conjuntos menores, homogéneos internamente pero heterogéneos entre
sí. Cada uno de estos estratos se toma luego como un universo particular, de
tamaño más reducido, y sobre él se seleccionan muestras según cualquiera de los
procedimientos anteriores. Por ejemplo, si quisiéramos estudiar las actitudes
políticas de los estudiantes de una universidad, podríamos subdividir en estratos
de acuerdo con el tipo de estudios que cursen, suponiendo que estas actitudes
van a ser diferentes entre quienes siguen Ingeniería, Letras, Medicina u otras
carreras. Luego, efectuaríamos un muestreo dentro de cada sub – universo así
definido para, finalmente, realizar un análisis integrando los resultados de todas
las sub – muestras.

Tanto en el muestreo estratificado como en el de conglomerados, la población se divide


en grupos bien definidos. Usamos el muestreo estratificado cuando hay una amplia
variación entre los grupos. Usamos el muestreo por conglomerados en el caso opuesto:
cuando hay una variación considerable dentro de cada grupo, pero los grupos son
esencialmente similares entre sí.

Tamaño de la muestra y error muestral.

Recordemos que la muestra descansa en el principio de que las partes representan al


todo y, por tal, refleja las características que definen a la población de la cual fue
extraída, lo cual nos indica que es representativa. Es decir, que para hacer una
generalización exacta de una población, es necesario tomar una muestra representativa.
Por lo tanto, la validez de la generalización depende de la validez y tamaño de la
muestra.

Cuando trabajamos con muestras, generalmente se presentan dos tipos de errores:

• Error sistemático. Llamado de distorsión o sesgo de la muestra, se presentan por


causas ajenas a la muestra:

• Situaciones inadecuadas: se presentan, por ejemplo, cuando el encuestador tiene


dificultades para obtener la información y la sustituye por la que más fácilmente
está a su alcance, que no siempre es la más confiable.
• Insuficiencia en la recolección de datos: hay distorsión por falta de respuestas, o
respuestas inadecuadas, ya sea por ignorancia o falta de datos relativos a los
elementos incluidos. Distorsiones del encuestador causadas por prejuicios,
interés personal o por fallas en la aplicación de instrumentos.
• Errores de cobertura a causa de que no se han incluido elementos importantes y
significativos para la investigación que se realiza.

• Error de muestreo o muestral. Cualquiera sea el procedimiento utilizado y la


perfección del método empleado, la muestra diferirá de la población. A esta
diferencia se la denomina error de muestreo.

Cuando una muestra es aleatoria o probabilística, es posible calcular


sobre ella el error muestral. Este error indica el porcentaje de
incertidumbre, es decir, el riesgo que se corre de que la muestra elegida
no sea representativa. Si trabajamos con un error calculado en 5%, ello
significa que existe un 95% de probabilidades de que el conjunto
muestral represente adecuadamente al universo del cual ha sido extraído.

A medida que incrementamos el tamaño de la muestra, el error muestral


tiende a reducirse, pues la muestra va acercándose más al tamaño del
universo. Del mismo modo, para una muestra determinada, su error será
menor cuanto más pequeño sea el universo a partir del cual se la ha
seleccionado. Así, para un universo de 10.000 casos, una muestra de 200
unidades tendrá un error mayor que una de 300; una muestra de 200
casos, por otra parte, tendrá un error mayor si el universo tiene 10.000
unidades que si éste posee solamente 2.000.

Para fijar el tamaño de la muestra adecuado a cada investigación, es preciso primero


determinar el porcentaje de error que estamos dispuestos a admitir. Una vez hecho esto,
deberán realizarse las operaciones estadísticas correspondientes para poder calcular el
tamaño de la muestra que nos permite situarnos dentro del margen de error aceptado.
A veces, sin embargo, el tamaño de la muestra queda determinado previamente por
consideraciones prácticas; en tales casos, no hay otra alternativa que aceptar el nivel de
error que su magnitud acarree.

Bibliografía:

Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen


- Humanitas.

Técnicas de recolección de datos primarios.

1. La observación. Consiste en el uso sistemático de nuestros sentidos orientados a


la captación de la realidad que queremos estudiar.

Es una técnica antiquísima: a través de sus sentidos, el hombre capta la realidad


que lo rodea, que luego organiza intelectualmente. A través de innumerables
observaciones sistemáticamente repetidas, mayas y caldeos lograron penetrar en
los secretos del movimiento de los cuerpos celestes; observando miles de casos
concretos Mendel pudo formular las leyes sobre la herencia.

El uso de nuestros sentidos es una fuente inagotable de datos que, tanto para la
actividad científica como para la vida práctica, resulta de inestimable valor.

2. La entrevista. Consiste en una interacción entre dos personas, una de las cuales -
el investigador - formula determinadas preguntas relativas al tema en
investigación, mientras que la otra - el investigado - proporciona verbalmente o
por escrito la información que le es solicitada.

Existen además otros procedimientos de recolección de datos primarios, entre los que
figguran el llamado cuestionario de autoaplicación, los tests, los diagramas
sociométricos, las escalas y diferenciales semánticos, etc. sin embargo, todos tienen su
origen, en última instancia, en las dos principales técnicas mencionadas.

LA OBSERVACIÓN CIENTÍFICA.
La observación puede definirse como el uso sistemático de nuestros sentidos en la
búsqueda de los datos que se necesitan para resolver un problema de investigación.

Dicho de otro modo, observar científicamente es percibir activamente la realidad


exterior con el propósito de obtener los datos que previamente han sido definidos de
interés para la investigación. La observación que se realiza cotidianamente, como parte
de nuestra experiencia vital, no puede ser considerada como científica pues no está
orientada hacia objetos precisos de estudio, no es sistemática y carece de controles o de
mecanismos que nos pongan a cubierto de los errores que podemos cometer cuando la
realizamos.

La observación científica debe seguir algunos principios básicos:

• Debe tener un propósito específico.


• Debe ser planeada cuidadosa y sistemáticamente.
• Debe llevarse, por escrito, un control cuidadoso de la misma.
• Debe especificarse su duración y frecuencia.
• Debe seguir los principios básicos de validez y confiabilidad.

La principal ventaja de esta técnica en el campo de las ciencias del hombre radica en
que los hechos son percibidos directamente, sin ninguna clase de intermediación,
colocándonos ante una situación tal como ésta se da naturalmente. De este modo, no se
presentan las distorsiones que son usuales en las entrevistas, como la subjetividad del
objeto investigado.

Otra ventaja es que la conducta se describe en el momento exacto en que está


ocurriendo. Por ejemplo, si queremos hacer un estudio de las diferentes formas que
existen para educar a los niños entre las tribus primitivas, observaremos las conductas
de las madres hacia sus hijos y las describiríamos tal como se presentan en un momento
dado.

Además, las observaciones se pueden realizar independientemente de que las personas


estén dispuestas a cooperar o no, a diferencia de otros métodos en los que sí
necesitamos de la cooperación de las personas para obtener la información deseada.
Su principal inconveniente reside en que la presencia del observador puede provocar,
por sí sola, una alteración o modificación en la conducta de los objetos observados,
destruyendo la espontaneidad de los mismos y aportando datos, por lo tanto, poco
fiables. Todos los seres humanos, al saberse observados, tienden naturalmente a alterar
su conducta, pues hay muchas actividades, opiniones y actitudes que podemos tener en
privado, pero nunca cuando sentimos que estamos siendo objeto de una observación. Es
dificil poder observar la interacción familiar, por ejemplo, en el momento de acostarse o
levantarse.

Esta reacción frente a la presencia de terceros debe tenerse en cuenta siempre que se
pretenda utilizar la técnica de la observación con seres humanos. Para evitar las
perturbaciones mecionadas, se han diseñado dos procedimientos:

• Para evitar inhibiciones o alteraciones en la conducta de los sujetos observados,


se trata de pasar lo más desapercibidos posible, actuando de tal manera que el
observador no aparezca con contornos nítidos ante los observados, sino más bien
como parte del "telón de fondo" de la situación. Si logramos esto, lograremos
observaciones confiables y de buena calidad. Ésta es la observación simple.
• La otra forma de que las personas no se sientan observadas se basa en un
procedimiento inverso: el observador, en vez de pasar desapercibido, trata de
integrarse a la acción de los observados, de participar en ella como si se tratara
de un miembro más del grupo. Por ello, se la denomina observación participante.

La observación, debido a su utilidad, es una técnica que se puede utilizar, junto con
otras, para recabar información; por ejemplo, la observación se puede utilizar en un
estudio exploratorio, y para el estudio final se pueden usar otras técnicas como
cuestionarios, entrevistas, etc.

Observación simple y participante.

La observación simple resulta útil y viable cuando se trata de conocer hechos o


situaciones que de algún modo tienen un cierto carácter público, o que por lo menos no
pertenecen estrictamente a la esfera de las conductas privadas de los individuos.

Es factible mediante este procedimiento conocer hábitos de compra, situándonos


estratégicamente en los puntos de ventas, relevar formas de comportamiento político,
mediante la asistencia a actos de esa naturaleza, y conocer otros aspectos de la conducta
manifiesta de las personas: hábitos de vestimenta, de concurrencia a lugares públicos, de
trato social, etc. Casi siempre sus resultados apuntan a lo más superficial o visible de la
realidad social.

La observación simple puede adquirir también un carácter indirecto, si apelamos al


auxilio de instrumentos capaces de registrar información sobre el problema. El uso de
vidrios polarizados, de cintas magnetofónicas, filmadoras, cámaras de televisión y otros
aparatos es de indudable valor en el estudio de la conducta humana, por la exactitud de
sus registros y por la confianza que proporcionan al investigador. Es conveniente
utilizar estos auxiliares siempre y cuando las circunstancias lo permitan. Por supuesto,
el uso de estos medios debe plantearse de modo tal que no perturben la acción o
situación, porque de lo contrario sus efectos serían más bien contraproducentes.

La observación participante, por otra parte, implica la necesidad de un trabajo más


dilatado y cuidadoso, ya que el investigador debe primeramente ingresar al grupo,
comunidad o institución en estudio para, una vez allí, ir realizando la doble tarea de
desempeñar roles dentro del conjunto y de ir recogiendo los datos que desea conseguir.
Por lo tanto, es preciso confundirse con las personas sobre las que recae la
investigación, sin abandonar la actitud observadora. Con esto se consigue ser testigo de
los hechos "desde adentro", y el observador no sólo puede percibir las formas más
exteriores de la conducta sino también experimentar en carne propia las actitudes y
valores que se relacionan con el comportamiento en estudio. Esta información resulta,
por lo general, más confiable que la que se obtiene por medio de entrevistas, ya que los
hechos se observan a medida que se producen y tal como se producen.

La observación participante puede llamarse natural cuando el investigador pertenece, de


hecho, al conjunto humano que investiga. Si un estudiante quiere hacer una
investigación sobre estudiantes, prácticamente no necesita ningún esfuerzo para lograr
su cometido, pues ya es estudiante y conoce el lenguaje, los modos de hacer y de
comportarse del grupo que investiga.

La observación participante, en cambio, se denomina artificial cuando la integración del


observador al grupo se hace con el objeto deliberado de desarrollar un trabajo de
investigación. Cuando la distancia social entre observador y observado es poca, la
adecuación no es difícil.

La observación participante puede variar desde una afiliación total al grupo hasta una
participación limitada y condicionada, tanto en cuanto al tiempo como en cuanto a las
funciones asumidas por el observador. No es necesario que éste lleve a cabo
exactamente las mismas actividades que realizan los demás miembros del grupo; en
lugar de ello, puede buscarse algún papel que sea aceptable dentro de la comunidad y
que el observador pueda desempeñar razonablemente bien. En todos los casos, es
importante que no se divulgue la verdadera finalidad de su participación y que cuide
todos los detalles de su aspecto personal, de sus gestos y ademanes, de las palabras y
opiniones que expresa, para no aparecer como un participante anómalo, porque esto
puede generar hacia él una actitud de desconfianza o un trato atípico, bloqueando la
información que recibe y llegando hasta a distorsionar las actividades que el grupo
normalmente realiza.

En cuanto a las desventajas de la observación participante, debemos mencionar que el


excesivo compromiso que adopta el investigador frente al grupo puede llegar a provocar
una identificación tan intensa que altere su objetividad y distorsione su percepción; que
acepte, dentro del grupo investigado, una sola de las posiciones posibles; y los enormes
costos que pueden estar asociados a trabajos de tan larga duración.

En la práctica, es conveniente efectuar las tareas de observación en equipo, para tener


una mayor cobertura de los sucesos y para evitar los siempre posibles errores de
percepción. Los datos pueden ser así confrontados o cotejados luego de su obtención
par enmendar errores o superar los vacíos que puedan existir. Cuando los sucesos de
interés se dan dentro de colectividades pequeñas o muy sensibles, es preferible reducir
el número de observadores, pues una presencia colectiva puede causar más daños que
beneficios.

Debemos distinguir también entre observaciones de situaciones producidas


espontáneamente, en la misma vida social, de las que se llevan a cabo en condiciones
controladas, experimentales, ya preparadas.

Registro y formalización de la observación.

La tarea de observar no es una mera percepción pasiva de hechos, situaciones o cosas...

Hablábamos de una percepción activa, lo cual significa seleccionar, organizar y


relacionar los datos referentes a nuestro problema. No todo lo que aparece en el campo
del observador tiene importancia y, si la tiene, no siempre en el mismo grado; no todos
los datos se refieren a las mismas variables o indicadores y es preciso estar alerta para
discriminar adecuadamente todo este conjunto posible de informaciones.

Resulta indispensable registrar toda observación que se haga, para poder organizar
luego lo percibido en un conjunto coherente. Los medios más comúnmente utilizados
son: cuadernos de campo, diarios, cuadros de trabajo, gráficos y mapas.

El problema del registro puede llegar a ser sumamente delicado cuando se trata de la
observación de fenómenos de tipo social. En muchas circunstancias es prácticamente
imposible tomar notas durante el transcurso de la observación, pues ello originaría
sospechas y recelo. En situaciones extremas, no habrá más remedio que confiar en la
memoria, con todas las limitaciones que esto supone. Este inconveniente se allana
cuando los observadores son varios, ya que pueden redactar independientemente sus
informes para luego compararlos entre sí, completando y depurando los datos obtenidos.

En cuanto a los datos para registrar, es posible adoptar diversas posiciones. Puede
actuarse con suma flexibilidad, recogiendo sólo aquellos datos que van apareciendo,
anotando las impresiones generales que causan los sucesos, de una manera espontánea y
poco organizada. Se trata de una observación no estructurado o no formalizada, que
ofrece las ventajas de su gran capacidad de adaptación frente a sucesos inesperados y de
no pasar por alto ningún aspecto importante que pueda producirse.

Este tipo de observación generalmente se lleva a cabo en un estudio piloto, cuando no


se conoce muy bien la muestra que se va a estudiar.

Cuando establecemos de antemano una pauta de observación explícita en que se detalla


qué datos habremos de recoger, llamamos a la observación estructurada o formalizada.
Aquí la ventaja principal es que recogemos datos que pueden cuantificarse más
fácilmente, debido a su homogeneidad, y que podemos tener la certeza de no haber
olvidado registrar ninguno de los aspectos principales del problema en estudio. Su
desventaja radica en su poca flexibilidad frente a circunstancias no previstas pero que
pueden llegar a ser interesantes o importantes para la investigación.

La observación estructurada se lleva a cabo cuando se pretende probar una hipótesis, o


cuando se quiere hacer una descripción sistemática de un fenómeno; es decir, cuando
estamos realizando un estudio o investigación en el que sabemos exactamente lo que
vamos a investigar.
Por ejemplo, si vamos a observar el grado de agresividad de un niño mediante la
frecuencia con que se presenta la conducta, en sus diferentes grados, primero
definiremos qué queremos decir con conducta agresiva y cuáles son sus
manifestaciones:

Identificación del niño: (se puede dar su nombre, o hacer referencia a alguna
característica física o a algún número que permita identificarlo).

1 2 3 4 5
Golpeó a un niño
cerca de él.

Golpeó a un niño que


estaba lejos de él.

Le dijo palabras
insultantes a un niño
cerca de él.

Le dijo palabras
insultantes a un niño
que estaba lejos de él.

También pueden realizarse observaciones semiestructuradas, detallando más o menos la


pauta de observación según las necesidades y posibilidades.
LA ENTREVISTA.

La entrevista es una forma específica de interacción social que tiene por objeto
recolectar datos para una indagación.

El investigador formula preguntas a las personas capaces de aportarle datos de interés,


estableciendo un diálogo, donde una de las partes busca recoger informaciones y la otra
es la fuente de esas informaciones.

La ventaja esencial de la entrevista reside en que son los mismos actores sociales
quienes proporcionan los datos relativos a sus conductas, opiniones, deseos, actitudes y
expectativas. Nadie mejor que la misma persona involucrada para hablarnos acerca de
aquello que piensa y siente, de lo que ha experimentado o piensa hacer.

Pero existe un importante inconveniente que limita sus alcances. Cualquier persona
entrevistada podrá hablarnos de aquello que le preguntemos pero siempre nos dará la
imagen que tiene de las cosas, lo que cree que son, a través de su carga subjetiva de
intereses, prejuicios y estereotipos. La propia imagen que el entrevistado tiene de sí
mismo podrá ser radicalmente falsa y, en todo caso, estará siempre idealizada,
distorsionada, mejorada o retocada.

Este problema nos obliga a dejar fuera de esta técnica a problemas y temas que son
mejor explorados por medio de otros procedimientos. Por otra parte, nos obliga a
utilizar, a veces, caminos indirectos, mediante preguntas que alcancen nuestro objetivo
elípticamente, utilizando rodeos. Es clásico el ejemplo de que las personas nunca
contestan la verdad respecto de sus ingresos personales en dinero, ya sea porque los
disminuyen (ante el temor de estar frente a algún inspector de impuestos), o porque los
aumentan (con fines de ostentación social o para reforzar su autoestima).

Para que una entrevista tenga éxito, es preciso prestar atención a una serie de factores:
es importante que la apariencia exterior del entrevistador resulte adecuada al medio
social donde habrá de formular sus preguntas. El entrevistador habrá de ser una persona
de por lo menos una cultura media, que comprenda el valor y la importancia de cada
dato recogido y la función que su trabajo desempeña en el conjunto de la investigación.
Tendrá que ser mentalmente ágil, no tener prejuicios marcados frente a ninguna
categoría de personas y, sobre todo, ser capaz de dejar hablar libremente a los demás,
eliminando por completo todo intento de convencerlos, apresurarlos, o agredirlos con
sus opiniones. La entrevista habrá de realizarse a las horas más apropiadas para las
personas que responden, teniendo en cuenta que su posible duración no afecte la
confiabilidad de los datos.

Lo que vulgarmente se llama entrevista es una técnica que en realidad se denomina


entrevista no estructurada, y lo que suele llamarse encuesta es igual a lo que
denominamos, en metodología, entrevista estructurada.

Las entrevistas más estructuradas serán aquellas que predeterminen en una mayor
medida las respuestas por obtener, que fijan de antemano sus elementos con más
rigidez, mientras que las entrevistas informales serán las que transcurran de un modo
más espontáneo, libre, sin sujetarse a ningún canon establecido.

Entrevistas no estructuradas:

Una entrevista no estructurada o no formalizada es aquella en que existe un margen más


o menos grande de libertad para formular las preguntas y las respuestas. No se guían por
un cuestionario o modelo rígido.

• Entrevista formal: Es la modalidad menos estructurada posible de entrevista, ya


que se reduce a una simple conservación sobre el tema en estudio. Lo importante
no es definir los límites de lo tratado ni ceñirse a algún esquema previo, sino
"hacer hablar" al entrevistado, de modo de obtener un panorama de los
problemas más salientes, de los mecanismos lógicos y mentales del respondente,
de los temas que para él resultan de importancia.

Es de gran utilidad en estudios exploratorios y recomendable cuando se


trata de abordar realidades poco conocidas por el investigador. También
suele utilizarse en las fases iniciales - aproximativas - de investigaciones
de cualquier naturaleza, recurriendo a informantes claves que pueden ser
expertos sobre el tema en estudio, líderes formales o informales,
personalidades destacadas o cualquier persona que posea información
para la investigación.
Lo más importante es dar al respondente la sensación clara y definida de
que puede hablar libremente, alentándolo y estimulándolo para que lo
haga y cuidando de no influirlo demasiado con nuestras actitudes o las
palabras que decimos.

• Entrevista focalizada: Es prácticamente tan libre y espontánea como la anterior,


pero tiene la particularidad de concentrarse en un único tema. El entrevistador
deja hablar sin restricciones al entrevistado, proponiéndole apenas algunas
orientaciones básicas pero, cuando éste se desvía del tema original, el
entrevistador vuelve a centrar la conversación sobre el primer asunto.

Se emplea normalmente con el objeto de explorar a fondo alguna


experiencia vivida por el entrevistado o cuando nuestros informantes son
testigos presenciales de hechos de interés o de acontecimientos
históricos.

Requiere de gran habilidad en su desarrollo, para evitar tanto la


dispersión temática como caer en formas más estructuradas de
interrogación.

• Entrevista por pautas o guías: Se guían por una lista de puntos que se van
explorando en el curso de la entrevista. Los temas deben guardar una cierta
relación entre sí. El entrevistador hace muy pocas preguntas directas, y deja
hablar al respondente siempre que vaya tocando alguno de los temas señalados
en la pauta o guía.

Se usan en situaciones parecidas a las anteriores y cuando se presentan


casos en que los sujetos investigados prefieren más un desarrollo flexible
que uno rígido, por sus propias actitudes culturales o necesidades.

Todas estas formas de entrevistas (que tienen en común su poca formalización) poseen
la ventaja de permitir un diálogo más profundo y rico, de presentar los hechos en toda
su complejidad, captando no sólo las respuestas a los temas elegidos sino también las
actitudes, valores y formas de pensar de los entrevistados.

Su principal inconveniente radica en que es poco práctico sistematizar un gran número


de entrevistas de este tipo, organizándolas estadísticamente, pues pueden tener muy
pocos puntos de contacto entre sí. Otra dificultad es su costo, pues involucran la
presencia de personal altamente especializado durante tiempos relativamente largos.
Los problemas de registro pueden ser importantes, pues existe un gran número de
palabras que es casi imposible de registrar en su totalidad. Pueden utilizarse grabadores,
aunque es preciso determinar previamente si la presencia de estos aparatos cohibe o no a
los informantes.

Entrevistas formalizadas:

Se desarrollar en base a un listado fijo de preguntas cuyo orden y redacción permanece


invariable. Comúnmente se administran a un gran número de entrevistados para su
posterior tratamiento estadístico.

Entre sus principales ventajas, podemos mencionar su rapidez y el hecho de que pueden
ser llevadas a cabo por personas con mediana preparación, lo cual redunda en su bajo
costo. Otra ventaja es su posibilidad de procesamiento matemático.

Su mayor desventaja radica en que reducen grandemente el campo de información,


limitando los datos a los que surgen de una lista taxativa de preguntas.

Esta lista de preguntas, que es el instrumento concreto de recolección empleado en este


caso, recibe el nombre de cuestionario y puede ser administrado sin que necesariamente
medie una entrevista. Debe ser cuidadosamente redactado, evitando preguntas
demasiado generales, confusas o de doble sentido, y tratando de conservar un orden lo
más natural posible.

Las preguntas suelen dividirse en dos grandes tipos:

• Preguntas de alternativas fijas o cerradas: Formalizan más el cuestionario, pues


en ellas sólo se otorga al entrevistado la posibilidad de elegir entre un número
limitado de respuestas posibles. Si se pregunta "¿cree usted en los OVNIS, sí o
no?", estamos realizando una pregunta cerrada. No importa la cantidad de
alternativas ofrecidas, si el respondente no puede elegir una respuesta que esté
fuera de la lista, la pregunta se considera cerrada. Hay que tener sumo cuidado
en la redacción de estas alternativas, procurando especialmente que sean
exhaustivas y mutuamente excluyentes, y evitando que estimulen a responder en
un sentido determinado.

• Preguntas de final abierto o abiertas: Proporcionan una variedad más amplia de


respuestas. Su redacción debe ser muy cuidadosa para evitar respuestas erróneas
o confusas, y para evitar que ellas predispongan al entrevistado en uno u otro
sentido. Un ejemplo de pregunta abierta sería: "¿Qué opina usted acerca de los
OVNIS?". La información que se obtendrá será mucho más completa y valiosa,
pero el trabajo de procesamiento de los datos tendrá que ser mucho mayor.

Una vez que se redacta el conjunto de preguntas que constituyen un cuestionario, es


necesario revisarlas para asegurarse de su consistencia y eliminar los posibles errores y
omisiones. Casi siempre se realiza una prueba piloto, que consiste en administrar el
cuestionario a un conjunto reducido de personas para calcular su duración, conocer sus
dificultades y corregir sus defectos, antes de aplicarlo a la totalidad de la muestra.

Tipos de cuestionarios.

La forma o tipo de cuestionario depende tanto de los objetivos que persiga la


investigación, como de los informantes:

• Cuestionarios abiertos. Son aquellos en los que se pregunta al sujeto algo y se le


deja en libertad de responder como quiera. Este tipo de cuestionario es muy útil
y proporciona mucha información, pero requiere más tiempo por parte del
informante y es más difícil de analizar y codificar por parte del investigador.
Generalmente, se aplican en estudios pilotos con el fin de obtener más datos.

Serían ejemplos de preguntas abiertas: ¿Qué piensa usted de la


planificación familiar? ¿Cuál es su opinión acerca del presidente X?
¿Qué le parecen los productos Y?

• Cuestionarios cerrados. Están estructurados de tal manera que al informante se


le ofrecen sólo determinadas alternativas de respuesta. Es más fácil de codificar
y contestar. Como desventaja, podemos mencionar que las categorías que se
ofrecen pueden no ser las más adecuadas, o que la persona no haya pensado sus
respuestas en términos de las categorías que se le ofrecen. Otra desventaja es
que, al ofrecerle categorías al informante, se le están "sugiriendo" las respuestas.
Entre los cuestionarios cerrados, tenemos:

a. Preguntas con opciones: el sujeto tiene dos o más opciones para contestar. Por
ejemplo:

o ¿Prefiere algún perfume en especial?

SÍ NO

o Los negros son superiores a los blancos:

Correcto Incorrecto

o Indique los artículos que más han aumentado de precio:

Automóviles Casas Comida

Electricidad Ropa
Combustible

Gas Otros

a. Listas de preferencias y ordenamientos de opciones: al sujeto se le presenta una


serie de afirmaciones, frases, opciones, etc. y él las debe ordenar según su grado
de preferencia. Por ejemplo:

Coloque en orden de mayor a menor las actividades que


prefiere realizar en su tiempo libre:

Leer Ir al teatro
Ver TV Descansar

Salir con amigos Otras

Ir al cine

Con respecto a los cuestionarios enviados por correo, el punto más importante que debe
considerarse es que, por lo general, el porcentaje de personas que lo devuelven es muy
reducido y, además, la muestra que contesta los cuestionarios, está sesgada; es decir,
puede tener alguna característica en común, por ejemplo, cierto interés en el tema, y dar
un tipo especial de respuestas.

SOCIOGRAMA.

Consiste en un gráfico en que se expresan las atracciones y repulsiones que los


miembros de un determinado grupo experimentan entre sí, siendo por ello de suma
utilidad para detectar fenómenos tales como liderazgo, existencia de subgrupos internos
y anomia.

Se construye pidiendo a cada miembro que señale a las personas que más congenian con
él y las que menos lo atraen. Esta información se recoge mediante el uso de breves
cuestionarios de dos o tres preguntas, y luego es procesada para construir el diagrama
correspondiente.

TESTS PSICOLÓGICOS.

Emplean una gran variedad de técnicas específicas. Una buena proporción de ellos
utiliza la formulación de preguntas anotadas en algún formulario apropiado (el test) y
que por lo general se autoadministra. En otros casos, se propone a la persona la
realización de ciertas actividades pautadas y se observa su desarrollo. Se registra el
tiempo empleado en su ejecución, las reacciones que se producen, el desempeño de
ciertos roles, etc.
Desde un punto de vista general, estos tests pueden considerarse como observaciones
realizadas en condiciones artificiales, preparadas y definidas de antemano.

TÉCNICAS PROYECTIVAS.

Se basan en presentar algún estímulo definido a los sujetos para que ellos expresen
libremente, a partir de estos estímulos, lo que piensan, sienten o ven.

Generalmente, se trata de dibujos, manchas, fotografías u otros elementos similares,


aunque también se apela a veces a estímulos verbales o auditivos. La recolección de
datos, normalmente, se hace por medio de entrevistas poco formalizadas.

Bibliografía:

Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed.


Mac Graw - Hill.

Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª


ed. México (1994). Ed. Trillas S.A.

Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª


ed. México (1998). Ed. Limusa S.A.

Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen


- Humanitas.

ORDENAMIENTO DE DATOS.

Los datos son colecciones de cualquier cantidad de observaciones relacionadas. Una


colección de datos se conoce como conjunto de datos, y una sola observación es un
punto de dato.

Para que los datos sean útiles, necesitamos organizar nuestras observaciones, de modo
que podamos distinguir patrones y llegar a conclusiones lógicas.

Búsqueda de un patrón significativo en los datos:


Existen muchas formas de organizar los datos. Podemos sólo colectarlos y mantenerlos
en orden; o si las observaciones están hechas con números, entonces podemos hacer una
lista de los puntos de dato de menor a mayor según su valor numérico. Pero si los datos
son trabajadores especializados o los distintos tipos de automóviles que ensamblan
todos los fabricantes, debemos organizarlos de manera distinta. Necesitaremos presentar
los puntos de dato en orden alfabético o mediante algún principio de organización. Una
forma común de organizar los datos consiste en dividirlos en categorías o clases
parecidas y luego contar el número de observaciones que quedan dentro de cada
categoría. Este método produce una distribución de frecuencias.

El objetivo de organizar los datos es permitirnos ver rápidamente algunas de las


características de los datos que hemos recogido: el alcance (los valores mayor y menor),
patrones evidentes, alrededor de qué valores tienden a agruparse los datos, qué valores
aparecen con mayor frecuencia, etc.

RECOMENDACIONES:

Al plantear un estudio estadístico, definir claramente la población objeto de análisis.

Si se trabaja con muestras, definir las condiciones que deben reunir antes de extraerlas.

Especificar qué se va a medir, las unidades a usar y la forma de registro.

Datos sin procesar:

La información obtenida, antes de ser organizada y analizada, se conoce como datos sin
procesar puesto que aún no han sido tratados mediante ningún método estadístico.

La cantidad de datos más grande y los detalles más minuciosos pueden no contener la
información más útil para la toma de decisiones administrativa. Una parte importante de
la planeación de sistemas de información administrativa consiste en resumir y presentar
los datos de modo que se pueda obtener la información crítica de manera rápida y
sencilla.

Ordenamiento de datos utilizando su arreglo y distribución de frecuencias:

La ordenación de datos es una de las formas más sencillas de presentarlos, los forma en
orden ascendente o descendente.

Ventajas:

1. Podemos notar rápidamente los valores mayor y menor de los datos.


2. Podemos dividir fácilmente los datos en secciones.
3. Podemos ver si algunos de los valores aparecen más de una vez en ese
ordenamiento.
4. Podemos observar la distancia entre valores sucesivos de datos.

En ocasiones, un ordenamiento de datos no resulta útil. Debido a que da una lista de


todos los valores, es una forma incómoda de mostrar grandes cantidades de datos.

La distribución de frecuencias.

Una forma en que podemos comprimir los datos es la tabla de frecuencias o distribución
de frecuencias. Las distribuciones de frecuencias sacrifican algunos detalles, pero
ofrecen nuevas perspectivas sobre los patrones de datos.

Una distribución de frecuencias es una tabla en la que los datos se organizan en clases,
es decir, en grupos de valores que describen una características de los datos.
Una distribución de frecuencias muestra el número de observaciones del conjunto de
datos que caen en cada una de las clases.

Características de las distribuciones de frecuencias relativas.

También podemos expresar la frecuencia de cada valor como una fracción o un


porcentaje del número total de observaciones. Para obtener este valor, dividimos la
frecuencia de esa clase entre el número total de observaciones del conjunto de datos. La
respuesta se puede expresar como una fracción, un número decimal o un porcentaje.

La suma de todas las frecuencias relativas es igual a 1,00 o a 100%. Esto es así debido a
que una distribución de frecuencias relativas aparea a cada clase con su fracción o
porcentaje apropiados del total de datos. Por consiguiente, las clases que aparecen en
cualquier distribución de frecuencias, ya sean relativas o simples, son completamente
inclusivas. Todos los datos caen en una u otra categoría. Las clases son mutuamente
exclusivas, es decir, ningún punto de dato cae en más de una categoría.

En las distribuciones de frecuencias no aparecen clases que se traslapen.

Podemos, también, clasificar la información de acuerdo con características cualitativas,


como raza, religión y sexo, que no entran de manera natural en clasificaciones
numéricas. Como clases de atributos cuantitativos, éstas deben ser completamente
inclusivas y mutuamente exclusivas.

La categoría "otros" se conoce como clase de extremo abierto cuando permite que el
extremo inferior o el superior de una clasificación cuantitativa no esté limitado.

Los esquemas de clasificación pueden ser tanto cuantitativos como cualitativos y tanto
discretos como continuos. Las clases discretas son entidades separadas que no pasan de
una clase discreta a otra sin que haya un rompimiento. Los datos discretos son aquellos
que pueden tomar sólo un número limitado de valores.
Los datos continuos pasan de una clase a otra sin que haya un rompimiento. Implican
mediciones numéricas. Los datos continuos pueden expresarse con números
fraccionarios o con enteros.

Las variables discretas son cosas que se pueden contar y las continuas son cosas que
aparecen en algún punto de una escala.

Construcción de una distribución de frecuencias:

Pasos:

1. Decidir el tipo y número de clases para dividir los datos. De acuerdo con la
medida cuantitativa o un atributo cualitativo. Necesitamos decidir cuántas clases
distintas usar y el alcance que cada clase debe cubrir. el alcance total debe
dividirse entre clases iguales, esto es, el ancho del intervalo, tomado desde el
principio de una clase hasta el principio de la clase siguiente, necesita ser el
mismo para todas las clases.

El número de clases depende del número de puntos de dato y del alcance de los
datos recolectados. Cuantos más puntos de dato se tengan o cuanto más grande
sea el alcance, más clases se necesitarán para dividir los datos. Como regla
general, los estadísticos rara vez utilizan menos de 6 y más de 15 clases.

Debido a que necesitamos hacer los intervalos de clase de igual tamaño, el


número de clases determina el ancho de cada clase.

Ancho de los intervalos de clase = (valor unitario siguiente después del valor
más grande

de los datos – valor más pequeño de los datos) / número total de intervalos
Debemos utilizar el siguiente valor más alto de las mismas unidades, ya que
estamos midiendo el intervalo entre el primer valor de una clase y el primer
valor de la siguiente.

2. Clasificar los puntos de dato en clases y contar el número de datos que hay en
cada clase.

3. Ilustrar los datos en un diagrama.

Representación gráfica de las distribuciones de frecuencias:

Las gráficas dan los datos en un diagrama de dos dimensiones. Sobre el eje horizontal
podemos mostrar los valores de la variable (la característica que estamos midiendo).
Sobre el eje vertical señalamos las frecuencias de las clases mostradas en el eje
horizontal.

Las gráficas de distribuciones de frecuencias simples y de distribuciones de frecuencias


relativas son de utilidad debido a que resaltan y aclaran los patrones que no se pueden
distinguir fácilmente en las tablas. Atraen la atención del que las observa hacia los
patrones existentes en los datos. Las gráficas pueden también ayudarnos a resolver
problemas concernientes a las distribuciones de frecuencias. Nos permitirán estimar
algunos valores con sólo una mirada y nos proporcionarán una verificación visual sobre
la precisión de nuestras soluciones.

Histogramas.

Un histograma consiste en una serie de rectángulos, cuyo ancho es proporcional al


alcance de los datos que se encuentran dentro de una clase, y cuya altura es proporcional
al número de elementos que caen dentro de cada clase. Si las clases que utilizamos en la
distribución de frecuencias son del mismo ancho, entonces las barras verticales del
histograma también tienen el mismo ancho. La altura de la barra correspondiente a cada
clase representa el número de observaciones de la clase. Como consecuencia, el área
contenida en cada rectángulo (ancho por altura) ocupa un porcentaje del área total de
todos los rectángulos igual al porcentaje de la frecuencia de la clase correspondiente con
respecto a todas las observaciones hechas.

Un histograma que utiliza las frecuencias relativas de los puntos de dato de cada una de
las clases, en lugar de usar el número real de puntos, se conoce como histograma de
frecuencias relativas. Este tipo de histograma tiene la misma forma que un histograma
de frecuencias absolutas construido a partir del mismo conjunto de datos. Esto es así
debido a que en ambos, el tamaño relativo de cada rectángulo es la frecuencia de esa
clase comparada con el número total de observaciones.

Polígonos de frecuencias.

Son otra forma de representar gráficamente distribuciones tanto de frecuencias simples


como relativas. Para construir un polígono de frecuencias señalamos éstas en el eje
vertical y los valores de la variable que estamos midiendo en el eje horizontal. A
continuación, graficamos cada frecuencia de clase trazando un punto sobre su punto
medio y conectamos los resultantes puntos sucesivos con una línea recta para formar un
polígono.

Se añaden dos clases, una en cada extremo de la escala de valores observados. Estas dos
nuevas clases que contienen cero observaciones permiten que el polígono alcance el eje
horizontal en ambos extremos de la distribución.

Un polígono de frecuencias es sólo una línea que conecta los puntos medios de todas las
barras de un histograma. Por consiguiente, podemos reproducir el histograma mediante
el trazado de líneas verticales desde los límites de clase y luego conectando tales líneas
con rectas horizontales a la altura de los puntos medios del polígono.

Un polígono de frecuencias que utiliza frecuencias relativas de puntos de dato en cada


una de las clases, en lugar del número real de puntos, se conoce como polígono de
frecuencias relativas. Este polígono tiene la misma forma que el polígono de frecuencias
construido a partir del mismo conjunto de datos, pero con una escala diferente en los
valores del eje vertical.
Ventajas de los histogramas:

• Los rectángulos muestran cada clase de la distribución por separado.


• El área de cada rectángulo, en relación con el resto, muestra la proporción del
número total de observaciones que se encuentran en esa clase.

Ventajas de los polígonos de frecuencias:

• Es más sencillo que su correspondiente histograma.


• Traza con más claridad el perfil del patrón de datos.
• Se vuelve cada vez más liso y parecido a una curva conforme aumentamos el
número de clases y el número de observaciones.

Un polígono alisado mediante el aumento de clases y de puntos de dato se conoce como


curva de frecuencias.

Ojivas.

Una distribución de frecuencias acumuladas nos permite ver cuántas observaciones


están por encima de ciertos valores, en lugar de hacer un mero registro del número de
elementos que hay dentro de los intervalos.

La gráfica de una distribución de frecuencias acumuladas se conoce como ojiva.

En ocasiones, la información que utilizamos se presenta en términos de frecuencias


acumuladas "mayores que". La ojiva adecuada para tal información tendría una
inclinación hacia abajo y hacia la derecha, en lugar de tener una inclinación hacia arriba
y a la derecha.

Podemos construir una ojiva de una distribución de frecuencias relativas de la misma


manera en que trazamos la ojiva de una distribución de frecuencias absolutas. Sólo
habrá un cambio: la escala del eje vertical.
Del ordenamiento de datos podemos construir distribuciones de frecuencias. A partir de
las distribuciones de frecuencias podemos construir distribuciones de frecuencias
acumuladas. A partir de éstas podemos trazar una ojiva. Y de esta ojiva podemos
aproximar los valores que tenemos en el ordenamiento de datos. Sin embargo, no
podemos recobrar de manera normal los datos originales exactos a partir de cualquiera
de las representaciones gráficas que hemos analizado.

Tratamiento de una variable discreta:

Se utilizan los diagramas de barras, la diferencia con el histograma es que los


rectángulos no se tocan entre sí; esto se debe a que, al ser la variable discreta, entre los
valores sucesivos no hay valores intermedios.

Las frecuencias acumuladas se grafican por medio de una ojiva en forma de escalera,
debido a que la frecuencia aumenta de a saltos.

RECOMENDACIONES:

Cuando se trabaja con muestras, recopilar el mayor número de datos posible.

Usar 5 clases como mínimo y 15 como máximo para agrupar los datos, en función del
número de datos disponibles.

Trabajar con intervalos de clase de igual longitud.

Tener cuidado con la clasificación automática que hacen los paquetes estadísticos.
Al calcular frecuencias relativas – como proporción – trabajar con cuatro dígitos
después de la coma, para evitar errores de redondeo en la suma.

Al dibujar un gráfico, no exagerar la escala vertical u horizontal. Un gráfico


desproporcionado complica su interpretación y puede resultar engañoso a simple vista.

CONCEPTOS:

• Unidad de observación: persona o casa sobre la que se mide una o varias


características de interés.

• Caracteres: propiedades o rasgos que se miden en cada unidad de observación.

• Variable numérica: VARIABLE. Carácter cuantitativo.

• Variable categórica: ATRIBUTO. Carácter cualitativo.

• Población: conjunto formado por todas las unidades objeto de un estudio


estadístico. Colección de todos los elementos que se están estudiando y sobre los
cuales intentamos llegar a conclusiones.

• Muestra: subconjunto representativo de la población. Colección de algunos


elementos, pero no de todos, de la población bajo estudio, utilizada para
describir poblaciones.
• Muestra representativa: muestra que contiene las características importantes de
la población en las mismas proporciones en que están contenidas en la
población.

• Datos: colección de cualquier número de observaciones relacionadas sobre una o


más variables.

• Punto de dato: una sola observación de un conjunto de datos.

• Arreglo de datos: organización de los datos sin procesar por observación,


tomados en orden ascendente o descendente.

• Clase de extremo abierto: clase que permite que el extremo superior o inferior de
un esquema de clasificación cuantitativo no tenga límite.

• Conjunto de datos: una colección de datos.

• Curva de frecuencias: polígono de frecuencias alisado mediante el aumento de


clases y puntos de dato a un conjunto de datos.

• Datos continuos: datos que pueden pasar de una clase a la siguiente sin
interrumpirse y que pueden expresarse mediante números enteros o
fraccionarios. Datos numéricos que admiten infinitos valores entre dos valores
cualesquiera; generalmente surgen de una medición.

• Datos discretos: datos que no pasan de una clase a la siguiente sin que haya una
interrupción; esto es, donde las clases representan categorías o cuentas distintas
que pueden representarse mediante números enteros. Datos numéricos que no
admiten valores intermedios entre dos valores sucesivos; generalmente surgen
de un conteo.
• Datos sin procesar: información antes de ser organizada o analizada por métodos
estadísticos. Conjunto de datos que no han recibido ningún tratamiento
estadístico.

• Datos tratados: conjunto de datos que ha sido objeto de algún tipo de


ordenamiento o procesamiento.

• Intervalo de clase: agrupamiento de valores de una variable.

• Alcance de los datos: diferencia entre el mayor y menor valor de la serie.

• Distribución de frecuencias: despliegue organizado de datos que muestran el


número de observaciones del conjunto de datos que entran en cada una de las
clases de un conjunto de clases mutuamente exclusivas y colectivamente
exhaustivas. Asignación de frecuencias a cada uno de los valores de una variable
o atributo.

• Tabla de frecuencias: tabla donde se asienta la distribución de frecuencias.

• Distribución de frecuencias acumuladas: despliegue de datos en forma de tabla


que muestra cuántos datos están por encima o por debajo de ciertos valores.

• Distribución de frecuencias relativas: despliegue de un conjunto de datos en el


que se muestra la fracción o porcentaje del total del conjunto de datos que entra
en cada elemento de un conjunto de clases mutuamente exclusivas y
colectivamente exhaustiva.

• Histograma: gráfica de un conjunto de datos compuesta de una serie de


rectángulos, cada uno con un ancho proporcional al alcance de los valores de
cada clase y altura proporcional al número de elementos que entran en la clase, o
altura proporcional a la fracción de elementos de la clase. Representación gráfica
de la distribución de frecuencias (absoluta o relativa) de una variable continua.
• Ojiva: gráfica de una distribución de frecuencias acumuladas absolutas o
relativas.

• Polígono de frecuencias: línea que une los puntos medios de cada clase de un
conjunto de datos, trazada a la altura correspondiente a la frecuencia de datos.
Representación gráfica de la distribución de frecuencias en forma suavizada de
una variable continua.

• Diagrama de barras: representación gráfica de la distribución de frecuencias de


un atributo o de una variable discreta.

• Frecuencia absoluta: número de veces que se repite un determinado valor de una


variable o atributo.

• Frecuencia relativa: proporción o porcentaje de veces que se repite un valor.

BIBLIOGRAFÍA: RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA


ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED., 1996

ANÁLISIS DE DATOS

Bibliografía.:

COHEN Y MANION

COLÁS Y BUENDÍA

TAYLOR Y BODJAN

Una investigación cualitativa puede concluir con datos numéricos. el tratamiento


de eta información será estadístico. La representación también puede seguir los mismos
cánones que en investigación cuantitativa

1.-Fiabilidad y Validez en investigación cualitativa


Validez en la medida: que la información obtenida represente de modo fidedigno
las dimensiones del fenómeno analizado

Fiabilidad en la medida: consistencia de los datos

Es difícil la medición en instrumentos no mecánicos (balanzas) sino humanos o


cualitativos (investigador, cuestionarios,...)

2.-Validez y Fiabilidad en la Observación

Fiabilidad: ante un mismo hecho hacer la misma observación, por ejemplo con
dos observadores. También se utilizan coeficientes de correlación entre las puntuaciones
dadas por los observadores. La solución pasa por el entrenamiento de los observadores

Validez: cuando las categorías a observar no están definidas largamente


¿estamos registrando realmente el fenómeno que queremos?

Solución: disminuir la posible interpretación categorizando al máximo


previamente

3.-Fiabilidaz y Validez en las encuestas postales

Validez: Problemas: no conocemos quien ha contestado y quién no, no estamos


seguros de a qué e responden los cuestionarios devueltos, puede ser que los no
devueltos se deba a alguna causa que puede repetirse uniformemente para todos, lo cual
implicaría un sesgo en la recogida de datos.

Casos posibles:

1.- Que no se haya contestado con precisión.

solución: entrevistas de forma intensiva (aleatoriamente a algunos) para


constatar que sus respuestas dicen lo que realmente querían decir. Se evita a priori a
través de una encuesta piloto

2.- No hay devolución

Solución: igualmente con entrevista a los que no han contestado y hacer una
correlación entre unos y otros (no sobre las causas de la contestación sino sobre las
respuestas entre unos y otros) se ven si existen diferencias significativas entre un grupo
y otro.
4.-Fiabilidad y validez en las entrevistas

Validez superficial: que midan lo que deben medir. Existen otros tipos de validez
más importantes.

Elementos de sesgo: el entrevistador, el informante, la formulación delas


preguntas.

El investigador puede enfatizar o incidir en las cuestiones que efectivamente


confirmen su hipótesis.

El informante puede mentir ("Parcialidad en las respuestas") . Se puede observar


que varios entrevistado sistemáticamente "mienten " en las mismas respuestas en la
misma dirección (p.e. si se habla de ganancias o de pago de impuestos)

Solución: buscar otras fuentes de información (análisis documental)


triangulación.

En las entrevistas, fiabilidad y validez son inversamente proporcionales: cuanto


más estructuradas mas fiables pero menos válidas(sólo recogemos unos elementos y no
otros) Dependerá de la investigación el emplear una u otra.

Existen modos de limar las dificultades de cada técnica. Cada técnica tienen unas
dificultades que le son propias. s i se utilizan dos técnicas las dificultades no se suman
sino que se restan (es una intersección)

Validez del informante: una vez recogidos los datos se devuelve de nuevo al
informante para que valide lo dicho. Esto disminuye problemas de planteamiento de
preguntas y errores de registro o interpretación de respuestas.

5.-La triangulación

Formalmente se da cuando existen tres puntos diferentes, pero se admiten dos o


más fuentes de evidencia.

Intenta resolver problemas de validez: una solo técnica da una fuente de error,
dos técnicas se intersectan disminuyendo el error.

Si la fuente de error es el entrevistador, la triangulación consistirá en ampliar a


los entrevistadores.
Si la fuente de error es la técnica de recogidas de datos, se utilizarán dos técnicas
distintas.

¿Qué tipo de triangulación escoger? dependerá de los problemas que


encontremos en la investigación, evitando en lo posible el incremento de complejidad
en el diseño (buscar el diseño más simple posible y más válido posible)

(cuadro 11.2 de Cohen)

En el estudio de casos, llegado a un punto el incremento en el número de casos


no supone un incremento de validez sino que esta permanece constante, decimos que la
muestra está saturada: criterio de economía

Existen dos grandes grupos de triangulación:

- Dentro del propio método, sirve para analizar la fiabilidad del método

- De métodos.

¿Cuándo es apropiada la triangulación?

1.-Cuando lo que buscamos es la generalización de los datos

2.-Cuando el fenómeno que analizamos es complejo y controvertido

3.-Cuando detectamos que un sólo método puede producir distorsiones.

El diseño más característico es el estudio de casos

(Cuadro 11.4 de Cohen)

(Cuadro 4 pg 106 G. P. Serrano)

6.-El informe

¿Qué diferencias existen entre el informe cuantitativo y el cualitativo?

Podemos tener interés en informar sobre elementos que no se tienen en cuenta en


el cuantitativo

En IAP o Etnográfica no existen informes standard.


Si seguimos un esquema cuantitativo en cada apartado se puede incluir toda la
información que creemos importante.

Apartados

1.-Introdución: descripción del contexto de la investigación y lo hecho hasta el


momento

2.- Bases teórico prácticas de la investigación: descripción de intereses,


descripción del problema a resolver.

3.- Contexto de la investigación: incluir información sobre el escenario de la


investigación

4.-Proceso de la investigación: selección de métodos, papel del investigador,


evolución del problema desde el inicio, instrumentos y técnicas de recogida de datos:
explicación. Proceso de análisis de datos, categorías, revisión, análisis. Hallazgos o
resultados que encontramos.

5.-Conclusiones

Existen algunas propuestas para la IAP

Existen normas para la redacción del informe porque es un sistema tan abierto
que es necesario dar pistas para una lectura clara:

- Expresiones y lenguaje de los participantes, entrecomillado, en u terminología


para que el lector se sitúe en el contexto.

- Ser detallado en las descripciones

- Distinguir hechos de interpretaciones , tanto del entrevistador como de los


informantes

- Tener en cuenta la audiencia del informeidez superficial

11.- El informe de un estudio de casos

1.- Dependerá de la audiencia, a quien va destinado.

2.- Existen diferentes tipos en la presentación:


a) Escritos:

- De un solo caso

*Descripción del caso

*Técnica pregunta-respuesta

- De casos múltiples:

*Informes independientes de cada caso con un informe


final

*A través de diferentes temas, interrelacionar todos los


casos estudiados

Siempre con un capítulo de síntesis.

b) Orales

c) Apoyados en medios técnicos

3.- Procedimientos en la redacción

a) ¿Cuando empezar?: cuanto antes

b) Identificación del caso: Es deseable la identificación del caso lo más


amplia posible por interés científico, para que otras personas puedan
continuar en la investigación; pero no siempre es aconsejable por razones
éticas cuando es preciso mantener la confidencialidad.

c) Revisión del borrador: éste ha de ser leído por colegas investigadores e


incluso por participantes en el estudio.

12.- Estudio de caso ejemplar

Un estudio de caso ejemplar debe:

1.- Ser significativo

2.- Ser completo


3.- Considerar perspectivas alternativas (críticas,...)

4.- Mostrar suficientes pruebas o indicios

5.- Estar hecho de forma engranada.

S-ar putea să vă placă și