Sunteți pe pagina 1din 619

METODOLOGIA DE LA INVESTIGACION CIENTIFICA

EL PROYECTO Y EL INFORME DE TESIS


EL INFORME Y EL PROYECTO DE TESIS

UNPRG- UNT- UNPRG- UNT-


UNASAM UNASAM

TESIS
PROYECTO
DE TESIS

Autores

AUTORES:VÁSQUEZ GARCÍA
ANTERO
OPTACIANO VÁSQUEZ
ÁNTERO VÁSQUEZ GARCÍA
GARCÍA
NOEMÍ
NOEMÍDÍAZ
DÍAZVILLENA
VILLENA
OPTACIANO VÁSQUEZ GARCÍA

TRUJILO–PERU
TRUJILLO
2004
–PERU
2008
2

ÁNTERO VÁSQUEZ GARCÍA


BIOLOGO PESQUERO
*DOCTOR EN MEDIO AMBIENTE
*MAESTRO EN CIENCIAS MENCION: ADMINISTRACION Y EVALUACIÓN DE
RECURSOS PESQUEROS
PROFESOR PRINCIPALDE
CURSO: METODOLOGIA DE LA INVESTIGACION CIENTIFICA
FACULTAD DE CIENCIAS BIOLOGICAS
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO- LAMBAYEQUE
anterovasquez@gmail.com
044-9920934

NOEMI DIAZ VILLENA


ENFERMERA
MAESTRA EN ENFERMERIA
MENCIÓN SALUD DE LA MADRE Y EL NIÑO
CANDIDATA A DOCTORA EN ENFERMERÍA
PROFESORA PRINCIPAL DE
FACULTAD DE ENFERMERIA
UNIVERSIDAD NACIONAL DE TRUJILLO
noludivi@hotmail.com

OPTACIANO VÁSQUEZ GARCÍA


FISICO
MAESTRO CIENCIAS, MENCIÓN MATERIALES
PROFESOR ASOCIADO
CURSO: METODOLOGIA DE LA INVESTIGACION CIENTIFICA
FACULTAD DE CIENCIAS
UNIVERSIDAD NACIONAL SANTIAGO ANTUNEZ DE MAYOLO – HUARAZ
optacianovas@hotmail.com

© Derechos Resevados conforme a Ley


UPSA- UNPRG.
Lambayeque
3

LA TEORIA DEL CONOCIMIENTO

Tamayo (1998), señaló que conocer es una actividad por medio del cual el hombre adquiere
certeza de la realidad y que se manifiesta como un conjunto de representaciones sobre las
cuales tenemos la certeza de que son verdaderos. Todo conocimiento es una relación
obligada en la que intervienen dos elementos ligados entre sí: uno cognoscente (sujeto); y
otro conocido llamado objeto; esto implica una actividad intencional del sujeto que consiste
en aprehender el objeto, por lo que se afirma que el sujeto determina la relación con el
objeto y por lo tanto determina la actividad de conocer y puede entrar en relación con el
objeto en diversos niveles que van desde el conocimiento vulgar hasta el conocimiento
científico el filosófico y el teológico.

El proceso del conocimiento:

Todo parte de la realidad y luego se produce la aprehensión de ésta mediante los sentidos y
su reflejo en el plano metal del ser humano, lo que constituye el concepto; la expresión de
los rasgos fundamentales del concepto mediante el uso del lenguaje constituye la definición
como se ilustra en la figura 1. Así la realidad es el punto de partida de todo conocimiento
humano y la forma de universalisarlo es mediante las definiciones

Los vocablos conocimiento y saber, se utilizan indistintamente como sinónimos por la


persona no formada en la ciencia; sin embargo para quien si lo está; estos términos son
totalmente distintos en su concepción y utilidad. Conocer el proceso bioquímico de la
maduración de una manzana, en el que se suceden reacciones enzimáticas de naturaleza
diversa que al final la transforman en una deliciosa fruta; será muy distinto de saber en que
momento, esta fruta se encuentra ya madura; sin hurgar en la esencia misma de todo el
proceso de maduración. El que sabe algo acerca de una realidad sin haberla captado con
los sentidos, cultiva el saber; compatible con el conocimiento Acientífico, común cotidiano;
universal; vulgar; es decir sabe el como se realiza un fenómeno; pero el que tiene un
conocimiento científico; es capar de explicar como y porque se suceden los fenómenos; es
decir va mas allá de la simple observación y descubre la esencia del fenómeno creando
nuevo conocimiento científico y en base a este dominio puede predecir lo que podría ocurrir
con este objeto de estudio.

Tratamos de discriminar los tipos de conocimiento mas comunes: i) el cotidiano; vulgar,


acientífico; universal; espontáneo; aquel que consiste en un mero sentido común que el
sujeto no preparado tiene acerca de una realidad o un hecho, éste es acrítico y se queda al
nivel de las apariencias (implica un modelo gnoseológico); ii) el conocimiento empírico
(aquel que ha sido comprobado por la experiencia o la razón), implica un modelo compatible
con el empirismo y iii) el conocimiento científico, aquel que ha sido obtenido con el uso del
método científico; en estos dos últimos casos, si consideramos el conocimiento como
sistemas, nos referimos a los modelos empíricos y epistemológico (figura 2).

Se acepta que el conocimiento común es el punto de partida del conocimiento científico;


técnico y tecnológico; pero se puntualiza que para llegar a ello se debe utilizar los métodos
científicos y técnicos respectivamente.

La consideración del proceso del conocimiento como un todo, lo abarca y explica la rama de
la filosofía denominada Gnoseología; la Epistemología, en cambio, es la disciplina filosófica
que trata del estudio de la ciencia o del conocimiento científico en particular. Consideramos
pertinente discriminar los tres tipos de realidades u objetos de estudio: i) las realidades
eminentemente ideológicas que son objetos de estudio de la filosofía; las realidades
4

estéticas, objeto de estudio del arte y las realidades objetivas (concretas) u objetivables
que son el objeto de estudio de la ciencia.

Enfatizamos el hecho de que el problema central de la teoría del conocimiento es la relación


sujeto cognoscente y objeto cognoscible.

i) En el conocimiento cotidiano la relación sujeto – objeto, se produce básicamente


a través de los sentidos. El conocimiento sensorial; mundo de la apariencia; pero como junto
a los sentidos está siempre presente la actividad intelectual, también se produce un saber
que rebasa la apariencia y penetra en la esencia de las cosas.
ii) en la investigación científica, sobre una base sensorial, interviene la actividad
intelectual del sujeto de manera predominante; el conocimiento es racional penetra en la
esencia y rebasa la apariencia.

Según la perspectiva de la relación sujeto-objeto; se tienen las siguientes corrientes


en la investigación científica:

1. El Idealismo; si se pone el acento en el sujeto lo que orienta a la concepción de


un sujeto productor de conocimientos al margen del objeto.

2. El Empirismo; si se pone el acento en el Objeto; se está frente a una concepción


que se orienta a producir conocimientos, solo registrando mecánicamente los que se capta
directamente a través de los sentidos.

3. Si se pone el acento en la interacción sujeto objeto se está frente a una


concepción en la que la producción de conocimientos, no solo utiliza la vía de los sentidos,
sino preponderantemente la actividad intelectual. Esta es la ciencia, que impulsan Bunge;
Piaget y el Materialismo Dialéctico.

Egg en Castañeda (1995) mencionó que el conocimiento científico se asienta en los


siguientes supuestos:

 El conocimiento es posible ; este principio lo dan por sentado tanto el hombre


común como el científico
 Existe un mundo objetivo y la realidad tiene una contextura independiente del
conocimiento que el hombre pueda tener de ella.
 De esta realidad se puede afirmar algo de sus propiedades estructurales y
racionales que se captan por una serie de procedimientos y por la imaginación e
intuición del hombre.
 Esta realidad es la base y el punto de arranque del conocimiento, en
consecuencia el conocimiento científico queda acotado al terreno o ámbito de la
realidad.
 Como la realidad es devenir, la esencia del conocimiento científico ha de ser
descubrir los hechos y fenómenos en el devenir de la realidad.
 El conocimiento científico procura establecer una conexión universal de los
fenómenos.
 Para que el conocimiento tenga carácter científico, es necesario elaborar
instrumentos que garanticen la validez de los conocimientos adquiridos.
Esto nos orienta a la conclusión de que el conocimiento científico es un cuerpo
sistematizado de información (teoría) coherente que explica un sector bien delimitado o
definido de una realidad en estudio.
5

Principios de la teoría del conocimiento

i) El conocimiento es un reflejo dinámico de las leyes y propiedades de la realidad


objetiva. Según ello, la investigación científica, solo es posible si el sujeto se pone dé
acuerdo con el objeto.

ii) La práctica es la fuente del conocimiento; es decir, la investigación científica se


desarrolla si tiene como centro a la práctica de la investigación; es a partir de ella que la
actividad intelectual crea conocimientos.

iii) La teoría orienta a la práctica, en otros términos, la investigación científica no es


una práctica ciega; sino iluminada por la teoría de la ciencia dentro de la cual se inscriben
las investigaciones.

Los obstáculos del conocimiento:


Castañeda (1997) señaló que el conocimiento es un proceso interminable de
acercamiento sucesivos limitados por las condiciones históricas concretas del individuo que
conoce y de su sociedad; en el denominado obstáculo epistemólógico de Bachelard. Este
se presenta de dos maneras: i) como dificultad técnica, referida al nivel poco desarrollado de
los instrumentos de investigación; ii) como dificultad cultural tiene que ver con la ideología
de la época y lo ejemplificó con el conocimiento de la circulación sanguínea. Galeno el gran
médico griego del siglo III d. C., pensaba que la sangre iba y venía suavemente por las
arterias y pasaba a través de orificios invisibles en la pared que dividía el corazón en dos
mitades; la sangra iba primero en una dirección y luego en la contraria; esta teoría subsistió
durante mil cuatrocientos años; en el siglo XVII (año 1602 en adelante) William Harvey
rompió la teoría de Galeno, las especulaciones de los médicos de su época y concluyó que
la sangre que salía del corazón tenía que volver a él; la sangre tenía que circular por el
cuerpo. Estableció que la sangre podía salir del corazón por las arterias y entrar en él a
través de las venas; las válvulas impedían que el movimiento se invirtiera. Malphighi(1961)
examinó tejido vivo al microscopio y encontró diminutos vasos sanguíneos que conectaban
las arterias y venas en los pulmones de una rana. Los llamó capilares (como cabellos) por
sus pequeñísimas dimensiones y con ello completo la teoría de la circulación sanguínea.

Otro obstáculo es el denominado epistemofílico, expuesto por Pichón-Riviére


orientado a describir el problema que una persona tiene que franquear para poder acceder
al nuevo conocimiento, a los seres humanos nos cuesta renunciar a lo conocido para pasar
a lo desconocido, la resistencia al cambio se atribuye a que las estructuras cognoscitivas del
sujeto no están tan desarrolladas como para enfrentar ese nuevo objeto. Su manifestación
puede ser la conducta de ataque por un sentimiento de molestia o coraje, por tristeza o
aburrimiento. Este es el primer obstáculo que debe vencer el hombre de ciencia para luego
oponerse a las explicaciones existentes en ese momento histórico y trascenderlas en una
obra creativa que supere dicha visión, logrando así un conocimiento mas preciso que el que
la sociedad sostiene.
6

SUJETO OBJETO
COGNOSCENTE COGNOSCIBLE
REALIDAD
CONOCIMIENTO
PROCESO

CONCEPTO

LENGUAJE

MANZANA

DEFINICIÓN
Figura 1. Proceso del conocimiento
Figura 2 MODELO DEL CONOCIMIENTO COMO SISTEMAS

ENTRADAS PROCESOS PRODUCTOS

CONOCIMIENTO ESTADO
REALIDAD CONOCIMIENTO ACCION
1 LENGUAJE
REALIDAD:
FILOSOFICA CONOCIMIENTO
S VULGAR,
PROCESO DEL CONOCIMIENTO CONCEPTO DEFINICION
UNIVERSAL,
ESTETICAS GENERAL
EMPIRICAS:

2
PERCEPCION
REALIDADES:
EMPIRICAS:
OBJETIVAS U DESCRIPCION
CONOCIMIENTO
OBJETIVABLES INTERPRETACION APLICACION EMPIRICO

EXPERIMENTACION
3
ACCOPIO DE PROBLEMA
REALIDADES INFORMACION RESULTADOS
CONOCIMIENTO
EMPIRICAS, CONTRASTACION LEYES,
CARACTERIZACION OBJETIVOS CIENTIFICO
OBJETIVAS U PRINCIPIOS,
DE LA REALIDAD
OBJETIVABLES, PROBLEMATICA TEORIAS, NUEVOS
HIPOTESIS PROBLEMAS, ETC
PROBLEMATICAS

3 .MODELO
1. MODELO GNOSEOLOGICO 2. MODELO EMPIRICO
EPISTEMOLOGICO
8

Tabla 1. El EMPIRISMO Y EL RACIONALISMO EN EL


ORIGEN DEL CONOCIMIENTO

EMPIRISMO RACIONALISMO

Relación Sujeto objeto Acción predominante del Sujeto alejado del objeto
sujeto

Punto de partida El objeto concreto A partir de otras verdades,


axiomas; principios apriori

Obtención Por la experiencia Por el racionalismo o la


sensorial inferencia deductiva

Métodos y técnicas Utiliza el proceso de Razonamiento a priori


observación y necesario para el avance del
experimentación; Usa la conocimiento
intuición pero inmerso de
inteligencia

Abordaje del tema Toma de contacto con la Desarrollo e una explicación


realidad sistemática de los fenómenos(
teorías)

Base conceptual Confrontación con la Razonamiento lógico de la


realidad; generalización de estructura de una teoría
los hechos observados en
el mundo natural

Verificación Implica confrontación con Mediante el juego de


la realidad proposiciones

Estrategia Primero investigación Primero teoría; luego


luego teoría investigación

Origen Todo conocimiento viene Todo conocimiento viene de


de la experiencia los principios a priori; los
sentidos nos suministran una
visión confusa y provisional de
la verdad
Acción de los sentidos Otorgan visión confiable y Nos dan una visión confusa y
cierta de la realidad provisional
9

Procedencia Procede casi siempre de Procede de las ciencias


las ciencias naturales matemáticas

Representantes Bacon John Locke; David Platón, descartes


Hume; Candy LLac

Investigadores recientes Watson; Skinner Einstein

Características del conocimiento científico:


A diferencia del conocimiento espontáneo; el conocimiento científico exige mayor rigor,
trata de e encontrar las regularidades en los acontecimientos, para explicarlos,
conocerlos y predecirlos y las características se pueden resumir en los términos
siguientes

1. Es objetivo: parte de hechos que se observan y se pueden describir tal como son,
independientemente del valor que posean; la ciencia no poetiza hechos; se ocupa de
realidades objetivas u objetivables

2. Trasciende los hechos; porque los selecciona, los analiza mas profundamente afín
de explicarlos con mas criterio; descarta aquellos que no son congruentes para luego
crear y explicar los nuevos; racionaliza la experiencia en vez de limitarla y buscan el
porque, además del como propio del conocimiento cotidiano.

3. Es analítico; porque analiza un problema en forma total y en forma adecuada cada


uno de sus componentes; La ciencia no trata de entender toda la situación total e
intenta descubrir los elementos que componen la realidad; escrutando el mecanismo
responsable de los fenómenos observados.

4. Es especializado; consecuencia del análisis del problema planteado dependiendo


siempre del tema que trata y en muchos casos con técnicas adecuadas.

5. Es claro y preciso; sus problemas son distintos; sus resultados son claros; se las
ingenia para mejorar la exactitud, nunca está libre de error; pero posee una técnica
para encontrar errores y corregirlos. Se preocupa por definiciones con la mayor
precisión posible y sin enmarañar al que trata de estudiarlo.

6. Es comunicable; porque puede expresarse y compartirse con cualquier persona


siempre y cuando ésta se encuentre debidamente preparada para entenderlo;
dependiendo de la precisión con la que se explique. No es privado; si no público.

7. Es verificable; debe aprobar el examen de la experiencia pues debe tener los


medios necesarios para demostrar su autenticidad; para así explicar lo que está
tratando de plantear a los demás; sin recurrir a suposiciones.

8. Es metódico; no es errático sino planeado; pues no especula con relación a lo que


busca; si no que se encuentra preparado para obtenerlo que desee por medio del
método científico
10

9. Es sistemático; porque todas las ideas que plantea tienen siempre una conexión de
carácter lógico; formando así un sistema de ideas interconectados entre sí.

10. Es general porque trata de ubicar hechos singulares en pautas generales; los
enunciados particulares en esquemas generales sin dejar de lado su fin principal que
son los asuntos particulares; utilizando términos adecuados.

11. Es legal; busca leyes (de la naturaleza y e la cultura) y las aplica en su planteo
trata de buscar leyes aplicables mayormente de manera transitoria y otras
generalizadas.

12. Es explicativo; porque intenta encontrar la esencia de los hechos comparándolos


con principios; leyes; teorías; etc. que ya han sido establecidas anteriormente.

13. Es predictivo porque basándose en lo explicado con relación a un objeto de


estudio puede predecir como sucederá este en el futuro. Es la manera más eficaz de
poner a prueba las hipótesis.

14. Es abierto; porque no conoce barreras que limiten su espacio de estudio; si no que
trata de obtener la mayor información posible.

15. Es útil; porque buscando siempre la verdad de las cosas, ofrece un mejor avance
tecnológico; siempre procurando obtener beneficios para el bienestar del ser humano.

Elementos del conocimiento científico


El punto de partida es la realidad que con el uso del método científico se plantean las
hipótesis; las mismas que al ser comprobadas se transforman en leyes científicas; la
sistematización de estas en elementos del mas alto nivel del conocimiento científico los
convierte en la teoría científica

TEORIAS CIENTIFICAS

LEYES

HIPÓTESIS

REALIDADES
OBJETIVAS (HECHOS)
OBJETIVABLES
(Sánchez y Reyes, 1987)
11

CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA


Práctica 1: TEORIA DEL CONOCIMIENTO

1. El dominio de la teoría del conocimiento en general se denomina:


a. Filosofía b. Epistemología c. Gnoseología d. Ontología

2. La disciplina filosófica que realiza la investigación crítica de la teoría de la Ciencia, la


estructura del conocimiento científico, su fundamento y alcance es la
a. Filosofía b. Epistemología c. Gnoseología d. Ontología

3. El proceso mental, actividad humana orientada a reflejar la realidad en la conciencia del


hombre, corresponde a la definición de:
a. Conocimiento b. Realidad c. Memoria d. Ciencia

4. En la acción de conocer en términos generales es característica importante:


a. La previsión b. La inteligencia c. La intencionalidad d. La personalidad

5. Si en Biología Celular a través del microscopio estudiamos la célula de la mucosa labial y


posteriormente expresamos aspectos de su forma, tamaño, volumen, posición del núcleo y
otras características o atributos; es incorrecta una de las siguientes proposiciones:
a. La célula de la mucosa labial es la realidad.
b. La formación en el plano mental de las características de la célula en mención es la
definición.
c. La expresión de los características de la célula mediante el lenguaje constituye la
definición
d. La formación en el plano mental de las características de la célula en mención es el
concepto.

6. La realidad que puede ser empíricamente demostrable o en otros términos verificable por
medio de la experiencia y la razón es objeto de estudio de:
a. El Arte b, La Filosofía c. La Ciencia d. La Psicología

7. El elemento del conocimiento científico que es considerado como el punto de partida es:
a. La Teoríab. La hipótesis c. La ley científica d. La realidad

8. El conocimiento que tiene el Biólogo sobre la acción del Virus del SIDA sobre el sistema
inmunológico humano es un conocimiento científico; mientras que el mero sentido común
que tiene cualquier persona no formada en esta ciencia es un conocimiento
a. Empírico b. Vulgar c. Filosófico d. Etnico

9. Los elementos del Proceso del conocimiento integral se pueden esquematizar de la manera
siguiente, relacionándolo con flechas:
12

CONOCIMIENTO CIENTÍFICO ENFERMERO


Taller 1

Instrucciones: Complemente el cuadro según las indicaciones del docente.


CONOCIMIENTO AUTORA (OR) CONOCIMIENTO
CIENTÍFICO ENFERMERO COMÚN
1. Las personas que tienen Nola Pender (1996) en
una alta valoración de la Marriner-Tomey y Alligood
salud es más probable que (1999).
intenten promover la
propia.
2. Las respuestas
asistenciales aceptan a la Jean Watson en Marriner-
persona no sólo en su Tomey y Alligood (1999).
estado actual sino también
sus perspectivas de
evolución futura.
Diagnósticos enfermeros
3. Hipotermia: estado en que de la NANDA
la temperatura corporal de
la persona está disminuida
por debajo de los límites
normales.
4. Estreñimiento: Reducción Diagnósticos enfermeros
de la frecuencia normal de de la NANDA
evacuación de una
persona acompañada de
eliminación dificultosa o
incompleta de las heces,
estas son excesivamente
duras y secas, o ambas
cosas.
5. Fatiga: Sensación Diagnósticos enfermeros
sostenida y abrumadora de la NANDA
de agotamiento y
disminución de la
capacidad para el trabajo
mental y físico al nivel
habitual.
6. El nivel de adaptación de Sor Callista Roy en
la persona presenta una Marriner-Tomey y Alligood
zona que indica el nivel de (1999).
estimulación que conducirá
13

a una respuesta positiva.

CONOCIMIENTO CIENTÍFICO BIOLOGICO


Taller 1A
Instrucciones: Complemente el cuadro según las indicaciones del docente.

CONOCIMIENTO CIENTÍFICO AUTORA (OR) CONOCIMIENTO


BIOLOGICO COMÚN
1. La caseína, presente en un 80 % (Felhaber y Janetschke;
constituye la fracción principal de la 1995 p: 588-589)
proteína pura de la leche

2. La mantequilla es un producto de grasa (Felhaber y Janetschke;


láctea pura obtenido mediante una 1995 p: 618)
inversión de fases que pasa de ser de
grasa en agua a emulsión de agua en
grasa

3. La proteína del pescado ocupa en lo (Tscheuschner; 2001. p:


referente a valor nutritivo el segundo lugar 60)
8 después de la leche de mujer y por
delante incluso de la leche de vaca y de la
carne de animales de sangre caliente

4. El agua, debido a sus propiedades


físicas y químicas, es la base de todos los (Tscheuschner; 2001 p:
procesos que acontecen en el ser vivo. 74)
Todos los alimentos contienen agua,
también el agua potable es un alimento
en si misma

5. El valor F0, es el valor letal integrado (Jay ,2002. p: 327)


del calor recibido por todos los puntos del
contenido de un envase durante el
tratamiento; representa una medida de la
capacidad de un determinado tratamiento
térmico para reducir el número de
esporas o de células vegetativas de un
determinado microorganismo por envase
6. Desde el punto de vista de la calidad (Jay 2002. p: 305- 306).
general la congelación rápida tiene más
ventajas que la congelación lenta
7. El agua destinada a la producción de (Tscheuschner; 2001. p:
alimentos debe ser potable y cumplir con 76).
los dispositivos legales al respecto. En
100 ml de agua para beber no deben
existir Escherichia coli, gérmenes
14

coliformes, estreptococos fecales. El


número total de gérmenes se limita a
100 / ml y a 20/ ml si se trata de agua
desinfectada.

CONOCIMIENTO CIENTÍFICO BIOLÓGICO


Taller 1B
Instrucciones: Complemente el cuadro según su iniciativa y conocimientos

CONOCIMIENTO AUTORA (OR) CONOCIMIENTO COMÚN


CIENTÍFICO
15

TALLER No. 1. CONOCIMIENTO CIENTÍFICO ALIMENTARIO

Dado la lista de conocimientos científicos, seleccione uno que tenga relación con su
proyecto de investigación; explíquelo y justifíquelo considerando cinco características
del conocimiento científico, expuestas en clase.

1. Casi todas las materias primas destinadas a la producción de alimentos proceden de la


naturaleza viva; suelen ser plantas y animales explotados por el hombre que, en merced a
procesos de selección y cría, cuentan con características especiales y con una elevada
proporción de partes adecuadas para la nutrición humana (Tscheuschner; 2001. p: 9).

2. Los cereales son las plantas superiores mas importantes para la alimentación humana;
poseen una alta concentración de nutrientes, son fácilmente transportables y, en virtud de su
bajo contenido de humedad (12- 15%), toleran almacenamientos prolongados.

3. Como materias prima los cereales pueden almacenarse durante varios años, siempre que su
contenido de humedad no exceda el 13%, la temperatura ambiente no alcance los 14ºC y la
humedad relativa ambiental sea inferior al 60%.

4. Se consigue prolongar el tiempo de almacenamiento de la fruta sobretodo frenando la


respiración e inhibiendo la actividad microbiana (Tscheuschner; 2001. p: 39).

5. La caseína, presente en un 80 % constituye la fracción principal de la proteína pura de la


leche (Felhaber y Janetschke; 1995 p: 588-589)

6 La mantequilla es un producto de grasa láctea pura obtenido mediante una inversión de fases
que pasa de ser de grasa en agua a emulsión de agua en grasa (Felhaber y Janetschke; 1995
p: 618)

7. Conservas completas son productos capaces de almacenarse con seguridad sanitaria


durante largo tiempo sin problemas y sin condiciones especiales de temperatura ambiental.
Requisito previo es la exclusión de Clostridium botulinum que se consigue con valores F 0 de 4,0
y 5,5 (Felhaber y Janetschke; 1995 p: 638).

8. Como aditivos a los alimentos sólo sirven conservantes estandarizados y de comprobada


pureza. (Felhaber y Janetschke; 1995 p: 176)

9. La función protectora del envasado de alimentos se dirige sobretodo contra agentes externos
como suciedad, microorganismos, mohos, parásitos, sustancias tóxicas, modificadores del
aroma y sabor, capacidad de humedad y contra la desecación. Ello protege al alimento de
influencias que rebajen su calidad, de descomposiciones prematuras y mermas de peso entre
su producción y el consumidor, durante su transporte, depósito y salida al mercado (Felhaber y
Janetschke; 1995 p: 177)

10. La densidad de la leche ordeñada y medida a unos 20ºC suele estar comprendida entre
1,026 y 1,033 g/cm3 (Tscheuschner; 2001. p: 54).
16

11. Histológica y funcionalmente se distingue entre tejido muscular liso y estriado (cardiaco y
esquelético) en la carne propiamente dicha solo tiene sentido hablar de tejido muscular
esquelético debido a que está compuesto principalmente por fibras musculares (Tscheuschner;
2001. p: 56).
12. En la carne en el momento más intenso de la rigidez cadavérica, el valor del pH desciende
a su punto mas bajo, entre 5,3 y 5,5 y con el también la capacidad de retención de agua
(Tscheuschner; 2001. p: 58).

13. La proteína del pescado ocupa en lo referente a valor nutritivo el segundo lugar 8 después
de la leche de mujer y por delante incluso de la leche de vaca y de la carne de animales de
sangre caliente (Tscheuschner; 2001. p: 60)

14. El agua, debido a sus propiedades físicas y químicas, es la base de todos los procesos que
acontecen en el ser vivo. Todos los alimentos contienen agua, también el agua potable es un
alimento en si misma (Tscheuschner; 2001 p: 74)

15. El agua destinada a la producción de alimentos debe ser potable y cumplir con los
dispositivos legales al respecto. En 100 ml de agua para beber no deben existir Escherichia
coli, gérmenes coliformes, estreptococos fecales. El número total de gérmenes se limita a 100 /
ml y a 20/ ml si se trata de agua desinfectada (Tscheuschner; 2001. p: 76).

16. El agua utilizada en la producción de bebidas de jugo de frutas debe estar libre de sales que
producen la dureza carbonatada porque atenúan la acidez y neutralizan el ácido cítrico
(Tscheuschner; 2001. p: 77).

17. El aseguramiento de la calidad incluye todas las actividades que permiten garantizar de
forma planificada un determinado nivel de calidad de los productos alimenticios (Tscheuschner;
2001. p: 195).

18. La dispersión de un gas (normalmente aire) en un alimento o en un producto semifacturado


de consistencia líquida, cremosa o pastosa sirve para obtener una estructura espumosa más o
menos suelta, mayormente de poros finos y con una membrana delgada que proporciona al
alimento una textura ligera. El gas a dispersar es introducido en función de la consistencia de la
fase líquida, viscosa o viscoplástica, mediante inyección, batido, agitación, amasado o
extensión y roto por medio de las fuerzas de cizallamiento en forma de pequeñas burbujas
gaseosas (Tscheuschner; 2001. p: 270).

18. La extrusión- HTKZ y el inflado de cereales permite obtener cuerpos sólidos dispersos de
poros finos, basados en un rápido calentamiento de los cereales con un contenido en humedad
del 15 al 18% a temperaturas a 100 ºC. La presión de vapor que surge en el sistema físico,
provoca una plastificación de la estructura compacta y finalmente una expansión repentina,
escapando el vapor por los poros formados (Tscheuschner; 2001. p: 275).

19.Cocción térmica son cambios con una base mas o menos química; físico-química y
mecánico-estructural en los componentes de los alimentos provocados intencionalmente por
efectos del calor, los cambios modifican de forma característica el aroma, el sabor, el color, la
textura, dependiendo todo ello de la ejecución del proceso y del alimento en cuestión
(Tscheuschner; 2001. p: 275).

20. Desde el punto de vista de la calidad general la congelación rápida tiene mas ventajas que
la congelación lenta (Jay 2002. p: 305- 306).
17

21. La exposición de endosporas bacterianas a tratamientos con ultrasonidos inmediatamente


antes o durante el calentamiento se traduce en una disminución de la termorresistencia de las
esporas (Jay 2002. p: 305- 306).

22. En la conservación por radiación de los alimentos las proteínas y otros compuestos
nitrogenados son más sensibles a la irradiación;
23. La radiólisis del agua en los alimentos deriva en la formación de iones H +; OH-; H202 y H2.

24. El valor F0, es el valor letal integrado del calor recibido por todos los puntos del contenido de
un envase durante el tratamiento; representa una medida de la capacidad de un determinado
tratamiento térmico para reducir el número de esporas o de células vegetativas de un
determinado microorganismo por envase (Jay ,2002. p: 327)

24ª. El termino probiótico alude al consumo de productos alimenticios que contienen organismos
vivos que se cree son beneficiosos para el consumidor. (Jay 2002. p: 118).

25. En la sublimación del alimento el agua contenida en estado congelado pasa de la fase
sólida a la fase gaseosa. El proceso de realiza a presiones menores de 1Pa ( 10-2 mbar)
(Tscheuschner; 2001. p: 237).

26. El sistema lacto peroxidasa (SLP); la lisozima y la lactoferrina son sustancias


antimicrobianas presentes naturalmente o formadas en el alimento
18

LA TEORIA DE LA CIENCIA

Etimología
La palabra ciencia deriva del vocablo latino Scientia que significa conocimiento, saber,
erudición, doctrina.

Definiciones
Bunge (1983) la define como un estilo de pensamiento y acción, el más reciente, el
más universal y el más provechoso de todos los estilos y explica que es un trabajo
(Investigación), que genera un producto (Conocimiento Científico).

Falcón et al (1978), definen ciencia como el estudio de las realidades empíricamente


demostrables (demostrables por la experiencia y la razón); es decir la creación de
nuevo conocimiento a partir de realidades objetivas u objetivables por la experiencia.

Ramos (1990) expresa que la ciencia es el conocimiento cierto de las cosas por sus
principios y causas.

Kopnin (1966) al expresar el punto de vista dialéctico opina que la ciencia es la síntesis
suprema del saber humano y que el método de la ciencia es el motor que mueve todo
lo relacionado a lo científico.

Barragán en Tamayo (1996), define ciencia como un cuerpo de conocimientos


organizados objetivos, ampliados de lo real en el que se indican las pautas
generales de los fenómenos naturales y sociales.

Desde un punto de vista pragmático se define ciencia como el ordenamiento


sistemático de los conocimientos científicamente comprobados.

Objetivos
1. Objetivo cognitivo o intrínseco: orientado a incrementar el conocimiento científico.
2. Objetivo utilitario o extrínseco: orientado a incrementar el bienestar y poder del ser
humano y el perfeccionamiento continuo de las principales leyes y teorías.

Características
1 Es el modelo más verdadero que cualquier otro no científico en el mundo.
2. Es capaz de probar su pretensión de verdad sometiéndola a comprobación
experimental o racional.
3. Es capaz de descubrir sus propias deficiencias.
4. Es capaz de corregir sus propias deficiencias, es decir de construir
representaciones parciales de las estructuras del mundo que sean cada vez mas
adecuadas.
19

Significado
Por una parte, la ciencia tiene un significado funcional, es un proceso que puede
considerarse como acción, que permite obtener un producto que es el conocimiento
científico, por lo que se puede definir que en su aspecto funcional se concibe como
ciencia acción que es sinónimo de Investigación Científica. En su significado
estructural, ciencia es la acumulación de definiciones en forma de premisas, principios,
leyes, teorías, es un sistema de conceptos, contenido de modelos conceptuales acerca
de las formas del mundo exterior y de la actividad espiritual del individuo. Entonces
podemos inferir que, ciencia acción es sinónimo de Investigación científica y ciencia
estructura es el contenido específico de cada una de las ciencias.

Presupuestos axiomáticos
1 La realidad existe, es objetiva, porque se puede predecir con certeza y
validez, es concreta porque sintetiza múltiples determinaciones y sus manifestaciones
ideales tienen un sustento material, pues el pensar es una función del ser humano.
2 El movimiento sea en forma de cambio, desarrollo, progreso, es propiedad
de todo objeto factual o ideal de la realidad.
3 Los fenómenos de la realidad están relacionados entre sí; constituyendo en
su diversidad la unidad de lo real.

Criterios ordenadores
Se consideran cuatro criterios ordenadores básicos para sistematizar las ciencias, los
que se resumen en la tabla 1

Tabla 1. Criterios ordenadores básicos para sistematizar las ciencias

CIE FORMALES FACTUALES


NCIAS

Criterios ordenadores
1. Naturaleza del
objeto Objetos formales, Objetos factuales, hechos
en estudio ideas

2. Método de Por demostración o Por verificación o


comprobación de sus deducción Experimentación.
proposiciones.

Correspondencia objetiva
3. Criterio de verdad Coherencia lógica

4. Carácter de los Lógicamente Lógicamente necesarios


enunciados necesarios y verificables

Clases de ciencia
a. En función de los objetivos
1. Ciencia pura, aquella que incrementa el conocimiento científico, tiene
objetivos netamente cognitivos, por ejemplo: Biología.
20

2. Ciencia aplicada, utilización de los conocimientos a fines prácticos, por


ejemplo Patología, o a técnicas o tecnologías (Medicina).

b. En función del objeto

1. CIENCIAS FORMALES
- Estudian la forma de las ideas.
- Se refieren a formas analíticas.
- Las realidades se estudian por análisis racional.

LOGICA: estudia los principios formales del conocimiento humano y la forma de


las leyes.

MATEMATICA: ciencia que trata de la cantidad ya sea en abstracto o en


relación a objetos o a fenómenos determinados.

2. CIENCIAS FACTUALES O FACTICAS


- Estudian hechos.
- Contrastan las realidades.
- Son verificables.
- Son autosuficientes.

a. CIENCIAS FACTUALES NATURALES

Aquellas que sistematizan los hechos o fenómenos del ambiente físico por lo
tanto no depende de la persona humana:

BIOLOGIA: Ciencia que estudia los organismos vivos y las relaciones existentes
entre ellos.

FISICA: Ciencia que estudia los cuerpos y sus leyes mientras no cambien la
composición.

QUIMICA: Ciencia que estudia la transformación conjunta de la materia y la


energía.

PSICOLOGIA INDIVIDUAL: Estudia el alma, sus facultades y operaciones, es


decir la manera de pensar, sentir y reaccionar de una persona.

b. CIENCIAS FACTUALES CULTURALES

Derivadas de la creación de la persona humana sobre la base de su interacción


social.
PSICOLOGIA SOCIAL: estudia los caracteres morales y espirituales de un
pueblo o nación.
ECONOMIA: estudia la recta administración de los recursos naturales o bienes
de una familia, un pueblo o una nación.
21

SOCIOLOGIA: estudia las condiciones de existencia y desenvolvimiento de las


sociedades humanas.
CIENCIAS POLITICAS: opinión de los gobiernos de los estados, actividad de
los que rigen o aspiran a regir los asuntos públicos.
HISTORIA MATERIAL: se ocupa de la narración verdadera de los hechos
pasados.
EDUCOLOGIA: estudia el proceso enseñanza aprendizaje.
En los últimos años los científicos M.B. Kedrow y A. Spirkin en Torres (1994)
clasificaron las ciencias basados en determinados principios, conexiones,
distribuciones y otros aspectos más, tal como se ilustra en la figura 1. Según estos
autores las ciencias se clasifican en: naturales, sociales y filosóficas. Cada una de ellas
comprende a otras que tienen una compleja relación. Las líneas más gruesas indican
conexiones de primer grado y las más delgadas o puntos suspensivos indican
conexiones de segundo grado. Las primeras explican la aparición histórica de las
ciencias, la interdependencia entre las leyes más generales (dialéctica) y las
particulares. Las segundas dan a conocer que las ciencias técnicas se encuentran
relacionadas con las ciencias naturales y sociales; mientras que las matemáticas, se
hallan entre las ciencias naturales (principalmente la física) y las filosóficas (en especial
la lógica).

M.B. Kedrow y A. Spirkin, toman la naturaleza, la sociedad y el pensamiento como


fuentes de clasificación general de las ciencias y a partir de ellas se establece la
terminología más adecuada para su tipificación. El objeto de estudio de la ciencia es la
base para determinar sus diferencias y conexiones, en él se fundamenta los principios
gnoseológicos, metodológicos, lógicos y dialécticos. Todas las ciencias constituyen
sistemas teóricos y contienen los elementos de una misma estructura, las diferencias
existentes entre ellas están determinadas por la naturaleza del objeto de estudio, lo
que también determina las interconexiones. Así en la figura 2, se puede apreciar que
las ciencias han experimentado profundos cambios y son pilares del desarrollo
tecnológico; ha surgido la física subatómica que transformó la relación entre la física y
la mecánica, la física y la química y han vinculado en mayor o menor grado las ciencias
naturales con las matemáticas y las técnicas. Así mismo se aprecia muchas ciencias
intermedias y de transición, debido a que ellas por su naturaleza y relaciones forman
un sistema de conocimientos entrelazados e interconectados mutuamente.

Figura 1. Clasificación de las ciencias según Kedrow y Spirkin


22
23

Figura 2. Clasificación de las ciencias naturales y técnicas según Kedrow y Spirkin

La ciencia como un sistema conceptual y social

Antes de hablar de la ciencia como un sistema conceptual y social o concreto, tenemos


que definir los términos: sistema; es un conjunto de objetos cualesquiera, cada uno de
los cuales está relacionado con los demás componentes del sistema, sea directamente
o ya sea por intermedio de otros elementos del sistema; sistema conceptual de la
ciencia; un sistema conceptual está constituido por conceptos, proposiciones o teorías
donde sus relaciones son de naturaleza lógica. El paradigma del sistema conceptual es
el sistema hipotético – deductivo; es decir, un sistema conceptual está conformado en
general por objetos conceptuales; por ejemplo una teoría es un sistema conceptual.

La ciencia de un período dado se puede concebir, ya como un sistema conceptual; se


la concibe como un sistema compuesto por investigadores y sus equipos de
investigación, (instrumentos, libros, etc.). La ciencia debe concebirse, pues, como un
sistema conceptual compuesto de subsistemas, que son las ciencias especiales y las
interdisciplinarias tales como la biofísica y la psicobiología. La interdependencia de las
ciencias particulares se refleja en su evolución, cada una evoluciona con las demás; la
ciencia se parece entonces a la biosfera, ambos son sistemas extremadamente
complejos. El estado y evolución de casi cada uno de sus componentes dependen del
estado y la evolución de los demás, entonces podrá adivinar la consecuencia de la
sistematicidad de la ciencia para toda política de desarrollo científico.

Un sistema social de la Ciencia; un sistema social o concreto está constituido por


componentes materiales o concretos (atómicos, campos, organismos, personas) y
cada uno de dichos componentes actúan sobre los demás, sea directamente o por
intermedio de otros. La ciencia puede concebirse como un sistema social y por lo tanto
concreto; más precisamente, todo centro de investigaciones científicas es un sistema
24

social y, en particular, un subsistema de la cultura de la comunidad. Semejante unidad


está compuesta por investigadores y administradores, técnicos de laboratorio, y
bibliotecarios, empleados y personal de maestranza, así como de las investigaciones
está en relación más o menos estrecha con otros centros, sea de la misma comunidad
o del exterior.

Se establecen los siguientes postulados:

Postulado 1: todo gremio científico es, en escala internacional, un sistema,


concreto (social) compuesto de los investigadores y sus auxiliares.

Postulado 2: todo sistema científico es un subsistema del sistema científico


internacional.

Postulado 3: toda ciencia, considerada como un conjunto de ideas (conceptos,


proposiciones, teorías, reglas metódicas, etc.), es un sistema conceptual y cada
sistema conceptual científico es un subsistema del supersistema conceptual que es el
conjunto de todas las ciencias.

EL DESARROLLO CIENTIFICO

El desarrollo de una ciencia particular consiste en el aumento del volumen y de la


calidad de la producción científica de la comunidad que cultiva dicha ciencia.

Desarrollo = Progreso y Aumento de la Producción

No es posible impulsar el desarrollo nacional de una ciencia sin insertarla en el


sistema científico internacional. Los científicos de una nación bloqueada o aislada
voluntariamente podrán seguir trabajando durante un tiempo pero terminarán por
quedarse atrás y por producir resultados de importancia decreciente.

Teoremas: Estas conclusiones tienen consecuencias tan obvias como importantes


para el desarrollo científico y de las comunicaciones científicas. Tenemos los siguientes
teoremas1:
1. El investigador rinde tanto más cuanto mejor dispuesto esté a aprender
de especialidades y aún ciencias vecinas.
Dicho negativamente: la especialización excesiva, al cortar los vínculos de una
componente del sistema científico con los demás, bloquea el flujo de información y
corta las alas de la imaginación científica.

2. El investigador rinde tanto más, cuanto mejor se integre en sus


comunidades científicas (local, nacional, regional e internacional). Dicho
negativamente: el investigador aislado no puede estar al día, ni recibir o dar estímulo
de, a consecuencia de lo cual su producción baja de calidad o se acaba.

1
BUNGE, Mario. “Ciencia y Desarrollo”. Buenos Aires, Argentina. Ed. Talleres “El
Gráfico/Impresiones”, 1ª edición, 1989, pág. 50 – 53.
25

3. El desarrollo de toda ciencia exige el desarrollo de las ciencias


contiguas: es multidisciplinario; expresado de otro modo, el descuido de una ciencia
frena el desarrollo de los demás.

4. El desarrollo de toda ciencia requiere la colaboración internacional


directa (por intercambio de información) o sea, el desarrollo científico es
multinacional y transnacional. dicho negativamente: el nacionalismo científico (y, en
general, el nacionalismo cultural) conduce al estancamiento.

5. El desarrollo de la comunidad científica de una nación depende tanto del


fortalecimiento de los centros científicos locales como de su integración en un
sistema nacional y de la cooperación de éste con otras comunidades científicas
(nacionales, regionales e internacionales). Dicho negativamente: la ausencia
nacional como a nivel internacional bloquea el avance científico.

6. La libertad de flujo de información científica y de movimiento de


investigadores es indispensable para el desarrollo de toda comunidad científica,
sea local, nacional, regional o internacional, en otros términos: la censura y las
restricciones a la libertad de viajar (sea por motivos políticos o económicos); al debilitar
los vínculos que mantiene unidos a los sistemas científicos (a diversos niveles), los
desintegra y con esto los esteriliza.

La política científica que tiene en cuenta lo anterior puede llamarse sistémica y


se caracteriza por las notas siguientes:

(a) Favorece la información o el fortalecimientos de sistemas científicos


a los niveles local, nacional y regional, o sea, de comunidades científicas bien
integradas y dotadas de una “masa crítica”, de modo que brindemos un sólido apoyo, a
los investigadores individuales;

(b) Es integral, o sea, abarca a todas las ciencias (matemáticas, naturales


y sociales, básicas y aplicadas) y tiene en cuenta al resto de la cultura;
(c) Es realista; cuenta con los recursos humanos y materiales del país, no
importa sino la indispensable en material de personal e instrumental; no promete
resolver todos los problemas del país sino tan sólo aquellos que dependen
primordialmente del conocimiento científico; aborda temas accesibles.

(d) Es moderna; estimula en primer lugar la investigación en áreas nuevas


descuidadas, en las que aún es posible llegar rápidamente al frente; descorazona la
línea de investigación obsoletas;

(e) Es participativa; invita a la investigación de investigadores en lugar de


imponerles políticas y planes;

(f) Es moderada; propone planes globales (no del detalle) y flexibles


(susceptibles de ser modificados si no dan resultado), que no coarten la libertad de
creación;
26

(g) Es ágil; crea administraciones livianas y ágiles que no entorpezcan el


trabajo específico de los investigadores.

PRINCIPIOS BÁSICOS DE LA ONTOLOGÍA DE LA CIENCIA

Sugiriendo que los principios de la ontología de la ciencia, o supuestos ontológicos que


motivan, justifican o guían la investigación científica, son los que se enuncian a
continuación:2

1. Existe un mundo exterior al sujeto que conoce y es en gran medida


independiente de éste. Si no existiese no sería tema de investigación; más bien,
recurriríamos a la introspección o haríamos matemática pura en lugar de intentar
descubrir lo desconocido más allá del yo.

2. El mundo está compuesto de cosas concretas; por consiguiente las


ciencias de la realidad (natural o social) estudian cosas, sus propiedades y sus
cambios. Si hubiera objetos reales que no fuesen cosas concretas sería imposible
actuar sobre ellos con ayuda de otras cosas.

3. Las formas son propiedades de las cosas; no hay formas (ideas) platónicas
en sí mismas, que planeen por encima de las cosas concretas. Toda propiedad es
propiedad de alguna cosa. Por esto es que estudiamos y modificamos las propiedades
examinando cosas, y en lo posible, obligándolas a cambiar.

4. Las cosas se agrupan en sistemas o agregados de componentes que


actúan entre sí. No hay cosa que no sea componente de por lo menos un sistema
(excepto el universo que es el sistema máximo). No hay cosas independientes: las
fronteras que trazamos entre las cosas son a menudo imaginarios. Lo que existe
realmente son sistemas físicos, químicos, biológicos y sociales.
5. Todo sistema, excepto el universo interactúa con otros sistemas en
algunos respectos y está aislado de otros sistemas en otros respectos. Una cosa
totalmente aislada sería incognoscible. Y si no hubiera aislamiento relativo nos
veríamos forzados a conocer el todo antes de conocer cualquiera de sus partes.

6. Toda cosa cambia. Todo, incluso las llamadas partículas fundamentales,


cambia o termina por cambiar en algún respecto en el curso de sus interacciones con
otras cosas.

7. Nada proviene de la nada y ninguna cosa se reduce a la nada. Si así no


fuera no haríamos el menor esfuerzo por descubrir el origen de cosas nuevas ni las
huellas dejadas por las que han sido destruidas (transformadas).

8. Toda cosa satisface leyes. Las leyes, sean naturales o sociales, son
relacione sin variantes entre propiedades, y son tan objetivas como éstas. Más aún,
toda ley es una propiedad. Sino hubiera leyes jamás podríamos descubrirlas ni

2
BUNGE, Mario. “Ciencia y Desarrollo”. Buenos Aires, Argentina. Ed. Talleres “El
Gráfico/Impresiones”, 1ª edición, 1989. pág. 117 – 119.
27

utilizarlas para explicar, predecir y actuar. En particular, el método experimental no


sería factible porque consiste en la modificación deliberada y controlada de una
componente o propiedad de algún sistema para averiguar que efecto pueda tener
sobre otras características del sistema. Nuestro esfuerzo para averiguar hechos de
este tipo presupone que hay relaciones legales entre los elementos considerados.

9. Hay diversas clases de ley. Hay leyes causales (o, mejor predominantemente
causales) y leyes estocásticas, así como leyes que exhiben estos dos modos de
devenir y acaso otros más. Hay leyes de un solo nivel (p.ej. leyes biológicas) y leyes
que abarcan a más de un nivel (p.ej. psicosociales).

10. Hay diversos niveles de organización: físico, químico, biológico,


social, etc. Los llamados niveles superiores sumergen de otros niveles en el curso de
procesos; pero, una vez formados (con leyes propias), gozan de cierta estabilidad. De
lo contrario no podríamos averiguar nada acerca de organismos y sociedades antes de
haber agotado la física y la química (que de todos modos son inagotables).

MÁXIMAS GNOSEOLOGICAS DE LA CIENCIA

GNOSEOLOGICAS:
Llamada también la teoría del conocimiento y epistemología. Todos estos nombres
tienen el mismo significado, nos indican, como igualmente se crea a menudo, una
disciplina filosófica general como la lógica, la ética o la estética, sino más bien la
consideración de un problema que nace de un supuesto filosófico, esto es, en el ámbito
de una determinada dirección filosófica.

MAXIMAS:3
Se mencionan:
G1. El Conocimiento fáctico (o sea de cosas concretas) se obtiene
combinando experiencia y razón. No existen medios cognoscitivos extraordinarios
accesibles a unos pocos iniciados. Si hubiera individuos dotados de semejantes
poderes, los resultados de sus esfuerzos no serían plausibles de examen y crítica
públicos. La ciencia ingenua es lo opuesto de la ciencia oculta. Si bien muchos trabajos
científicos son entendidos tan sólo por unos pocos especialistas, en principio
quienquiera se interese en ellos podrá lograrlo si aprende los medios necesarios en
fuentes accesibles al público.

G2. Todo proceso de conocimientos consiste en tratar problemas. O


sea, en buscarlos, plantearlos y tratar de resolverlos, sea con ayuda del conocimiento
nuevo, y en todo caso a la luz de la razón y de la experiencia. Aunque hay problemas
difíciles e incluso insolubles, ni hay misterios, y menos aún misterios que sólo la no-
ciencia podrá develar.

G3. Toda solución propuesta un problema de conocimiento debería


poder ser constrastable de alguna manera objetiva que no sea la mera

3
BUNGE, Mario. “Ciencia y Desarrollo”. Buenos Aires, Argentina. Ed. Talleres “El
Gráfico/Impresiones”, 1ª edición, 1989. pág. 119 – 122.
28

compatibilidad con las creencias establecidas. La autoridad y la intuición pueden


proveer datos o conjeturas, ambos corregibles, pero no cuentan como verificación o
refutación.

G4. El conocimiento fáctico puede obtenerse por observación,


medición o experimento a condición de que cada una de estas operaciones
empíricas sea diseñada y controlada en lugar de ser causal o espontánea. La
observación espontánea tiene poco valor científico, como lo sugiere el que fue
practicado por nuestros antecesores durante un millón de años sin dar lugar a la
ciencia.

G5. Los procesos mentales que ocurren durante la ejecución de


operaciones empíricas destinadas a obtener conocimiento fáctico no ejercen
influencias directas sobre cosa externa alguna, en particular sobre los
instrumentos de observación. Si hubiera psicocinesis, los experimentos no valdrían
nada, ya que los experimentadores podrían forzar a los instrumentos a que marquen
los valores que ellos deseasen.

G6. El conocimiento fáctico es parcial antes que exhaustivo, pero es


perfectible. Incluso los datos más exactos pueden perfeccionarse o ser reemplazadas
por otras mejores. La verdad total y definitiva puede obtenerse sólo ocasionalmente y
en respectos limitados: en ciencia la regla es la verdad parcial y temporaria.

G7. El conocimiento fáctico puede perfeccionarse tanto gradualmente


como a saltos. En ambos casos todo perfeccionamiento es temporario, o sea, está
sujeto a revisión. Por consiguiente el progreso del conocimiento, cuando ocurre, no es
ni puramente acumulativo ni una sucesión de revoluciones cada una de las cuales
destruye lo anterior. Incluso la más profunda de las revoluciones científicas es parcial,
esto es, deja sin tocar el grueso de la ciencia, y enriquece el pasado en lugar de barrer
con él. Y ninguna revolución científica será la última, a menos que la humanidad
abandone la ciencia. (Recuérdese que la ciencia murió varias veces, y que la próxima
puede ser la definitiva)
G8. El conocimiento científico de una cosa, lejos de ser directo y visual,
es indirecto y simbólico. Las hipótesis y teorías científicas más poderosas contienen
conceptos no observacionales (tales como los de masa, campo, tensión, mutación
génica, viabilidad, clase social, y estabilidad política) y se formulan en términos
matemáticos (no necesariamente cuantitativos). Y los datos empíricos más refinados
contienen en conceptos teóricos y se producen con ayuda de teorías que participan del
diseño y la interpretación de mediciones y experimentos.

G9. La meta final de la investigación científica es descubrir las


regularidades (leyes) de la realidad y utilizarlas para explicar, predecir y
retroceder hechos. Si la investigación se limitase a registrar datos no tendríamos
necesidad de teorías. Y si no tuviéramos teorías, nuestros serían todos superficiales o
inexactos, ya que sólo las teorías nos permiten diseñar observaciones mediciones y
experimentos capaces de producir datos profundos y precisos, esto es, datos que van
más allá de la experiencia ordinaria.
29

Las mejores teorías científicas son las que combinan amplitud con
profundidad, así como la verdad (aproximada)con la compatibilidad con otras
teorías, en el mismo campo de investigación o en campos vecinos. Y los mejores
datos son los que sirven para alimentar o poner a prueba las mejores teorías
existentes, o para estimular investigaciones que se propongan construir teorías
mejores.

CIENCIA UNA CONCEPCIÓN RECIENTE

Bunge (1985) muestra una concepción interesante para explicitar la definición o facilitar
la comprensión de lo que es ciencia como un campo de investigación, tratando de
sistematizar todos los criterios que se deben tener en cuenta para definir una ciencia,
expresados en la fórmula siguiente:

C = (W, S, G, F, D, B, P, K, O, M)
Donde en cualquier momento dado:

W, es un sistema compuesto por personas que han recibido educación especializada,


inician o continúan una línea e investigación

S, es una sociedad capaz de apoyar, y estimular o al menos tolerar a W.

G, trasfondo filosófico de C y consta de: i) una ontología de cosas cambiantes, ii) una
gnoseología realista; pero crítica, no ingenua en vez de una gnoseología idealista; iii) el
ethos de la libre búsqueda de la verdad.

F, trasfondo formal de C, colección de teorías lógicas y naturales actuales.

D, dominio o universo del discurso de C, compuesto exclusivamente por entes reales,


certificados o presuntos, pasados, presentes o futuros.

B, trasfondo específico de C, colección de datos, hipótesis, teorías confirmadas


(aunque no incorregibles) y actuales, obtenidas en otros campos de investigación
relevantes a C.

P, problemática de C, problemas cognoscitivos referidos a la naturaleza (en particular


de las leyes) de los miembros de D.

K, fondo de conocimiento de C, colección de teorías, hipótesis y datos al día y


comprobables (aunque no finales) compatibles con los de B y obtenidos por miembros
de W en tiempos anteriores.

O, Objetivos de C, incluyen el descubrimiento o uso de leyes de los D, la


sistematización (en teorías) de hipótesis acerca de D y el refinamiento de métodos en
M.
30

M, Metodología de C, consta de procedimientos escrutables (examinables, analizables


y criticables) y justificables (explicables)

C, es un componente de un campo cognoscitivo mas amplio, es decir hay por lo menos


otro campo de investigación contiguo

De aquí se deriva los criterios siguientes:


Conocimiento Acientífico, cualquiera que no cumpla con las condiciones
anteriores. Cuando el objetivo que se desea alcanzar es el de la ciencia; pero no se
usa el método
Científico, por ejemplo la Filosofía de la naturaleza, la metafísica y la mitología.

Semiciencia o Protociencia, campo del conocimiento que los satisfaga


aproximadamente o en parte. Llamada también ciencia embrionaria, cuando las
técnicas científicas se aplican a la consecución de datos sin hallar estructuras
generales.

Ciencia emergente, aquella que se halla evolucionando a la plena satisfacción


de todas las condiciones

Pseudociencia, cuerpo de creencias y prácticas cuyos cultivadores desean


ingenua y maliciosamente dar como ciencia; pero que no comparte ni el planteamiento,
ni las técnicas ni el cuerpo de conocimiento de las ciencias, es básicamente falsa, no
fundamenta sus doctrinas; no contrasta sus pretensiones de verdad, carece de
mecanismo autocorrector y no formula, no contrasta, ni corrige hipótesis. En este grupo
se consideran:

i) Rhabdomancia, ciertos individuos sensibles pueden percibir


inconscientemente y directamente heterogeneidades subterráneas como minas,
yacimientos de agua. Esta es una seudociencia porque es imposible una acción de los
cuerpos físicos en los estados mentales; sus hipótesis son incontrastables, pues no
supone mecanismos determinados ni leyes.

ii) Parapsicologia, (espiritismo, actividad de los mediums, cartomancia y otras


ciencias arcaicas), esta pseudociencia sostiene la existencia de ciertos fenómenos
como la telepatía (transmisión del pensamiento), La videncia a distancia, La videncia
del futuro y la telequinesis (causación mental de fenómenos). Se refuta porque, se trata
de entidades no físicas, trata de acontecimientos no físicos (Telepatía), no ofrece
alternativas detalladas acerca de mecanismos de acción capaces de contrastarse, no
formula sus tesis como hipótesis, las tesis son meras afirmaciones acerca de la
existencia de los acontecimientos, además no son fundamentados, los “experimentos”
son metodológicamente inaceptables (fraudes no repetibles).

iii) Psicoanálisis, diferente de la Psicología y la Psiquiatría, refutada como


ciencia porque sus tesis son incontrastables y ajenas a la Psicología, la Antropología y
la Biología.

TECNOLOGÍAS
31

Técnica que emplea el conocimiento científico, cuerpo de conocimientos


compatibles con la ciencia coetánea y controlable por el método científico y se emplea
para controlar; transformar o crear cosas o procesos naturales o sociales.

La tecnología puede considerarse como el campo de conocimientos que se


ocupa de diseñar artefactos y planear su realización y mantenimientos a la luz de los
conocimientos científicos. La precisión en su definición se pretende alcanzar con la
fórmula planteada por Bunge (1985) representada por una endecatupla

T = <C, S, D, G, F, E, P, A, O, M, V >

Donde en cualquier momento dado:

C, la comunidad profesional de T, es un sistema social compuesto por personas que


han recibido entrenamiento especializado, mantienen vínculos de información entre sí,
comparten ciertos valores e inician o continúan una tradición de diseño, ensayo y
evaluación de artefactos o planes de acción.

S, es la sociedad (con su entorno natural y social, su economía, política y cultura) que


alberga a C y lo estimula o tolera.

D, es el dominio de T compuesto exclusivamente de cosas reales (o presuntamente


tales) presentes, pasadas o futuras, algunas naturales, otras artificiales.

G, es la visión general o Filosofía inherente de T y consta de: i) una ontología de cosas


cambiantes en forma legal y en particular modificables por el ser humano, ii) una
gnoseología realista con poco pragmatismo; iii) el ethos de la utilización de recursos
naturales y humanos (en particular cognoscitivos).
F, es el fondo formal de T, es la colección de teorías y métodos lógicos y matemáticos
al día.

E, es el fondo específico de T, es una colección de datos, hipótesis y teorías


actualizadas y razonablemente confirmadas (pero corregibles), de métodos de
investigación razonablemente eficaces y de diseños y planes útiles, elaborados en
otros campos de conocimiento particularmente en las ciencias y tecnologías
relacionadas con T.

P, es la problemática de T consta de problemas cognoscitivos y prácticos


concernientes a los miembros del dominio D, así como a problemas referentes a otras
componentes de la endecatupla que define T.

A, es el fondo de conocimiento de T, es una colección de teorías, hipótesis y datos


actualizados y contrastables (aunque no finales), así como de métodos, diseños y
planes compatibles con el fondo específico E y obtenidos por miembros de C en
épocas anteriores.
32

O, son los objetivos de los miembros de la comunidad profesional C, incluyen la


invención de nuevos artefactos, nuevas maneras de usar o adaptar los viejos y planes
para realizarlos, mantenerlos y manejarlos, así como evaluarlos.

M, es la metodología de T consta exclusivamente de procedimientos escrutables y


justificables en particular e involucra el método científico (problema cognoscitivo -
hipótesis - contrastación - corrección de la hipótesis o reformulación del problema) y el
método tecnológico problema práctico - diseño - prototipo - prueba - corrección del
diseño o reformulación del problema)

V, son los valores de T constan de una colección de juicios de valor acerca de cosas o
procesos naturales o artificiales, en particular materias primas, y productos
manufacturados, procesos de trabajo y organizaciones sociotécnicas.

Se debe tener en cuenta que existe por lo menos otra tecnología contigua que se
solapa parcialmente con T y que los miembros de cada una de las nueve últimas
componentes de la endecatupla que define a T cambian, aun cuando sea lentamente,
como resultado de las investigaciones y desarrollos en T, así como en ciencias y
tecnologías relacionadas con ella.

Se califica como No tecnológico, un campo de conocimientos que no satisfaga ni


siquiera aproximadamente las condiciones estipuladas. Un campo de conocimientos
que comparta los objetivos utilitarios de la tecnología y satisfaga aproximadamente
algunas de las demás condiciones podrá llamarse prototecnología o una tecnología
emergente, por ejemplo las ciencias de la salud, la administración, etc.

Una tecnología alta o avanzada (high tech) será aquella que posea un voluminoso
fondo específico o sea que tome mucho conocimiento prestado de las ciencias,
ejemplo las ingenierías química y nuclear y la biotecnología que emplea la biología
molecular. Una tecnología que diseña artefactos que emplean pocos recursos
escasos, que no dañan el medio ambiente y que promueven una economía de trabajo
intensivo se denomina tecnología blanda, o intermedia, o apropiada y finalmente un
campo de conocimientos que no es tecnológico por carecer de base científica y por no
hacer uso del método científico ni del método tecnológico; pero que es anunciado o
vendido como tecnológico(o científico) se denomina seudotecnología o tecnología
fraudulenta, por ejemplo la psicoterapia verbal y el monetarismo.

Ramas de la tecnología
Bunge (1981) propone una clasificación de las tecnologías, las que se exponen a
continuación
1. MATERIALES

a. FISICAS :- Ingeniería Civil


- Ingeniería Eléctrica
- Ingeniería Electrónica
- Ingeniería Nuclear
- Ingeniería Espacial

b. QUIMICAS : Inorgánica y Orgánica


33

c. BIOQUIMICAS : Farmacología y Bromatología

d. BIOLOGICAS : - Medicina
- Agronomía
- Bioingeniería
2. SOCIALES

a. PSICOLOGICAS : Psiquiatría; Pedagogía

b. PSICOSOCIOLOGICAS : - Psicología Industrial


- Psicología Comercial
- Psicología Bélica

c. SOCIOLOGICAS :- Sociología
- Politología
- Urbanismo
- Jurisprudencia

d. ECONOMICAS : - Administración
- Investigaciones operativas

e. BELICAS : - Militares

3. CONCEPTUALES : - Informática (computación)

4. GENERALES : - Teoría de sistemas


- Autómatas
- Sistemas Lineales
- Sistemas de Control
Importancia del estudio de las ciencias
1. Orientada a la satisfacción de necesidades de la persona humana.
2. Consigue reconstrucciones de las realidades problemáticas.
3. Constituye una fuente inagotable de problemas científicos.
Historia de la ciencia; una perspectiva

Las ciencias surgieron como un intento de explicar y dividir el estudio de la naturaleza,


desde los albores de la humanidad la ciencia se convirtió en una herramienta de
estudio para las personas encargadas de interpretar; divulgar, guardar o procesar el
conocimiento. Podemos entender la clasificación como una manera didáctica y postura
filosófica de cada época, intento por dividir por categorizaciones y objetos de estudio.

En la historia de la ciencia han existido tres grandes etapas:

a. Época de la antigüedad; Grecia; Roma y Medio Oriente, inauguraron después de


profundas reflexiones una estrecha vinculación entre la filosofía y ciencia a tal punto
que no existía diferencia entre ambos; Platón; Aristóteles, Sócrates, fueron los
iniciadores de esta disciplina del saber humano; pero sin embargo ellos pasan como
filósofos y no como científicos. Esta primera etapa de la historia de la ciencia tiene
mucho que ver con el humano, es mas materialista y concreta y se quiere expresar
aquellos factores de la mente y la sociedad que determina su condición; esta
34

denominación fue acuñada en épocas mas recientes a pesar que se hacía ciencia
desde las épocas presocráticas en forma empírica y el razonamiento lógico.

b. Edad Media; es la época en donde la filosofía escolástica reduce a la ciencia a un


nivel religioso vinculado con el origen divino. Es en esta etapa donde lo metafísico
cobra mayor poder que lo concreto. La religión y lo místico ocupan un lugar
preponderante y lo humano pasa a segundo plano, podemos decir que este período es
el mas evolucionado para la ciencia por lo dogmático que resultaba la interpretación y
explicación de la naturaleza. Las siete artes liberales: el trivium y cuadrium; fueron las
materias y el resumen de todo el sabor humano.

c. Época moderna; este es el período mas dinámico y rico en variedad por las
posturas filosóficas, el apego o aversión por los filósofos y concepciones del pasado.
Podemos decir que en este lapso de la historia de la humanidad se clasifican en cuatro
sub periodos: a antieclesiástica, b. La premarxista, c. La Marxista, d. La post marxista

La antieclesiastica; que es la reacción directa de lo medieval, lo religioso, puro y


místico, es una actitud por los excesos al que había llegado este período oscuro de la
humanidad, donde todo se reducía a explicaciones en cuestión de dogma o de fe.
Algunos representantes como Hegel, fueron los que intentaron dar una nueva
explicación y reconversión del volver de la cultura griega en algunos postulados sobre
la interpretación del mundo, pero utilizando un método mas racional en el conocimiento
de la realidad que rodea al hombre y ya no solo en él como eje de todo el universo sino
el todo. Este primer momento puede considerarse que marcó un hito revolucionario del
cambio de mentalidad de lo religioso a lo material.

La premarxista; considerado como una etapa preparatoria de un nuevo tipo de


mentalidad de filosofía científica, tenemos a los filósofos como Habbs; Kant, Kiergard,
Jansen que trataron de abrir paso a la comprensión del mundo por sus actividades y
circunstancias que los rodean.

La marxista; el aspecto económico en el capital y el trabajo fueron los ejes de Carlos


Marx para inspirarse en un nuevo tipo de filosofía como el materialismo dialéctico
histórico; una ciencia basada en las relaciones sociales de producción que divide a los
hombres en explotados y explotadores, obreros y capitalistas; entre los que tienen
poder y aquellos que están bajo el poder. La época post marxista, es la que rompe todo
el monopolio de una filosofía socialista, basado en la propiedad social por la privada, el
estado protector por el estado reducido y acortado y la liberación del mercado

Intentos de clasificación de las ciencias


La dualidad siempre ha sido una de las condiciones para clasificar a las ciencias:
 Por el estudio y las relaciones
 Por el método y las condiciones
 Por los fines y el servicio
 Por lo general y particular
 Por lo concreto y abstracto
 Por lo empírico y lo teórico
 Por lo material y lo abstracto
35

 Por la naturaleza y lo social


 Por lo físico-concreto y lo humano ético
 Por lo inductivo y lo demostrativo
 Por lo racional y lo ideal
 Por lo dialéctico-histórico y lo filosófico-idealista
 Sociales y materiales
 Económicas y sociales
 Fácticas y humanísticas
 Orgánicas e inorgánicas
 Sociales y filosóficas.

El desarrollo evolutivo de las clasificaciones de las ciencias ha dado lugar a un


sinnúmero de clasificaciones; pero lo fundamental es que la ciencia se ha convertido
en una disciplina humana y de interpretación de ayuda y de progreso al mismo hombre,
que para su mayor estudio se han dividido en múltiples disciplinas que guardan una
relación de correspondencia, de ayuda y complemento Cada quien aporta desde su
punto de vista de especialización con un solo fin: interpretar el mundo y buscar reducir
los esfuerzos humanos para dar mayores resultados, beneficios y satisfacción de la
humanidad.

La clasificación de las ciencias estará siempre obedeciendo a posturas y a las


condiciones en que se ubique el ser humano, es decir aquella postura en que se ubica
el filósofo o el científico. De allí que ahora se habla de científicos sociales, científicos n
Biología, Matemáticas, astronomía, Psicología, química, Educativos; etc. Por esta
razón ahora ya no se puede hablar de una ciencia acaparada por una sola persona;
pues tendría que aprender de todas las disciplinas, cosas que en estas épocas es muy
difícil por la gran cantidad de conocimientos y los vertiginosos cambios que
experimenta el conocimiento ahora con mucha mas velocidad que en las épocas de
Platón, Hegel, San Agustín, Marx, etc.

CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA


Práctica. 2: LA CIENCIA
I. Encierre con un círculo la respuesta correcta:
1. La definición de ciencia: “Es el conocimiento cierto de las cosas por sus principios y
causas”, es expuesto por:
a. Bunge (1983) b. Ramos (1990) c. Kopnin (1966) d. Falcon et al., (1978)

2. Cuando los objetivos de la ciencia se orientan a incrementar el conocimiento científico, se


refiere al objetivo de tipo:
a. Causal b. Perfeccionado c. Intrínseco d. Extrínseco

3. Son enunciados característicos de la ciencia, excepto:


a. Es el modelo más verdadero que cualquier otro en el mundo.
b. Se puede comprobar experimentalmente o racionalmente.
c. Es capaz de descubrir sus propias deficiencias.
d. Necesita la ayuda de la tecnología para corregir sus deficiencias.

4. En su significado funcional, la ciencia:


36

a. Es sinónimo de investigación científica.


b. Es la acumulación de definiciones, leyes, teorías.
c. Es considerada como ciencia sistema.
d. Es considerada como ciencia estructura.

5. De acuerdo a la tipología de Bunge (1983), la verificación o experimentación, es un criterio


ordenador referido a:
a. La naturaleza del objeto en estudio.
b. Método de comprobación de sus proposiciones.
c. Criterio de verdad.
d. Carácter de los enunciados

6. No es característica de las ciencias factuales:


a. Estudian ideas. c. Contrastan las realidades.
b. Son verificables. d. Son autosuficientes.

7. En relación a la tipología de Bunge (1983) de acuerdo al objeto de estudio la Biología es:


a. Una ciencia pura. b. Una ciencia aplicada.
c. Una ciencia factual cultural. D. Una ciencia factual natural.

8. La clasificación de las ciencias en: Naturales, Sociales y Filosóficas, es propuesto por:


a. Bunge (1985) b. Kopnin (1966)
c. Morless (1978) d. Kedrow y Spirkin (1993)

9 De acuerdo a la concepción moderna de Bunge (1985), la ciencia que esta evolucionando a


la plena satisfacción de todas las condiciones determinantes es:
a. Una semiciencia b. Una protociencia
c. Una pseudociencia d. Una ciencia emergente

10 Una tecnología que posee un voluminoso fondo específico es decir mucho conocimiento
prestado por la ciencia es:
a. Una prototecnología b. Una tecnología emergente
c. Una tecnología alta (HT) d. Una tecnología apropiada

DISCURSO CIENTÍFICO TÉCNICO


Para muchos socio-lingüistas la construcción del conocimiento es el resultado de los
procesos de comprensión de experiencias a través de la formalización en el lenguaje.
Esto hace que el conocimiento que quiere ser transmitido sea dependiente de las
capacidades comunicativas de sus portadores, y éstas no son sino formas socialmente
construidas que dan sentido a la experiencia. No se trata de verdades absolutas. Esta
postura explica por qué a lo largo de la historia humana la ciencia ha edificado y
demolido dogmas que se establecieron en el pensamiento y en la forma de actuar de
muchas generaciones. La ciencia se ha cuestionado a sí misma, se ha reconstruido y
sigue avanzando en la búsqueda del conocimiento sobre nuestra especie y sobre todo
lo que conforma el universo micro y macroscópico. Si asumimos que el concepto de
naturaleza y de cada una de sus manifestaciones es el resultado de una lenta
edificación histórica y social que ha quedado plasmada en el lenguaje verbal y no
verbal de la humanidad, entonces la denominación de algo como objeto natural es una
forma de concebirlo que depende de un sistema de clasificación. La comunicación de
esta determinada forma de concebir los fenómenos naturales ha tomado cuerpo en
37

distintos contextos, o discursos. Así, por ejemplo, el concepto de materia tiene un


sentido particular en diferentes ámbitos:
1. En la ciencia, materia está referida a la sustancia de la que están formados
los cuerpos, la cual posee una serie de propiedades tanto generales (masa y volumen,
por ejemplo) como específicas (punto de ebullición, reacción con el oxígeno, etcétera.)
2. En una escuela, materia está referida a una disciplina de estudio como la
biología, la historia o la química.
3. Las religiones conciben la materia como el aspecto mortal del hombre, el cual
es antagónico con la esencia inmortal que es el espíritu.
4. En un discurso presidencial, el ejecutivo puede hablar del rezago en materia
económica, educativa o en los servicios de salud pública. Aquí el término materia
puede representar cualquier cosa.

Los cuatro ámbitos que han servido de marco en este ejemplo otorgan una forma y
sentido distintos de la idea de materia. Esto es precisamente lo que nos interesa
apuntar en esta ocasión.

La forma en la que el conocimiento se comunica tiene lugar dentro de un discurso y es


éste el que permite construir el puente que le otorga un sentido particular. En
consecuencia, cualquier adquisición de conocimiento, y sea por la lectura de un texto
de divulgación, por las hipótesis relacionadas con nuevos hallazgos experimentales,
por la formación escolar, por la participación en un taller, o por la escritura de un
artículo como éste, requiere de una comprensión del mensaje, o mejor dicho, de una
atribución del significado de los signos que forman el mensaje, y esta atribución está
hecha dentro de un contexto continuo de actividad e intereses.

Es en este contexto en el que se comunica una forma particular de comunicar, que es


precisamente el discurso. Pongamos un ejemplo, la divulgación de la ciencia
contextualizada en dos objetivos de la Sociedad Mexicana para la Divulgación de la
Ciencia y la Técnica (somedicyt) plantea:
1. Divulgar el conocimiento científico y técnico con claridad, amplitud y
responsabilidad.
2. Favorecer el acercamiento entre la comunidad científica y el resto de la
sociedad.

Estos dos objetivos articulan las formas de comunicar en lenguaje verbal (libros,
revistas) o no verbal (fotografías, equipamientos) el conocimiento que quiere hacerse
llegar a quienes no pueden comprender el discurso científico porque necesitan de un
contexto distinto al académico para poder dar un sentido propio a los hallazgos de la
ciencia. Algunas investigaciones de Edwards-Mercer, Bruner, Lemke y Candela, entre
otros, muestran que la ciencia no puede aprenderse solamente a partir de la
experiencia perceptiva, sino a partir de la descripción de ella misma en el discurso
científico.

El discurso, como vimos en el ejemplo sobre la idea de materia, es una acción social
que construye diversas realidades o conocimientos y otorga identidades que van
formando un modo de conocer. El discurso está formado por procedimientos y recursos
a los que es legítimo acudir para establecer una construcción de la realidad en el
38

ámbito científico. Estos recursos deben ser legítimos en la medida en que su calidad
ha sido evaluada rigurosamente por quienes tienen un reconocimiento académico
sustentado en una visión antidogmática y un compromiso con el trabajo científico, más
que por quienes ostentan cierta postura ideológica.
Hay tres aspectos que caracterizan el discurso de la divulgación científica:
1) El discurso es incluyente, porque considera y aproxima el lenguaje de la vida
cotidiana y el de la ciencia.
2) Es autónomo, porque construye y evalúa sus propias formas de
comunicación.
3) Es científico porque busca, produce y valida conocimiento multidisciplinario
sobre la comunicación más adecuada de los conceptos y productos de la
ciencia.

Es también importante mencionar que gracias al discurso de los participantes se


conocen, se comprenden y otorgan sentido a un mensaje que tiene la intención de
convertirse en un conocimiento entre todos.

En una concepción más lingüística, la divulgación también puede entenderse como una
tarea de traducción o interpretación entre registros diferentes de un mismo idioma:
entre el tecnolecto propio de cada disciplina y la variedad funcional más general, al
alcance del público no especializado. Este punto de vista pone énfasis en los aspectos
gramaticales y léxicos de la tarea divulgadora, evita juicios de valor sobre ambas
variedades funcionales (prefiere divulgación a vulgarización, con evidentes matices
peyorativos) y, en definitiva, presupone una visión más flexible y heterogénea de la
diversidad lingüística. Pero, desde otro punto de vista, desvincula el contenido
científico que se transmite de la forma verbal con la que se va a presentar, de manera
que esta última pasa a ser sólo un envoltorio de un saber que existe –de facto–
independientemente de su representación discursiva. De esta forma, lo lingüístico se
concibe como algo complementario, accidental y, en consecuencia, secundario.

Finalmente, desde una percepción más discursiva y pragmática (Calsamiglia, 1997:


16), la tarea de la divulgación consiste en recontextualizar en una situación
comunicativa común (para una audiencia lega y masiva, con medios diferentes, etc.) un
conocimiento previamente construido en contextos especializados (entre científicos,
con unos instrumentos comunicativos especiales: tecnolecto, lenguajes matemáticos,
lógicos, etc.). En esta concepción, el contenido científico está estrechamente
relacionado con su representación discursiva, insertada y dependiente de un contexto
comunicativo concreto (identidad y estatus de los interlocutores, circunstancias
temporales, espaciales, sociales, políticas, etc.; Aronowitz, 1988: 342-352), hasta el
punto de que la tarea divulgadora no sólo exige la elaboración de una forma discursiva
acorde con las nuevas circunstancias (conocimientos previos del destinatario,
intereses, canal comunicativo, etc.), sino la reconstrucción del mismo conocimiento
para una audiencia diferente.

Ciapuscio (1993: 82-104, y 1997: 23-28) identifica algunos de los problemas que debe
resolver el divulgador de ciencia y que merecen el interés del analista del discurso:

Los tipos de texto. El discurso científico original se representa en unos géneros


discursivos (comunicaciones y ponencias en congresos, artículos o papers en revistas
39

especializadas), altamente estereotipados y muy estrictos respecto a cuestiones


formales (Hagge, 1994), por las restricciones que impone la misma metodología
científica. Por otra parte, los géneros periodísticos informativos (noticias, aparato titular,
crónicas, entrevistas, etc.), que suelen transmitir la divulgación científica, están también
sujetos a unos tipos textuales estrictos, que sufren las limitaciones socioeconómicas de
la prensa y del mundo editorial (intereses de los lectores, formas de lectura, hábitos
culturales, etc.). En consecuencia, la tarea de recontextualizar el saber científico debe
enmarcarse forzosamente dentro de estos dos parámetros textuales notablemente
diferentes, y requiere la transformación de un tipo discursivo a otro, la reconversión de
los recursos lingüísticos de un discurso (estructura informativa, registro, fraseología,
marcadores, etc.) a los del otro. El análisis de S. Bonilla se sitúa en este ámbito y
analiza el uso de marcas discursivas formales en la transmisión oral del conocimiento.

Las voces. Varios investigadores (Moirand, 1997; Jacobi, 1987: 83) han presentado el
discurso de la divulgación como el espacio discursivo de interacción entre los distintos
componentes del proceso de producción y transmisión del saber (ciencia, periodismo y
ciudadanía), o como una encrucijada de voces científicas, periodísticas y legas. Los
enunciadores y las enunciaciones de los discursos científicos originales deben ser
citados y referenciados en los discursos divulgadores segundos, respetando las
convenciones más corrientes de los respectivos géneros. No se trata sólo de una
cuestión de diversidad de formas de citación (el nombre del autor y el año de
publicación de la obra, o bibliografía en el paper; y la reproducción directa o indirecta
en la noticia divulgadora), sino también de variedad de funciones pragmáticas: por
ejemplo, en el discurso divulgador la cita aporta la autoridad del investigador o la
legitimidad del conocimiento científico. El estudio de H. Calsamiglia y C. López analiza,
dentro de este campo, la utilización que hace el divulgador de las citas y las voces
científicas.

Los conceptos y los términos. La dificultad de transmitir conceptos científicos nuevos


a una audiencia lega no se debe sólo a la falta de conocimientos especializados de
ésta, sino también a las sensibles diferencias léxico-semánticas que presentan el
lenguaje especializado y el general. La ciencia se representa discursivamente a través
de tecnolectos con una proporción muy elevada de terminología, que corresponde a
una elaboración conceptual extremadamente precisa y fijada. Un término denomina
unívocamente con escasa variación sinonímica a un determinado concepto, el cual
queda definido a partir de sus relaciones con otros conceptos con los que conforma
una amplia red semántica, previamente elaborada y definida. En cambio, la lengua
general se refiere a los conceptos con bastante más flexibilidad, carga las palabras con
significados diversos, explota la sinonimia contextual y carece de denominaciones
biunívocas. De este modo, la divulgación no consiste simplemente en hacer
comprender al lego la red conceptual científica, con su terminología correspondiente,
sino en saber hallar y utilizar las palabras y los recursos idóneos de la lengua general
que puedan dotar de sentido los conceptos concretos que se deben transmitir. El
trabajo de D. Cassany y J. Martí analiza las estrategias discursivas y léxicas que utiliza
el periodista para comunicar un concepto altamente especializado como ‘el prión’.

En conjunto, estos trabajos suponen las primeras aproximaciones que realiza el grupo
al estudio de estos problemas de divulgación científica. En los tres casos, el objetivo
40

consiste en elaborar hipótesis que puedan ser ampliadas, contrastadas y/o


reformuladas en trabajos posteriores y más extensos.

LA INVESTIGACION CIENTIFICA

El vocablo Investigación significa pesquisa, búsqueda controlada y sistemática. En


sentido más exacto Investigación Científica es la actividad de hacer ciencia, es decir, el
proceso de producir conocimiento científico. La Investigación Científica se desarrolla a
partir del punto donde la experiencia y el conocimiento ordinario ya no son capaces de
plantear y resolver problemas del conocimiento.

La investigación científica puede concebirse como un proceso y como producto; como


proceso consiste en construir y plantear hipótesis en relación a determinados
problemas científicos y contrastarlos paso a paso con la realidad usando el método
científico, como producto la investigación científica logra un resultado, el conocimiento
científico.

Definición
La investigación científica se define como el proceso formal, sistemático, racional e
intencionado en el que se lleva a cabo el método científico de análisis como un
procedimiento reflexivo, controlado y crítico que permite descubrir nuevos hechos o
41

datos relaciones o leyes en cualquier campo del conocimiento en un momento histórico


dado (Egg 1971 en Sánchez y Reyes 1987)

Otra definición considera a la investigación científica como un conjunto de


procedimientos regulados por las normas de la ciencia, mediante los cuales buscamos
solucionar problemas obteniendo nuevos y más exactos conocimientos sobre la
realidad.

De otro lado se concibe a la Investigación Científica como un proceso que implica


planeamiento y ejecución de un conjunto de operaciones tácticas; racionales y
observaciones pautados por el método de la Investigación Científica y orientada al
logro de los objetivos de la ciencia.

Rodríguez y Rodríguez (1988) consideran que en sentido concreto, la investigación


científica es la actividad de hacer ciencia, es el proceso de producir conocimientos
científicos

La investigación científica puede concebirse como un proceso y como un producto,


como proceso consiste en construir y plantear hipótesis en relación a determinados
problemas científicos y contrastarlos paso a paso con la realidad usando el método
científico, como un producto la investigación científica logra un resultado: el
conocimiento científico. Morles (1977) señala que la investigación científica es un
proceso sistemático, controlado, empírico y crítico de resolver problemas científicos.

Características

La Investigación Científica se caracteriza porque:

1. Requiere de la formación del investigador, es decir de una persona capaz de


plantear y ejecutar un proyecto de investigación en todos los aspectos que comprende
desde el planteamiento del problema, la formulación de la hipótesis, la contrastación de
las mismas, el procesamiento y análisis de datos y la preparación del informe.

2. Requiere del desarrollo de un método de trabajo, para explicar un determinado


problema mediante la formulación y contrastación de la hipótesis especifica.
3. Exige rigor científico o técnico, que posibilite una adecuada aplicación y contribución
a la solución de los problemas en las etapas en los que se ejecute la investigación.

4. Exige una infraestructura de apoyo, la organización y equipamiento son factores que


influyen decididamente en el desarrollo de la investigación en cada investigación.

Etapas de la investigación científica


Si consideramos que la investigación científica constituye un proceso
sistemático y por tanto configurando etapas definidas en las que se desarrollan
determinadas acciones podemos identificar las etapas que se esquematizan en el
diagrama esquematizado en la figura 3

Planteamiento
42

Organización

Implementación Evaluación

Ejecución

Comunicación

Figura 3. Etapas de la investigación científica (Sánchez y Reyes 1987)

1. Planteamiento de la investigación; es la etapa inicial del proceso de investigación


que consiste en prever por anticipado lo que se va a hacer. En esta etapa se
fundamenta el estudio planteándose y definiendo el problema (¿Porqué se va hacer?)
se definen los objetivos (¿Para qué se va hacer?); se traza la metodología de trabajo y
el diseño de contrastación (¿Cómo se va hacer?); se programan las acciones en
relación al tiempo (¿Cuándo se va hacer?) y se plantea y define la asignación y
distribución de los recursos necesarios para que se pueda ejecutar el trabajo (¿Cómo
se va hacer?). El planteamiento es una etapa decisiva porque permite la dirección y
control posterior de la investigación en ejecución y básicamente en ella se formula El
Plan de Investigación o El Proyecto de Investigación.
2. Organización de la investigación, en esta etapa se define el cuerpo básico de
trabajo. Se delimitan las funciones y responsabilidades respectivas a cada uno de los
elementos, distribuyéndose las tareas en relación a los objetivos trazados. Se puede
considerar también la adecuación o ambientación física necesaria para que pueda
operar cada uno de los elementos que participan en la tarea de investigar.
3. Implementación de la investigación; en esta etapa se asignan los recursos
materiales y financieros necesarios para la puesta en marcha de la investigación;
asimismo se preparan el material o instrumentos que se utilizaran; tales como hojas de
muestreo, aparatos, instrumentos, etc. que deben estar listos en el momento oportuno.
Puede comprender también el establecimiento de coordinaciones necesarias con las
personas e instituciones que participan en el trabajo de investigación.

4. Ejecución; la investigación propiamente dicha se inicia con la ejecución del


proyecto de investigación; en esta etapa se recopilan datos, se realizan experimentos o
trabajos de campo, todo ello de acuerdo a la metodología previamente establecida.
Esta etapa incluye también el procesamiento de datos recopilados y el análisis e
interpretación de los resultados.

5. Evaluación; Comprende las acciones orientadas a recoger información del proceso


mismo de investigación con el propósito de controlar y evaluar los resultados, se debe
evaluar la metodología y el diseño adoptado, las limitaciones encontradas, el tiempo de
desarrollo de la investigación, la inversión de recursos, etc.
43

6. Comunicación; comprende la elaboración y redacción del informe o reporte de


investigación con fines de difusión o divulgación de los resultados, diferenciándose tres
tipos de informes, un informe académico, un informe científico y un informe para
difusión.

Relacionado con este aspecto es necesario mostrar un interesante diagrama


desarrollado por Pineda et al (1994) que sistematiza las etapas de la Investigación
científica considerando básicamente tres, planificación, ejecución y comunicación, las
que se muestran en la figura 4

Figura 4. Etapas de la Investigación Científica (Pineda et al 1994)

Tipos de investigación científica


Existe una corriente que considera las clases de investigación científica según el tipo
de problema:

a. Investigación básica o sustantiva, teórica o pura:

Aquella que utilizando el método científico intenta solucionar problemas referidos a


propiedades de los objetos (problemas sustantivos). Esta investigación emplea
cuidadosamente el problema de muestreo a fin de extender los hallazgos más allá del
grupo o situaciones estudiadas. La Investigación Científica Sustantiva puede
clasificarse en:

1. Investigación descriptiva:
De tipo exploratorio diseñada para identificar las condiciones en las cuales ocurren
determinados hechos o fenómenos. Ejemplo de este tipo son las Investigaciones
taxonómicas en Biología. Este tipo de investigación describe una o más variables sin
establecer relaciones causa - efecto.
44

Siguiendo a Bunge (1983) podemos afirmar que una investigación descriptiva podría
responder según el problema a las cuestiones siguientes:
- ¿Qué es?------------------------------------------------Correlato
- ¿Cómo es? ---------------------------------------------Propiedades
- ¿Dónde está? ------------------------------------------Lugar
- ¿Cuándo ocurre? -------------------------------------Tiempo
- ¿De qué está hecho?----------------------------------Composición
- ¿Cómo son sus partes?-------------------------------Configuración
- ¿Cuánto?------------------------------------------------Cantidad

Por lo general este tipo de investigación no requiere la formulación de hipótesis, sin


embargo se asume que ésta se encuentra explícitamente expresada. En algunos casos
la definición de objetivos es suficiente; sin embargo esto no quiere decir que cuando la
naturaleza del problema lo requiera debe dejarse de formular la hipótesis.

2. Investigación explicativa:
Tiene como propiedades identificar las causas y explicar porque suceden ciertos
hechos; fenómenos; procesos sociales. Este tipo de investigación requiere de
formulación de una hipótesis de trabajo o de investigación que relacionan variables de
causa - efecto.

3. Investigación experimental:
Se trata de una investigación explicativa; la diferencia radica en que en este tipo de
investigación se maneja o manipula la variable independiente (causa, estímulo) a
voluntad del investigador para lograr resultados previstos en la hipótesis (efecto)

b. Investigación aplicada o tecnológica


Es aquella que, valiéndose de la metodología y aplicando los resultados de la
investigación sustantiva intenta solucionar problemas técnicos, su propósito es
descubrir la eficiencia y funcionalidad de ciertos modelos, procedimientos, técnicas
para explicar los objetos. Ejemplos de investigación tecnológica son los que
corresponden a la Hidráulica, sustentados en la Física, a la Agricultura y a la Medicina
que se basan en la Biología y Bioquímica y a la Pedagogía que se basa en las ciencias
sociales.

Tipos de investigación según el enfoque


Luego de formulado adecuadamente un problema se pasa a la selección del enfoque
de la investigación a través del cual, en la práctica se recopilan los datos. Fox (1981) al
considerar el enfoque de la investigación refiere que se deben tener en cuenta dos
aspectos separados e independientes: uno de ellos es una especie de línea
cronológica que refleja lo que se piensa acerca de si la respuesta de la investigación
está en el pasado, en el presente o en el futuro, otro es una intención que refleja lo que
queremos hacer con la investigación una vez terminada. Desde la perspectiva de las
exigencias de las Ciencias Biológicas; de las motivaciones del investigador y del
enfoque de la investigación en relación a la respuesta cronológica, se pueden distinguir
tres tipos:

1 .Investigación bibliográfica
45

Sí se piensa que la respuesta al problema está en el pasado, es un enfoque de


investigación que nos esforzamos en aclarar las condiciones y problemas actuales
mediante una comprensión mas profunda y completa de lo que ya se ha hecho antes.
Corresponde a una monografía, trabajo fundamentalmente teórico donde los datos
son recopilados esencialmente de la documentación científica.

2. Investigación descriptiva
Si se piensa que la respuesta se encuentra en algún lugar del presente a través del
cual se intentan aclarar los problemas actuales mediante una descripción y
comprensión mas profunda de las condiciones actuales, es decir tratamos de
comprender de forma mas completa el presente mediante un proceso de acopio de
datos que nos permita describirlo de modo completo y objetivo. Es un proceso
fundamentalmente exploratorio diseñado para identificar condiciones en las cuales
ocurren determinados fenómenos. En una etapa inicial, cuando aún no se tiene
conocimiento científico o información acerca de éste o del problema, la investigación
descriptiva puede estar orientada a describir características desconocidas o poco
conocidas de los hechos, fenómenos o procesos materia de la investigación
correspondiendo a un tipo de Investigación de Identificación.

3. Investigación experimental
Si lo que interesa es predecir lo que ocurrirá en el futuro, es decir si emprendemos algo
nuevo o diferente o si se introducen ciertos cambios en las condiciones actuales. Es
experimental en el sentido de que intenta establecer una nueva situación sobre la
base de ensayos en condiciones controladas, además en este tipo de investigación el
investigador manipula una o más variables causales, requiere de la formulación de
hipótesis y de un diseño experimental para la contrastación.

Niveles de investigación.
El nivel de un trabajo de investigación, que es la dimensión de intensión refleja lo que
se quiere hacer con la investigación una vez terminada, aspecto que tiene mayor
importancia en la redacción del informe de investigación.

Una primera intención, es un enfoque de la investigación con el que intentamos


esencialmente describir un conjunto limitado de condiciones en función de las medidas
aplicadas a los elementos constituyentes de esas condiciones y con el cual no
esperamos hacer juicios, afirmaciones sobre la calidad ni las valoraciones, es
solamente una descripción. Un segundo aspecto de la dimensión de la intención es la
comparación, en este caso lo que interesa es obtener información sobre mas de una
condición o grupo de temas, es decir lograr más de un conjunto de datos y compararlos
entre sí. Aquí se intenta formular juicios sobre si hay diferencias o no, sobre si algo es
mayor o menor que otra cosa es decir; hacer juicios comparativos. El tercer aspecto de
la dimensión de la intención es hacer una evaluación que se particulariza porque es
única en el sentido que aplica algún criterio o norma para que se pueda elaborar juicios
de valor tales como: bueno o malo; logrado o no logrado.

Importancia de la investigación científica


1. Aproximación al conocimiento de la verdad.
2. Orienta la obtención de nuevo conocimiento científico.
3. Descubre principios generales y va en busca de leyes.
46

4. Tiende a organizar los datos en términos cuantitativos.


5. Facilita la comunicación de conocimientos científicos logrados.
6. Nos lleva a conocer la realidad y a proponer innovaciones para su mejoramiento y desarrollo .

Estrategia y metodología de la investigación descriptiva y experimental


La investigación es descriptiva si se considera que la respuesta a los problemas se
encuentra en algún lugar del presente, a través de la cual se pretenden aclarar los
problemas actuales, en otras palabras se intenta de comprender íntegramente el
presente mediante un sistemático proceso de acopio de datos que posibilite describir la
realidad en estudio de un modo mas completo y adecuado.

Mortmontoy (1994), señaló que la investigación descriptiva es un estudio que cuenta


con una sola población, la cual pretende describir en función de un grupo de variables
y respecto de la cual no existen hipótesis centrales, es probable que se tengan un
grupo de hipótesis que se refieren a la búsqueda sistemática de asociaciones entre
variables dentro de la misma población. Es frecuente observar que en las
investigaciones descriptivas no se señalen en forma explícita una o más hipótesis
centrales, no es que no existan en absoluto, sino probablemente se encuentren en
proceso de planteamiento o definición y los hallazgos permitirán formularlas
convenientemente, para posteriormente proceder a su contrastación.

Rodríguez y Rodríguez (1986) afirmaron que la investigación descriptiva aborda


hechos en su dimensión fenoménica, precisando características o propiedades y
construyendo taxonomía o tipologías.

Pineda et al., (1994) consideran a la investigación descriptiva como uno de los


mayores exponentes de la investigación y señalan que ésta se refiere a etapa
preparatoria del trabajo científico que permite ordenar el resultado de las
observaciones de las conductas, las características, los factores, los procedimientos y
otras variables de fenómenos y hechos. Indican además que este tipo de investigación
no tiene hipótesis explicitas
Van Dalen y Meyer (1996), desde la perspectiva de la investigación educacional,
señalaron que en las primeras etapas – al igual que en otras disciplinas – es necesario
efectuar evaluaciones precisas para determinar la incidencia, distribución y relaciones
de los hechos o fenómenos educativos, su objetivo consiste en llegar a conocer las
situaciones, costumbres y actitudes predominantes mediante la descripción exacta de
las actividades, objetos, procesos y personas señalando además que la investigación
descriptiva no se limita a la mera recolección de datos; la meta de los investigadores
competentes es la predicción e identificación de las relaciones que existen entre dos o
mas variables y aseveran que en los estudios descriptivos los investigadores no se
limitan a presentar puntos personales basados en observaciones casuales, sino que
recogen los datos sobre la base de alguna hipótesis o teoría, exponen o resumen la
información de manera cuidadosa y luego analizan cuidadosamente los resultados
para extraer generalizaciones significativas que contribuyan al avance del
conocimiento.

Tamayo (1996) al considerar la investigación descriptiva como un tipo de investigación,


siguiendo a Abounhamad, señala que ésta interpreta lo que es, y comprende la
descripción, registro, análisis e interpretación de la naturaleza actual y la composición o
47

procesos de los fenómenos. El enfoque se hace sobre conclusiones dominantes o


sobre como una persona, grupo o cosa se conduce o funciona en el presente
(Best ). La investigación descriptiva trabaja sobre realidades de hecho, y su
característica fundamental es la de presentarnos una interpretación correcta.

Metodología
El método descriptivo consiste en describir o interpretar sistemáticamente un conjunto
de hechos relacionados con otros fenómenos tal como ocurren en el presente. Estudia
el fenómeno en su estado actual y su forma natural, las posibilidades de control de las
variables son mínimas, su propósito es describir.

Las etapas de una investigación descriptiva, como cualquier otra comprende las etapas
siguientes:
1. Determinación de las características del problema escogido
2. Definición y formulación de las hipótesis
3. Enunciado de los supuestos y los diversos procesos adoptados.
4. Selección de los temas y las fuentes apropiadas
5. Selección y elaboración de las técnicas de recolección de datos
6. Establecimiento de categorías precisas adecuadas al propósito del estudio
7. Verificación de la validez de las técnicas empleadas para la recolección de
datos.
8. Realización de observaciones precisas y exactas.
9. Descripción, análisis e interpretación de los datos obtenidos en términos
claros y precisos.

Metodología de la investigación experimental


La investigación es experimental si lo que interesa es predecir lo que ocurrirá en el
futuro; es decir si se emprende algo nuevo y diferente o si se introducen ciertos
cambios en las condiciones actuales; es experimental en el sentido de que intenta
establecer una v nueva situación sobre la base de ensayos en condiciones
controladas; además en este tipo de investigación el investigador manipula una o mas
variables, requiere de hipótesis y de un diseño experimental de contrastación de
hipótesis; Best en Avila (1990) define investigación experimental como la descripción y
análisis de lo que será u ocurrirá en condiciones cuidadosamente controladas; es el
tipo de investigación clásica de laboratorio y probablemente la mas difícil pero a su vez
mas exacta.

Pineda et al (1994) lo definieron como el proceso metodológico en el que un grupo de


individuos o conglomerados son divididos en forma aleatoria en grupos experimental y
control y analizados en sus reacciones o efectos respecto a una medida o factor que el
investigador manipula o introduce deliberadamente. Gil y Alva (1991) señalaron que se
trata de una investigación explicativa en laque se maneja o manipula variable
independiente (causa en una relación causa - efecto).
Avila (1990) señala que las características de la investigación experimental son las
siguientes:
1. Su objetivo es probar hipótesis de diferentes grados de abstracción y
complejidad fundados en la identificación de la causa de un determinado
efecto.
2. Son estudios orientados a lograr la predicción.
48

3. Involucra una investigación descriptiva puesto que registra hechos pasados;


determina el estado del fenómeno y determina las condiciones existentes;
pero además realiza se realiza la manipulación de la variable estímulo.
4. Precisa variables importantes; independientes (causas, estímulos);
dependientes (efectos, criterios) e intervinientes.
5. Trabaja con muestras rigurosamente diseñadas y representativas; requiere
de un diseño experimental.
6. Las condiciones en las que se realiza son rigurosamente controladas
En la estrategia se consideran: la naturaleza y etapas; las bases; el control, los factores
a ser controlados y la validez de los diseños pertinentes (figura )

Este tipo de investigación esta relacionada directamente con el experimento, que


según Bunge (2000) implica un cambio planificado en el que se provoca
deliberadamente algún cambio y sus resultados se interpretan con finalidad
cognoscitiva en la que en un medio artificial se verifica la acción de un sujeto
estimulador controlador sobre un objeto que manifiesta una señal que se registra en
forma adecuada.; incluye como un segundo aspecto el control sobre las variables
independientes; las condiciones de producción de los hechos y las condiciones de
observación; se establece sistemas testigo; neutral o control y grupo experimental al
que se aplica el estímulo con la consideración de que ambos grupos deben ser
homogéneos la consideración en relación al proyecto, se menciona que depende del
problema experimental que se espera resolver y de la exacta técnica requerida para
obtener los datos requeridos con la precisión de que se debe usar la técnica específica
par los resultados experimentales. La significación se interpreta comparando si
efectivamente el resultado corresponde a la repuesta al estímulo y si la diferencias
entre los grupos experimentales y testigos son significativas requiriéndose en todo
caso hacer la inferencia en base a la repetición escrupulosa del experimento; las
pruebas de contrastación erradican la ciega creencia en los resultados obtenidos sino
que mas bien estimulan el uso de técnicas independientes para comprobar el
experimento y básicamente tienen fundamentación; objetividad; estabilidad y
concordancia. Las funciones se relacionan con las consideraciones de que el
experimento es un medio; no un fin para la ciencia; produce nuevas ideas y
materializa las ideas contrastándolas y enriqueciéndolas. En resumen es la manera
mas adecuada de hacer ciencia y la más rica de las experiencias humanas.

El método experimental consiste en organizar deliberadamente condiciones, de


acuerdo a un plan previo con le fin de investigar las posibles relaciones causa efecto;
exponiendo a uno o mas grupos experimentales a la acción de una variable estímulo y
contrastando sus resultados con grupos de control o comparación.
49

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS
CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA

PRÁCTICA No. 3: INVESTIGACION CIENTIFICA


I. Encierre con un círculo la respuesta correcta:
1. Uno de los siguientes significados no corresponde a investigación científica:
a. Es la actividad de hacer ciencia
b. Producir conocimiento científico
c. Producir conocimiento protocientífico
d. Se desarrolla a partir del conocimiento científico.

2. Con relación a Investigación científica es incorrecto.


a. Puede concebirse como proceso y como producto.
b. Como proceso plantea hipótesis en relación a problemas científicos
c. Usa el método científico para contrastar hipótesis
d. Como proceso logra el conocimiento científico
50

3. La definición Investigación científica: es un proceso sistemático, controlado y


criticote resolver problemas científicos, corresponde a:
a. Morles (1977) b. Egg (1971)
c. Alvitres (1997) d. Rodríguez y Rodríguez (1988)

4. La definición de investigación científica: Es un proceso formal, sistemático, racional


e intencionado en el que se lleva a cabo el método científico de análisis como un
procedimiento reflexivo, controlado y crítico que permite descubrir nuevos hechos o
datos relaciones o leyes en cualquier campo del conocimiento en un momento
histórico dado; corresponde a:
a. Morles (1977) b. Egg (1971) en Sánchez y Reyes 2002)
c. Alvitres (1997) d. Rodríguez y Rodríguez (1988)

5. El hecho de que la investigación científica posibilite una adecuada aplicación y


contribución a la solución de los problemas en las etapas en las que se ejecuta una
investigación; corresponde a las características de la investigación científica:
a. Requiere de la formación del investigador
b. requiere del desarrollo de un método de Trabajo
c. Exige rigor científico y Técnico
d. Exige una infraestructura de apoyo

6. La etapa de la investigación científica en la que se formula el proyecto de


investigación; según Sánchez y Reyes (2002); corresponde a:
a. Organización. b. Planteamiento c. Implementación d. Ejecución.

7. la etapa de la investigación científica en la que básicamente se recopilan datos;


según Sánchez y Reyes (2002); corresponde a:
a. Organización. b. Planteamiento c. Implementación d. Ejecución
8. la etapa de la investigación científica en la que se elabora el informe de investigación
con fines de difusión o divulgación de los resultados; según Sánchez y Reyes
(2002); corresponde a:
a. Planteamiento b. comunicación c. Implementación d. Ejecución
9. El tipo de investigación científica que intenta solucionar problemas referidos a
propiedades de los objetos; corresponde a las denominaciones siguientes; excepto:
a. Básica b. Sustantiva c. Teórica d. Tecnológica

10. La investigación científica de tipo exploratorio, diseñada para identificar condiciones


en las cuales ocurren determinados hechos o fenómenos es:
a. Descriptiva b. Explicativa c. Experimental d. Aplicada

11. Según el enfoque; Fox (1981) si se piensa que la respuesta al problema está en
algún lugar del presente corresponde al tipo:
a. Bibliográfica b. Explicativa c. Experimental d. Aplicada

12. Según el enfoque; Fox (1981) si se piensa que la respuesta al problema está en el
pasado; corresponde al tipo:
a. Bibliográfica b. Explicativa c. Experimental d. Aplicada
51

13. En relación con los niveles de la investigación; el prever lo que se puede hacer con
los resultados de una investigación científica corresponde a:
a. La explicación b. La predicción c. El control d. La atenuación

14. En relación con los niveles de la investigación; el hecho de tratar de ejercer dominio
sobre los hechos o fenómenos naturales y las causas que lo originan luego de una
investigación científica, corresponde a:
a. La explicación b. La predicción c. El control d. La atenuación

15. Complete el esquema siguiente en relación a las etapas de la investigación científica según
Sánchez y Reyes (2002)

CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA


PRÁCTICA Nº 4: EL EXPERIMENTO

1. CONTESTE BREVEMENTE LAS PREGUNTAS SIGUIENTES:


1.1. Porque el experimento es un cambio planificado:

1.2. En un experimento; ¿De que naturaleza es el medio que rodea al objeto y como
se explicita?.

1.3. ¿Que diferencia hay entre el control pasivo y el activo?

1.4. ¿En que casos se habla de un experimento cuantitativo, semicuantitativo Y


cualitativo?
52

1.5. Cual es la consecuencia pedagógica respecto al experimento cualitativo y


cuantitativo?

1.6 En que consiste el método experimental

1.7 ¿En que clase de ciencia es posible aplicar el método experimental y de que
depende la planificación efectiva?

II. Encierre con un círculo la respuesta correcta


2.1. De las variables descritas; las deliberadamente variadas por el experimentador
son:
a. Las dependientes b. Las Independientes
c. Las variables intervinientes d. las variables adecuadas

2.2. Testigo o control:


a. Es un sistema en el que se controlan las variables independientes.
b. Es un sistema en el que se controlan las variables dependientes
c. Es un sistema en el que se controlan las variables intervinientes.
d. Es un sistema en el que no se controlan variables.

2.3. Al sistema control tambi9en se le denomina:


a. Sistema experimental b. Sistema neutral
c. Sistema independiente d. Sistema paralelo

2.4. La diferencia del grupo control respecto al grupo experimental se debe:


a. A la semejanza de los estímulos situados bajo control del experimentador
b. A la semejanza de estímulos sobre el grupo control
c. A los estímulos activos sobre el grupo control
d. A los estímulos situados bajo control del experimentador; activos sobre el G.
experimental no sobre el grupo control

2.5. Los grupos control y testigo, tienen en común el hecho de ser:


a) Heterogéneos b. Disímiles c. Homogéneos d. Desiguales

2.6. El experimento en el cual se varía a la vez una o más variables y en los que las
diferencias se registran cualitativamente se denomina:
a. Cualitativos b. De proyecto factorial c. Factoriales d. De Proyecto
funcional-

2.7. La proyección de un experimento, No depende:


a. Del problema de experiencia que se debe resolver. b. De la cuestión planteada
c. Del contexto de la cuestión d. Del trasfondo teorético
disponible

2.8. El experimento de producción de aminoácidos bajo posibles condiciones primitivas


de la tierra (S. Miller), es considerado como un experimento de tipo:
a. No estadístico b. Estadístico c. Esquemático d. Vivencial
53

2.9. La Videncia del autor G. Price es un tipo de experimento:


a. No estadístico b. Estadístico c. Esquemático d. Vivencial

2.10. El hecho de experimentar los resultados de un experimento propiamente dicho en


base a teorías existentes o mediante la construcción de una nueva teoría
corresponde a:
a. Cambio planificado b. Control del experimento
c. Significación d. Funciones del experimento

2.11. En la significación una vez obtenidos los datos expuestos, puede hacerse
cualquiera de las siguientes cosas excepto:
a. Sugerir una nueva hipótesis cualitativa
b. Hacer un nuevo enunciado legaliforme de las variables
c. Usar los datos para contrastar o recontrastar una hipótesis disponible.

2.12. El enunciado: el experimento científico es una antorcha que ilumina en la


búsqueda de estructuras; pero no es la única antorcha, ni es tampoco infalible; se
relaciona con:
a. Funciones del experimento b. significación
c. Pruebas de contrastación d. Proyecto

2.13. Las técnicas experimentales deben convalidarse teorética o experimentalmente


por las razones siguientes; excepto:
a. Experimentalmente porque pueden no funcionar
b. Teorética mente porque aun cuando funciones el funcionamiento puede deberse
a alguna causa distinta.
c. La contrastación teorética de un tema experimental consiste en explicarlo en
base a teorías independientemente corroborables
d. En la ciencia aplicada se analiza una nueva técnica para en base al significado
dar dar resultados sobre la base del conocimiento disponible

2.14. Un buen procedimiento de contrastación debe cumplir con las siguientes


condiciones; excepto:
a. Fundamentación b. Objetividad
c. Subjetividad d. Estabilidad
e. Concordancia con otros procedimientos

2.15. La respuesta a una pregunta que inquiere el valor de un experimento, tiene que
buscarse en el curso del análisis de los siguientes aspectos; excepto:
a. El proyecto funcional b. El proyecto experimental
c. Los resultados experimentales d. La relación lógica entre los datos y sus
Hipótesis y Teorías

III. Enuncie en forma secuencial las operaciones de un experimento en relación al


control
54

EL METODO CIENTIFICO

En el contexto de la definición de Investigación científica se consideran dos aspectos


fundamentales, por un lado el método científico y por otro los instrumentos de medición
y recolección de datos. Bunge en Oblitas (1991) asevera que la investigación científica
es la actividad de descubrir mediante un método válido y fiable; las leyes que rigen la
naturaleza, es decir las relaciones constantes o red de relaciones constantes que se
emplean en la naturaleza.

El método científico, definido como un conjunto de normas mediante las cuales se


plantean los problemas, se prueban las hipótesis como posibles soluciones, tiene su
base mayormente fijada sobre aspectos racionales antes que emocionales y sugiere
que los puntos de vista empíricos deberían decidir entre puntos de vista rivales o
enfrentados. Se explica como la manera de proceder encaminada, es un
procedimiento válido y fiable que han utilizado los investigadores para descubrir las
leyes por las cuales se rigen los hechos y las ideas. Es válido, porque mediante él se
describe lo que se pretende describir y es fiable, porque en condiciones similares
siempre se llega al mimo resultado. El método científico proporciona valiosa
información para proceder en la investigación científica de una manera lógica, evitando
errores; pero no suplanta la creatividad del científico y con la ciencia se relaciona en el
55

sentido de que el cuerpo de conocimientos que lo constituyen deben ser objetivos;


comprobados y sistemáticos de las leyes que rigen la naturaleza resultantes de la
investigación hecha con un método válido y enunciados en proposiciones lógicas.

Supuestos del método científico


El método científico en su perfeccionamiento se orienta a métodos particulares para
cada disciplina y en su estructura conceptual se basa en supuestos sobre la naturaleza
(universo) y en las metas que el investigador se propone lograr. Los supuestos se
orientan acerca de la naturaleza y los procesos psicológicos, estos influyen en toda la
actividad del investigador, constituyen la base de sus procedimientos, determinan las
características de los métodos empleados y afectan la interpretación de sus hallazgos.

Supuesto de la uniformidad de la naturaleza, en la naturaleza existe lo que podríamos


llamar procesos paralelos, es decir que lo que ocurre una vez, no solo volverá a ocurrir,
sino que se repetirá siempre en condiciones similares. La naturaleza es ordenada, los
acontecimientos no son sucesos casuales, sino interrelacionados, por eso se afirma
que La ciencia solo es posible en la medida en que la naturaleza sea razonablemente
unidor

En este supuesto se incluyen los siguientes postulados:


a. De las clases naturales, los fenómenos naturales según sus propiedades
esenciales, estructuras y funciones pueden ser agrupados en clases, las denominadas
clases naturales, por ejemplo los trabajos de Linneo en el siglo XVIII sobre la
clasificación de los organismos vivos y los objetivos educacionales de Bloom (1956) y
Krathwohl (1964).

b. De la constancia, durante un determinado período de tiempo algunos


fenómenos no cambiarán sus características básicas, al menos de manera apreciable.
Esto constituye una condición imprescindible para el progreso de la ciencia.
c. Del determinismo, un fenómeno no se produce al azar o por accidente, los
fenómenos naturales son determinados por hechos anteriores.

Supuestos relacionados al proceso psicológico

Todo investigador acepta el supuesto de que puede obtener conocimientos del


mundo que lo rodea mediante los procesos psicológicos de percepción, memoria y
razonamiento. En éste se consideran los postulados siguientes:

a. De la confiabilidad de la percepción, a pesar de la escasa confiabilidad de la


percepción, el científico supone que se puede obtener conocimientos valederos
mediante los órganos sensoriales; pero es necesario que conozca los errores.

b. De la confiabilidad del recuerdo. el recuerdo al igual que la percepción está


sujeto a error, a pesar de la debilidad de la memoria humana, el investigador acepta el
supuesto de que ella puede proporcionar conocimientos fundamentalmente ciertos.

c. De la confiabilidad del razonamiento, se produce cuando se parte de


premisas falsas o se violan las reglas de la lógica por prejuicios intelectuales o por la
56

emisión de juicios defectuosos con respecto a la conveniencia y el uso de las técnicas


estadísticas y de experimentación. A pesar de las limitaciones del razonamiento, los
científicos reconocen su valor como complemento de la investigación.

Para el científico, incrementar su habilidad y su éxito para explicar predecir y


controlar las condiciones y sucesos y comprender los fenómenos que observa,
constituyen las metas científicas.

La explicación, el propósito esencial de la investigación, no se reduce a la mera


descripción de los fenómenos, sino a explicar las causas que lo determinan. La ciencia
busca explicar los fenómenos incorporándolos en su conjunto de relaciones
sistemáticas coherentes, la meta es formular generalizaciones - esquemas
conceptuales - que permitan explicar los fenómenos por un lado y por otro orienten a la
unificación progresiva de sus generalizaciones, es decir la formulación de leyes de
carácter mas general y de mayor alcance. La predicción, un científico no puede
considerarse satisfecho al formular generalizaciones que explican los fenómenos,
también desea predecir la manera en que una generalización operará en nuevas
situaciones. El control, el científico busca la posibilidad de manejar algunas de las
condiciones esenciales que determinan un suceso para lograr que esto ocurra o
impedirlo. El deseo mas profundo del científico es controlar las fuerzas de la
naturaleza, hecho que es difícil lograr, existen diversos fenómenos que se pueden
predecir; pero no controlar, como por ejemplo las condiciones climáticas y la ocurrencia
de terremotos.

Elementos del método científico


Para una comprensión mas adecuada de la concepción del método científico es
necesario hablar brevemente de las relaciones entre los elementos involucrados en el
proceso y que contribuyen a la sistematización de conocimientos. El punto de partida lo
constituye un conjunto de conceptos interrelacionados cuyos componentes deben ser
definidos, ambos (conceptos y definiciones) son importantes para la formulación de
hipótesis de trabajo que sirven para la construcción de modelos teóricos. Las hipótesis
expresan de manera clara las relaciones entre atributos, características,
procedimientos y factores que toman el nombre de variables y que son dimensionadas
o traducidas en indicadores, que en última instancia son los que permiten la
observación directa de un hecho o fenómeno en estudio y que se refieren a
subdimensiones de las variables, a componentes o índices del hecho o fenómeno que
se estudia (Figura 5).
57

Figura 5. Elementos del método científico

Características del método científico

1. Es teórico en su origen y en su fin, parte de una teoría y termina en otra.

2. Se basa en la duda científica, en la ciencia no hay ningún conocimiento,


ninguna ley, ninguna teoría, ningún descubrimiento de la misma de los que no se
pueda dudar, lo que origina su comprobación; sustitución o revisión.

3. Es problemático - hipotético, en cuanto se basa en la formulación de


problemas o interrogantes sobre la realidad y en adelantar conjeturas o soluciones
probables.

4. Es empírico, su fuente de información y de respuestas al problema, es la


experiencia.

5. Es inductivo y deductivo, la inducción y la deducción en la ciencia no se


oponen entre si, sino que ambas están íntimamente ligadas a ella. La inducción solo da
lugar inmediatamente a datos sobre la realidad; pero el relacionar estos datos,
establecer conceptos y enunciados con base en ellos y obtener conclusiones de todo
género es en gran parte obra deductiva.
6. Es autocrítico, es decir se autocorrige y debe ser evaluado y perfeccionado en
base a fallas en su concepción y etapas.

7. Es circular, en el método científico los principios se prueban mediante datos


empíricos y estos se prueban sobre la base de aquellos. El modelo tradicional no
funciona; sino que se ajusta al esquema siguiente:
:

Observación empírica------------------------------TEORIA

TEORIA--------------------- --------------OBSERVACION EMPIRICA

8. Es analítico y sintético, utiliza el proceso de dividir el todo en sus partes y a


la vez posibilita la reunión de las partes en un todo con sentido lógico
9. Es selectivo en lo referente a:i) concentrar su atención en aspectos mas
relevantes del fenómeno, ii) analizar los datos mas significativos y iii) explicar la
realidad, trascendiéndola.
10. Se atiene a las reglas metodológicas formales, y abierto a la imaginación.
58

11. Es preciso, pues pretende obtener conocimientos lo más exactamente


posibles de la realidad y reemplazar los términos vagos.

Etapas del método científico


A este nivel se debe discriminar lo que es fase, etapa y paso, fase es cada uno de los
diversos aspectos, estadios, períodos que presenta un hecho, una cosa, un tema (por
ejemplo apariencia de la luna en cada fase), etapa, esta referida a la época o avance
en el desarrollo de una acción u obra y paso es un período relativamente corto. Luego
se debe puntualizar que las etapas dependen de la concepción de los investigadores,
por ejemplo, Falcón et al (1978) consideran las etapas siguientes:

Percepción: es la toma de contacto con la realidad mediante los sentidos

Descripción: implica la codificación de los atributos de la realidad a nivel del


cerebro humano.

Interpretación, proceso de planteamiento de problemas e hipótesis.

Experimentación, realización activa de la comprobación de las hipótesis.

Aplicación, que corresponde a la esquematización de modelos conceptuales


del cuerpo de la ciencia (teorías) y a la aplicación práctica de estos (tecnologías).

Para estos autores, el método de la ciencia o método científico es general y describen


el método de la investigación científica en particular, que comienza con el
planteamiento de un problema, la formulación de una hipótesis, la selección de
modelos de contrastación de hipótesis que permitan obtener datos que orienten a la
obtención de modelos conceptuales (principios, hipótesis, leyes, teorías) y luego a la
generación de nuevos problemas.

Pineda et al (1994) sugieren las siguientes etapas:

1. Planteamiento del problema, que involucra la identificación (determinación),


descubrimiento y delimitación del problema a partir de hechos o fenómenos que se
desea estudiar.

2. Construcción de un modelo teórico. es decir enmarcar el problema a estudiar


y sus objetivos en un marco que contemple: i) la selección de los factores relativos al
problema, ii) formulación de hipótesis centrales y suposiciones complementarias, y iii)
elaboración de un esquema de relaciones

3. Deducción de consecuencias particulares, en la búsqueda de soportes


racionales, (juicios y razonamientos pertinentes) y la búsqueda de soportes empíricos
(no verificadas).
4. Prueba de hipótesis, que abarca:
i) El diseño de la prueba y metodología a emplear.
ii) Ejecución d ella prueba y recolección de datos.
iii) Elaboración de datos y su procesamiento.
59

iv) Inferencia de la conclusión en base a datos elaborados y como respuesta al


problema.
5. Inclusión de las conclusiones en la teoría, logrado a través de:
i) Comparación de las conclusiones con las predicciones
ii) Reajuste del modelo conceptual o esquema de relaciones.
iii) Sugerencias para el trabajo ulterior para que con el uso del método científico
se sigan investigando problemas.

Cervo y Bervian (1980) sugieren las siguientes etapas para el método científico:

1. Observación, que es la aplicación atenta de los sentidos a un objeto de


estudio para adquirir por ella un conocimiento claro y preciso. Lo consideran de vital
importancia en las ciencias, puesto que de ella depende el valor de los otros procesos.
Sin observación el estudio de la realidad y sus leyes se reduce a simples conjeturas y
adivinación.

Las condiciones exigidas para una buena observación son:

a. Condiciones físicas mínimas, que permitan al observador tener sensaciones


normales y correctas, y el uso de instrumentos que aumenten el alcance, precisión y
que hasta cierto punto puedan suplir a los sentidos
.
b. Condiciones intelectuales, como curiosidad para observar lo que se ve todos
los días y sagacidad para discernir sobre los hechos significativos.

c. Condiciones morales, tales como paciencia para hacer uso racional del
tiempo, valor para separar de los hechos ciertos fenómenos raros o decisivos, e
imparcialidad, es decir el respeto escrupuloso y el amor apasionado a la verdad
La observación debe obedecer a algunas reglas, tales como:

Debe ser atenta.

Debe ser exacta y completa.

Debe ser precisa en cuanto a numerabilidad de los fenómenos y susceptibilidad
de medición cuantitativa.

2. Hipótesis, suponen conocida la verdad o la explicación que se busca, es una


suposición verosímil, luego comprobable o rebatible por los hechos, los que decidirán
la verdad o falsedad de lo que se pretende. Tienen doble función, la primera es de
naturaleza práctica es decir orienta al investigador dirigiéndolo hacia la causa probable
o de la ley que busca, la segunda es teórica para coordinar y completar los resultados
ya obtenidos agrupándolos en un conjunto completo de hechos. Existen algunas
sugerencias para la formulación de las hipótesis y entre ellas se mencionan las
siguientes:
a. No deben contradecir ninguna verdad ya aceptada o explicada.
b. Debe ser simple, es decir escogida como la menos complicada.
c. Sugerida y verificable por los hechos. Newton dijo, No invento hipótesis.
60

3. Experimentación, conjunto de procesos utilizados para verificar la hipótesis, que


sujetados a las reglas de Bacón en Van Dalen (1996) sugieren: i) alargar la
experiencia, ii) variar la experiencia, iii) invertir la experiencia y iv) investigar los
procedimientos de experimentación.
Las formas de experimentación más comunes son:
a. Métodos de las coincidencias constantes: tablas de Bacón; la causa será siempre el
fenómeno en presencia del cual se producirá siempre el efecto y en cuya ausencia no
se producirá nunca, el método de las coincidencias constantes puede explicarse así:
puesta la causa, se da el efecto; retirada la causa, no se da el efecto; alterada la causa
se altera el efecto. Para proceder correctamente, Bacón sugiere tres tablas: i)Tabla de
presencia, en la cual se anotan todas las circunstancias de producción del fenómeno
cuya causa se buscan; ii)Tabla de ausencia, en la cual se anotan todos los casos en
que no se da el fenómeno, debiéndose tener cuidado de anotar los antecedentes
presentes y los ausentes; iii) Tabla de grados, en la cual se anotan los casos con las
variaciones de intensidad del fenómeno y todos los antecedentes que varían junto con
él.
b. Coincidencia constante y coincidencia aislada: Las coincidencias constantes tienen
más valor negativo que positivo, pues un antecedente constante, relacionado con un
fenómeno puede ser apenas una condición sine qua non o un efecto concomitante de
la misma causa.
c. Métodos de exclusión de Stuart Mill
 Método de la concordancia, similar a la tabla de presencia de Bacón.
 Método de la diferencia, similar a la tabla de ausencia de Bacón.
 Método de las variaciones concomitantes, similar a la tabla de grados.
 Método de residuos, como una forma particular del método de diferencia.

4. Inducción, alma de las ciencias experimentales, tienen valor y legitimidad considera


a la Inferencia, equivalente a raciocinio, que puede ser mediata o inmediata.
5. Deducción, es la argumentación que vuelve explicitas verdades particulares
contenidas en verdades universales.
6. Análisis y síntesis; consideran básicamente las cuatro reglas formuladas por René
Descartes para cualquier trabajo científico: i. Nunca aceptar como verdadera cualquier
cosa sin conocerla como tal; sugiere que la evidencia es criterio de verdad; ii) Dividir
cada una de las dificultades que se va a abordar en el mayor número de partes que
fuesen necesarias ( es el análisis ); iii) Conducir con orden los pensamientos
comenzando por los objetos mas simples y mas fáciles para ascender poco a poco,
gradualmente , al conocimiento de los mas complejos(es la síntesis); iv) hacer siempre
numeraciones tan completas y revisiones tan generales que den certeza de no omitir
nada (condición común y garantía del análisis y síntesis); se pueden considerar
diferentes tipos de análisis y síntesis :
Análisis y síntesis experimentales: operan sobre hechos concretos, materiales o
inmateriales y constituyen el patrón de toda experiencia científica en la investigación de
laboratorio, en función del objeto de estudio se cumple de una de las siguientes
maneras: i) por medio de la separación real y cuando es posible por medio de la
reunión de sus partes; por ejemplo la descomposición del agua en hidrógeno y oxigeno
y la reunión de estos elementos para formar agua. ii) análisis y síntesis racionales,
61

operan no solo sobre seres y hechos; sino sobre ideas y verdades, más o menos
generales.

7. Teoría, empleado para significar un resultado al cual tienden las ciencias las que no
se quedan o se detienen en la formulación de leyes , sino que determinadas las leyes ,
procuran interpretarlas o explicarlas y propician el surgimiento de llamadas teorías
científicas que reúnen determinado número de leyes particulares bajo la forma de una
estructura superior y mas universal.. En otros términos un conjunto de leyes
particulares, mas o menos ciertas, ligadas por una explicación común toma el nombre
de teoría científica o teoría, por ejemplo la teoría de la evolución o el sistema de
Laplace.
Son funciones de las teorías
1. Coordinan y unifican el saber científico.
2. Son instrumentos esenciales para el científico pues le sugieren analogías hasta
entonces ignoradas y les posibilitan nuevos descubrimientos.
3. Las teorías orientan al científico con economía de pensamiento.
4. Las teorías no son verdaderas ni falsas,, son cómodas.
5. Las teorías sirven para clasificar los hechos y las leyes.
6. Las teorías son explicativas, es decir expresan la esencia de la naturaleza sensible
dado que toda ciencia tiene por objeto lo que las cosas son o sus esencias. Con
todo no expresan la esencia en sí misma (como la hace la filosofía); sino en sus
aspectos observables y experimentables.

8. Doctrina, propone directrices para la acción es el a priori que el investigador fija


para el fin que espera lograr e involucra ideas morales, posiciones filosóficas; y
políticas y actitudes psicológicas, tienen también interese de clase o nacionales. La
doctrina es un ordenamiento de corrientes, de pensamientos que no se limita a
comprobar o explicar los fenómenos sino que los aprecia en función de determinadas
concepciones éticas y en función de ellas preconiza unas y prohíbe otras. Finalmente
debemos explicitar que la doctrina se sitúa en la línea divisoria de los problemas del
espíritu y de los hechos (teoría = ciencia x acción).

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS
CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA

PRÁCTICA Nº 5: MÉTODO CIENTÍFICO

I. Encierre con un círculo la respuesta correcta:


1. Porque con el método científico, se describe lo que se pretende describir, se
afirma que:
a. Es valido. b .Es fiable. c. Determinístico d. Heurístico
2. Porque con el método científico, en condiciones similares, siempre se llega al
mismo resultado, se afirma que es:
62

a. Válido. b. Fiable. c. Susceptible d. Exacto.


3. El enunciado: La ciencia, solo es posible en la medida en que la naturaleza sea
racionalmente uniforme, se refiere al supuesto:
a. Del proceso psicológico b. Del determinismo.
c. De la uniformidad de la naturaleza d. De la transformación de la naturaleza.
4. El supuesto del método científico relacionado con el proceso psicológico, involucra
los postulados siguientes; excepto:
a. De la confiabilidad de la percepción b. De la confiabilidad del recuerdo.
c. De la confiabilidad del razonamiento d. De la confiabilidad de la
Constancia
5. Son metas científicas; excepto:
a. La explicación b. La predicción c. La objetividad d. El control

6. De os elementos del método científico, los que en última instancia permiten la


observación directa de un hecho o fenómeno y que se refieren a subdivisiones de
las variables, se denominan:
a Conceptos b. Definiciones c. Hipótesis d. indicadores.
7. Se afirma que en la ciencia no hay ningún conocimiento, Ley o Teoría científica de
la que no se pueda desconfiar, orienta a una característica del método científico
denominada:
a. El método científico es teórico en su origen y fin
b. El método científico es problemático-hipotético
c. Es empírico
d. Se basa en la duda científico

8. El método científico pretende obtener conocimientos lo más exactamente posibles


de la realidad, ello es compatible con la característica:
a. El método científico es autocrítico
b. Es selectivo
c. El método científico es analítico sintético
d. Es preciso

9. Las etapas del método científico: Percepción—Descripción—Interpretación—


Experimentación—Aplicación; son propuestas por:
a. Falcón et al. (1978) b. Sierra (1988)
c. Torres (1994) d. Van Dalen y Meier (1996).

10. Las etapas del método científico:


- Planteamiento del problema
- Construcción de un modelo teórico
- Deducción de consecuencias particulares
- Prueba de Hipótesis
- Inclusión de las conclusiones en la teoría científica
Son propuestos por:
a. Kopnin (1966) b. Moya (1994)
c. Pineda et al., (1994) d. Falcón et al., (1978)
63

11. Las etapas del método científico: Observación—Hipótesis—Experimentación—


Inducción—Deducción—Análisis y síntesis –Teoría –Doctrina; son propuestos por:
a. Bunge (1981) b. Moya (1994)
c. Cervo y Bervián (1980) d. Hernández et al (1991)
12. En la experimentación, las tablas de Bacón no incluyen a uno de los siguientes
enunciados
a. Tabla de presencia b. Tabla de ausencia
c. Tabla de grados d. Tabla de similitudes

13. Los métodos físicos y químicos estarían considerados dentro de:


a. Los métodos generales b. Los métodos específicos
c. Los métodos particulares d. Los métodos indirectos determinantes

14. El enunciado: El método científico es el motor de la ciencia, es una frase acuñada


por:
a. Bunge (1981) b. Kopnin (1966)
c. Kedrow y Spirkin d. Gil y Díaz (1993)

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS
CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA

PRÁCTICA Nº 6: METODO CIENTIFICO


¿QUE ES Y A QUE PUEDE APLICARSE EL MÉTODO CIENTÍFICO?

I. Encierre con un círculo la respuesta correcta:


1. El concepto general de método se consolida al nacer la ciencia moderna a partir del:
a. siglo XII b. Siglo c. Siglo XVII d. Siglo XIX

2. Los primeros pensadores que propusieron la adopción de métodos generales para


lograr avances en el conocimiento científico, Fueron:
64

a. Arquímedes y Aristóteles b. Bacón y Descartes


c. Hooke y Wirchow d. Leibniz y Einstein

3. El método científico se define como el conjunto de reglas para observar fenómenos


e inferir conclusiones a partir de las observaciones indicadas y corresponde a:
a. Arquímedes b. Descartes c. Bacón d. Leibniz

4. La idea de que existe el método inductivo y de que su aplicación no requiere de


preparación previa, la atractiva y que se cree muy eficiente está dentro de lo que
se considera:
a. Metodología b. Metodolatría c. Metodonimia . Metodonomía

5. Descartes, a diferencia de Bacón plantea como métodos básicos.


a. La deducción y la inducción b. El análisis y la síntesis
c. El análisis y la deducción d. La inducción y la generalización

6. La adición del método de invención al método de análisis fue una propuesta de:
a. Arquímedes b. Bacón c. Descartes d. Leibniz

7. La ciencia natural moderna nace con:


a. Bacón b. Descartes c. Leibniz d. Galileo

8. Fueron criterios de Galileo; excepto.


a. No se conforma con la observación; pero si la competencia arbitraria.
b. Propone hipótesis y las pone a prueba experimental
c. Se interesa vivamente por los problemas metodológicos, Gnoseológicos y
ontológicos
d. Enuncia los pasos del método científico moderno.

9. Las comprobaciones indirectas nunca son:


a. Excluyentes b. Concluyentes c. Probables d. Evidentes
10. Que todas las teorías deben poder contrastarse directamente con datos empíricos
son opiniones de:
a. Galileo y Arquímedes b. Carnap y Pope
c. Bacón y descartes d. Kedrow y Spirkin
11. El núcleo de la cientificidad (un neologismo expresado por Mario Bunge (1981) es:
a. La Probabilidad b. La posibilidad
c. La contrastabilidad d. La generalidad.

12. Para discriminar los tipos de contrastabilidad debemos partir de:


a La realidad b. El método científico
c.Las Hipótesis y Teorías d. El experimento

13. El diámetro del campo microscópico se puede medir directamente usando una
regla graduada al 0,1 cm , sin embargo si se usa una fórmula para calcularlo nos
referimos a una constrastabilidad empírica:
a. Directa b. Indirecta c. Compatible d. Teórica

14. Científica; significa que:


65

a. Solamente es verificable experimentalmente. c. Es contrastable


solamente
b. Solamente es verificable racionalmente
d. Es contrastable y compatible con el grueso del conocimiento (científico).

15. Los primeros en emplear el método científico en las ciencias sociales fueron:
a. Los Biólogos b. Los Físicos c. Los Matemáticos d. Los Economistas.

16. En relación a la universalidad del Método científico; la diferencia fundamental entre


filosofía y ciencia (cuando la hay), se refiere:
a. La máxima generalidad de la filosofía. c. La Epistemología
b. La máxima generalidad de la ciencia d. La Gnoseología

17. En relación al método científico es incorrecto:


a. El nombre es ambiguo b. El método existe y es eficaz
c. Es engañoso porque no hay recetas para investigar.
d. Es verdadero porque si hay recetas para investigar.

18. En conclusión el método científico:


a. es milagroso b. Es la manera de hacer buena ciencia
c. Es de corto alcance d. Busca pautas particulares.

19. Ordene las etapas del método científico colocando en el paréntesis que antecede a cada proposición,
el número de orden correspondiente:
( ) Planteo preciso del problema.
( ) Corrección de las hipótesis
( ) Obtención de una solución exacta o aproximada.
( ) Invención de nuevas ideas; (hipótesis, teorías o técnicas) o producción de nuevos datos
( ) Búsqueda de conocimientos o instrumentos relevantes.
( ) Puesta a prueba, contrastación de la solución.
( ) Descubrimiento del problema.
( ) Tentativa de solución del problema
( ) Investigación de las consecuencias.

21. Ejemplifique la aplicación del método científico a un determinado problema siguiendo


a Bunge (1982).
UNIVERSIDAD NACIONAL DE TRUJILLO

FACULTAD DE ENFERMERÍA

SECCION DE SEGUNDA ESPECIALIDAD

CURSO: METODOLOGÍA DE LA INVESTIGACIÓN CIENTÍFICA

Práctica 7: TIPOS DE ESTUDIOS

1. Se desea identificar la relación que existe entre el nivel de información sobre insuficiencia
cardiaca congestiva y el estilo de vida en pacientes adultos diagnosticados del servicio de Medicina
del H:V:L:E: de Trujillo.
El estudio será: .....................................................................................................
66

2. Se pretende probar la efectividad del NaCl en el mantenimiento de la vía endovenosa permeable,


haciendo uso de la doble vía sin necesidad de utilizar la solución de heparina, con lo que se lograría
evitar los costos de procedimientos, así como contribuir a los conocimientos de enfermería en
aspectos técnicos e instrumentales, para mejorar la atención.

El estudio será: .....................................................................................................

3. Se planifica la realización de una investigación sobre el nivel de ansiedad y la dimensión y la


dimensión del dolor en mujeres adultas maduras sometidas a histerectomía abdominal total en el
Hospital EsSALUD III-Chimbote en las primeras seis horas y luego a las 24, 48 y 72 horas de post
operadas.

El estudio será: .....................................................................................................

4. Se pretende determinar la relación de los factores de riesgo: edad, estancia hospitalaria,


ventilación mecánica con la neumonía nosocomial en pacientes de la Unidad de Cuidados intensivos
del HB de Trujillo.

El estudio será: .....................................................................................................

5. Se planifica aplicar modelos educativos directamente a los niños en edad escolar e


indirectamente a través de sus madres a fin de determinar cuán de los dos tiene un resultado más
efectivo en la calidad de prácticas de medidas higiénicas en escolares.

El estudio será: .....................................................................................................

6. Se pretende identificar los dilemas éticos que confrontan las/os estudiantes de enfermería de
Universidad Nacional y la Universidad Privada Antenor Orrego de la ciudad de Trujillo, durante sus
prácticas pre-profesionales.
El estudio será: .....................................................................................................

7. Se desea determinar si el grado de estrés de la enfermera tiene relación con la percepción que el
paciente tiene de su interrelación con ella en los servicios de Cirugía”A” y Cirugía “B” del H:V:LE. de
Trujillo.

El estudio será: .....................................................................................................

8. Se planifica la realización de un estudio durante cinco años en mujeres que utilizan


anticonceptivos orales y que desarrollan cáncer de cuello uterino, con los criterios de inclusión
siguientes: i) que vivan en pareja, y ii) mayores de 15 años y menores de 30 años.
El estudio será: .....................................................................................................
9. Se pretende identificar la causa por la que los pobladores de Miramar en los meses de febrero y
marzo del 2002 presentaron una alta incidencia de cólera, considerando dos grupos, el primero que
incluya a personas en las que se les diagnosticó ciertamente que padecieron esta enfermedad y un
segundo grupo que no padecieron esta enfermedad, analizando en ambos casos la causa o variables
condicionantes en base a las historias clínicas de los pacientes que acudieron a la posta médica del
MINSA en Miramar y a las encuestas a personas que no fueron afectadas.

El estudio será: .....................................................................................................

10. Se pretende estudiar la incidencia de pacientes con SIDA que acuden al HVLE y que en el
diagnóstico preliminar fueron diagnosticados como portadores, evaluándolos primeramente para
verificar las manifestaciones clínicas y se hará un seguimiento durante cinco años para apreciar la
evolución seleccionará un grupo que no presente signos de esta enfermedad, los mismos que serán
evaluados durante el mismo periodo de tiempo.

El estudio será: .....................................................................................................


67

QUE ES Y A QUE PUEDE APLICARSE EL CONOCIMIENTO CIENTÍFICO

El autor asevera que el método científico debe examinarse desde dos puntos de vista;
i) en lo que es el método científico y ii) su extensión más allá de la naturaleza. Si se
concibe el método científico identificándolo con el método experimental, su alcance
queda limitado; en cambio si se le considera en sentido amplio queda también
ampliado en cuanto a su aplicabilidad.

De los orígenes a la actualidad.

Un método es u procedimiento regular; explicito y repetible para lograr algo, sea


material o conceptual. La idea de método es antigua, la de método general aplicable a
un conjunto de operaciones, lo es menos.
68

El método surge en el período clásico griego mencionándose el método de Arquímedes


para calcular áreas de figuras planas de figura curva. El concepto general de método
se consolida y populariza a comienzos del siglo XVII al nacer la ciencia moderna con
Bacón que aplica el método inductivo; exageraba la importancia de la experiencia
ordinaria e ignoraba la experimentación y la existencia de teorías. Descartes en cambio
empleó el método de análisis y la deducción y menospreciaba la experiencia.

Leibniz a fines del siglo XVII pedía que al método de análisis se agregara el método de
la invención de las verdades iniciales. La ciencia natural moderna nace con Galileo,
quien no se conforma con la observación pura ni con la conjetura experimental; funda
la dinámica moderna, primera fase de a la ciencia moderna; engendra el método
científico moderno; pero no encamina sus pasos, dando importancia a los datos
empíricos y mas tolerantes a las teorías

Contrastabilidad empírica y teórica.


La ciencia pura y la aplicada han llegado a un punto tal que las teorías son tan
complicadas que es difícil refutarlas y las observaciones tan cargadas de teorías que
no es fácil determinar que confirman o refutan.Los avances de la ciencia nos obligan a
usar la contrastabilidad que el autor considera como núcleo de la cientificidad ya
que una idea puede considerarse científica solo si es contrastable con datos empíricos.

Debemos distinguir dos tipos de contrastabilidad: directa o indirecta y proceder de


acuerdo al diagrama siguiente:

EMPIRICAMENTE
DIRECTAMENTE

HIPOTESIS CONTRASTABLES

O INDIRECTAMENTE

TEORICAMENTE
TEORIAS
INCONTRASTABLES
Sin embargo a ello debe agregarse el requerimiento de suficiencia o compatibilidad con
el grueso del conocimiento científico.

En resumen;
CIENTIFICA = CONTRASTABLE + COMPATIBLE CON EL GRUESO DEL CONOCIMIENTO
CIENTÍFICO

FORMULACION ACTUAL DEL MÉTODO CIENTÍFICO:

Una investigación (de un conjunto de problemas) procede en arreglo al método


científico si cumple o al menos se propone cumplir las siguientes etapas:
1. Descubrimiento del problema
2. Planteamiento preciso del problema
3. Búsqueda de conocimientos o instrumentos relevantes del problema
4. Tratativa de solución del problema con ayuda de medios identificados
69

5. Formular las hipótesis , teorías o prácticas


6. Obtención de una solución (exacta o aproximada del problema con ayuda
del instrumental conceptual o empírico disponible.
7. Investigación del las consecuencias de la solución obtenida
8. Contrastación de la solución.
9. Corrección de la hipótesis

El método científico ayuda a ordenar precisar y enriquecer conocimientos, decisiones,


planes, etc. El método forma, no informa, es una actitud más que un conjunto para
resolver problemas

UNIVERSALIDAD DEL METODO CIENTIFICO


El método científico se emplea tanto en ciencias naturales como sociales y
posiblemente a la filosofía científica y la ontología (o metafísica o cosmología filosófica)

CONCLUSIONES
Se han usado varios procedimientos para abarcar todos los campos del saber;
pero se detesta a los metodólatras.
La manera de proceder característica de la ciencia se ha dado en llamar Método
científico; aun cuando el nombre es ambiguo, por una parte el método existe y es
eficaz y por la otra es engañoso; pues llevaría a creer que consiste en un conjunto de
recetas exhaustivas e inefables que cualquiera pueda manejar para inventar ideas y
ponerlas a prueba; se considera que no hay tales recetas sino mas bien una estrategia
de la investigación científica.

En resumen, el método científico no es tan milagroso como suelen creerlo sus


entusiastas que solo lo conocen de oídos, ni de tan corto alcance como quieren
hacernos creer sus detractores. El método científico no es ni mas ni menos que la
manera de hacer buena ciencia, natural o social; pura o aplicada, formal o fáctica.

BUNGE M. 1981. Epistemología, Barcelona. Ariel. P: 28-36, 42- 45.

CRITERIOS PARA SELECCIONAR UN TEMA DE INVESTIGACION


ADAPTADO DE TAMAYO, J. (2002)

CRITERIO DEFINICIÓN EN CONTEXTO


1. PERTINENCIA Cuando el problema es prioritario
a. Por su magnitud o extensión
b. Porque afecta a muchas personas
c. Por la seriedad o gravedad
d. Por su importancia
2. AUSENCIA DE Cuando el problema no ha sido objeto de
DUPLICACION investigación
3. VIABILIDAD Cuando se dispone de personal, tiempo, equipo y
dinero para efectuar la investigación.
4. ASENTIMIENTO POLITICO Cuando las autoridades de la institución están
interesadas en la investigación
70

5. POSIBILIDAD DE No solo depende del VB de las autoridades sino de


APLICACION la disponibilidad de recursos para ejecutar las
recomendaciones
6. URGENCIA DE LOS DATOS Cuando se requieren los resultados a corto plazo
para tomar decisiones
7. ASENTIMIENTO ETICO. Necesidad de contener el conocimiento informado
por escrito de las personas que van a ser objeto de
investigación.

ESCALAS DE VALORACION PARA LOS CRITERIOS


CRITERIO DEFINICIÓN EN CONTEXTO
1. PERTINENCIA 1. Poco pertinente
2.Temas mas o menos aceptable
3. Muy pertinente
2.AUSENCIA DE DUPLICACION 1. Se dispone de información suficiente
2. No se dispone pero no cubre determinada información
importante
3. No se dispone de información fidedigna para la
solución del problema
3.VIABILIDAD 1. El estudio no es viable con los recursos disponibles.
2. El estudio es viable con los recursos disponibles
3. El estudio es muy viable con los recursos disponibles
4.ASENTIMIENTO POLITICO 1. Las autoridades no aceptan el tema
2.Tema mas o menos aceptable
3. Tema plenamente aceptable
5.POSIBILIDAD DE APLICACION 1. Ninguna probabilidad
2. Alguna probabilidad
3. Bastante probabilidad.
6. URGENCIA DE LOS DATOS 1. La información no es urgente
2.La información podría utilizarse en varios meses
3.La información es urgente para la toma de decisiones
7. ASENTIMIENTO ETICO. 1. Problema ético de importancia.
2.Problema ético de poca importancia
3. Ningún problema ético.,
MATRIZ PARA LA SELECCIÓN DE TEMA DE INVESTIGACION

1 2 3 4 5 6 7
CRITERIO PERTINENCIA AUSENCIA DE VIABILIDAD ASENTIMIENTO POSIBILIDAD URGENCIA ASENTIMIENTO PUNTAJE
DUPLICACIÓN POLITICO DE DE LOS ETICO TOTAL
TEMA APLICACION DATOS
PROPUESTO

1.

2.

3.

4.

5.
EL PROYECTO DE INVESTIGACION CIENTIFICA

CONCEPCION
¿Será posible realizar una investigación científica?; ¿Será posible concebir una
técnica y un método que guíe al investigador a la realización de un evento
científico?. Frente a estas cuestiones, se puede aseverar que no existen reglas
absolutas que nos orienten sin incurrir en error a la plena consecución de una
investigación; pero no significa esto que el hombre de ciencia se oriente por la
improvisación, que de hecho lo llevará al caos.

El investigador debe contar sino con algo definitivo e infalible, con algunas normas
elementales que le ayuden a evitar el despilfarro de tiempo y esfuerzo y lo que no
debe descuidar es: i) la honestidad intelectual, es decir el aprecio por la objetividad;
ii) la independencia del juicio, es decir, la capacidad de convencerse a si mismo con
pruebas pertinentes; iii) coraje intelectual, para defender la verdad y iv) amor por la
libertad intelectual; que le otorguen la confianza como investigador; salvando estas
situaciones el investigador orienta su trabajo elaborando el proyecto de
investigación sobre la base de aspectos gnoseológicos y metodológicos adecuados.

Nuestra primera tarea sería la definición de proyecto de investigación desde


diferentes perspectivas:

Hayman (1981) define un proyecto de investigación como una propuesta,


que redacte en detalle un plan de la manera y estrategia para conducir un trabajo
de investigación; el plan debe ser tan completo que cualquiera que sea la forma que
se le dé otra persona aparte del investigador, pueda seguirlo.

Rojas Soriano (1983) lo define como una guía en la que se indican los aspectos
mas importantes a desarrollar en nuestro trabajo científico, necesario para realizar
la investigación; es como un mapa en el que se señala la ruta (diseño de
investigación) el mismo que se elabora una vez que se tiene conocimiento teórico
del tema y se dispone del material empírico de la realidad que interesa investigar.

Tecla (1980) afirma que el proyecto posee una estructura, expresa un orden lógico
no solo de las fases de la investigación, sino también hacia el interior de cada una
de ellas , por lo tanto ya es, hasta cierto punto, un producto de cierto nivel de
investigación que nos introduce en la temática, nos aproxima al objeto de estudio y
nos expresa una estrategia en el proceso del conocimiento.

Ary et al., (1982), lo definen como un plan gradual para encontrar nuevos
conocimientos, etapa en la cual la intuición e inspiraciones de los investigadores
adquieren una forma concreta.

Sánchez y Reyes (2002), señalan que un proyecto de investigación es un modelo


abstracto de cómo se va a desarrollar un tipo particular de producción,
caracterizado por un grupo secuencial de actividades tendientes a lograr un
resultado y el proyecto de investigación prevé a través del planeamiento y
programación, como se va a llevar a cabo el proceso de investigación científica.

Moya (1994) luego de enjuiciar la mayoría de estas definiciones, define el proyecto


de investigación como una propuesta teórica metodológica y técnica para plantear y
resolver un problema científico. Es el primer gran momento en el proceso de
73

investigación que conducir a cristalizar la ciencia y la experiencia acumulada por los


investigadores.

Y nuestra consideración se expresa en los términos siguientes: es un estudio que


propone la investigación de problemas científicos o tecnológicos con el
propósito de lograr soluciones explicativas que incrementen el saber
científico, que sean capaces de generar o adoptar tecnologías para alcanzar
objetivos de desarrollo y que anticipa la forma lógica , metodológica y
secuencial de las estrategias a seguir en la ejecución de una investigación
sobre la base de aspectos concretos y científicamente explicitados.
Considerando como aspectos básicos el planeamiento y la proyección éste consiste
en decidir por anticipado lo que se debe hacer, obteniéndose como resultado un
plan de actividades configuradas en etapas con orden lógico y temporal que
promueve conductas y que es susceptible de evaluación y valoración, la
programación como un proceso de diseño de un programa, constituye la
consideración de un plan de actividades específicas las que deben cumplirse en
tiempos límites a emplear y sus respectivos costos

Modelos

Basados en el método científico se pueden distinguir los modelos siguientes:


i) Modelos teóricos, son modelos generales y abstractos que contienen las fases
centrales de un proyecto de investigación basados en la secuencia: Problema,
Marco teórico, Hipótesis, material y métodos. Estas fases se dan en las diversas
áreas del conocimiento y su generalidad puede llegar al máximo y pueden
apreciarse en las siguientes páginas propuestos por autores e instituciones en
función de su orientación, líneas de investigación e intereses.

ii) Modelos concretos, son los proyectos elaborados por los investigadores, se
elaboran sobre la base de un objeto específico y se producen de manera parcial los
elementos del mismo. En estos modelos, aparece planteado determinado problema
sobre la base de un marco teórico que le sirve de sustento y base y que incluye una
estructura secuencial según la naturaleza del problema dotados de movimiento y
relaciones bien definidas.

En general todos los proyectos tienen estas características, la diferencia radica en


que los que por su mayor desarrollo y profundidad se convierten en modelos y
ejemplos los que constituyen material didáctico parta orientar los procesos de
enseñanza aprendizaje

Estructura básica

Conceptualmente, la estructura en general es una forma según la cual se ordenan


los elementos del proyecto dispuestos en una relación secuencial; según este
criterio, el proyecto de investigación no tiene una estructura y secuencia de etapas
absolutas; pero si debemos referirnos a una serie de principios metodológicos que
deben ser adaptados a proyectos de investigación según la clase y los
requerimientos, por lo que de acuerdo ala problemática que ha de ser resuelta y
buscando la necesidad de la eficiencia y método, materia de estudio y verificación;
el proyecto de investigación se elabora siguiendo la estructura que a continuación
se menciona: i) Generalidades, ii) Plan de investigación, iii)Aspecto administrativo y
iv) Referencias.
74

Tomemos como ejemplo el proyecto de investigación científica de la Facultad de


Ciencias Biológicas de la Universidad Nacional Pedro Ruiz Gallo y de la Facultad
de Enfermería de la Universidad Nacional de Trujillo.

PROCESO DE ELABORACIÓN Y PLANTEAMIENTO DE CADA UNA DE SUS


FASES Y CONDICIONES CIENTÍFICAS DE ELLAS.

La investigación no es un simple planteamiento teórico, retórico y literario, es un


proceso que se realiza a partir de los hechos, de los problemas. Además de la
información científica que se pone en juego; la experiencia del conocimiento
acumulado y de una estrategia de trabajo.

Para investigar se debe tener contacto con los hechos, estudiarlos y analizarlos
sistemáticamente, obteniéndose resultados y conclusiones. La investigación como
aplicación de procedimientos científicos debe ser planificada a fin de garantizar el
logro de los objetivos esperados en forma oportuna y confiable.

La planificación de la investigación es un proceso racional, permanente y dinámico,


que adecua los medios y recursos para el logro de objetivos y de resultados
propuestos. En función de la naturaleza y estructura del problema, como
instrumento de la planificación se elabora el proyecto de investigación que permitirá
alcanzar los objetivos, metas y resultados propuestos, para lograr esto se tiene que
trabajar con precisión, ordenamiento coherente y racional de las acciones,
actividades y planos, de los medios técnicas y recursos disponibles elegidos para
desarrollar la investigación.

Existen diversas propuestas para la estructura y contenido del proyecto de


investigación, en los cuales más que discrepancias conceptuales, solo se perciben
diferencias formales. En este documento se detalla un esquema de proyecto de
investigación que ha nuestro criterio es el que mas se ajusta para el trabajo en el
área de

I. GENERALIDADES.
1.1. Título:
El título debe ser en lo posible analítico enunciado con una conexión lógica
de conceptos bien definidos y que contenga las variables involucradas en la
formulación del problema científico.

1.2. Autor(es):
Nombres de los investigadores que han de participar en el proyecto. De ser
posible indicar sus experiencias y niveles investigativos. Señalar al
investigador responsable.

1.3. Tipo de investigación:


El tipo de investigación está referido a la clase de investigación que se esta
planificando realizar, en relación a consideraciones según las cuales se
pueden estructurar las ideas de investigación. Así, de acuerdo a lo
anteriormente referido en el proyecto se debe indicar si corresponde a una
investigación bibliográfica, descriptiva o experimental.

1.4. Localidad o institución donde se realizará:


Se anotará la ubicación geográfica donde se ejecutará el proyecto e
igualmente el nombre de la institución.
75

1.5. Duración del proyecto:


Tiempo estimado que demorará la ejecución del proyecto.

II. PLAN DE INVESTIGACIÓN

2.1. PROBLEMA CIENTÍFICO

2.1.1. ANTECEDENTES DEL PROBLEMA


En esta sección se presentará los antecedentes bibliográficos del problema
de investigación a nivel internacional, nacional y local. Es decir se realiza
una exposición en el devenir de los conocimientos en el área elegida y
particularmente aquellos referidos al problema específico. Así mismo se
realiza una descripción de la situación actual en relación al problema y su
importancia en el contexto social y/o tecnológico.

2.1.2. JUSTIFICACIÓN DEL PROBLEMA


Este aspecto responde al porqué y para qué se realiza la investigación. En
tal sentido, se puede destacar su importancia o justificar el proyecto de
investigación, tomando en cuenta cualquiera de los siguientes criterios:
a) Puede haber una justificación legal en el sentido que se realiza el
estudio cumpliendo con las exigencias de dispositivos, normas y
directivas de dependencias que fijan políticas de investigación.
b) Puede mostrarse la importancia del estudio desde un punto de vista
Teórico – Científico o Tecnológico, en el sentido de que los resultados y
productos de la investigación sean contribución al desarrollo de la
ciencia y de la técnica.
c) Puede mostrarse la importancia práctica del estudio, en el sentido de
que los logros del mismo, servirán para reajustar políticas de acciones
concretas que permitan actuar sobre un fenómeno en forma inmediata.

2.1.3. PLANTEAMIENTO DEL PROBLEMA CIENTÍFICO


Todo problema se plante sobre un trasfondo de conocimientos científicos
(datos, teorías y técnicas de la ciencia de estado). Por ello es indispensable
elegir y delimitar el problema científico antes de iniciar la investigación.
El planteamiento del problema ha sido muy bien establecido por Bunge
(1979), quién concede a su determinación papel fundamental en el
desarrollo del proceso científico de la investigación; diversos aspectos de su
propuesta se incluyen en las líneas que sobre estadios y formulación se
exponen a continuación:
a) Formulación (¿Qué es?)
b) Exploración preliminar (¿Qué aspecto tiene, es medible, etc.)
c) Descripción (Como está, cómo es, cuándo ocurre, etc.)
d) Interpretación (Cuáles son las variables relevantes y cómo están
relacionadas)
e) Control de la solución (Cuál es el dominio de validez de la solución)

2.1.4. DELIMITACIÓN DEL PROBLEMA


No es suficiente haber encontrado una dificultad de importancia para tener
un problema de investigación. Es absolutamente indispensable determinar la
extensión del problema, conocer sus límites y sus alcances. De esta
manera, el investigador habrá logrado conocer el sentido real del problema.
Para tal efecto, el investigador utiliza la información de que dispone,
examina los antecedentes del problema, lo que se relacione con él. A fin de
76

evitar confusiones, también aclara los conceptos que estén relacionados con
el problema, precisa el significado de los términos con los que se expresa,
complementa u opone al marco teórico respectivo. De esta manera el
problema queda centrado a través de términos de significado claro. Sus
límites quedan definidos.

2.1.5. FORMULACIÓN DEL PROBLEMA


Cuando han sido establecidas las bases conceptuales del problema a través
de una precisión de su significado y se han fijado también los alcances del
mismo es hora de expresarlos, de formularlo, ya que un problema bien
formulado tiene grandes posibilidades de ser resuelto correctamente. Según
KERLINGER (1975) existen tres criterios para formular un problema, ellos
son:
a) Debe referirse a relaciones entre “variables” de una realidad.
b) Debe ser formulado de modo claro e inequívoco, de preferencia en
forma de pregunta o proposición interrogativa, y.
c) Debe ser susceptible de verificación empírica.
Si el investigador satisface estos criterios en la formulación del problema,
tendrá una idea clara de lo que él desea hacer.

2.2. HIPÓTESIS CIENTÍFICA

2.2.1. CRITERIOS DE FORMULACIÓN


Cuando el investigador tiene definido el problema, los pasos siguientes
están encaminados a encontrar la solución adecuada.
En la búsqueda, la hipótesis jugará un papel importante. Aunque en algunas
oportunidades se a renegado el empleo de hipótesis, la ciencia tiene en ella
un elemento indispensable. Es también en la hipótesis donde el hombre de
ciencia pone en juego su capacidad creadora, su imaginación para vincular
experiencias y razón, elementos de la realidad viva con elementos teóricos.
Las hipótesis científicas deben ser formuladas en términos inequívocos, esto
es, que no deben dar lugar a dobles interpretaciones para poder diseñar una
experiencia que posibilite su contrastación. Las condiciones que
caracterizan a una hipótesis válida se reducen a:
a) Claridad y precisión en su significado. La hipótesis debe enunciar su
contenido en términos comprensibles y debe estar basada en conceptos
e ideas bien definidas. De esta manera no serán posibles las
confusiones, las imprecisiones y los desvíos conceptuales a través de
desvíos idiomáticos.
b) Posibilidad de comprobación empírica. Para el avance de la ciencia la
hipótesis que es comprobable en el presente es superior a la hipótesis
que sólo es potencialmente comprobable.
c) Referencia a hechos relacionados con el problema sujeto a
investigación. El investigador debe atender sólo a las hipótesis que son
necesarias, dejando a un lado las que son superfluas, no referidas
directamente con el problema que estudia. Además la hipótesis tiene que
referirse precisamente a aquellos hechos comprendidos dentro del
problema.
d) Tener vinculación y fecundidad teórica. La hipótesis debe guardar una
relación armónica con los conocimientos científicos ya debidamente
comprobados. No puede elaborarse una hipótesis al margen de las
teorías científicas. Ella de hecho, se apoya en éstas, tiene a
77

modificarlas, rectificarlas o ratificarlas, revisarlas, cuestionarlas o


precisarlas.
e) Vincular explícitamente dos o más variables. La hipótesis establece
relaciones entre variables. Si ella es una explicación provisional y
condicionada a prueba, lo que tiene que probarse precisamente es que
se da en la realidad el nexo o vinculación que el científico supone existir
entre dos o más variables. A través de la relación entre variables, se está
atribuyendo una vinculación causal, directa o indirecta.

2.2.2. ELEMENTOS DE LA HIPÓTESIS.


a) Términos lógicos: Son las palabras que establecen la relación entre los
otros elementos de la hipótesis.
b) Unidades de análisis: Son los sujetos u objetos de estudio.
c) Variables: Son propiedades o atributos de las cosas, es decir se refieren
a algo real, y no a meras ficciones o construcciones del pensamiento.
Las variables comunes en la investigación pueden clasificarse en:
Variable independiente (VI): Es la variable que el investigador manipula
y tiene a control de manera directa. En la práctica, actúa como
presumida causa de la variable dependiente.
Variable dependiente (VD): Es la variable que se desea explicar el
efecto de la variable independiente. Dicha en otra forma, la variable
dependiente es la variable observada.
Variable extrañas: Son todas aquellas que rodean a las variables antes
mencionadas y que son difíciles de encontrar.

2.2.3. FUNCIONES DE LA HIPÓTESIS EN LA INVESTIGACIÓN


Las funciones principales de las hipótesis son:
a) Orientar la investigación.
b) Define la investigación.
c) Propone la metodología de la investigación o el diseño de contrastación.
d) Enriquece y pone a prueba la teoría.

2.2.4. FORMULACIÓN DE LA HIPÓTESIS


La hipótesis se expresa mediante una proposición afirmativa, en la que debe
existir una relación entre las variables independiente y dependiente, y
fácilmente de comprobar.

2.3. DISEÑO DE CONTRASTACIÓN


Para que una hipótesis esté debidamente fundamentada tiene que
someterse a contrastación, ya sea lógico o empírica o bien, la
fundamentación de una hipótesis se puede establecer contrastándola en dos
formas teórica y empírica. Para dicha contrastación debe seleccionar un
determinado diseño.

a) DISEÑO
Es una estructura u organización esquemática que adopta el investigador
para relacional y controlar las variables de estudio; cuyo objetivo es imponer
restricciones controladas a las observaciones de los fenómenos. Implica
pasos que se deben seguir en la solución de problemas para poder
encontrar las posibles soluciones del mismo. Cumple dos funciones básicas:
 Permite hacer las comparaciones necesarias requeridas para la
hipótesis de investigación.
78

 Capacita al investigador, a través de análisis estadístico de datos,


para hacer las interpretaciones significativas con relación a los
resultados de estudios.

b) SELECCIÓN DE DISEÑOS DE CONTRASTACIÓN


El investigador para contrastar la hipótesis debe seleccionar entre los
diseños mencionados el que más se ajuste al problema de investigación,
estos diseños son:
 Diseño de Goode y Hatt (1986)
 Diseño de Sánchez y Reyes (1984)
 Diseño de Campbell y Stanley (1979)

2.4. METODOLOGÍA
Aquí se deben detallar los métodos que se emplearán en la ejecución del
trabajo de investigación sin embargo cuando los métodos y/o las técnicas
sean conocidas solamente se debe indicar la referencia bibliográfica, donde
se localiza, inclusive indicar la modificación del método si la hubiese. La
metodología debe abarcar desde el método de muestreo pasando por lo que
se emplean para analizar las muestras y para el análisis de datos.

2.4.1. UNIVERSO Y MUESTRA


a) UNIVERSO
El autor aquí indica el universo o población del cual va ha ser tomada la
muestra.

b) MUESTRA
Debido a que no es posible trabajar con toda la población se debe tener en
cuenta que el registro de datos se realizará solamente de una parte de
aquella, la cual constituye la muestra. En el proceso de selección de la
muestra. En el proceso de selección de la muestra se debe determinar e
identificar la población a la que se van hacer extensivos los resultados del
estudio.
La determinación de la muestra accesible, en cierta forma, estará
influenciada por e tiempo, espacio y los recursos que disponga el
investigador.
Así mismo considerar que la muestra debe ser representativa de la
población en estudio, para lo cual se tendrá en cuenta el número de
ejemplares a trabajar.

c) TAMAÑO DE MUESTRA
Depende básicamente de:
 Las variables del problema. Si las variables están relacionadas
estrechamente, se necesitan muestras relativamente pequeñas y si
existen diferencias muy marcadas requerirán muestras más grandes.
 De las características de la población. Poblaciones homogéneas
requieren muestras pequeñas y poblaciones heterogéneas de muestras
grandes.
 Del grado de confiabilidad que el investigador espera, tengan resultados
y
 De la exactitud de los resultados que se quieren obtener (error permitido
por el investigador) resultados más exactos; muestras más grandes.
79

El tamaño de muestra para estimar la media () de la población se


determina:
A) Cuando la varianza 2 es conocida
z 2 2 N z 2 2
n n
h2 h 2 N  z 2 2
Población infinita Población finita
o desconocida o conocida

B) Cuando la varianza 2 es desconocida

z2s2 N z2s2
n n
h2 h 2 N  z 2 2
Población N Población N
desconocida conocida

Donde:
z= Factor de confiabilidad o número de unidades de error
estándar igual a la probabilidad deseada.
2 = Varianza poblacional (de la variable objeto de estudio).
h= error permitido, de diferencia entre el valor real y el
experimental = x –  = h
s2 = varianza muestral (estimador de 2)
N= Tamaño de población.
n= Tamaño de muestra definitiva.

2.4.2. TÉCNICAS DE MUESTREO


El investigador indicará técnicas para realizar el muestreo:
 Muestreo aleatorio simple
 Muestreo aleatorio estratificado
 Muestreo aleatorio por conglomerados
 Muestreo aleatorio sistemático

2.4.3. TÉCNICAS Y PROCEDIMIENTOS


En los procedimientos el investigador indicará todos y cada uno de los
planes que debe ejecutar para cumplir con el diseño de contrastación de la
hipótesis.

2.5. TRATAMIENTO ESTADÍSTICO


Cuando se trata de trabajo un enfoque experimental es necesario indicar el
tipo de diseño a emplear para la contrastación de la hipótesis formulada.
Para estos casos se debe consultar con un estadístico y revisar la
bibliografía especializada, a fin de que se adopte el diseño experimental
adecuado.
En esta etapa de proyecto de la investigación se debe prever el tipo de
técnicas estadísticas que se van a tener que emplear, para datos cualitativos
y/o cuantitativos por registrar.
Se debe prever el uso de procedimientos estadísticos como medidas de
tendencias centrales y de dispersión para una variable, correlación y
regresión entre dos o más variables, así como análisis de varianza y/o
covarianza.
80

III. CRONOGRAMA DE TRABAJO


Etapas que comprende el proyecto. Tiempo aproximado de duración de
cada etapa del proyecto. Indicadores de finalización de cada etapa e informes
parciales. Fecha aproximada de informe final.

IV. RECURSOS.
Recursos humanos y materiales necesarios para realizar el proyecto.

4.1. PERSONAL
Específicas:
a) Personal de investigadores;
b) Personal técnico: auxiliares de investigación, encuestadores.
c) Personal de apoyo; administrativo y de servicios.

4.2. BIENES Y BIENES DE CAPITAL


a) Libros, revistas, impresos
b) Equipos científicos e insumos
c) Instrumentos y máquinas
d) Instalaciones e infraestructura
e) Reactivos e implementos diversos
f) Equipos y elementos de limpieza
g) Otros materiales de trabajo

4.3. SERVICIOS
a) Transporte y viáticos
b) Computación. Redes de información
c) Otros servicios

4.4. MATERIALES E INTRUMENTOS


Se indica equipos, reactivos, animales de experimentación, instrumentos altamente
especializados, etc., que se requieren para llevar a cabo la investigación.

V. PRESUPUESTO
Cuando la institución que prepara el proyecto es estatal, es necesario en
concordancia con la ley de presupuesto y normas complementarias que regulan y
controlan el gasto.
Presupuesto analítico. Según clasificador de gastos del presupuesto general de la
República:
01 Remuneraciones
02 Bienes de capital
03 Servicios
04 Seguro y previsión social
05 Equipos e instrumentos
06 Gastos de administración
07 Imprevistos (indicar su código. según clasificador general de gastos de la
República )

Presupuesto Global.- Ejecución del presupuesto.


Cronograma de adquisiciones/
Inversión y Financiamiento.-
a) Costo total del proyecto
b) Forma de financiamiento
81

Si la institución que va a ejecutar el proyecto requiere apoyo económico de algún


organismo cooperante, indicar el monto de su participación y la cantidad que
solicita.

VI. REFERENCIAS BIBLIOGRÁFICAS

Toda la información bibliográfica recopilada que es relevante para la elaboración del


proyecto tiene que se referida en el ítem referencias bibliográficas.
En los estudios descriptivos particularmente y en los experimentales cobra
fundamental importancia la bibliografía de investigación, esto es la que se presenta
en revistas, pues es donde se divulgan datos.
Para el asiento de la bibliografía se tiene que seguir ciertas normas esenciales, de
los estándares establecidos por Organismos Internacionales, las que básicamente
deben considerar.

- PARA REVISTAS
Autor, año de la publicación, título del trabajo, título de la revista, lugar de
publicación, volumen, número de páginas.

- PARA LIBROS
Autor, año de publicación. Título de la obra, notas tipográficas y notas bibliográficas.

BIBLIOGRAFÍA UTILIZADA EN EL PRESENTE TRABAJO


1. Arista, G. 1984. Metodología de la investigación, Lima. Edt. Universitaria San
Martín de Porres.
2. Sánchez, H. y C, Reyes. 1984. Metodología y diseños en la investigación
científica, Lima, Talleres Repro-offset.
3. López, L. 1988. Método e Hipótesis Científicos, México, Trillas.
4. Rodríguez, M. y M. Rodríguez. 1986. Teoría y diseño de la Investigación
Científica. Lima, Ediciones Atusparia.
5. Moya, A. 1994. El Proyecto de Investigación Científica, Trujillo, Editorial Trilce.
6. Sierra Bravo R. 1986, Tesis Doctorales y Trabajos de Investigación Científica,
España, Editorial Paraninfo.
7. Gil, G. y D. Alva, 1993. Metodología de la Investigación Científica, UNT.
82

EL PROYECTO DE TESIS EN LA FACULTAD DE CIENCIAS AGRARIAS


DE LA UNAM ANEXO A.

PROYECTO DE TESIS

FACULTAD DE CIENCIAS AGRARIAS


ESCUELA PROFESIONAL DE INGENIERÍA AGRÓNOMA (*)
ESCUELA PROFESIONAL DE INGENIERÍA EN
INDUSTRIAS ALIMENTARIAS
83

PROYECTO DE TESIS

1. TÍTULO DEL PROYECTO :

2. RESPONSABLE :

3. PROFESOR ASESOR :

4. CO-ASESOR :

5. COLABORADOR (ES) : (Si lo hubiera)

6. COOPERADOR (ES) : (Si lo hubiera)

7. LUGAR DE EJECUCIÓN :

8. DURACIÓN ESTIMADA :

9. APROBADA POR

ASESOR DECANO

PRESIDENTE SECRETARIO

VOCAL RESPONSABLE

10. LUGAR Y FECHA DE PRESENTACIÓN :


(*)
Se indicará la Escuela Profesional que corresponda.
84

ANEXO B

DEL PROYECTO DE TESIS

ÍNDICE

Pág.

II. INTRODUCCIÓN ........................................................................................

III. REVISIÓN DE BIBLIOGRAFÍA ................................................................

IV. PROBLEMA .................................................................................................

V. OBJETIVOS ..................................................................................................

VI. HIPÓTESIS ...................................................................................................

VII. MATERIALES Y MÉTODOS ......................................................................

VIII. CRONOGRAMA DE TRABAJO .................................................................

IX. PRESUPUESTO Y CALENDARIO DE GASTOS ......................................

X. BIBLIOGRAFÍA ..........................................................................................

Nota: En el proyecto de inversión no se desarrolla los items III y V.


85

ANEXO C
LA TESIS

1ra. pág. : El título

2da. pág. : Aprobación por el Jurado de Tesis

3ra. pág. : Dedicatoria

4ta. pág. : Agradecimiento

5ta. pág. :

ÍNDICE

Pág.

I. INTRODUCCIÓN .............................................................................

II. REVISIÓN DE BIBLIOGRAFÍA .....................................................

III. MATERIALES Y MÉTODOS ...........................................................

IV. RESULTADOS Y DISCUSIÓN (OPCIONAL) .................................

V. DISCUSIÓN ......................................................................................

VI. CONCLUSIONES .............................................................................

VII. RECOMENDACIONES ...................................................................

VIII. RESUMEN .......................................................................................

IX. BIBLIOGRAFÍA ..............................................................................

X. ANEXO (OPCIONAL) .....................................................................

Nota: Para el caso el proyecto de inversión el índice comprende el anexo C-1


86

ANEXO D

MODELO DE LA CARÁTULA Y PRIMERA PÁGINA DE LA TESIS

UNIVERSIDAD PRIVADA

FACULTAD DE CIENCIAS AGRARIAS

ESCUELA PROFESIONAL DE INGENIERÍA AGRÓNOMA (*)

ESCUELA PROFESIONAL DE INGENIERÍA EN

INDUSTRIAS ALIMENTARIAS(*)

TÍTULO DE LA TESIS(**)

Para optar el título de

INGENIERO AGRÓNOMO (***)


(***)
INGENIERO EN INDUSTRIAS ALIMENTARIAS

NOMBRES Y APELLIDOS DEL AUTOR DE LA TESIS(**)

TRUJILLO – PERÚ

AÑO

(*)
Se indicará la Escuela Profesional correspondiente.
(**)
En letras mayúsculas.
(***)
Se indicará el título profesional correspondiente.
87

ANEXO E

MODELO DE LA PÁGINA DE APROBACIÓN DE LA TESIS

La presente tesis ha sido aprobada por el siguiente Jurado:

Título y Grado Nombre completo


PRESIDENTE

Título y Grado Nombre completo


SECRETARIO

Título y Grado Nombre completo


VOCAL

Título y Grado Nombre completo


ASESOR
88

ANEXO F
DEFINICIONES

Título: Debe ser breve, lo más claro y completo posible. No se deben utilizar más
de veinte palabras. En caso de necesidad, se puede desdoblar el título en dos
subtítulos.

Antecedentes: Comprende los conocimientos previos, que sustentan el


planteamiento del problema a investigar, y el estado actual de los conocimientos.
De preferencia deben ser citados, trabajos recientes relacionados al tema de
investigación

Justificación: Se debe indicar la importancia de la investigación en la búsqueda de


resolver un problema de actualidad, así mismo la relevancia del tema con los
avances científicos, señalar el grado de generalización que tendrá el estudio.

Revisión de Literatura: Es el análisis cronológico de las citas bibliográficas que


tengan conexión con el tema por estudiar. Es necesario interpretar correctamente
las conclusiones de los autores citados. El número de orden de las referencias
bibliográficas deben figurar en el texto dentro de paréntesis, o también puede
ponerse sólo el apellido paterno del autor con letras mayúsculas seguido del año de
la publicación entre paréntesis. También se pueden citar a los autores en orden de
importancia a la contribución del tema por investigar dejando las citas históricas al
final.

Se recomienda citar no menos de quince autores.

-Problema: Es la interrogante que formula o plantea el investigador ante una


realidad desconocida o ante el hallazgo de un defecto o incoherencia del
conocimiento.
Entre los criterios para su formulación se pueden señalar los siguientes:
-Debe referirse a relaciones de variables de una realidad variable
independiente (causa), variable dependiente (efecto).
-Debe plantearse de manera clara y precisa, de preferencia en términos de
pregunta
-Debe ser susceptible de verificación empírica comprobación, contratación}
-Se debe determinar los limites del problema, es decir, indicar con claridad los
contextos geográficos, poblacional" teórico, cronológico, etc., en los cuales el
problema será observado e investigado.

Objetivos: Para formular los objetivos, es necesario analizar las variables de la


hipótesis. Se expresan en forma precisa en uno o más párrafos cortos y también en
número reducido
89

Hipótesis: Es una proposición que afirma la existencia de alguna forma de relación


entre, por lo menos, dos hechos. Esta proposición es el resultado de la
especulación bien fundamentada y tiene carácter provisional, ya que está
construida con la finalidad de validarla y ponerla aprueba empírica mediante la
investigación científica. La formulación de la hipótesis deberá realizarse bajo los
siguientes criterios:-Las hipótesis deben ser expresadas en términos claros y
precisos:
-Las hipótesis deben expresar la forma como se relacionan los hechos y las
variables en la investigación.
-Las hipótesis deben ser coherentes con el marco teórico existente y del
cual se deducen.
-Las hipótesis deben ser relevantes.
-De preferencia, deben redactarse usando una forma lógica de implicación
general

Materiales y Métodos: Se describen detalladamente los materiales y métodos


utilizados, de tal forma que se puedan ser repetidos por otros investigadores.

Resultados: Los datos obtenidos se deben presentar en forma breve, evitando las
interpretaciones personales. Se indicarán en forma numerada los cuadros y figuras
necesarias, los que deben tener leyendas claras y concisas. Las leyendas en los
cuadros se indicarán sobre ellos y en el caso de las figuras (gráficos, fotografías,
mapas y otros) .se colocarán en el lado inferior.
Discusión: Es la interpretación, aclaración y justificación de los resultados y su
relación con las conclusiones obtenidas. Si se desea, se puede proponer una
hipótesis nueva, también se explican los resultados y se establecen comparaciones
entre ellos y con los de otros trabajos de investigación similares.

Conclusiones: Se indican en forma clara y precisa. Estas se obtienen de los


resultados y de la discusión. Se escriben en forma numérica secuencial y no más
de tres o cinco como máximo.

Recomendaciones:

Se incluyen los logros significativos y que puedan ser utilizados en la práctica. De


no ser así es necesario repetir el trabajo para confirmar los resultados obtenidos.
Se incluirán las indicaciones que sirvan para guiar nuevas líneas de trabajo, en
base a las deducciones científicas.

Bibliografía: Se indican de acuerdo a las normas existentes, de modo que sea fácil
ubicarlas y revisarlas por otros investigadores. Se ordenan en forma alfabética y
numerada. Se recomienda presentar no menos de quince citas bibliográficas.

-Internet: Se debe utilizar las citas provenientes de Instituciones


reconocidas nacionales e internacionales, indicando ficha y autor.
90

Apéndice: En este capítulo se incluyen cuadros de cálculos estadísticos, datos de


mediciones contadas en forma natural y sus transformaciones para cálculo
estadístico, también información meteorológica detallada y otra información que el
tesista considere que es necesario se conozca.
doradas para Agronomía y azul para Industrias Alimentarias.

ANEXO G

CARACTERÍSTICAS DEL VOLUMEN DE LA TESIS

1. Para la escritura del texto deberá utilizarse papel tamaño A4 de 80 gramos y de


buena calidad.

2. Se conservará un margen de 2.5 cm del lado derecho e inferior, y de 4.5 cm en el


lado izquierdo y superior de todas las hojas, incluyendo en estas especificaciones a
los cuadros y figuras.
Las páginas que inicien un nuevo capítulo deberán tener un margen superior de 5.5
cm.
,

3. El texto se escribirá en letra Courier new 12 y a 1.5 espacio entre líneas.

4. Todas las páginas serán numeradas 7 excepto la primera. La página número uno
será la que lleve el título de la tesis. Los números deberán colocarse al centro de la
página ya 1.5 cm del borde superior, excepto en las páginas, en las que se inicia un
nuevo capítulo, en las de los cuadros y figuras de página completa, allí se
sobreentiende que la numeración es correlativa.

5. No se recomienda el uso de páginas dobladas. Los cuadros muy extensos


pueden fraccionarse en dos o tres páginas. En este caso, el cuadro tendrá título
completo en la primera página. En las siguientes se colocará únicamente el número
del cuadro y las primeras palabras del título seguido de un paréntesis con la palabra
continuación.

6. Las figuras donde van fotografías deben presentarse sobre fondo de cartulina
negra con leyenda en página especial de papel bond standard o escaneadas.

7. El empaste será de buena calidad con pasta de color verde pacae para
Agronomía y amarillo maíz para Industrias Alimentarias sobre el cual se imprime el
texto en letras
91

8. Los nombres de las plantas, animales y términos latinos que se utilicen en el


texto se diferenciarán de la escritura escribiéndolas en letras cursivas. En el caso
de que la máquina de escribir (mecánica) no pudiera escribir letras cursivas estas
palabras se subrayan.

9. Los símbolos de litro, kilo, gramo, metro, kilómetro, etc. se escribirán de acuerdo
a las normas indicadas por INDECOPI y normas técnicas internacionales de pesas
y medidas.
92

TÉRMINOS Y SÍMBOLOS DE PESAS Y MEDIDAS MÁS UTILIZADOS EN LAS

COMUNICACIONES CIENTÍFICAS O TÉCNICAS

TÉRMINO SÍMBOLO
Kilómetro km
Kilómetros por hora km/h
Decámetro Dm
Metro m
Centímetro cm
Milímetro mm
Micra 
nanómetro (10-9m) mil millonésima parte del metro nm (m)
amstrong (10-10m) Å
kilómetro cuadrado km2
metro cuadrado m2
centímetro cuadrado cm2
milímetro cuadrado mm2
Tonelada t
Kilogramo kg
Gramo g
Miligramo mg
Litro L
Mililitro mL
microlitro (10-9l) l
metro cúbico m3
centímetro cúbico cc
Hora h
Minuto min
Segundo seg
nanosegundo (milmillonésima parte de un segundo) n seg
hectárea (s) ha
acre (4,046 m2 ó 40.47 áreas) acre
yarda (0.91m) yd
pulgada 2.54 cm pulg
TÉRMINO SÍMBOLO
pulgada cuadrada pulg2
pies cúbicos por minuto p3/min
galón (americano 3.785 l, inglés 4.546 l ) gal
bushel (E.U. 35 l, Inglaterra 36.35 l ) bushel
partes por millón ppm
partes por billón ppb
pie 27.85 cm p
pie2 776cm2 p2
pie3 21.63 dm3 p3
metros sobre el nivel del mar m.s.n.m.
propágulos por mililitro Propa/ml
milla terrestre (inglesa) 1,609.3 m
milla marina 1852m milla marina
legua (España 5572.7m; México, Cuba y Puerto Rico 4190 m) legua
vara (835.9 mm = 0.8395 m) vara
cuadra (en Piura) 6,987 m2 (1.431 cuadra = 1 ha) cuadra
93

fanegada (en Piura) 28,978 m2 faneg


topo (en Arequipa) 4,761 m2 = 0.21 ha topo
quintal métrico 100 kg qqm
quintal 45.35 kg (4 arrobas, 100 libras) qq
libra (16 onzas) 0.45359 kg lb
arroba 25 lb = 11.502 kg @
unidades formadoras de colonias ufc(UFC)
voltio (volt, potencial eléctrico, diferencia potencial de la fuerza
V
electromotriz, W/A)
watt (nombre del vatio en la nomenclatura internacional, poder,
W
flujo, radiante, J/s)
kilovoltios (unidad de tensión eléctrica equivalente a 1,000 voltios) kV
hertz (frecuencia, es la frecuencia de un fenómeno periódico cuyo
Hz
periodo es un segundo)
newton (fuerza) N
pascal (presión, N/m2) Pa
joule (energía, trabajo, cantidad de calor, N.m) J
coulombio (coulomb, cantidad de electricidad, carga eléctrica A.s) C
TÉRMINO SÍMBOLO
amperio (ampere = nombre del amperio en la nomenclatura
internacional, unidad de la intensidad de la corriente A
eléctrica equivalente al paso de un coulombio por segundo)
ohm (resistencia eléctrica, V/A) 
lumen (flujo luminoso, unidad de radiación de la luz) lm
lux (iluminación, unidad de intensidad luminosa, igual a una bujía-
lx
metro)
weber (flujo magnético, unidad de flujo magnético igual al flujo que
al atravesar una espiral produce una fuerza electromotriz de Wb
un voltio si se anula uniformemente en un segundo)
henrio (henry, conducción, potencia conductora, Wb/A) H
siemens (conducción, potencia conductora, A/V) S
antemeridiano  (na) a.m.
postmeridiano  (na) p.m.
Unidades Internacionales (vitaminas) U.I.
Conductibilidad eléctrica (contenido de sales que contiene un
líquido (agua), solución nutritiva, solución nutritiva, etc. Y se C.E.
expresa en moho/cm.
pH (una solución nutritiva es ácida si su pH es menor de 7, neutro,
pH
si tiene un valor de 7 y alcalino si el pH es superior a 7)
94

4. MODELOS DE PROYECTOS
95

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO

FACULTAD DE CIENCIAS BIOLOGICAS

PROYECTO DE INVESTIGACIÓN

1. TITULO: CONCENTRACION DE HISTAMINA EN PESCADO CONSERVADO


A BAJAS TEMPERATURAS QUE SE COMERCIALIZA EN LA
CALETA SANTA ROSA (CHICLAYO); ENERO-DICIEMBRE 2002

2. CODIGO:

3. PERSONAL INVESTIGADOR

3.1. AUTORES:
3.1.1. ANTERO CELSO VASQUEZ GARCIA
PROFESOR PRINCIPAL DE

3.1.2. JOSE REUPO PERICHE


PROFESOR ASOCIADO DE

4. TIPO DE INVESTIGACION

4.1. De acuerdo al objetivo de la investigación: Básica


4.2. De acuerdo a la respuesta al problema: Descriptiva

5. DEPARTAMENTO ACADÉMICO. DEPARTAMENTO DE BIOLOGÍA- FCCBB


-UNPRG
6. PROGRAMA DE INVESTIGACIÓN. Proyecto libre

7. LUGAR DE EJECUCION:
Caleta Santa Rosa, Provincia de Chiclayo; Departamento de Lambayeque.
Laboratorio de Bromatología- FCCBB- UNPRG
Laboratorios LACBI – Chimbote.

8. DURACION ESTIMADA: 12 meses (Diciembre 2 001 – Enero 2003)


96

9. FECHA DE INICIO: 01 de Diciembre del 2001

10. Presentado por:

.......................................................... ..........................................................
MSc. ANTERO VASQUEZ GARCIA MSc. JOSE REUPO PERICHE
Autor Autor

Lambayeque, Diciembre 01 del 2001

II. ASPECTO DE LA INVESTIGACION

2.1 MARCO LOGICO

2.1.1 SITUACION PROBLEMATICA:

El pescado, en términos generales, es rico en proteínas, grasas, vitaminas y


minerales; y es por lo tanto un alimento de elevado valor nutritivo; además,
por la coincidencia de los tres factores: i) fácil digestibilidad, ii) un contenido
óptimo de aminoácidos desde el punto de vista nutricional, y iii) el abundante
acidos grasos poliinsaturados de la serie Omega 3, 6, vitaminas y sales
minerales, permite catalogarlo como un alimento de elevado valor,
particularmente indicado para proporcionar a nuestro cuerpo, todos los
aminoácidos esenciales.

Fehlhaber y Janetschke (1993) le otorgan especial interés en la intoxicación


por aminas biógenas; específicamente histamina que proviene de productos
pesqueros tales como caballas, sardinas y atunes. La intoxicación provocada
por estos peces recibe en USA el nombre de Scombroid fish poisoning
(intoxicación por escómbridos); y establecieron que como requisito para la
producción de concentraciones tóxicas de histamina, debe haber una tasa
relativamente elevada de histidina, la presencia de gérmenes capaces de
producir histidin decarboxilasa y la coincidencia de condiciones óptimas para
la actividad enzimática y que concentraciones de histamina de 5 a 10 mg %
ingresados por vía oral pueden tener ya efectos tóxicos en personas
sensibles; dosis superiores a 100 mg resultan altamente tóxicas.

El Perú es uno de los países pesqueros más importantes del mundo, sus aguas
marinas, están caracterizadas por la presencia de zonas de intenso afloramiento
que, asociada a diversos factores ambientales y biológicos, constituyen un
ecosistema de gran productividad natural, con la consecuente presencia de una
gran diversidad específica y biomasa de recursos pesqueros. En el contexto
internacional, el Perú ha ocupado en los últimos años el segundo lugar en volumen
de producción de recursos pesqueros, después de China, habiendo alcanzado los
desembarques, en algún momento, niveles cercanos al 10% de la captura mundial
(ITP, 1998)
97

A pesar de la riqueza del mar peruano, el nivel de consumo de pescado es


relativamente bajo, alrededor de 14,5 kg/persona/año; un poco mas del promedio
mundial (11Kg/persona/año); sin embargo existe una marcada variación de un lugar
a otro, de modo tal que en Lima y en ciudades costeras del norte el consumo es
casi tres veces el promedio nacional.( BBVA Banco continental, 2000)

La importancia del pescado en la alimentación aumenta de manera creciente,


debido al desarrollo de la técnica pesquera de procedimientos de conservación,
tratamiento y preparación, así como, por la divulgación de los conocimientos
científicos que consideran al pescado como una buena fuente de proteínas,
vitaminas y otros compuestos inorgánicos, siendo cada uno de éstos componentes
casi similar al de otras carnes y en algunos casos logra superarlos (Felhaber y
Janetschke, 1993).

La tendencia del consumo de pescado a nivel mundial se explica desde dos


perspectivas; la primera es la tendencia cualitativa, que se debe al avance
tecnológico y en las preferencias de los consumidores que incluye: i) cambios en la
dieta por motivos de salud (beneficios en el tratamiento de enfermedades como el
Parkinson y Alzheimer; reduce los niveles de colesterol en sangre y a motivos
nutricionales); ii) cambios de preferencia; iii) mejoramiento en los procesos de
empaque y canales de distribución d)incremento en los niveles de vida debido al
crecimiento económico en los países desarrollados y iv)cambios en los factores
sociales.(BBVA Banco Continental, 2000)

En el pescado se distingue tres tipos de músculo: i) músculo estriado, que


constituye la carne del pescado; ii) músculo liso que se encuentra en las vísceras y
iii) músculo cardíaco que es más o menos una estructura intermedia entre las otras
dos. Igualmente, la principal parte comestible de los animales marinos está
constituida por los músculos corporales de mayor tamaño; sin embargo, también se
aprovechan como alimento muchas otras partes, en especial la piel, hígado, bazo,
huevas, aletas de los escualos y el tracto alimentario de los calamares (Suzuki,
1987).

Los músculos que forman los filetes de los peces reciben el nombre de grandes
músculos laterales y discurren a ambos lados del cuerpo. Están cubiertos por capas
musculares más delgadas, que se extienden por debajo de la piel. Los grandes
músculos laterales son por lo general de tonalidad blanquecina. Se denominan
músculos blancos u ordinarios; mientras que el músculo subcutáneo contiene
mucha mioglobina, recibiendo el nombre de músculo rojo u oscuro. La cuantía y
distribución de la carne oscura en el cuerpo del pez, es una característica de las
diferentes especies (Sikorski, 1994). Desde el punto de vista nutritivo, el músculo de
pescado se puede comparar favorablemente con otros alimentos de origen animal
tales como la carne de los animales de abasto. El valor nutritivo y comercial de los
diversos peces, dependen de la estructura de su carne y otras partes comestibles,
de la proporción en que estas partes entran en el peso total de los ejemplares, de la
composición química de la carne, y de factores referentes a los métodos de pesca y
manipulación. El pescado es una de las principales fuentes de proteínas en la
alimentación del hombre. Pero no es sólo un buen alimento sino que también
proporciona aceites, piensos y productos de valor para la industria, que puedan ser
aprovechados con la finalidad de obtener nuevos productos destinados al consumo
humano. (Ordóñes, 1998)
98

Los principales componentes químicos de la carne de pescado son: agua, proteínas


y lípidos; en conjunto forman hasta el 98% del peso total de la carne. Estos
componentes tienen máxima importancia en lo referente al valor nutritivo,
propiedades texturales, calidad organoléptica y capacidad de almacenamiento de la
carne. Los restantes constituyentes, es decir, los hidratos de carbono, vitaminas y
sales minerales, se encuentran en menor cantidad. los contenidos de los
componentes principales en el cuerpo de los peces dependen principalmente de la
especie, grado de madurez sexual y estado nutritivo de los animales. Además
indica que Los músculos del pescado están constituidos por varios grupos de
proteínas: i) las que forman la fracción sarcoplasmática, que desempeñan las
funciones bioquímicas en las células; ii) las proteínas miofibrilares del sistema
contráctil; y iii) las proteínas de los tejidos conjuntivos, responsables principalmente
de la integridad de los músculos. Del mismo modo el autor agrega que los músculos
oscuros de los peces contienen más lípidos que los músculos blancos, debido a su
superior proporción de triacilgliceroles, necesarios como reserva energética para
nadar. Por lo común los peces pelágicos tienen más músculos oscuros y son más
grasos, mientras que los peces demersales, menos móviles, son generalmente
magros, con carne blanca (Sikorski, 1994).

Un estudio detallado del músculo rojo, generaliza que todas las especies de
pescado contienen en el músculo rojo más cantidad de grasa bruta que en el
músculo blanco; define igualmente que las grasas del pescado son más ricas en
ácidos grasos poliinsaturados y estos son los que en realidad diferencian a las
grasas de los peces de los animales de origen terrestre y son, por tanto, los que
confieren sus características peculiares. En general, y comparando con otros tipos
de grasa, puede afirmarse que la del pescado posee cantidades relativamente
abundantes de ácidos grasos poliinsaturados (Love en Suzuki, 1987).

Por ello, se ha sugerido que aumentando el consumo de ácidos grasos


poliinsaturados n-3 hasta 0,5 - 1,0 g/día se podría reducir un 40% del riesgo de
muertes por problemas cardiovasculares en personas de mediana edad; manifiesta
además que el pescado en general, tiene una grasa mucho más insaturada y con
un mayor contenido de ácidos grasos poliinsaturados n-3 que la de la carne, por lo
que son alimentos mucho más sanos desde el punto de vista nutritivo (Ordóñes,
1998).

Desde otra perspectiva, el pescado es uno de los alimentos más perecederos, por
lo que necesita de cuidados adecuados desde que es capturado en fresco hasta
que llega al consumidor o a la industria transformadora. La manera de manipular el
pescado en este intervalo de tiempo determina la intensidad con las que se
presentan las alteraciones, que obedecen a tres causas: i) enzimática, ii) oxidativa y
iii) bacteriana y la rapidez con que se desarrollan cada una de estas alteraciones
depende de como se aplican los principios básicos de la conservación de los
alimentos, de la especie de los peces y de los métodos de pesca; por tanto, la
frescura del pescado determina la calidad de los productos derivados y la limitan
considerablemente. El pescado y los mariscos tienen una gran variedad de
minerales, siendo los más abundantes el calcio, fósforo, sodio, potasio, y magnesio.
Algunos pescados son excelentes fuentes de calcio con concentraciones que varían
de 5 a 200 mg por 100g de producto. Esta variabilidad puede atribuirse a la
cantidad de calcio en el agua y/o alimentos del pez, edad, tamaño y desarrollo
sexual del animal (Ordóñes, 1998).
99

Los peces que se consumen enteros son buena fuente de calcio, así como también
los productos enlatados que llevan las espinas. La carne y residuos del pescado
son muy ricos en vitaminas y minerales (Sikorski, 1994). El contenido de vitaminas
del pescado varía con la especie, edad, estación, madurez sexual y área geográfica
de captura. Las vitaminas hidrosolubles son más abundantes en la carne del
pescado que las liposolubles (Ordóñes, 1998)

Frazier y Westhoff (1993) definieron que en general en el medio acuático el


pescado tiene como flora bacteriana normal 1x10 6 bacterias /cc de las cuales el 95
% son gram negativas; en el tubo digestivo se encuentran bacterias de los géneros
Proteus, Vibrio, Clostridium tetani, Clostridium botulinum y enterobacteriáceas
y en el mucus Pseudomonas, Achromobacter, Flavobacterium que son
aeróbicas o anaerobias facultativas y que en las alteraciones de tipo bacteriana
conducen a la putrefacción de los tejidos por su capacidad invasiva luego de la
muerte del pez; aspecto que debe tomarse muy en cuenta por su marcada
influencia en los distintos procesos de conservación
Cheftel y Cheftel (1983) reportaron que la producción de histamina es mas
frecuente en pescados de carnes (relativamente) oscuras, tales como los
escómbridos (túnidos y caballas) donde la histidina es abundante; razón por la cual
a la histamina se le da el nombre de escombrotoxina, señalando además, que la
histamina proviene en parte de la autólisis no microbiana; pero determinaron que su
origen principal es por alteración bacteriana

Ludorff y Meyer (1978) reportaron concentraciones de histidina de 1 348 mg % en


caballas y de 559 mg % en mugílidos. La histamina, sustancia tóxica incluida en el
grupo de biotoxinas; a cuya sustancia se atribuye el gusto picante del pescado en
descomposición, la que se forma en el músculo incluso en condiciones asépticas.
Este proceso se efectúa por acción bacteriana sobretodo por Proteus morgagni. Al
respecto Kietzmann et al., (1974) manifestaron que en Japón se conoció la
importancia de determinadas especies de Proteus como formadoras de histamina
en pescado y se aclaró su papel en la denominada intoxicación histamínica por
consumo de pescado y confirmaron que tipos especiales de Proteus morgagnii
son conocidos como intensos productores de histamina; además indicaron que la
temperatura óptima de crecimiento es de 20°C y con pH de 6 a 7. La actividad
productora de histamina varía de una cepa a otra; pero la cantidad producida
depende especialmente de la histidina existente en los músculos del pescado y se
encuentra en mayores proporciones en la carne roja de atún caballa bonito o
albacora también en arenque y pez espada. En el contexto de los aminoácidos
proteicos, mención especial merece la histidina que se encuentra en cantidades
entre 1,27 y 2,40 mg por gramo; aunque en los peces de músculo rojo, estos
valores superan los 20 mg por gr. Los peces son los únicos animales productores
de carne que contienen histidina libre y 1-metilhistidina en cantidades que van del
0,87 a 18,87 mg en la corvina y de 0,34 a 4,79 mg por gramo de proteína en la
merluza. Los mismos autores determinaron que la concentración crítica para que se
produzca una intoxicación histamínica o escombroidosis; que es la forma mas
frecuente de intoxicación por pescado en todo el mundo atribuyéndose como la
causa mas común es la falta de refrigeración rápida en el pescado en el ser
humano por consumo de pescado se estiman en 100 mg %. Otras especies
bacterianas, entre ellas (salmonellas y shiguelas) son también formadoras de
histamina pero en menores proporciones que Proteus motgagnii; éste último
pertenece a la flora normal de la superficie del pescado; por lo consiguiente es de
origen marino y se ha determinado que los gérmenes productores de histamina
100

representan del 0,1 al 1% de todos los gérmenes que integran la flora de la


superficie del pescado.

Se ha sugerido que el contenido de histamina es un indicador del grado de


frescura del pescado. Los peces de carne blanca y los moluscos sólo contienen
trazas de histidina en sus tejidos y es escasa la cantidad de histamina que pueden
generar. La histidina forma hojitas incoloras insolubles en alcohol y agua, funde a
los 285°C, presente en muchas proteínas como la leche, albúmina de huevo, en la
fibrina, queratina, es de gran significado para el organismo humano, constituyendo
a menudo el centro activo de diversas enzimas y con los metales pesados puede
formar enlaces, tal como sucede en la unión con el hierro en todas las
hemoproteínas, coopera en la generación del ácido fólico, nucleínico y hemoglobina
y es componente de la quimotripsina al ser catabolizada mediante una
desaminación específica lleva a la formación de ácido formiaminoglutámico
(FIGLU), el mismo que en presencia del ácido fólico es convertido en ácido
glutámico, en otras circunstancias por decarboxilación produce la histamina.

Taylor (2000) en relación al envenenamiento histamínico, conocido también como


envenenamiento por pescado escombroide sugirió que éste se incluye en los
debates sobre las alergias alimentarias y la sensibilidad a ciertos alimentos y
determinó que éste, no es propiamente una sensibilidad alimentaria, ya que puede
afectar a todas las personas. La confusión obedece a que el envenenamiento
histamínico produce síntomas similares a las alergias, cosa que no debe
sorprendernos ya que la histamina es una de los principales causantes de alergias
alimentarias mediadas por IgE. En el caso de las alergias alimentarias mediadas
por IgE, la histamina, es liberada por los mastocitos in vivo.

En la caleta Santa Rosa (Chiclayo) se comercializa una abundante cantidad de


especies de peces que son capturadas en el área de influencia de los pescadores
que faenan en la zona aledaña; igualmente se comercializa significativos
volúmenes de pescado traídos de toda la zona norte del Perú; desde Tumbes;
Máncora, Talara; Paita; Parachique; San José y en algunas oportunidades desde
las regiones centro y sur como Chimbote y Huacho. El pescado es recepcionado en
el centro de acopio de la empresa ECOMPHISA, generalmente fresco; en cámaras
isotérmicas en refrigeración con hielo o equipadas con unidades de refrigeración o
congelamiento. La posterior comercialización del producto, en refrigeración o
congelado, se destina al consumo humano directo en mercados de las ciudades de
Chiclayo; Lambayeque u otras de la Provincia o departamentos (Cajamarca, Trujillo
y Lima).

2.1.3 JUSTIFICACION E IMPORTANCIA

Se justifica la ejecución de este proyecto, por que el pesado conservado a


temperaturas bajas, en la mayoría de los casos, se realiza sin ningún criterio
científico y porque este producto es mas accesible a los estratos poblacionales de
menor poder adquisitivo, asociado al desconocimiento del potencial peligro de la
presencia de histamina. Con los resultados obtenidos y divulgados, se lograría
incrementar el conocimiento de la relación intrínseca entre esta forma de
conservación y la presencia de microorganismos productores de histamina, que sin
duda redundará en el conocimiento y adecuado consumo del pescado como
alimento de origen hidrobiológico.

2.1.4 PROBLEMA CIENTIFICO


101

El problema científico se plantea en los términos siguientes:


¿Cual es la concentración de histamina en pescado conservado a
temperaturas bajas que se comercializa en la caleta Santa Rosa; (Chiclayo)?

2.1.5 HIPOTESIS:
La concentración de histamina en pescado conservado a temperaturas de
refrigeración y congelamiento que se comercializa en la en la caleta Santa Rosa
(Chiclayo) se encuentra en niveles considerados normales.

2.2.2 DISEÑO DE CONTRASTACION DE HIPOTESIS


El proyecto propuesto enmarca su diseño de contrastación en los diseños
descriptivos correspondientes a una investigación descriptiva causal
comparativa, según Sánchez y Reyes (1987) en la que las variables en estudio
serán las concentraciones de histamina en pescado conservado a temperaturas
bajas que se comercializa en la caleta Santa Rosa en relación con aspectos
pertinentes; tales como contenido de proteínas totales, cloruros; pH y aspectos
físico organolépticos durante un tiempo determinado; los que proveerán datos para
determinar la calidad del producto.

2.1.6 OBJETIVOS
1. Determinar la concentración de histamina del pescado
conservado a temperaturas bajas que se comercializa en la caleta Santa
Rosa (Chiclayo) con énfasis en los peces de consumo humano masivo.

2.2. MARCO METODOLOGICO

2.2.1. TIPO DE INVESTIGACION

Lo previsto para la realización de este proyecto, corresponde a una investigación de


tipo descriptiva y prospectiva según las consideraciones de Pineda et al., (1994)

2.2.2 POBLACION Y MUESTRA EN ESTUDIO

La población objeto de estudio estará constituido por peces que son acopiados y
comercializados en la caleta santa Rosa, considerando especies, y condiciones de
conservación a temperaturas bajas diferenciándose según los procedimientos y el
tiempo de almacenamiento.

Se realizarán muestreos quincenales durante doce meses, según disponibilidad;


para el estudio se tomará al azar una muestra de 25 especímenes de cada especie
los que serán sometidos a evaluaciones de concentración de histamina en fresco y
luego de transcurridos: 1, 2 y; 8 días después de haberse sometido al proceso de
conservación registrándose todos los datos pertinentes.

2.2.3. MATERIAL INSTRUMENTAL Y EQUIPO DE LABORATORIO Y/ O CAMPO


1. 5 columnas de intercambio iónico cilíndricas de 50 mm x 500 mm
2. 1 Espectrofotómetro, marca Jenway modelo 6300, rango de 0,300 a
1,999 A°, resolución 0,001 A°
3. Cronómetro de mano marca Casio LC 787
4. Balanza analítica marca Mettler, sensibilidad 0,0001 g
5. Equipo MicroKjeldahl
6. Balanza de precisión Marca OHAUS Capacidad 2 kg, sensibilidad 0,1 gr
102

7. Ictiómetro de madera de 0,5 m sensibilidad 0,001 m


8. Cintas de pH Marca Whatman de 0 a 14; sensibilidad al 0,5
9. Material de laboratorio diverso; probetas, pipetas, buretas, fiolas, etc.
10. Hojas de registro de datos
11. Reactivos adecuados según las técnicas de análisis.

2.2.4. TECNICAS E INSTRUMENTOS DE RECOLECCION DE DATOS

Seleccionada la especie, se los numerará, ordenará y realizará la medición de la


longitud total (mm) utilizando un ictiómetro de madera; se registrará luego el peso
total utilizando una balanza de platillos; se identificará el sexo del espécimen, luego
el grado de madurez sexual de acuerdo a la escala de Johansen en Vásquez
(1996). Se determinará posteriormente el grado de frescura de acuerdo al sistema
completo de puntuación descrito en Ludorff y Meyer (1978). En los especímenes
seleccionados para el estudio; se procederá a medir los siguientes parámetros de
análisis:
El pH se determinará en cada etapa; la cantidad de proteínas y cloruros en fresco y
luego del salpreso, transcurridos 1, 2 y 8 días se realizará de acuerdo a las técnicas
y métodos de la AOAC expuestos en Hart y Fischer (1991) y siguiendo a Obregón
(1975) considerando:
1. Determinación de proteínas, por el método de Kjeldahl
2. Determinación de la cantidad de NaCl según el método de Moore
3. Determinación de Grasas totales por el método de Soxhlet

Para la determinación de histamina se utilizará el método de Kawabata (1975)


descrito en Vargas (1990) modificado por los autores utilizando columnas de
intercambio iónico usando amberlita de 100 a 200 meah, CG 50 (tipo 1) en los
términos siguientes como se describe a continuación:

a. PREPARACIÓN DEL LIQUIDO EXTRAIDO DE LA CARNE DE PESCADO:

De una muestra de 5 especímenes de pescado; se obtendrán porciones del


músculo dorsal libre de escamas y piel se mezclará uniformemente y luego se
pesarán exactamente 10 gramos de carne bien mezclada pasándola posteriormente
a un mortero triturándola adecuadamente. Se agregarán 20 ml. de agua destilada y
seguir mezclando, y después 20 ml de una solución de ácido tricloroacético al 10%
y mezclar bien dejando en reposo durante 10 minutos. Luego se filtrará con papel
filtro seco Toyo No 5A, y se pasará el líquido a una fiola de 50 ml, y enrasará
exactamente a 50 ml; considerando que 1 ml de líquido extraído equivale a 0.2 g de
muestra.

Se realizará luego la separación de la histamina a través de la columna de resina


de intercambio iónico. Del líquido extraído de la carne de pescado preparado; se
tomarán 10 ml y se los colocará en un vaso de precipitación de 30 a 50 ml, luego se
modificará el pH de 4,5 a 4,7 utilizando gotas de una solución de NaOH 10%, a esto
se agrega 10 ml de ácido acético bufferizado 0,4 N de pH 4,6 y se mezcla para
posteriormente verterlo a la columna. Con 80 ml de ácido acético 0.2 N se lavará, el
pequeño vaso de precipitación utilizado y se vierte también a la columna a fin de
pasar toda la amina. La Histamina absorbida por la resina se removerá con 8 ml de
ácido clorhídrico 0,2 N. El pH del líquido se modifica a 7 con una solución de
carbonato de sodio 1,5 N agregándoles agua destilada hasta tener 10 ml, que es el
volumen constante. Este será el líquido de prueba para la reacción de diazo.
103

Colorimetría de la Histamina con el Reactivo Diazo.

En un tubo de prueba de tamaño mediano (18 mm de diámetro, 180 mm de longitud


aproximadamente) se colocará 1,25 ml de nitrito de sodio 5% y luego por las
paredes se adicionará 1,25 ml de solución de ácido sulfanílico. Luego se agregará 1
ml de la muestra y se esperará 1 minuto luego se adicionará por las paredes 2,5 ml
de carbonato de sodio 1,1N y se agitará. La lectura en el espectrofotómetro se
realizará después de 5 minutos 510 nm a una longitud de onda.

Se puntualiza que las muestras serán procesadas de la siguiente manera: los datos
biológico pesqueros se tomarán en los módulos de procesamiento en la caleta
Santa Rosa y la determinación de proteínas; cloruros así como la cuantificación de
histamina en los laboratorios de Bromatología de la Facultad de Ciencias Biológicas
de la UNPRG.

2.2.5. ANALISIS ESTADISTICOS DE LOS DATOS


Los datos obtenidos se ordenarán en tablas y se tabularán utilizando la hoja de
cálculo Excel del software Office 2000; y para valorarlos estadísticamente se
utilizarán medidas de tendencia central, validados con la prueba F de Fisher y T de
Student según lo pautado en Hernandez et al., (1998).

III. ASPECTO ADMINISTRATIVO

3.1 CRONOGRAMA DE ACTIVIDADES

Las actividades a realizar se resumen en la siguiente Diagrama de Gannt


Años 200 2 0 0 2 2
Meses 1 E F M A M J J A S O N D
Actividades D
1. Preliminares
- Contacto con la realidad --
- Implementación ---- ---- --

2. Ejecución
- Recolección de datos --- --- --- --- --- --- --- --- ---

- Tabulación y Análisis --- --- --- --- --- --- ---


3. Comunicación
- Preparación del informe --- --- --
- Presentación del
informe Final ---

3.2 PRESUPUESTO

02.00 BIENES S/ 6 400, 00

02.02 Material de Escritorio...............................................S/ 100,00


02.03 Material para procesamiento de datos S/ 200,00
02.05 Reactivos de Laboratorio S/ 2 000,00
02.06 Material de impresión, fotográfico y de
104

fotocopiado...........................................................S/ 400, 00
02.12 Otras
Materias primas....................................................S/ 3 500, 00
Material fungible.................................................S/ 200, 00

03.00 SERVICIOS S/ 1 700, 00

03.05 Servicio de procesamiento de datos.......................S/ 200, 00


3.0 0 Pasajes y viáticos..................................................S/ 1 500, 00

09.00 BIENES DE CAPITAL S/ 1 000, 00

Equipos de laboratorio......................................................S/ 1 000,00

TOTAL S/ 9 100, 00

3.3 FINANCIACION

El proyecto será financiado por el FEDU de la UNPRG

IV. REFERENCIAS BIBLIOGRAFICAS

BBVA BANCO CONTINENTAL. 2000. Perspectiva Mundial del Consumo Humano


Directo de Pescado, en Perú País en Marcha, Analysts View on Peruvian
Fisheries, Lima. PROMPERU-Ministerio de Pesquería.

CHEFTEL, J. Y H. CHEFTEL. 1983. Introducción a la bioquímica y tecnología de


los alimentos. Vol I., Zaragoza Acribia. p: 60-85.

FELHABER. K. y P. JANETSCHKE. 1993. Higiene veterinaria de los alimentos,


Zaragoza Acribia

FRAZIER, W. y D. WESTHOFF. 1993. Microbiología de los alimentos. 4ª. ed.,


Zaragoza. Acribia.

HART, F. Y H. FISCHER. 1991. Análisis moderno de los alimentos, 2ª reimpresión.


Zaragoza. Acribia

HERNANDEZ, R.; C. FERNANDEZ y P. BAPTISTA. 1998. Metodología de la


investigación 2ª. Ed. Santa Fe de Bogota. McGraw Hill.

INSTITUTO TECNOLOGICO PESQUERO DEL PERU. 1998. Focus: 1(1)

KIETZMANN, U.; D. RAKOW.; K. PRIEBE y K- REICHSTEIN. 1974. Inspección


veterinaria de pescados. 2ª. ed., Zaragoza, Acribia.

LUDORF, W. y V. MEYER. 1978. El pescado y los productos de la pesca,


Zaragoza. Acribia p: 151-159

OBREGON, R. 1975. Análisis químico bromatológico comparativo de la trucha arco


iris (Salmo gairdneri irideus, Gibbons 1855, de rio y estanque. Tesis Bach.
En Ciencias Biológicas, , Trujillo. UNT. Mimeo.
105

ORDOÑES, J. 1998. Tecnología de alimentos; alimentos de origen animal. Vol II,


Zaragoza. Acribia.

PINEDA, E.; E. DE ALVARADO y F. DE CANALES. 1994. Metodología de la


Investigación. 2ª. ed., Washington. OPS.

SANCHEZ, H. Y C. REYES. 1987. Metodología y diseños en la investigación


científica 3ª reimpresión, Lima. Repco

SIKORSKI, Z. 1994. Tecnología de los productos del mar. Recursos Composición y


Conservación. Zaragoza. Acribia.

SUSUKI, T. 1987. Tecnología de las Proteínas del Pesado y Krill. Zaragoza. Acribia.

TAYLOR, S. 2000. Envenenamiento histáminico. En Conferencia sobre comercio


internacional de alimentos a partir del año 2000. FAO
VASQUEZ, A. 1996. Evaluación del recurso Sardinops sagax sagax (sardina) norte
del Perú (05°S – 10°S) Setiembre de 1995 - Agosto 1996, Tesis Maestría en
Ciencias., Trujillo UNT. Mimeo.

VASQUEZ, A. y J, REUPO. 1999. Bromatología Analítica, Manual de Prácticas,


Lambayeque, UNPRG.

VARGAS, A. 1990. Histamina, método de Kawabata, Chimbote. LACBI S.C.R.L. vs.


Pgs mimeo.
106

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO
PROYECTO DE TESIS DE DOCTORADO

I. GENERALIDADES
1. TITULO: IMPACTO DE LA INDUSTRIA PESQUERA SOBRE EL SISTEMA
MARINO LITORAL DE PUERTO MALABRIGO; MAYO -
DICIEMBRE DEL 2003.

2. AUTOR:
2.1. NOMBRE: ANTERO CELSO VASQUEZ GARCIA
2.2. GRADO ACADÉMICO: MAESTRO EN CIENCIAS; MENCIÓN
EVALUACIÓN Y ADMINISTRACIÓN DE
RECURSOS PESQUEROS

2.3. TITULO PROFESIONAL: BIÓLOGO PESQUERO


2.4. DIRECCIÓN: ANTÚNEZ DE MAYOLO 319. URB LOS GRANADOS;
TELEFONO 425671; 9672373; TRUJILLO

- 2.5 CENTRO DE TRABAJO:


UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO;
FACULTAD DE CIENCIAS BIOLÓGICAS;
2.6. PROGRAMA DE DOCTORADO EN MEDIO AMBIENTE
107

3. TIPO DE INVESTIGACIÓN
4.1 De acuerdo al fin que se persigue: aplicada
3.2 De acuerdo a la técnica de contrastación: descriptiva

4. LOCALIDAD E INSTITUCIÓN EN DONDE SE DESARROLLARÁ EL


PROYECTO:
Litoral de Puerto Malabrigo; Distrito de Rázuri; Provincia de Ascope.
Departamento La Libertad.
IMARPE; estación de muestreo de Puerto Malabrigo y Laboratorio Costero
Santa Rosa.
Laboratorio de Biología Pesquera de la Universidad Nacional Pedro Ruiz
Gallo
Laboratorio de Biología Pesquera de la Universidad Nacional de Trujillo
Laboratorio de Química Analítica de la Universidad Nacional de Trujillo
5. DURACIÓN DEL PROYECTO: 8 meses
5. CRONOGRAMA DE TRABAJO
Etapas Fecha de inicio Fecha de Dedicación
término semanal
6.1 Recolección de 02-05-2003 31-10-2003 30
Datos
6.2. Análisis de los 02-06-2003 15-11-2003 30
datos
6.3 Elaboración del
informe 15-10-2003 30-12-2003 30

7. Recursos:

7.1. Personal
1 Investigador
8 auxiliares
1 chofer

7.2. Bienes:
7.2.1. De consumo:
Material fungible: frascos de plástico; baldes y bolsas plásticas; cajas de
tecnoport; placas petri; láminas y laminillas; rollos de película fotográfica;
cintas de filmadora y vídeo; material de laboratorio; reactivos para análisis
microbiológicos

7.2.2. De inversión:
1computador personal marca Hewlett packard
108

1 microscopio binocular; 1 estereoscopio; 1 maquina fotográfica Canon AE1;


1 filmadora de 8 mm marca Sony.
1. espectrofotómetro;
1 equipo analizador de aguas;
1 Balanza analítica Mettler 0,0001 g;
1 pH-Metro Hanna 8135;
1 botella Niskin;
1 GPS
redes de fitoplancton, etc.

7.3. Servicios
Fotocopiado; viáticos y asignaciones; remuneraciones de chofer y auxiliares;
alquiler de embarcación, movilidad etc.

8. Presupuesto

5.3.0.1 Bienes y Servicios US$ 6 500,00

5.3.11.30 Materiales de consumo


Materiales de oficina y escritorio US$ 2 000,00
Materiales de salud, farmacéuticos y reactivos US$ 2
000,00
Materiales de impresión 1 000,00
Materiales fotográficos y fonotécnicos
500,00
Impresiones y suscripciones 1 000,00

5.3.00.00 Servicios US$ 6 700,00


5.3.11.20 Viáticos y asignaciones
Viáticos US$ 2 000,00
Movilidad Local 2 000,00
Otros; pago, auxiliares 2 000,00

5.3.11.36 Otros servicios de terceros


Publicaciones US$ 200,00
Impresiones 300,00
Encuadernaciones 200,00

6.0.0.0 GASTOS DE CAPITAL US$ 8 500,00


6.5.22.0. Inversiones
6.7.11.51. Equipamiento de materiales duraderos US$ 5 000,00
Mobiliario y equipo de oficina 2 000,00
Equipo de procesamiento automático de Datos 1 500,00

Total US$ 20 700,00

9. Financiamiento
9,1 Con recursos propios US$ 1 700,00
9.2 Con recursos externos US$ 19 000,00

Trujillo, Abril 07 del 2003


109

II. ASPECTO DE LA INVESTIGACION

1. ANTECEDENTES Y JUSTIFICACIÓN DEL PROBLEMA


La teoría científica que sustenta el proyecto propuesto es la expresada por
Seoanez (1996), referido a impacto ambiental, definido como la alteración del
medio producida por una acción antrópica (de origen o acción humana), y la
consideración de que Evaluación de Impacto Ambiental; es el estudio de
identificación, predicción y previsión de los efectos de una acción antrópica
sobre el medio ambiente y de su posible minimización.

Una segunda teoría se refiere a la calidad de vida explicitada por Coneza


(1997a) de la manera siguiente: El término calidad de vida está definido por el
nivel de renta; el bienestar social (condiciones de trabajo y vida) y calidad
ambiental en función de índices de desarrollo como el tiempo y la ubicación
geográfica.

Al describir los principios de la gestión ambiental; considera el entorno de una


actividad, como el ambiente que interacciona con aquella en términos de entradas
(recursos, mano de obra, espacio, etc.) y de salidas (productos, empleo, rentas,
residuos) y por tanto en cuanto a provisor de oportunidades, generador de
condicionantes y receptor de impactos. Sugiere considerar en el entorno, un estudio
del medio físico, tanto inerte (aire, clima y tierra) como biótico (flora, fauna) y
perceptual (paisaje) y otro del medio socioeconómico, lo que conllevaría a realizar
un inventario de aquella parte del entorno real o potencialmente afectado.

En otros términos, toda actividad empresarial, recibe del entorno, recursos y los
transforma en productos, generando residuos que devuelve al medio; genera
igualmente empleo y simultáneamente es motor de desarrollo. Ello permite el
incremento de la calidad de vida, que se reflejaría en la elevación de las rentas y el
bienestar social y en la mejora de las condiciones del entorno; paralelamente, la
sociedad va presionando a la empresa de manera directa o a través de las
administraciones públicas que regulan actividades y exige mejores condiciones de
protección medioambiental.

Miller (1994); mencionó que toda forma de tecnología y todo lo que hacemos y
consumimos resulta en contaminación y degradación del ambiente; ello implica
algún grado de riesgo para la salud del ser humano y el bienestar de otras
especies, por tanto no hay productos o procesos ambientalmente inocuos, sino que
en algún grado son mas o menos nocivos para el ambiente.

Glynn y Heincke (1999), señalaron que un principio pertinente y significativo


que se debe considerar es el de desarrollo sostenible, definido como el
desarrollo que satisface las necesidades del presente y preserva los que
serán requeridos por las generaciones futuras. Este paradigma ha cambiado la
filosofía de la explotación destructiva de la sociedad a una que a largo plazo,
fomente la protección del ambiente y sus habitantes; esto implica que para los
científicos, es un cambio respecto a las prácticas pasadas cuando los avances
tecnológicos tenían como guía criterios de eficiencia; productividad, rentabilidad y
otros de aspecto netamente económico. Sin perder su validez; a ellos se han
adicionado inquietudes por los impactos en la salud y el ambiente, la conservación
110

de los recursos y la energía, el manejo de los residuos y los problemas sociales


como las demandas públicas; el desempleo y la criminalidad. Indudablemente que
las mejoras tecnológicas que se han conseguido para la existencia humana han
sido significativas, pero también es innegable que se han producido impactos
destructivos en el ambiente.

Para relacionar, tanto las teorías científicas, como el marco filosófico en el que se
pretende ejecutar el presente proyecto podríamos mencionar lo siguiente:

Las aguas del mar territorial del Perú están consideradas entre las más ricas del
mundo por la variedad, calidad y cantidad de recursos hidrobiológicos que contiene.
El valioso potencial hidrobiológico debido a la corriente peruana y los afloramientos
costeros, se sustenta en una productividad que en promedio alcanza los 330 g C/
m3 / año, condición que ha permitido catalogar al ecosistema marino peruano como
uno de los de mayor productividad en el planeta (Brack y Mendiola, 2000).

Particularmente, la pesquería marina es una de las más abundantes debido a las


características bioecológicas de la corriente peruana y en especial a la presencia de
zonas de afloramiento de mayor intensidad en Paita, Pimentel, Puerto Malabrigo,
Chimbote y San Juan. En estos ambientes, la diversidad y abundancia de especies,
ha permitido el asentamiento de industrias destinadas a la elaboración de productos
hidrobiológicos en condiciones tecnológicas diferentes. La historia de la industria
pesquera se asocia inmediatamente con la disponibilidad de Engraulis ringens
(anchoveta) y Sardinops sagax sagax (sardina); pequeños pelágicos que en nuestro
mar han posibilitado el desarrollo de la industria de harina y aceite de pescado, y en
menor escala de conservas que son exportadas hacia distintos países del mundo
(Tresierra y Culquichicón; 1993).

El desarrollo de la industria pesquera, requiere siempre de un esfuerzo de


investigación científica y tecnológica considerables incluyendo producciones piloto y
pruebas de aceptación de mercado. En la industria del congelado se favorece la
preservación del pescado fresco y mantiene sus características naturales durante
un largo período de tiempo; sin embargo su comercialización, por los elevados
costos de la infraestructura, está restringida a grupos poblacionales de mayores
ingresos y de ciudades grandes, donde haya instalaciones disponibles. En el
desarrollo de la industria conservera, cuyo origen se asocia al comercio de
exportación durante la segunda guerra mundial y a la disminución de algunas
especies, objetos de pesquerías de otras latitudes; se han observado fluctuaciones
dependiendo de la abundancia de la materia prima. Inicialmente, Sarda chilensis
(bonito), fue la materia prima principal, mientras que la sardina desempeñó este rol
en la década de 1970 a 1980. Las conservas ofrecen un campo amplio para la
adaptación de los productos a las preferencias de consumidores específicos, tienen
la ventaja de favorecer el uso de especies que hayan encontrado resistencia en el
consumidor, en su comercialización no requieren facilidades especiales y por su
duración como productos esterilizados, su producción es significativa; sin embargo
el desarrollo de la industria conservera en el Perú es frenado frecuentemente por el
elevado costo de los envases, que lo convierte en un producto mayormente
destinado a la exportación, tal como sucede con las conservas de bonito, sardina,
atún, caballa y jurel. En la historia de la industria de producción de harina y aceite
de pescado se ha notado un incremento de las embarcaciones y plantas de
procesamiento; ligados con i) la relativa abundancia de materia prima, ii) el
incremento de la flota, en número y capacidad de bodega; iii) el aumento del
número de plantas de procesamiento y su capacidad de transformación, así como
111

su emplazamiento en los puertos cercanos a lugares en los que se facilitó el


desembarque, la transformación y comercialización. Ello permitió resaltar el
marcado crecimiento de esta actividad en Chimbote; Coishco, Callao; Pisco; Supe;
Huarmey; Paita y en años recientes Puerto Malabrigo (Espino, 1993).

El Instituto Nacional de Estadística e Informática; INEI (2000) reportó que la pesca


marina en 1999 alcanzó 8 484 200 toneladas métricas (t), de los cuales 7 821 700 t
fueron destinados a la producción de harina, siendo la anchoveta la que aportó el
87 % del total. En la región norte, se desembarcaron 3 195 494 t con los mayores
volúmenes en los puertos de Chimbote; Coishco, Malabrigo; Paita, Parachique;
Casma y Huarmey. Igualmente reportó que desde enero hasta mayo del 2000 se
registraron desembarques del orden de 5 068 700 t de los cuales en enero (303 000
t); Marzo (1 782 t) y Mayo (1 423 500 t), fueron utilizadas en la industria de harina y
aceite de pescado, resaltando el hecho de que en la zona norte, los mayores
volúmenes de desembarque, se registraron en Chimbote, Puerto Malabrigo, Paita y
Parachique a partir del mes de Marzo. En Puerto Malabrigo, los volúmenes de
captura se incrementaron desde 41 243 t en octubre del 2000 hasta 214 535 t en
mayo del 2001 habiendo experimentado un descenso hasta 38 395 t en julio del
mismo año.

El DL. 25977; Ley General de Pesca, en el numeral 1; inciso a del artículo 20,
diferencia la actividad extractiva de menor escala o artesanal (aquella que se
realiza con empleo de embarcaciones menores a 30 t de capacidad de bodega, con
predominio de trabajo manual) de la pesca industrial que se efectúa con
embarcaciones cuya capacidad de bodega es mayor que 30 t. Actualizado este
criterio con lo contemplado en el DS. No. 012-2001-PE, del 14 de marzo del 2001
Reglamento de la Ley General de Pesquería, en su artículo 29 considera que la
extracción en el ámbito marino se clasifica en:
a) Comercial:
1. Artesanal a menor escala
1.1. Artesanal: la realizada por personas naturales o jurídicas
artesanales
1.1.1 Sin empleo de embarcación
1.1.2 Con el empleo de embarcaciones de hasta 32,6 metros
cúbicos de capacidad de bodega y hasta 15 metros de
eslora, con predominio del trabajo manual.
1.2. Menor escala; la realizada con embarcaciones de hasta 32,6
metros cúbicos de capacidad de bodega, implementada con
modernos equipos y sistemas de pesca cuya actividad
extractiva no tiene la condición de actividad pesquera
artesanal.
2. Mayor escala: la realizada con embarcaciones mayores de 32,6
metros cúbicos de capacidad de bodega.
b. No comercial:
1. De investigación científica: comprende la extracción de recursos
hidrobiológicos mediante la pesca exploratoria o de prospección
y la pesca experimental.
2. Deportiva: la realizada con fines recreacionales o turísticos. El
ejercicio individual de la pesca deportiva no requiere permiso de
pesca.
3. De subsistencia: la realizada confines de consumo doméstico o
trueque.
112

El Ministerio de Pesquería, MIPE (1999); reportó que la flota pesquera para


consumo humano directo involucra dos actividades bien diferenciadas; i) la pesca
industrial, que abastece a las plantas harineras y las que fabrican productos
pesqueros para el consumo humano directo, como el caso de la industria
conservera, de congelado y de seco salado; etc. y ii) la pesca artesanal, que
abastece de pescado fresco para la población. Las embarcaciones artesanales para
pesca de consumo humano directo en el litoral peruano alcanzaron a 6 288 con una
capacidad de bodega promedio de 3,5 t; de las cuales 1 476 operan en Piura, 278
en Lambayeque; 138 en La libertad y 614 en Ancash; (la capacidad de bodega
promedio es de 5,3; 10,7; 7,0 y 2,3 t, respectivamente); la flota industrial estuvo
constituida por 145 embarcaciones de las cuales, 69 son de cerco (con capacidad
de bodega de 13 126 m3); 73 son de arrastre (con capacidad de bodega de 11 593
m3 ) y 3 utilizan palangre (con capacidad de bodega de 185 m3).
En lo referente a infraestructura pesquera, el número de plantas dedicadas a la
elaboración de la conserva llegó a 157 en 1994 disminuyendo hasta 99 en los años
1997 y 1998; en la producción de harina, las plantas procesadoras llegaron a un
número de 129 en 1994; 130 en 1997 y 126 en 1998 con una capacidad instalada
de 5898; 7830 y 8241 t/hora respectivamente. En 1998 las plantas dedicadas a la
producción de harina de pescado según zona de trabajo fueron: 19 en Piura; 3 en
La Libertad y 52 en Ancash.

La industria de harina y aceite de pescado en nuestro país, en la última década, ha


incrementado sus niveles de producción utilizando tecnologías de punta, que han
permitido obtener productos de mayor calidad y competitividad en el mercado
internacional; sin embargo, desde sus inicios, esta industria, ha ocasionado muchos
problemas ambientales; que aún persisten.

Una de las acciones de mayor impacto de la industria pesquera es la emisión de


efluentes líquidos, como el agua de bombeo, agua de cola y sanguaza, que se
generan como resultado de sus operaciones y que perjudican el desarrollo de la
vida marina, debido a su alto contenido de materia orgánica. Se ha definido que
todo ecosistema marino puede verse gravemente afectado por los efluentes
líquidos que emite las plantas de harina y aceite de pescado, y entre los efectos
negativos, se señalan: i) bloqueo de la penetración de la luz en la columna de agua,
debido a su alto contenido de materia orgánica y sólidos suspendidos, lo que es
muy perjudicial para la productividad marina; ii) desoxigenación del cuerpo receptor,
con la consecuente perdida de la biodiversidad debido al elevado volumen de
nutrientes y materia orgánica, iii) en alteraciones geomorfológicas del litoral y fondo
marino por la sedimentación de partículas con la consecuencia desaparición de la
vida y alteración del sistema. (MIPE, 2001).

Aumentos moderados de la productividad primaria o de la producción instantánea


de algas pueden ser considerados como beneficiosos o como efectos neutros
siempre que no resulten en efectos secundarios, tales como disminuciones
substanciales del oxígeno disuelto, donde éstos deben ser normalmente altos;
mortandad de peces o el estímulo de florecimientos nocivos o tóxicos de
fitoplancton. Por otro lado los desechos orgánicos emitidos hacia el mar se
degradan formando gases; sobretodo ácido sulfhídrico causante de infecciones
respiratorias en seres humanos; en cultivos agrícolas origina manchas químicas
que destruyen tejidos foliares. Una fábrica de harina de pescado evacua 90 000 m 3
de gases / hora lo que significa 720 000 m3 de gases / en 8 horas (COMISION
PERMANENTE DEL PACIFICO SUR; 1984).
113

Guillén (1981) citado por Orozco et al., (1997), realizó un diagnóstico preliminar de
las fuentes y efectos de este problema en el Perú; en términos genéricos las aguas
marinas son afectadas por descargas de desagües domésticos; de la industria de
harina de pescado y mineras, así como por los efluentes de las actividades
petroleras y agrícolas. En cuanto a los efectos de la contaminación marina en los
recursos hidrobiológicos se notó que las aguas adyacentes a las fábricas de harina
de pescado habían adquirido propiedades corrosivas; en algunos casos;
produciendo gases sulfurosos; en otros provocando mortandad de peces en zonas
de bahías y por último degradación de las arenas y de las aguas de las playas
vecinas; siendo la bahía de Chimbote la más afectada. La contaminación del agua
por descarga de la industria pesquera, con mas intensidad desde 1950, se verificó
de dos formas; i) por el agua de cola emitida a temperatura de 80°C originando una
DBO5 promedio de 75 000 ppm; ii) la sanguaza mezclada con escamas y trozos de
pescado que originó una DBO5 promedio de 25 000 ppm. La contaminación del aire,
originada por la industria de producción de harina y aceite de pescado, se verifica
por emisión de gases y polvo de secado y como emisiones malolientes integrados
por compuestos tóxicos como amoniaco; trimetilamina; ácido sulfhídrico; que se
dispersan tanto dentro, como fuera de las ciudades.

Jacinto et al (1996), realizaron en julio de 1994 la evaluación de la contaminación


marina en la bahía Ferrol, Chimbote, en una época de intensa actividad industrial
pesquera y determinaron que la bahía presentó signos serios de deterioro
ambiental, con desarrollo de procesos eutróficos que conducen a pérdidas de
condiciones ambientales apropiadas en detrimento de los recursos hidrobiológicos
costeros; determinaron igualmente que la configuración de la bahía y las
condiciones mínimas de flujo son factores que agudizan los problemas de
contaminación. Los estudios realizados en el programa del Plan de Acción
(Programa de Inventario y caracterización, 1987) calificaron a la bahía de Ferrol,
Chimbote como un área crítica por contaminación y que a la fecha del reporte la
situación se había agudizado. Los autores concluyeron que: i) la configuración de la
bahía y la mínima circulación de sus aguas, asociados a vientos de poca intensidad
origina continua acumulación de las descargas de origen terrestre; ii) la actividad
pesquera industrial seguida de la industria siderúrgica constituyeron las principales
fuentes de contaminación, la considerable carga de materia orgánica induce a
procesos anóxicos y de eutrofización tanto a nivel de superficie como de fondo,
magnificándose con la considerable carga de nutrientes, sobretodo fosfatos, que se
manifiesta en el deterioro de la calidad del agua (anoxia; turbidez, floración,
sulfuros, etc.). La existencia de una importante población de fitoplancton con el
predominio de determinadas especies, a pesar de las condiciones de anoxia, indica
la resistencia de aquellas menos sensibles que utilizan los nutrientes y se favorecen
por una limitada competencia. Se mencionan aquí a Chaetocerus curvisetus;
Coscinodicus perforatus y el dinoflagelado Protoperidinium obtusum.

Orozco et al., (1997), evaluaron la contaminación y calidad microbiológica del agua


de mar en las bahías de Ferrol y Samanco, en febrero de 1996. En la bahía Ferrol
determinaron rangos desde 43 hasta 233 NMP/100 ml para coliformes totales y
desde menos de 30 hasta 23 exp102 NMP/100 ml; en Samanco, las cifras
determinadas fueron del orden de <30 NMP/ 100 ml a nivel de playas, los valores
fueron elevados en la Bahía Ferrol tanto para coliformes totales y fecales; mientras
que en Samanco éstos, fueron menores. Las comunidades bénticas en algunos
casos fueron tipificadas como azoicas, que relacionadas con el tenor de oxígeno,
presentaban anoxia. Esta, se explicó por la intensa actividad industrial y se la
114

calificó como una zona de contaminación crítica. La zona de Samanco mantuvo


características de contaminación leve.

Carrasco y Carbajal (1998), mencionan que los poliquetos representan uno de los
grupos más importantes en el macrobentos sub litoral y que son organismos cuya
presencia o ausencia, de formas específicas en el sedimento, proveen una
excelente indicación de las condiciones del estado de salubridad del ambiente
bentónico. La determinación de la estructura de las comunidades del macrobentos
marino es importante en la evaluación del impacto ambiental, por el hecho que
estos organismos se comportan de modo muy diferente a los componentes del
plancton, los que con mas facilidad, pueden desplazarse o ser arrastrados por las
corrientes marinas.

La otra consideración esta relacionada con Evaluación del Impacto Ambiental


definido como la alteración favorable o desfavorable en el medio o en alguno
de sus componentes, debido a una acción o actividad humana (Coneza,
1997b).

Canter (1999), considera que el mejor enfoque en un estudio de impacto ambiental


es realizar un trabajo intenso de identificación y análisis, documentando
detalladamente todas las tareas y las fuentes de información utilizadas en el estudio
y que la evaluación de impacto ambiental, es la identificación y valoración de los
impactos (efectos) potenciales de proyectos, planes, programas o acciones
normativas relativos a los componentes físico-químicos; bióticos, culturales y
socioeconómicos del entorno cuyo propósito fundamental es la necesidad imperiosa
de que se considere el medio ambiente en la planificación y en la toma de
decisiones, para acabar definiendo actuaciones que sean mas compatibles con el
medio ambiente.

Un criterio importante en este tipo de investigaciones, es el relacionado con el


inventario ambiental, una descripción completa del medio tal y como es en un
área donde se plantea ubicar una determinada actuación; este se estructura a partir
de unas lista de control de parámetros de los medios físico químicos, biológico,
cultural y socioeconómico; los medios fisico-químicos y biológicos pueden
denominarse Medio Natural o Medio Humano.

El medio físico- químico incluye:


1. Áreas principales;
2. Suelos; geología ; Topografía
3. Recursos hídricos superficiales y subterráneos
4. Calidad del agua (características químicas y físicas y biológicas del agua
en función de sus uso)
5. Calidad del aire (Nivel de aproximación al óptimo de su composición y
con mínimos de sustancias extrañas
6. Debe referirse además al clima (la climatología) manifestación del
estado del tiempo atmosférico determinado por la temperatura; Humedad
relativa; Luminosidad; Horas Luz; etc.

El medio biótico, se refiere a: la flora y la fauna de un área incluyendo las


especies existentes; es necesario hacer referencia a cualquier especie amenazada
o en peligro de extinción; además de la biodiversidad y la estabilidad del
ecosistema.
115

El medio cultural incluye los lugares arqueológicos e históricos y los recursos


estéticos; como la calidad visual

El medio socioeconómico, se refiere a un abanico de aspectos relacionados con


el ser humano y el medio entre las que se incluyen:
1. Tendencias demográficas
2. Distribución de la población
3. Indicadores económicos del bienestar humano
4. Los sistemas educativos
5. Las redes de transporte
6. Otras infraestructuras
- Abastecimiento de agua
- Saneamiento
- Gestión de residuos sólidos
- Servicios públicos (Policía; protección contra incendios; Instalaciones
médicas; etc.)

García, C. (2001) com. pers., considera que una evaluación de impacto ambiental
básicamente debe considerar efectos sobre
1. Población;
2. Flora,
3. Fauna
4. Suelo
5. Aire
6. Clima
7. Agua
8. Recursos arqueológicos
9. Estructura paisajística

Las Metodologías de la EIA enfrentan una gran problemática y se estima que las
razones que dificultan la consecución de una metodología estándar, entre otras,
son: i) el cambio de factores afectados hace que el método cambie. ii) sólo
podemos llegar a un tipo de método según la actividad. iii) hay varios métodos para
estudiar el impacto sobre un mismo factor; sin embargo un primer criterio es el
orientado a tipificar los impactos; los que según Coneza (1997b) se clasifican en:

1. POR LA VARIACIÓN DE LA CALIDAD AMBIENTAL:


1.1. Impacto Positivo
1.2. Impacto Negativo

2. POR LA INTENSIDAD (GRADO DE DESTRUCCIÓN)


2.1. Impacto Notable o Muy Alto
2.2. Impacto mínimo o bajo
2.3. Impactos medio y Alto

3. POR LA EXTENSIÓN
3.1. Puntual (localizado)
3.2. Impacto parcial (con incidencia apreciable en el medio)
3.3. Impacto extremo (detectable en una gran parte del medio)
3.4. Impacto Total (efecto en todo el entorno)
3.5. De ubicación crítica (en impactos puntuales)

4. POR EL MOMENTO EN EL QUE SE MANIFIESTA:


116

4.1. Impacto Latente( corto, mediano y largo plazo)


4.2. Impacto inmediato
4.3. Impacto de momento critico

5. POR SU PERSISTENCIA
5.1. Temporal
Fugaz durante un año
Temporal: propiamente dicho; entre uno y tres años
Pertinaz desde 4 hasta 10 años.
5.2. Permanente, por tiempo indefinido.

6. POR SU CAPACIDAD DE RECUPERACIÓN:


6.1. impacto irrecuperable
6.2. Impacto Irreversible
6.3. Impacto reversible
6.4. Impacto Mitigable
6.5. Impacto Recuperable

7. POR LA RELACIÓN CAUSA EFECTO:


7.1. Impacto directo
7.2. Impacto indirecto o secundario

8. POR LA ACUMULACIÓN DE ACCIONES Y/O EFECTOS


8.1. Impacto simple; efecto sobre un componente ambiental
8.2. Impacto acumulativo
8.3. Impacto sinérgico

9. POR SU PERIODICIDAD
9.1. Impacto continuo
9.2. Impacto Discontinuo
9.3. Impacto periódico
9.4. De aparición irregular

10. POR LA NECESIDAD DE APLICACIÓN DE MEDIDAS CORRECTORAS


10.1. Impacto ambiental crítico
10.2. Impacto ambiental severo
10.3. Impacto ambiental moderado

Siguiendo a Bolea en Coneza (1997b), entre las metodologías para una EIA
se consideran:

Aspectos generales y listas de revisión


Metodología de matrices interactivas:
Matrices simples; Matriz de Leopold et al.
Matrices en etapas (llamadas también matrices de impactos cruzados)
Métodos de diagrama de redes (diagramas de redes; o diagramas de
secuencia)
Métodos basados en indicadores, índices e integración de la evaluación
Métodos cuantitativos;

El método del Instituto Batelle–Columbus; es uno de los pocos estudios


serios sobre la valoración cuantitativa que por el momento existen, permite la
117

evaluación sistemática de los impactos ambientales de un proyecto mediante el


empleo de indicadores homogéneos, posibilita una planificación a mediano y largo
plazo con un mínimo impacto ambiental posible. La base metodológica es la
definición de una lista de impacto con 78 parámetros ambientales, considerados
separadamente que nos indican la representatividad del impacto ambiental derivada
de las acciones consideradas; estos 78 parámetros se ordenan en primera instancia
según 18 componentes ambientales agrupados en cuatro categorías ambientales

De Torres (1999) ha planteado la posibilidad de cuantificar los impactos en base a


la diferenciación clara de las causas (u orígenes de la acción), de los efectos
previstos, que es lo que se valora. Para ello se debe distinguir entre la magnitud del
bien afectado; la cantidad de efecto que va a soportar y la capacidad intrínseca de
“soportar” dicho efecto, considerando de manera distinta la calidad o importancia
del valor medioambiental de dicho bien “destino “del efecto.
Se debe tener en cuenta igualmente, que la evaluación del Impacto ambiental se
puede tomar en el contexto preventivo, cuando aún la acción se halla en fase de
propuesta o de acción correctiva cuando ya se está ejecutando la acción y de lo
que se trata es de minimizar los impactos negativos en el ecosistema.

Según Instituto Nacional de Protección del Medio Ambiente para la Salud;


INAPMAS (1995), en nuestro país, la normatividad ambiental en el sector pesquero
es abundante; además la Constitución Política del Perú del 29 de diciembre de
1993 en sus artículos 67 y 68 determinan la política ambiental nacional. La ley
general de pesca D. L. No. 25977 del 22- 12- 92 señala en su artículo 6 que el
Estado, dentro del marco regulador de la actividad pesquera, vela por la protección
y preservación del medio ambiente, exigiendo se adopten las medidas necesarias
para prevenir, reducir y controlar los daños o riesgos de contaminación o deterioro
en el entorno marítimo, terrestre y atmosférico. El reglamento de la Ley general de
Pesca DS. No. 012-2001-PE en su título VII sobre la protección del medio ambiente
determina en el artículo 76.2 responsabilidad del ministerio de pesquería en lo
relacionado a los instrumentos de gestión ambiental pertinente y en el capítulo II;
sub capitulo I, artículo 78 determina que los titulares de las actividades pesqueras y
acuícolas son responsables de los efluentes, emisiones, ruidos y disposición de
desechos que se produzcan como resultados de los procesos efectuados en sus
instalaciones, de los daños a la salud o seguridad de las personas, de efectos
adversos sobre el ecosistema o calidad de los recursos naturales en general y de
los recursos hidrobiológicos en particular, así como de los efectos o impactos
resultantes de sus actividades.

La ley general de aguas; DL 17752 y su reglamento modificado según decreto


supremo No 007-83-SA en el artículo 81 determina la calidad de los cuerpos de
agua de acuerdo a su uso. Los tipos de interés para el presente estudio se incluyen
en i) clase IV, aguas de zonas de recreativas de contacto primario (baños y
similares); ii) clase V, aguas de zonas de pesca de mariscos bivalvos y iii) clase VI,
aguas de zonas de preservación de fauna acuática y pesca recreativa o comercial.
En el mismo dispositivo se fijan límites bacteriológicos para presencia de coliformes
totales en 5000; 10000 y 20 000 NMP/100ml respectivamente y límites de
coliformes fecales en 1000; 2000 y 4000 NMP/100 ml; los valores de DBO 5 en 10;
mg/L en los tres casos citados y de 3,5 y 4 mg/L en los otros casos contemplados
en la Ley.

Puerto Malabrigo, ubicado en la costa norte del Perú (7° 42'S - 79°27'W), Distrito de
Rázuri, Provincia de Ascope, Departamento La Libertad; desde hace más de dos
118

décadas, desarrolla una importante pesquería industrial y artesanal; hasta 1994,


contó con una planta procesadora de harina de pescado, incrementándose a dos en
1995, esta última con capacidad operativa de 120 toneladas/hora, y producción
anual de 140 000 toneladas considerando ambas fábricas. Indudablemente que
esta actividad ha originado una serie cambios en el ambiente marino adyacente;
los que no han sido sistemáticamente evaluados desde una perspectiva
considerada en el sistema de gestión medio ambiental

En la actualidad, son seis las fábricas que desarrollan actividades de producción de


harina de pescado de diferentes tipos; las según su capacidad; tipo de harina y
características del efluente, se resumen en el cuadro 1.

Cuadro 1. Plantas de procesamiento de harina de pescado ubicadas en Puerto


Malabrigo

Empresa Capacidad de Efluente


Procesamiento: Tipo de
t /h Harina
Pesquera Industrial El Angel 139 Convencional Directo
S.A.
Sindicato Pesquero del Perú 138 Convencional Directo
S.A.
Pesquera Catamarán S:A. 80 Prime Submarino
Alexandra S:A.C. 80 Prime Submarino
Pesquera Exalmar S.A. 60 Prime Submarino
Pesquera Hayduk S.A: 130 Convencional Submarino
y Prime

En esta zona, el IMARPE realiza el monitoreo de las condiciones ambientales,


principalmente, temperatura superficial del mar (TSM) habiendo registrado valores
promedios de 15 ºC en los meses de invierno y de 20,5 ºC en los meses de verano;
la cantidad de oxigeno disuelto en la zona litoral ha variado desde 1,01 ppm en la
zona cercana al muelle y a la empresa PIANGESA, hasta 9,62 ppm en el mes de
marzo del 2001 en época de veda.

Como se puede apreciar los trabajos son dispersos, no secuenciales y mas aún, no
planificados por lo que, hay serias dificultades para generalizar de modo inferencial;
Además por el hecho de que la industria pesquera en nuestro país es uno de los
pilares de la economía y en la consideración de que las cuestiones ambientales no
deben ser abarcadas desde una perspectiva teórica; sino eminentemente
pragmática y puntualmente en lo ambos criterios involucran a Puerto Malabrigo, en
donde a pesar de la existencia de leyes que dan especificaciones de índole
ambiental en relación al funcionamiento de plantas productoras de harina de
pescado; éstas posiblemente no se cumplen en su totalidad debido a
implementación progresiva de políticas ambientales o deficiencias en los
seguimientos y monitoreos; hechos que evidentemente ponen en serio riesgo el
ecosistema y sus componentes, se justifica la realización de presente proyecto de
investigación que posibilitaría la orientación de la atención de científicos y
estudiosos para orientar sus acciones a preservar el medio ambiente a fin de que
las futuras generaciones tengan una mejor calidad de vida.
El presente estudio tiene previsto lograr los OBJETIVOS siguientes:
119

1. Identificar y valorar los impactos de la industria pesquera sobre el


sistema marino litoral de Puerto Malabrigo
2. Identificar los índices e indicadores de impacto ambiental el sistema
marino litoral de Puerto Malabrigo
3. Formular recomendaciones para que se ejecuten acciones de mitigación
de impactos desde una perspectiva científica y legal.
2. PROBLEMA CIENTIFICO
El problema científico se plantea en los siguientes términos:
¿Cuál es el impacto de la industria pesquera sobre el sistema marino
litoral de Puerto Malabrigo, mayo – diciembre del 2003?

3. HIPOTESIS:

La industria pesquera origina impactos ambientales negativos en el


sistema marino litoral de puerto malabrigo.

3.1 Identificación de variables:

Variable Independiente (Factor causal; causa):

Actividad de la Industria Pesquera

Variable dependiente (Efecto):


Impactos de la industria pesquera en el sistema marino litoral de Puerto
Malabrigo.

INDICADORES

Grupos de organismos específicos, con énfasis en poliquetos presentes en


los sedimentos como indicadores de impacto ambiental en el sistema
marino litoral del Puerto Malabrigo.

Estructura de las comunidades del macrobentos marino de importancia


significativa en la evaluación del impacto ambiental

4. DISEÑO DE CONTRASTACIÓN DE HIPOTESIS:

Para la contrastación de hipótesis se utilizará el diseño descriptivo causal


comparativo según Sánchez y Reyes (1987) en Tresierra (2000) en el que las
variables de estudio serán evaluadas y comparadas en diferentes lugares y
situaciones. El estudio se realizará en Puerto Malabrigo; distrito de Rázuri; provincia
de Ascope (Figuras 1 y 2)

4.1. Evaluación del Impacto sobre el Medio Físico y Biológico

4.1.1. Áreas de estudio y zonas de muestreo.

El estudio se realizará en la zona intermareal y submareal de la bahía de puerto


Malabrigo en la que se establecerán cuatro áreas de muestreo; la primera (a), que
120

servirá de control, se ubicará a 500 metros al sur del muelle; la segunda (b), frente
al área de vertido de la empresa SIPESA; la tercera (c) a la altura del emisor
submarino de la empresa Hayduck y la cuarta (d) a un Km al norte de ésta (Figura
3).

Se trazarán transectos perpendiculares a la zona de rompiente de las olas y se


obtendrá, muestras de agua y de sedimentos.
FIGURA 1. UBICACIÓN DE PUERTO MALABRIGO EN LA REGIÓN LA LIBERTAD
122

MALABRIGO

FIGURA 2. UBICACIÓN GEOGRAFICA DE PUERTO MALABRIGO


123

PESQUERA HAYDUCK

C PESQUERA EXALMAR

PESQUERA ALEXANDRA

PESQUERA CATAMARÁN

fi co B SINDICATO PESQUERO

Pa ci
é ano MUE
LLE PIANGESA
Oc
A

Zona de
Centro poblado almacenamiento

Figura 1. UBICACIÓN DE LA ZONAS DE MUESTREO EN PTO.MALABRIGO


124

4.1.2. Obtención de muestras de aguas y sedimentos:

Las muestras serán obtenidas mensualmente, con instrumentos y equipos


adecuados.

4.1.2.1. Muestras de Aguas

Las muestras de agua se colectarán tanto en superficie, media agua y fondo de


las zonas de posible impacto de los vertederos y emisores submarinos de las
industrias pesqueras de Puerto Malabrigo y señalados en el item 4.1.1.

4.1.2.2 Muestras de sedimentos


Estas serán obtenidas del fondo de las áreas indicadas en el item 4.1.1.

4.1.3. Toma de muestras:


Para la obtención de parámetros hidrográficos y químicos, las muestras de
agua de superficie se tomarán con un balde y las de fondo con botellas Niskin. Las
muestras de sedimentos se obtendrán con una draga Van Veen con 0,05 m 2 de área
de mordida; ambas serán manipuladas desde una embarcación, especialmente
adaptada para estos requerimientos.

4.1.4. Análisis de las muestras

4.1.4.1. De Aguas
Las características físico químicas de las muestras de agua serán analizadas
de acuerdo a los métodos descritos por la APHA; AWWA WPCF (1992) descritos en
los anexos 1, 2 y 3 de la Resolución Ministerial No. 003-2002-PE (Protocolo para el
Monitoreo de efluentes y cuerpo marino receptor).

En principio algunos análisis serán realizados in situ y en otros casos, en el


laboratorio de Química Analítica Cuantitativa de la Facultad de Ingeniería Química de
la Universidad Nacional de Trujillo; en el laboratorio de Biología Pesquera de la
Universidad Nacional de Trujillo y de la Universidad Nacional Pedro Ruiz Gallo;
considerando los parámetros que se indican en el cuadro 2.
125

Cuadro 2. Parámetros del agua a ser evaluados y códigos APHA para su procesamiento en
laboratorio
PARÁMETRO CODIGO LUGAR
METODO APHA
1. Temperatura superficial del Mar In situ
2. Oxígeno Disuelto(OD) 4500 In situ
3. Salinidad 2520 En LQAC
4. pH Método potenciométrico En LQAC
5. Sólidos suspendidos Totales 2540 En LQAC
6. DBO5 5210 En LQAC
7. DQO 5220 En LQAC
8. Aceites y Grasas 5520 En LQAC
10. Sulfuro de Hidrógeno 4500-S2- En LQAC
11. Nitratos 4500 - NO3- En LQAC
12. Nitritos 4500 NO2- En LQAC
13. Fosfatos 4500-P En LQAC

Se determinará adicionalmente el Número Mas Probable (NMP) de bacterias


coliformes totales y fecales x 100ml; según la metodología de tubos múltiples
siguiendo lo recomendada por la OMS (1972); y de acuerdo al método 9221, APHA
(1992).

4.1.4.2. De Sedimentos
Se evaluará en principio el potencial redox utilizando un Eh – metro, empleando
un estereoscopio se evaluará la presencia de organismos vivos en este caso
invertebrados bentónicos hasta el mínimo nivel taxonómico y luego de contados y
pesados según especie y replica se determinará el número de especies (S = número de
especies por 0,1 m2), abundancia (número de individuos por especie en 0,1 m 2), biomasa
(B = g, peso húmedo / especie por 0,1 m2) . Todos estos valores serán calculados para
cada réplica, luego agrupados por estación y por transecto para cada fecha de muestreo.

4.1.4.3. De la macroinfauna bentónica


El análisis de las comunidades de macroinfauna bentónica se evaluará de
acuerdo a los criterios de Carrasco y Gallardo (1989); Carbajal, et al (1995)

4.1.4.4. De Hidrocarburos en Agua y Sedimentos


Para la determinación de hidrocarburos en agua de mar y sedimentos, se
utilizará el método referencial manual y guía No 13 y 11 de la COI – UNESCO.

4.2. Valoración del impacto ambiental


126

Para determinar la perturbación o stress, como un reflejo del impacto


ambiental; se utilizará el método gráfico de las curvas SAB (especie, abundancia y
Biomasa) de acuerdo a Pearson y Rosemberg (1978) y se elaboraran las curvas ABC
de K dominancia (curva Abundancia – Biomasa) recomendado por Warwick (1986),
citados por Carrasco y Gallardo (1989).
Para la valoración cuantitativa en el sistema marino litoral se empleará el método de
De Torres (1999) en los términos en los que se explicita en el anexo 1

4.3. Análisis estadístico de los datos

Para evaluar la estructura comunitaria del macrobentos en términos de composición


taxonómica, se utilizarán métodos estadísticos univariados, gráficos y
multivariados para analizar los patrones de distribución y abundancia/biomasa de la
macroinfauna bentónica de acuerdo a lo pautado por Carbajal (1999). Se aplicará el
programa computacional PRIMER 5 for windows versión 5.2.4 siguiendo a Carrasco
y Gallardo (1989); y Carbajal, et al (1995).

Entre los MÉTODOS UNIVARIADOS se utilizarán:


1. Medidas descriptivas:
Curvas SAB (especies- abundancia- Biomasa), resume los cambios de los parámetros
faunísticos básicos que ocurren a lo largo de un gradiente o transecto, aplicable a las
áreas sujetas a enriquecimiento orgánico.
Proporción B/A (Tamaño promedio de los individuos)
Tind = Bt / At).
Donde Bt = Biomasa Total
At.= Número total de individuos en la muestra

Proporción A/S

1. Medidas de diversidad
2.1 Indice de Shannon-Wiener (H’)
Este Índice basado en la abundancia proporcional de especies (Magurran 1989)
se formula en los términos siguientes:
H' = -  pi Ln pi

Donde: pi = ni/N;
N es el número total de individuos colectados
127

ni es el número de individuos de la especie i;

2.2. Riqueza de especies (d);


Indice de Margalef: d= (S-1) log N
S es dependiente del tamaño de la muestra
Incorpora el número total de individuos

2.3.Equitatividad (J’)
Indice de uniformidad de Pielou
J’ = H’ (observado) / H’ max
Donde: H’ max es la maxima diversidad posible (log S)

3. Acuchillamiento de Datos (“jackknife”)

Se aplicará la técnica del "acuchillamiento" de datos al índice de Shannon-Wiener


(H'), tal como ha sido descrito por Miller (1974), Este método paramétrico consiste en ir
eliminando sucesivamente una fila de los datos de abundancia por especie en cada
estación y recalculando H' para cada columna (estación), lo cual genera un seudovalor.
Después de haber eliminado secuencialmente, pero con reemplazo, todas y cada una de
las filas, se obtienen n seudovalores que promediados aritméticamente permiten calcular
la varianza. Con este valor y mediante un test t-Student (Sokal and Rohlf, 1981) se
realizará la docimación de la hipótesis "no hay diferencias de H' entre estaciones".

En lo concerniente a Métodos Graficos/Distribucionales, se utlizarán:

a. Curvas de rarefaction (Sanders 1968)


Este método que se utilizará para medir la diversidad de especies, el cual
interpola el número de especies distribuidas entre un número reducido de individuos
derivados a partir de la muestra original. Sin embargo, Hurlbert (1971) considerando que
esta técnica sobreestima algunas fracciones, la ha mejorado como el Número Esperado
de Especies (E (s))

(N-ni)
m
E (S) = (1- ) ,N>m
(N)
128

m
Donde:
N = número total de individuos en la muestra completa;
ni = número de individuos de la especie i th;
m = tamaño de una muestra determinada al azar
.
b. Curvas de k-dominancia

Las curvas de K-dominancia (Lambshead et al. 1983; Clarke, 1990), las cuales
ordenan a las especies de acuerdo a su importancia sobre el eje X (escala logarítmica)
versus el porcentaje de dominancia sobre el eje Y (escala acumulativa). En este sentido,
cuando la curva de biomasa permanece totalmente por encima de la curva de
abundancia indica ausencia de contaminación; la situación inversa indica fuerte
contaminación, y curvas sobrepuestas mas o menos coincidentes indican contaminación
moderada.

c. Curvas ABC (Abundance/Biomass comparison) (Warwick et al 1987)


Otros indicadores gráficos que se utilizarán para observar cambios en la
estructura comunitaria, serán las curvas ABC (Abundance - Biomass Comparison)
(Warwick, 1986; Warwick et al. 1987). Con estas curvas se plotearán datos de
abundancia y biomasa por estación y para cada fecha de muestreo. En general, las
curvas ABC utilizan las curvas de K-dominancia.

Se evaluará la homogeneidad de varianzas para el número de especies y


abundancias de éstas por estación usando la prueba de Bartlett (Sokal & Rohlf, 1981). Si
las varianzas fueran heterogéneas, los datos serán transformados a la raíz cuarta y
nuevamente probados para la homogeneidad. Consecuentemente, si dicha condición no
fuera establecida las diferencias en el número de especies entre estaciones serán
probadas a través de un análisis de varianza no paramétrica, i.e. la prueba de Kruskal-
Wallis (Siegel, 1991).
En lo relacionado a métodos de ANÁLISIS MULTIVARIADO, se utilizarán:
a. Asociaciones de datos
a.1 Medidas de similaridad con datos cuantitativos (Bray curtis)
Se realizará un análisis de clasificación y ordenación para explorar eventuales patrones
espacio-temporales en la distribución y estructura comunitaria de la macrofauna (Field et
al. 1982; Clarke & Green, 1988; Warwick & Clarke, 1991). Para ello, las matrices
triangulares de similitudes de Bray-Curtis en cada par de muestras o estaciones (análisis
129

normal) (Bray & Curtis, 1957) serán determinadas en base a las abundancias “pooled”
(agrupadas) a partir de las réplicas de cada estación y transformadas a la raíz cuarta
utilizando el Coeficiente de Similaridad de Bray-Curtis (Bray and Curtis, 1957):

jk = X1j - X2j
X1j + X2j

Donde X1j y X2j son los números de individuos de la j th especie en los sitios 1 y 2.

b. Clasificación (“clusterring”), para encontrar agrupamientos naturales de


muestras ., de tal manera que las muestras dentro de un grupo son mas similares que las
muestras en grupos diferentes, se usa para distinguir sitios o (tiempos); dividir sitios o
tiempos en grupos, definir asociaciones de especies.
c. Medidas de ordenación
Técnica para mapear las muestras en un bajo número de
dimensiones(usualmente 2), tal que la distancia entre muestras intentan reflejar
(dis)similaridad en la estructura de la comunidad

Las pruebas de discriminación que se utilizarán serán las de:

a. Análisis de similaridades (ANOSIM)


Las diferencias en la abundancia de individuos / especie entre todas las
estaciones o sitios (o entre grupos de sitios seleccionados), serán examinadas por una
prueba de aleatoriedad denominada ANOSIM (Analysis of Similarities) de una vía
(Clarke & Green, 1988). Esta prueba no paramétrica es la analogía multidimensional del
ANOVA - una o dos vías para datos sin distribución normal. La característica más
importante de esta prueba es que puede ser aplicada a matrices triangulares de
similitudes; no asume igualdad de varianzas, y no está restringida a un número de
réplicas iguales de cada estación.

b. Análisis de porcentajes de similaridades (SIMPER).


Se aplicará la rutina y procedimiento SIMPER (Similarity Percentages) (Smale et
al. 1993, citado por Carbajal; 1999), para establecer el orden de las especies que más
contribuyeron a la separación de un grupo de estaciones con respecto a otro. Para este
análisis se formarán grupos de estaciones (i.e. sitios 1 y 2; 3 y 4; 5 y 6 ), considerados a
presentar diferencias entre si.
130

c. Combinación de variables Ambientales Vs. Datos Bióticos (BIOENV)


El programa BIO-ENV (Biotic-Environment) será utilizado para examinar que
combinación de variables ambientales (e.g. profundidad, temperatura, salinidad, oxígeno,
porcentaje de materia orgánica total, tamaño de partículas) se relaciona mejor con los
datos bióticos (i.e. abundancia y/o biomasa) (Clarke & Ainsworth, 1993; Agard et al.
1993). Previamente, los datos de profundidad y de tamaño de partícula (  ) promedio
por estación serán transformados a la forma Y = Ln (X+1), mientras que los valores
porcentuales de materia orgánica serán sometidos a transformación arco seno (Sokal &
Rohlf, 1981). Se utilizarán las matrices de similitud de Bray-Curtis de las abundancias
versus las matrices de distancias euclideanas de las variables ambientales.

Los datos de las características de los sedimentos (materia orgánica y otros)


para cada estación serán sometidos a un análisis de varianza (ANOVA) de una vía
(Sokal & Rohlf, 1981) para probar si hubiera diferencias entre estaciones.

5. REFERENCIAS BIBLIOGRÁFICAS

AGARD, J.B.R., J. GOBIN and R. M. WARWICK. 1993. Analysis of marine macrobenthic


community structure in relation to pollution, natural oil seepage and seasonal
disturbance in a tropical environment (Trinidad, West Indies). Marine Ecology
Progress Series, 92 : 233 - 243.

APHA; AWWA WPCF. 1992. Métodos Normalizados de análisis de agua. USA.

BRACK, A. Y E. MENDIOLA. 2000. Ecología del Perú, Lima Bruño. p: 102

CANTER, L. 1999. Manual de evaluación de Impacto ambiental. Santa Fe de Bogota,


Mc Graw Hill.

CARRASCO, F. y W.CARBAJAL. 1998. The Distribution of Polychaete Feeding Guilds


in Organic Enrieched sediments of San Vicente Bay, Central Chile.
Internat.rRev. Hidrobiol. 83(3):233-249.

CARRASCO, F. y V. GALLARDO. 1989. La contaminación marina y el valor de la


macroinfauna en su evaluación y vigilancia: caso de estudio en el litoral de
Concepción, Chile. Biología Pesquera 18: 15-27.

CARBAJAL, W. F. CARRASCO., P. CURO Y J. ZAMORA. 1995. Cambios en la


infraestructura comunitaria de la macroinfauna de playas arenosa. Después del
fenómeno El Niño 1986-1987. En Lambayeque. Perú. Gayana Oceanol. 3(1):
29-40

CARBAJAL, W. 1999. Detección de los efectos ambientales sobre las comunidades


marinas. Resúmenes e instructivo de prácticas, Callao. IMARPE.

CLARKE, K.R. and R.H. GREEN. 1988. Statistical design and analysis for "biological
effects" study. mar. Ecol. Prog. Ser. 46: 213 - 226.
131

CLARKE, K. 1990. Comparisons of dominance curves. J. exp. mar. Biol. Ecol. 138: 143 -
157.

CLARKE, K.R. and M. AINSWORTH. 1993. A method of linking multivariate community


structure to environmental variables. Mar. Ecol. Prog. Ser. 92: 205 - 219.

CONEZA, V. 1997a.Instrumentos de la Gestión Ambiental de la empresa, Auditorias


medioambientales, Guía metodológica, Madrid. Mundi-Prensa. p: 43- 61.

CONEZA, V. 1997b. Guía metodológica para la evaluación del impacto ambiental, 3ª.
ed., Madrid. Mundi-Prensa.

COMISION PERMANENTE DEL PACIFICO SUR. 1984. Contaminación marina en el


Pacífico Sur. PACIFICO SUR No 14. p: 8 - 160.

DE TORRES, D. 1999. Nuevo método para la evaluación de impactos puntuales,


Medio Ambiente CANARIAS. Revista 12.

ESPINO, M. 1993. Situación de los recursos pesqueros Nacionales, Mimeo. Callao. vs


pgs

FIELD, J.G., K.R. CLARKE and R.M. WARWICK. (1982). A practical strategy for
analysing multispecies distribution patterns. Mar. Ecol. Prog. Ser. 8 : 37 - 52.

GLYNN, H. y G. HEINKE 1999. Ingeniería ambiental; 2ª. Ed., México. Prentice Hall

INSTITUTO NACIONAL DE PROTECCIÓN DEL MEDIO AMBIENTE PARA LA SALUD


1995. Compendio de legislación ambiental peruana Vols I y II, Lima. MINSA.

INSTITUTO NACIONAL DE ESTADÍSTICA E INFORMÁTICA 2000. Compendio


económico financiero 1998 1999; Lima. Síntesis.

JACINTO, M, R. CABALLERO M. GUZMAN. 1996. Evaluación de la contaminación


marina en la bahía Ferrol, Chimbote. 14-18 de julio 1994. Inf. Prog. Inst. Mar
Perú- Callao Mimeo No 48. Diciembre 1996.

LAMBSHEAD, P, H, PLATT and K. SHAW. 1983. The detection of differences among


assemblages of marine benthic species based on an assessment of dominance
and diversity. Journal of Natural History 17 : 859 - 874.

MAGURRAN, A. 1989. Diversidad Ecológica y su medición, Barcelona. Vedra. p: 39-45.

MILLER, T. 1994.. Ecología y Medio Ambiente, México. Grupo Editorial iberoamericana


S.A. de C.V.

MILLER, R. 1974. The jackknife - a review. Biometrika 61 : 1 - 15.

MINISTERIO DE PESQUERÍA. 1992. D. L. No. 25977; del 22- 12- 92; Ley general de
pesca. El Peruano, Lima. Editora Perú

MINISTERIO DE PESQUERÍA. 1999. Información Estadística Pesquera, Resumen


Ejecutivo, Diciembre 1999, Lima. Oficina central de estadística. vs pgs.
132

MINISTERIO DE PESQUERÍA. 2001. Información Estadística Pesquera.


www.minpes.gob.pe

MINISTERIO DE PESQUERÍA. 2001. DS Nº 012-2001-PE. Reglamento de la ley


general de pesca.

MINISTERIO DE PESQUERÍA. 2002. Resolución Ministerial No. 003-2002-PE


Protocolo para el Monitoreo de efluentes y cuerpo marino receptor

OROZCO, S. CASTILLO, E. ENRIQUEZ, E. FERNANDEZ, O. MORON Y J.


CORDOVA. 1997. Evaluación de la contaminación y calidad microbiológica del
agua de mar en las bahías de Ferrol y Samanco- 12-15 febrero 1996. Inf. Prog.
Inst. Mar Perú-No 56 . Abril 1997 Callao Mimeo

SANDERS, H.L. 1968. Marine benthic diversity : a comparative study. Am. Nat. 102: 243
- 282.

SEOANEZ, M. 1996. El gran diccionario del medio ambiente y de la contaminación,


Madrid. Coediciones Mundi-Prensa.

SIEGEL, S. 1991. Estadística no paramétrica. 3ª. ed., México. Trillas. p: 215


SOKAL, R. and F, ROHLF. 1981. Biometry. 2nd. ed. W.H. Freeman, San Francisco

TRESIERRA, A. 2000. Metodología de la investigación científica, Trujillo. Biociencia.

TRESIERRA, A. y Z. CULQUICHICÓN. 1993. Biología Pesquera, Trujillo. Libertad.

WARWICK, R. 1986. A new method for detecting pollution effects on marine macrobenthic
communities. Mar. Biol. 92: 557 - 562.

WARWICK, R, T, Pearson and Ruswahyuni. 1987. Detection of pollution effects on marine


macrobenthos: further evaluation of the species abundance/biomass method. Mar.
Biol. 95: 193 - 200.

WARWICK, R.M. and K.R. CLARKE. 1991. A comparison of some methods for analysing
changes in benthic community structure. J. mar. Biol. Ass. U.K. 71: 225 - 244.

ANEXO 1

MÉTODO DE VALORACIÓN DE IMPACTOS (De TORRES, 1999)

(VALORACIÓN CUANTITATIVA MAGNITUD DEL IMPACTO)

c1. Capacidad de acogida –fragilidad: 0 - 10


133

c2. Reversibilidad: 0 - 10

C3. Sinergia -potenciación de efectos: 0 - 10

c4. Cualidad ambiental del bien afectado: 0 - 5


C = (5c1 + 3c2 + 2c3)/20 * c4 < 25

A. Cantidad de bien afectado : 0 – 10

B. Cantidad de efecto: 0 - 10

(Pérdida de calidad ambiental)

MAGNITUD DEL IMPACTO = (A + B) * C < 500

(10 + 10) * 25

Medidas correctoras -compensatorias:

A. -Muy Buena capacidad correctora

B: -Buena capacidad correctora -compensatoria

C. -Media a baja capacidad

D.-De escasa o nula capacidad correctora –compensatoria

E. -Inviables

Ejemplo de valoración: Impacto negativo: -

Magnitud del impacto: 48

Medidas correctoras: Nivel B

En cuanto a la interpretación de estos resultados sería:

Rango Calificación

000 - 015: Nada significativo

015 – 060: Poco significativo


134

060 - 200: Significativo

200 - 400: Muy significativo

400 – 500: Crítico.

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO
PROYECTO DE TESIS DE DOCTORADO
I. GENERALIDADES
1. TITULO: RELACIÓN ENTRE LAS CAPACIDADES DE AUTOCUIDADO Y DE
CUIDADO DE DEPENDIENTES EN MUJERES MALTRATADAS. ABRIL 2004
- MARZO 2005.
135

2. AUTORA:
2.1. NOMBRE: NOEMÍ LUCILA DÍAZ VILLENA
2.2. GRADO ACADÉMICO: MAESTRA EN ENFERMERÍA;
MENCIÓN SALUD DE LA MUJER Y EL NIÑO

2.3. TITULO PROFESIONAL: ENFERMERA GENERAL Y DE SALUD PÚBLICA


2.4. DIRECCIÓN: ANTÚNEZ DE MAYOLO 319. URB LOS GRANADOS;
TELEFONO 425671;
2.5 CENTRO DE TRABAJO:
- UNIVERSIDAD NACIONAL DE TRUJILLO;
- FACULTAD DE ENFERMERÍA;
2.6. PROGRAMA DE DOCTORADO EN ENFERMERÍA
3. TIPO DE INVESTIGACIÓN
5.1 De acuerdo al fin que se persigue: aplicada
5.2 De acuerdo a la técnica de contrastación: descriptiva

4. LOCALIDAD E INSTITUCIÓN EN DONDE SE DESARROLLARÁ EL PROYECTO:


Centro de Salud Santa Lucía de Moche, Puesto de Salud Miramar, Puesto de
Salud Campiña del Distrito de Moche Provincia de Trujillo. La Libertad.
5. DURACIÓN DEL PROYECTO: 12 meses
6. CRONOGRAMA DE TRABAJO
Etapas Fecha de inicio Fecha de término Dedicación semanal
6.1 Recolección de 01-04-2004 30-06-2004 30
Datos
6.2. Análisis de los 01-07-2004 31-12-2004 30
datos
6.3 Elaboración del 02-01-2005 20-31-2005 30
informe
7. Recursos:

7.1. Personal
1. 1 Investigadora; 1 chofer
7.2. Bienes:

7.2.1. De consumo:
Materiales de escritorio, software, impresos y suscripciones, soporte
informático; materiales gráficos (rollos de película fotográfica; cintas de
filmadora y vídeo)

7.2.2. De inversión:
1 computadora y hardware informático
1 impresora
136

1 maquina fotográfica Canon AE1;


1 filmadora de 8 mm marca Sony;..

7.3. Servicios
Fotocopiado; Viáticos y asignaciones; remuneración de chofer

8. Presupuesto

5.3.0.2 Bienes y Servicios s/. 1 800,00

5.3.11.31 Bienes de consumo


Materiales de oficina y escritorio s/. 200,00
Software paquete estadístico SPSS-PC 100,00
Materiales de impresión 500,00
Materiales fotográficos y fonotécnicos 500,00
Impresiones y suscripciones 500,00

5.3.00.00 Servicios S/. 3 200,00


5.3.11.21 Viáticos y asignaciones
Viáticos S/. 1 000,00
Movilidad Local 500,00
Otros; pago chofer 1 000,00

5.3.11.39 Otros servicios de terceros


Publicaciones S/. 200,00
Impresiones 300,00
Encuadernaciones 200,00

6.0.1.0 GASTOS DE CAPITAL S/. 8 500,00


6.5.23.0. Inversiones
6.7.11.51. Equipamiento de materiales duraderos S/. 5 000,00
Mobiliario y equipo de oficina
2 000,00
Equipo de procesamiento automático de Datos 1 500,00
Total S/. 13 500,00

9. Financiamiento
9,1 Con recursos propios S/. 3 500,00
9.2 Con recursos externos S/. 10 000,00

Trujillo, Febrero del 2003


II. ASPECTOS DE LA INVESTIGACION

2.1. ANTECEDENTES Y JUSTIFICACIÓN DEL PROBLEMA


El autocuidado asume que la persona posee ciertas capacidades para llevarlo a cabo.
Según Orem (1991), el contexto para una persona que se brinda autocuidado se
deriva de los requisitos de autocuidado que representan las acciones deliberadas
necesarias para satisfacer las demandas universales y de desarrollo. La demanda de
autocuidado terapéutico se refiere a las acciones que necesitan ser ejecutadas para
satisfacer requisitos particulares de autocuidado. Cuando las capacidades son
insuficientes para satisfacer las demandas debido a limitaciones existentes, se da un
déficit de autocuidado. Factores personales y ambientales representan factores
137

condicionantes que influyen en las capacidades de autocuidado y la demanda de


autocuidado de una persona.

El cuidado de los niños continúa llamando la atención en los países latinoamericanos


con un enfoque en el desarrollo de prácticas sectoriales orientadas a mejorar las
condiciones de vida. Aun cuando se observa cambios en la estructura etárea de los
países latinoamericanos, donde el grupo de menores de 15 años va perdiendo
importancia frente al crecimiento de las edades adultas y avanzadas, se reconoce
plenamente el valor potencial de la niñez. Las Naciones Unidas (1990), en el trigésimo
aniversario de la Declaración de los Derechos del Niño reafirmó la necesidad de
proporcionar a los niños cuidado y asistencia especiales en razón de su vulnerabilidad.

Para el año 2020 los niños menores de cinco años serán alrededor de 3 000 000 en el
Perú, que representa aproximadamente el 13 por ciento de la población nacional, y, si
continúan igual las condiciones sociales, la mayoría de ellos vivirán en hogares en
condiciones de pobreza (Ministerio de Salud, 1998). Actualmente sólo el 25,3 por
ciento de los hogares peruanos se beneficia con los programas de control y
crecimiento del niño, vacunas y planificación familiar (Instituto Nacional de Estadística
e Informática, 2000).

El cuidado de los niños ha sido descrito como una experiencia de gran responsabilidad
inherente a la familia en un ambiente de felicidad, amor y comprensión (Fondo de la
Naciones Unidad, 2001): Las tareas a cumplir en el cuidado de niños menores de
cinco años tienden a volverse más progresivas durante el curso del crecimiento y
desarrollo a través de las etapas neonatal, lactante y preescolar, acorde al nivel de
independencia en las áreas psicomotora, afectiva, cognoscitiva y social

El cuidar a los niños es función de la familia, y es la mujer, quien siempre ha asumido


ser cuidadora de la misma vida, no sólo de la calidad de la vida personal, sino familiar
y aun de la colectividad (Salazar, 2000). Sin embargo, las estudios divulgan que
mundialmente del 20 al 50 por ciento de las mujeres son maltratadas alguna vez en
sus vidas por su pareja (Ross, 1998). En el Perú, Barrig y otros (en Salazar, 2000)
afirman que la violencia intra familiar cruza todas las fronteras y las clases sociales, es
un fenómeno bastante extendido y poco conocido por que ocurre en la clandestinidad.
En este sentido, tanto las mujeres que brindan el cuidado, como los niños que lo
reciben necesitan frecuentemente de atención sanitaria.

La perspectiva teórica descrita por Dorothea Orem (1985, 1987, 1991; 1995) es útil
para conceptualizar y examinar sistemáticamente la experiencia del cuidado de los
niños menores de cinco años desde una visión de enfermería.

El proceso de desarrollo humano y las condiciones y acontecimientos que ocurren


durante varias etapas de la vida es un factor condicionante que puede determinar el
nivel de dependencia (Orem, 1991). El cuidado físico y afectivo repercute de forma
decisiva y duradera en la evolución del niño hasta la edad adulta y en el desarrollo de
su capacidad de aprender y de regular sus emociones. Cuando no se atienden las
necesidades básicas del niño en los primeros meses de vida y la primera infancia, éste
suele mostrarse desconfiado y encuentra dificultades para creer en sí mismo y en los
demás. Cuando no se orienta al niño en los primeros años de vida para que vigile o
regule su comportamiento, aumentan las posibilidades de que cuando vaya al colegio
padezca ansiedades, miedos y un estado de desorganización por lo que respecta a los
impulsos y el comportamiento. De esta manera, es necesario que otra persona, en
este caso, la madre, identifique y satisfaga las demandas que emergen de los
requisitos de autocuidado de la persona en crecimiento. Quien proporciona cuidados a
un niño o niña es un agente de autocuidado que asume el rol de cuidado de
138

dependientes. La autoridad de quien brinda cuidados está relacionada tanto con las
capacidades de autocuidado como con las capacidades de cuidado dependiente. Un
comienzo necesario para la comprensión de la naturaleza del cuidado de niños
menores de cinco años por mujeres adultas maltratadas es desarrollar una
comprensión teórica y empírica de las capacidades de autocuidado y del cuidado a
personas dependientes.

El propósito de esta investigación es examinar las relaciones teóricas propuestas por


Orem (1991) en relación con las mujeres adultas maltratadas que brindan cuidados a
niños menores de cinco años. Específicamente, este estudio examinará: i) la
naturaleza de las capacidades de autocuidado (CA) en mujeres maltratadas que
cuidan a niños de uno a cinco años, ii) la relación entre las capacidades de
autocuidado (CA) y las capacidades de cuidado dependiente (CCD) en mujeres
maltratadas que cuidan a niños de uno a cinco años, y iii) la influencia de una
selección de factores condicionantes básicos en la CCD y la CA de mujeres
maltratadas que atienden a niños de uno a cinco años.

A la enfermería le concierne tanto la teoría como la práctica y el estudio que aquí se


propone tiene significancia para ambas. En relación con la práctica en el ejercicio
profesional las enfermeras tienen contacto frecuente con mujeres maltratadas y sus
familias. La mayoría de los niños menores de cinco años permanecen en sus hogares
y son cuidados por sus madres.

El maltrato a las mujeres, generalmente, es un problema de relaciones intra familiares


que incluye violencia física, psicológica o sexual por parte de sus compañeros (Ruiz,
1996). En distintas partes del mundo, entre el 16 y 52 por ciento de las mujeres
experimentan algún tipo de violencia por parte de sus compañeros. La violencia anula
la autonomía de la mujer y disminuye su potencial como persona y miembro de la
sociedad (OPS, 1997: OMS, 1998). En América Latina es considerada como un
problema de salud pública porque constituye una violación a los derechos humanos y
resulta de las relaciones estructurales de poder, dominación y privilegio entre los
hombres y las mujeres en la sociedad; en el Perú se da en el marco de una sociedad
predominantemente adultista y violenta (Estremadoyro, 1992; Loli,1992). Las mujeres
maltratadas tienen mayor tendencia a maltratar a sus hijos que las que no lo son
(Swift, 1996: Fondo de las Naciones Unidas para la Infancia (UNICEF),2000)

La comprensión de la experiencia única que constituye el cuidado de los niños


menores de cinco años y su relación con las capacidades de autocuidado y de cuidado
dependiente de la mujer adulta maltratada (quien le brinda cuidados y generalmente
es su madre) promoverá el desarrollo del conocimiento que servirá para diseñar
sistemas de enfermería y estrategias de intervención que maximicen esas
capacidades.

Orem (1988) describe la enfermería como una actividad prácticamente de búsqueda


que ocurre dentro de un entorno social mayor, por lo que debe explicitarse las
naturaleza substantiva de su campo del conocimiento. La teórica señala que han
identificado dos tipos de ciencias prácticas, el primero es especulativa, la cual es
teórica, explicativa y forma la estructura substantiva, y la segunda es práctica
“práctica” y está en relación con las acciones concretas de la práctica y depende de la
anterior. La investigación propuesta en este estudio corresponde al segundo tipo y se
enfoca a la “investigación de la naturaleza y los efectos de relaciones entre las
variables cuando prevalecen valores específicos y el significado de estos valores se
establece por la acción de la enfermera o el paciente”.
139

Esta investigación plantea comprobar las siguientes proposiciones de la teoría del


déficit de autocuidado: i) Las personas que ejecutan acciones para proveer su propio
cuidado o el cuidado de dependientes tienen capacidades especialidades para la
acción; y ii) Las habilidades de las personas comprometidas en el autocuidado o el
cuidado de dependientes están condicionadas por la edad, el desarrollo, la
experiencia, la orientación sociocultural, la salud y los recursos disponibles (Orem,
1991).

MARCO TEÓRICO

Orem (1981, 1995) desarrolló la teoría general de enfermería del déficit del
autocuidado, que es explicativa descriptiva y está constituida por tres teorías
relacionadas: i) La teoría de sistemas de enfermería; ii) La Teoría del déficit del
autocuidado, y iii) La teoría del Autocuidado. Estas tres teorías están
relacionadas. La teoría de sistemas de enfermería fundamenta la teoría del
déficit del autocuidado, la cual a la vez fundamenta la teoría del autocuidado, y
juntas estas tres teorías constituyen la teoría de enfermería del déficit del
autocuidado (Fig. 1).

La teoría del autocuidado es básica para la comprensión de la teoría del déficit del
autocuidado y la teoría de sistemas de enfermería. La teoría de autocuidado se refiere
a personas ejecutando acciones que satisfagan sus requisitos de autocuidado o los
requisitos de los miembros dependientes de su familia, acciones que conduzcan a la
conservación de la vida, la salud y el bienestar (Orem, 1991).

Aunque no ha sido explicada una teoría de cuidado de personas dependientes, parece


implícito que la idea central de la teoría del autocuidado se relaciona con las instancias
del cuidado de dependientes. Los miembros de la familia incapaces de satisfacer sus
necesidades personales de autocuidado, a causa de condiciones propias de cada
etapa del ciclo vital, son quienes necesitan de servicios de cuidado de dependientes.
La idea central de la teoría del déficit del autocuidado es descrita por Orem (1991)
como las limitaciones relacionadas con la salud o acciones derivadas de la salud que
vuelven a las personas incapaces de reconocer sus requisitos emergentes o
incapaces de ejecutar las medidas de cuidado necesarias para un funcionamiento
integral. Es ésta teoría la que explica el porqué de la necesidad y el beneficio de que la
persona sea atendida por una enfermera, y esta relacionada pertinentemente con esta
investigación. Específicamente, los conceptos de capacidades de autocuidado (CA),
capacidades de cuidado a dependientes (CCD) y el constructo periférico de los
factores condicionantes son el foco de esta investigación.

La capacidad de autocuidado (CA) es un prerrequisito necesario para el autocuidado y


se refiere al conjunto de habilidades adquiridas por la persona para cuidarse a sí
misma; es el poder para actuar deliberadamente en la regulación de los factores que
afectan su propio funcionamiento y desarrollo (1991, 1995). Esta capacidad es
desarrollada a lo largo de la existencia a través de aprendizajes espontáneos. Las
habilidades humanas constituyen la forma de la CA, mientras que su contenido se
deriva de los requisitos particulares de autocuidado. La estructura substantiva de la CA
es parte de una estructura tripartita de capacidades, que se conceptualizan como
operaciones estimativas, transicionales y productivas las cuales son fundamentos
unas de otras (Orem, 1991).

Las capacidades fundamentales y las disposiciones se refieren a aquellas habilidades


comunes básicas que posibilitan las acciones deliberadas, y su contenido se deriva de
múltiples disciplinas; producen el poder de agencia en tanto que son necesarias para
todas las formas de agencia (albedrío) humana. Éstas favorecen las acciones que
140

habilitan el autocuidado (Orem, 1991). Entre las capacidades y las acciones, y entre
las capacidades y la agencia del autocuidado están los componentes del poder dados
por el conocimiento, la motivación y el repertorio de destrezas necesarias para el
compromiso del autocuidado o del cuidado de personas dependientes

Las acciones de autocuidado son el tercer componente de la estructura substantiva de


las CA e incluye las suboperaciones: estimativas, transicionales y productivas. Las
primeras se refieren a la búsqueda en relación a los requisitos de autocuidado
(demandas); las segundas se refieren a los aspectos de juicio y tomas de decisiones
de las acciones de autocuidado, y, las últimas a la habilidad de comprometerse (Orem,
1995), (Fig. 2).

El concepto de cuidado a personas dependientes es definido por Orem (1995) como la


“habilidad compleja para reconocer y satisfacer algunos o todos los requisitos de
autocuidado de adolescentes o personas adultas que tienen limitaciones en su
capacidad de autocuidado asociadas o derivadas de problemas de salud, que los
colocan en situaciones de dependencia social en cuanto a su cuidado”. Ésta puede
ser afectada por factores tales como la cultura, experiencias vividas, y la salud de
ambos, el agente que presta cuidado a la persona dependiente y la persona que
recibe el cuidado. La capacidad de autocuidado es un proceso de aprendizaje a lo
largo de la existencia humana y su desarrollo tiene relación con la satisfacción de las
demandas (requisitos de autocuidado universal, de desarrollo y por desviación de la
salud.

Las capacidades de autocuidado en los niños de uno a cinco años se encuentran en


evolución y se desarrollan en respuesta a condiciones externas e internas. En relación
con la primera infancia se señala que los niños tienen derecho a desarrollar
cabalmente su potencial cognoscitivo, emocional, social y físico (UNICEF, 2000), y su
cuidado debe incluir nutrición, educación, atención de la salud, integración familiar y
social. El cuidado del niño repercute en forma decisiva y duradera en la evolución del
niño hasta la edad adulta y el desarrollo de sus capacidades de autocuidado.

El cuidado de los niños, aun cuando es un proceso esperado en la vida familiar,


implica toma de decisiones y acciones relacionadas con el fomento de capacidades
para el cuidado de dependientes (CCD) y tiene su raíz en el sistema de valores del
agente que brinda cuidado a personas dependientes, su cultura y sus experiencias
vividas. Motivación, fuerza de voluntad y capacidad de sostener la energía durante
largos períodos de tiempo son necesarias para el desarrollo y operatividad del CCD.

La estructura conceptual amplia de la CCD es análoga a la CA (Orem 1991; 1995), con


una estructura substantiva tripartita: capacidades y disposiciones fundamentales,
componentes de poder y acciones de autocuidado. De acuerdo con Orem (1991) los
aspectos de la estructura conceptual de la CCD que requieren énfasis incluyen la
necesidad de identificar la demanda de autocuidado de las personas socialmente
dependientes, la habilidad de trabajar con partes de otra persona, y un repertorio de
destrezas y habilidades para satisfacer las necesidades del dependiente.

Las capacidades relacionadas con el conocimiento para emitir juicios, la voluntad para
aceptar el rol de proveedor y comprometerse en acciones de cuidado a dependientes
están directamente relacionadas con las creencias y prácticas culturales que han
ocurrido dentro del contexto familiar e influencian el desarrollo de la CCD. Los
componentes de poder de la CCD, capacidades que lo facultan y habilitan, están
relacionados con la motivación y energía que permiten al agente acciones como la
toma de decisiones, adquirir destrezas técnicas e integrar acciones de cuidado a
141

dependientes, las que finalmente son expresadas a través de acciones productivas


(Orem, 1995).

Las acciones productivas comienzan con una decisión y elección de acción, y de


acuerdo con Orem (1991), requieren de conocimientos y destrezas específicas,
motivación, energía, compromiso, habilidad para ejecutar movimientos, y sentido de
bienestar. La operatividad de la CCD es expresado a través de acciones productivas
del cuidado a dependientes por medio de una serie de actividades para satisfacer la
demanda de autocuidado del dependiente.. En esta conceptualización, la CCD es
definida como el poder para ejecutar acciones de cuidado a dependientes.

Los Factores Condicionantes Básicos (FCB) son descritos como un concepto


periférico, y están constituidos por elementos o características tanto internas como
externas de las personas que afectan sus capacidades para realizar su autocuidado, el
cuidado a dependientes y la demanda de autocuidado en momentos particulares. Se
clasifican en tres categorías: i) Factores descriptivos de las personas (edad, estado de
desarrollo, género ); ii) Factores de la estructura familiar, y, iii) Factores que relacionan
a las personas con las condiciones y circunstancias de la vida como el estado de
salud, sistema de salud, factores del medio ambiente, disponibilidad y adecuación de
recursos (Orem 1987, 1995).

Los agentes de cuidado a dependientes son agentes duales que necesitan equilibrar el
gasto de sus recursos en el esfuerzo por satisfacer tanto sus demandas como las de
los dependientes. Factores internos y externos ejercen influencias directas o indirectas
en las capacidades para el autocuidado y el cuidado a dependientes y pueden
incrementarlas o restringirlas.

El estado de salud de quienes prestan cuidados a dependientes incluye varios


aspectos, tanto los cambios en el estatus subjetivo de salud del propio individuo así
como la tensión emocional percibida asociada con la prestación de cuidados. En esta
conceptualización el estado de salud del agente que brinda cuidados incluye su
estatus subjetivo de salud y la tensión, reflejando una variable multidimensional
directamente relacionada con el rol dual del agente de cuidado a dependientes. Los
efectos de la violencia de género pueden ser devastadores y duraderos en la mujer
que brinda cuidados a niños de uno a cinco años, y puede dejarle huellas de tipo
psicológico y cognoscitivo, así como afectar su capacidad para relacionarse
(Population Reference Bureau (PRB), 1998).

El estado de salud del receptor de los cuidados también influencia la experiencia de la


prestación de cuidados. En cuanto al cuidado de niños de uno a cinco años de edad,
Barnard (en Marriner-Tomey, 1995) señala que en la interacción adaptativa padre-
hijos se produce un proceso de modificación mutua en el cual las conductas de los
padres influyen sobre el niño y viceversa, Klauss y Kennell (1982) afirman que el
comportamiento de la madre y del padre frente al hijo deriva de una combinación
compleja de su potencial genético, la respuesta del infante frente a ellos, una larga
historia de relaciones interpersonales con sus propias familias y entre ellos, las
experiencias vividas y que se viven en la vida diaria. Sherman (en PRB,1998) afirma
que la violencia afecta a niñas y niños, aunque no digan nada; un niña o niño que ha
sido objeto de violencia o que la ha presenciado, puede volverse introvertido, sentir
ansiedad o deprimirse o bien puede volverse agresivo y tratar de controlar a sus
hermanas o hermanos menores.

MARCO EMPÍRICO
142

Existen investigaciones que utilizan la Teoría de Enfermería del Déficit del Autocuidado
en diferentes grupos etáreos, sin embargo, pocas se relacionan con las capacidades
de autocuidado y de cuidado a dependientes en mujeres adultas maltratadas con hijos
de uno a cinco años.

Limandri (1986), en base a un estudio realizado con mujeres maltratadas en Estados


Unidos de Norte América propuso que las investigaciones de enfermería dirigidas a
complementar los mecanismos cognitivos pueden influir positivamente en la
restauración del equilibrio y por lo tanto en su respuesta de adaptación. Entonces el
estado funcional de las mujeres maltratadas puede ser fortalecido con intervenciones
adecuadas que permitan la salud integral no sólo de la mujer sino también de todos los
miembros de la familia.

La Organización Mundial de la Salud (1998) calcula que como mínimo una de cada
cinco mujeres en todo el mundo ha sido objeto de abuso sexual o físico en algún
momento de su vida. Las encuestas realizadas en el África Subsahariana muestran
que el 46 por ciento de las mujeres de Uganda, el 60 por ciento de las de Tanzania, el
42 por ciento de las de Kenia y el 40 por ciento de las de Zambia son maltratadas
físicamente en forma habitual, y en Nigeria el 81 por ciento de las mujeres casadas
son maltratadas física y verbalmente por sus esposos y en el 46 por ciento de los
casos ello tiene lugar en presencia de sus hijos (PRB, 1998).

En Chile, un estudio realizado en 1993 muestra que la violencia intrafamiliar contra la


mujer se da en el 75 por ciento de los casos, la violencia cruzada entre los dos
miembros de la pareja en el 23 por ciento y el maltrato hacia el hombre llega solo a un
dos por ciento. En Nicaragua (1995), de los casos recepcionados durante el año por la
Comisaría de la mujer en el distrito 5 de la Policía Nacional, el 82 por ciento fueron
casos de violencia intrafamiliar física y emocional, el 18 por ciento fueron agresiones
sexuales (Ruiz, 1996).

En el Perú (INEI, 2002), se señala que la violencia contra la mujer equivale a menudo
violencia contra los niños y niñas. Diversos estudios muestran que el tipo de violencia
que sufrieron con mayor frecuencia las mujeres fue el tipo combinado de violencia
física-psicológica (Sánchez, 1993; Ávalos y Loyola, 1994; Huertas, 1994; Ipanaqué y
Paredes, 1996).

Rivera (2000), en un estudio realizado en Trujillo-Perú sobre maltrato intrafamiliar y


autocuidado en la adolescente embarazada, reporta relación inversa entre el maltrato,
capacidades y acciones de autocuidado, por lo tanto a mayor maltrato menores
capacidades y acciones de autocuidado de las adolescentes embarazadas estudiadas.

En resumen: La Teoría del Déficit del Autocuidado de Orem (1991, 1995) provee un
marco útil para examinar las capacidades de autocuidado relacionadas con el cuidado
de niños de uno a cinco años. Las personas que prestan cuidado a dependientes son
agentes duales. La capacidad de cuidado a dependientes es análoga a la capacidad
de autocuidado y representa capacidades complejas adquiridas para satisfacer las
necesidades de otras personas.

El cuidado a los niños de uno a cinco años es un proceso continuo en el que las
capacidades para el cuidado a dependientes son promovidas y están relacionadas con
la motivación, la voluntad, la capacidad de sostener la energía por largos períodos, la
habilidad para adquirir un repertorio de destrezas especializadas, y, la habilidad para
integrar acciones del cuidado a dependientes.
143

La relación entre las capacidades de autocuidado y de cuidado a dependientes es aún


desconocida. Factores pertinentes tales como el estado de salud y el sistema familiar
condicionan ambas.

La intención de esta investigación es comenzar a desarrollar conocimiento substantivo


acerca de las relaciones teóricas y empíricas entre los Factores condicionantes
básicos y las capacidades de autocuidado y de cuidado a dependientes de las mujeres
maltratadas que brindan cuidado a niños de uno a cinco años. La Figura 3 describe el
modelo del cual son generadas las preguntas e hipótesis de esta investigación; las
flechas sencillas representan relaciones entre variables, mientras que la flecha doble
representa la relación entre los componentes del modelo.

Definiciones conceptuales y operacionales.

Agencia de cuidados: Se refiere a la percepción de capacidades de acción que una


persona posee en relación con el autocuidado y el cuidado a dependientes. La CCD es
el dominio del conjunto de capacidades humanas percibidas de la persona que brinda
cuidados y posibilita la ejecución de acciones en relación con el cuidado a niños de
uno a cinco años. La CA es el conjunto de capacidades humanas percibidas que
posibilitan al agente el autocuidado.

Los Factores Condicionantes Básicos son características personales e influencias


medioambientales que son internas y externas a la persona y condicionan los
conceptos esenciales en diversos momentos.

El estado de salud no puede ser separado del crecimiento y desarrollo de la persona o


de las características biológicas inherentes a las diferentes etapas del ciclo vital. El
estado de salud en esta investigación se refiere a aspectos de salud de quien brinda el
cuidado y la salud de quien lo recibe. El estado de salud incluye el funcionamiento
físico, la salud mental y la percepción de la salud. El estado de salud de la persona
que recibe el cuidado es su condición de crecimiento y desarrollo de acuerdo a su
edad.

El sistema familiar se refiere a algunas formas de maltrato que van a afectar las
capacidades de autocuidado y de cuidado a dependientes.

2. PROBLEMA CIENTÍFICO

El problema científico se plantea en los términos siguientes:

¿EXISTE RELACIÓN ENTRE LAS CAPACIDADES DE AUTOCUIDADO Y DE


CUIDADO A DEPENDIENTES EN MUJERES MALTRATADAS QUE PRESTAN
CUIDADOS A NIÑOS DE UNO A CINCO AÑOS EN EL DISTRITO DE MOCHE,
ABRIL 2004 - MARZO 2005?

¿Existe relación entre el estado de salud y las capacidades de autocuidado y


de cuidado a dependientes de mujeres maltratadas que prestan cuidados a niños de
uno a cinco años?

¿Existe relación entre el estado de salud del niño y las capacidades de


autocuidado y de cuidado a dependientes de las mujeres maltratadas que prestan
cuidados a niños de uno a cinco años?
¿Cuál es la relación entre el sistema familiar, dado por el maltrato intrafamiliar
percibido, y las capacidades de autocuidado y de cuidado a dependientes de las
mujeres maltratadas que prestan cuidados a niños de uno a cinco años?
144

3. HIPOTESIS:
3.1 La capacidad de autocuidado es predictora de la capacidad de
cuidado a niños de uno a cinco años en mujeres maltratadas.
3.2 El estado de salud es predictor de las capacidades de autocuidado
y de cuidado a dependientes de mujeres maltratadas que prestan
cuidado a niños de uno a cinco años.
3.3 El estado de salud del niño es predictor de las capacidades de
autocuidado y de cuidado a dependientes de las mujeres
maltratadas que prestan cuidados a niños de uno a cinco años.
3.4 El sistema familiar, dado por el maltrato intrafamiliar percibido es
poredictor de las capacidades de autocuidado y de cuidado a
dependientes de las mujeres maltratadas que prestan cuidados a
niños de uno a cinco años

6. DISEÑO DE CONTRASTACIÓN DE HIPÓTESIS:

Para la contrastación de hipótesis se utilizará el diseño descriptivo


correlacional según Polit y Hungler (1997). El estudio se realizará en el
Distrito de Moche; Provincia de Trujillo, Departamento de La Libertad.

4.1 Universo muestral

Estará conformado por un total estimado de 384 casos anuales de mujeres


adultas maltratadas que llegaron a los servicios de consulta externa de los
centros y puestos de salud del Distrito de Moche, según información obtenida
de la Unidad Operativa a la mujer.

4.2 Muestra
Estará por 192 mujeres, obtenida con un nivel de confianza del 95 por ciento (α
= 0,05) y con un límite de error de estimación de 0,05 y se adoptó el valor de p
en 0,5. La selección se hará por muestreo probabilístico sistemático, siguiendo
a Rojas (1998) y se considerá la sectorización utilizada por los Centros y
Puestos de Salud del Distrito de Moche.

4.3 Unidad de análisis


La unidad de análisis será la mujer adulta maltratada que presta cuidado a
niños de uno a cinco años, que cumpla con los siguientes criterios de inclusión:
i) Que desee participar voluntariamente en el estudio.
ii) Sin evidencia de trastorno mental.
iii) Con Residencia habitual en el Distrito de Moche.
4.4 Instrumentos
Los instrumentos a utilizarse en la presente investigación serán tres: Dos para
estimas las Capacidades de autocuidado y de cuidado a dependientes y uno sobre
el maltrato familiar percibido por la mujer adulta.
4.4.1 Escala de medición de capacidades de autocuidado en mujeres
maltratadas (ECA): (Anexo 1): Diseñado por Isenberg y Evans (1993)
validada por Gallegos (1995) con un Alfa Cronbach de 0,8198. Este
instrumento incluye 32 reactivos, cada uno de los cuales se califica con una
escala tipo Likert que toma valores de uno (total desacuerdo) al cinco (total
acuerdo). Las mismas que determinan un puntaje mínimo de 32 puntos y
un máximo de 160.
145

4.4.2 Escala de medición de capacidades de cuidado a niños de uno a cinco


años (ECCD): (Anexo2): Ajustada por Deets (1998). Este instrumento
incluye 39 reactivos, cada uno de los cuales se califica con una escala tipo
Líkert que toma valores de uno (nunca) al cinco (siempre), las mismas que
determinan un puntaje mínimo de 39 puntos y un máximo de 195.
4.4.3 Escala de medición de maltrato intrafamiliar en mujeres adultas (EMIM):
(Anexo 3): Diseñado por Reátegui (1996); consta de 23 reactivos, tiene un
rango de puntaje de 69 puntos como máximo y 23 puntos como mínimo
obtenidos de la sumatoria de los puntajes parciales. Cada ítems asume los
valores de: Nunca :1; A veces: 2, y, Siempre: 3.

4.5 Control de calidad de los instrumentos


Prueba Piloto: Los instrumentos que emplearán en la presente investigación
serán depurados, para lo cual se usará una muestra de 30 mujeres adultas
maltratadas que presten cuidado a niños de uno a cinco años con
características similares a la población que se estudiará, quienes no formaran
parte de la muestra. El propósito es conocer la comprensión, practicidad y
tiempo para la aplicación de los instrumentos, asó como para proporcionar las
bases necesarias para las pruebas de validación y confiabilidad.

Validez: Para determinar la validez de los instrumentos se utilizará los


coeficientes de validez mediante el uso del análisis de varianza (ANOVA), y la
correlación Inter.-ítem y las estadísticas ítem total.

Confiabilidad: La confiabilidad de los instrumentos se determinará mediante el


coeficiente Alfa de Cronbach.

4.6 Procedimiento

Se solicitará la autorización de la Dirección del Hospital de Belén de Trujillo


para efectuar el presente estudio en la población de mujeres adultas
maltratadas que acuden a los centros y Puestos de Salud del Distrito de
Moche.

Se coordinará con la Enfermera Jefe del Departamento de Enfermería y la


Enfermera Coordinadora de los Programas para informarles sobre el estudio de
investigación.

Los instrumentos serán aplicados por la autora a las mujeres maltratadas que
reúnan los criterios de inclusión, y, al término se finalizará con educación
sanitaria y la entrega de un folleto sobre cuidado al niño de uno a cinco años y
otro sobre los Derechos Humanos.

Al término de cada aplicación del instrumento de investigación se revisará el


completo llenado y codificación para ser procesados.

Los resultados finales serán comunicados a las autoridades del Hospital Belén
de Trujillo.

4.7 Procesamiento de datos


Se organizará una base de datos con el paquete estadístico para Ciencias
Sociales ver. 9.0 entorno windows, y, los resultados se presentaran en cuadros
estadísticos en Microsoft Excel 8.0 y el texto en Microsoft Word, donde se
detallará la media aritmética, valores mínimos y máximos, desviación estándar
y para los análisis estadísticos se incluirán estadísticas descriptivas, y así
146

mismo, se determinará la correlación que existe entre el estado de salud, el


sistema familiar dado por el maltrata intrafamiliar y las capacidades de
autocuidado y de cuidado a dependientes mediante el coeficiente de
correlación de Spearman y el modelo de Regresión Lineal Simple.

7. Referencias Bibliográficas

AVALOS, G. y M. LOYOLA. 1994. Relación entre los patrones de poder familiar y la


violencia familiar intrafamiliar hacia la mujer, Comisaría de la mujer. Tesis para
optar el título de Licenciada en Enfermería. Facultad de Enfermería de la
Universidad Nacional de Trujillo.

ESTREMADOYRO, J. Violencia contra la mujer: El caso de violencia familiar. Lima:


Editorial Flora Tristán.

FONDO DE LA NACIONES UNIDAS PARA LA INFANCIA. 1990. La Convención de la


Naciones Unidas sobre los Derechos del Niño. Lima-Perú, UNICEF.

FONDO DE LA NACIONES UNIDAS PARA LA INFANCIA. 2000. Domestic Violence


Agaiinst Women and girls, Inocenti Digest Nº. 6.Research Centre, Florencia,
UNICEF.

FONDO DE LA NACIONES UNIDAS PARA LA INFANCIA. 2001. Estado Mundial de la


Infancia. Nueva York, USA. UNICEF.

INSTITUTO NACIONAL DE ESTADÍSTICA E INFORMÁTICA. 2002. Condiciones de


vida en los Departamentos del Perú, 200. Encuesta Nacional de Hogares –
ENAHO. Estadísticas Sociales. Lima, PROGRAMA MECOVI.

HUERTAS, F. 1994. Algunas Características socioculturales del agresor que influyen


en el tipo de violencia intrafamiliar a la Mujer. Las Delicias: Trujillo. Trabajo de
Habilitación Docente. Facultad de Enfermería de la Universidad Nacional de
Trujillo.

IPANAQUÉ, J. y PAREDES, P. 1996. Tipos DE violencia a la mujer y factores que


motivan la denuncia del cónyuge perpetrador. Tesis para optar el título de
Licenciada en Enfermería. Facultad de Enfermería de la UNT

LIMANDRI, B. 1986. Research and practice with abused womwn: use of the Roy adaptation model
as an explanatory framework. ADVANCES IN NURSING SCIENCIE. July. 8(4), 52-61.
LOLI, S. 1982. Poder y violencia. Lima: Centro de la Mujer Peruana Flora Tristán
(Mimeo).

KLAUSS, M. y J. KENNELL. 1982. Parents- infant bonding. 2ª. ed. St. Louis, The C:V:
Mosby Co.

MARRINER – TOMEY, A. 1995. Modelos y teorías en enfermería. 3a. ed. Madrid,


Mosby/Doyma Libros.

MINISTERIO DE SALUD / ORGANIZACIÓN PANAMERICANA DE LA SALUD. 1998.


Situación de salud en el Perú. Indicadores Básicos. Oficina de Estadística e
Informática.
ORGANIZACIÓN PANAMERICANA DE LA Salud. 1997. Violence in the Americas: The
social pandemic oh the 20th century. Washington DC.
147

OREM, D. 1985. Nursing: concepts of practice. 3ª. ed. New York: McGraw-Hill Co.

OREM, D. 1987. Orem’s general theory of nursing. In: R. Parse, Nursing, ciencie. Major
pardigms, theories and critiques. Philadelphia, W.B. Saunders Company.

OREM, D. 1988. The form of nursing science. Nursing Science Quqrterly, 1.

OREM, D. 1991. Nursing: concepts of practice. 4ª. ed. St. Louis, Mosby Co.

ORGANIZACIÓN MUNDIAL DE LA SALUD. 1998. Violencia Contra la mujer. Un tema


de salud prioritario. Washington DC.

POLIT, D. Y B. HUNGLER. 1997. Investigación Científica en las Vciencias de la Salud.


5ª. ed. Edit Interamericana, México.

POPULATION REFERENCE BUREAU. 1998. Inquietudes Femeninas: Informe de


mujeres sobre la violencia contra su sexo. MEASURE Communication. 1875
Connecticut Ave., NW, Suite 520. Washington, DC EE.UU.

RIVERA, M. 2000. Maltrato Intrafamiliar y autocuidado en la adolescente embarazada.


Hospital Belén de Trujillo. Tesis para optar el Grado Académico de Maestra en
Enfermería. Escuela de Postgrado. Universidad Nacional de Trujillo .

ROJAS, R. 1998. Guía para realizar investigaciones sociales. 22ª. ed.Plaza y Valdés,
México.

ROSS, S. 1998. Promoviendo la Calidad del Cuidado Materno: Un manual de referencia para
gerentes de programas. USA. Agencia Estadounidense de Desarrollo Internacional (USAID).

RUIZ, B. 1996. Violencia contra la mujer y la niñez: Una perspectiva en Enfemería.


Universidad Politécnica de Nicaragua. Ed. AEDAF.

SALAZAR, E. 2000. Condiciones básicas en el cuidado de la mujer. Santa Fe de


Bogotá, Colombia. Centro Editorial Javeriana.

SÁNCHEZ, H. 1993. Características Sociales de la mujer maltrsatada del pueblo joven


“San Antonio”. 1er. Sector Chiclayo, Perú.

ANEXO 1

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO

Escala para Estimar Capacidades de autocuidado (EECA)


Autoras: Isenberg y Evans

INSTRUCCIONES: Las afirmaciones listadas a continuación son usadas por algunas


personas para describirse a sí mismas. Por favor LEA CADA AFIRMACIÓN y circule el
número que corresponda al grado que mejor lo describe a usted. No hay respuestas
correctas o incorrectas, solo asegúrese de seleccionar el número que mejor
corresponda a su forma de ser.

Total Desacuerdo Ni acuerdo Acuerdo Total


148

desacuerdo ni Acuerdo
desacuerdo
1. Conforme cambian 1 2 3 4 5
las circunstancias de mi
vida, puedo hacer
cambios para
mantenerme sana.
2. Usualmente 1 2 3 4 5
compruebo si las
formas de mantenerme
sana son las mejores.
3. Si mis movimientos 1 2 3 4 5
están disminuidos hago
los cambios o ajustes
necesarios.
4. Tomo las medidas 1 2 3 4 5
necesarias para
mantener higiénico el
medio que me rodea.
5. Cuando es necesario 1 2 3 4 5
hago cambios en mi
forma de vida para
mantenerme sana.
6. Raras veces 1 2 3 4 5
desperdicio la energía
que necesito para
cuidarme a mí misma.
7. Soy capaz de buscar 1 2 3 4 5
formas mejores de
cuidarme a mí misma.
8. Puedo adecuar la 1 2 3 4 5
frecuencia con que me
baño a fin de
mantenerme limpia.
9. Me alimento de 1 2 3 4 5
manera que mantengo
mi peso en un buen
nivel.
10. Cuando es 1 2 3 4 5
necesario me las puedo
arreglar para estar a
solas.
11. Con frecuencia 1 2 3 4 5
pienso en tomar tiempo
para hacer ejercicio y
descansar durante el
día, pero nunca lo hago.
12. A través de los años 1 2 3 4 5
he hecho amigas a las
que puedo llamar
cuando necesito ayuda.
13. Usualmente duermo 1 2 3 4 5
lo suficiente para
sentirme descansada.
14. Cuando recibo 1 2 3 4 5
149

información sobre mi
salud generalmente
pido que me expliquen
las palabras que no
entiendo.
15. Regularmente 1 2 3 4 5
examino mi cuerpo para
ver si hay cambios.
16. Si debo tomar una 1 2 3 4 5
medicina que nunca
había tomado busco
información sobre los
efectos no deseados
que puede tener.
17. En el pasado he 1 2 3 4 5
sido capaz de cambiar
algunos de mis viejos
hábitos para mejorar mi
salud.
18. Habitualmente me 1 2 3 4 5
aseguro de que mi
familia y yo estemos
seguros.
19. Regularmente 1 2 3 4 5
compruebo la utilidad
de lo que hago para
mantenerme sana.
20. En las actividades 1 2 3 4 5
de mi vida diaria raras
veces me doy el tiempo
para cuidarme a mí
misma.
21. Cuando mi salud se 1 2 3 4 5
ve en peligro soy capaz
de buscar la
información que
necesito.
22. Busco ayuda 1 2 3 4 5
cuando no puedo
cuidarme sola.
23. De vez en cuando 1 2 3 4 5
tengo tiempo para mí.
24. Cuando he tenido 1 2 3 4 5
limitaciones para
moverme, he sido
capaz de cuidarme
como a mí me gusta.
25. Con frecuencia me 1 2 3 4 5
siento bien conmigo
misma.
27. Con frecuencia me 1 2 3 4 5
siento bien respecto
hacer cosas buenas.
28 Frecuentemente me 1 2 3 4 5
siento orgullosa de
150

hacer las cosas buenas


29. Con frecuencia me 1 2 3 4 5
siento bien respecto a
mi cuerpo.
30. Soy una buena 1 2 3 4 5
amiga mía.
31. Conozco mis puntos 1 2 3 4 5
fuertes y los débiles.
32. Llevo a cabo mis 1 2 3 4 5
decisiones.
151

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO
ESCALA DE MALTRATO INTRAFAMILIAR PERCIBIDO POR LA MUJER
Autora: Reátegui.

INSTRUCCIONES: Las frases siguientes expresan sentimientos, pensamientos o


conductas para que Usted pueda experimenta.
Responda con cuidado y veracidad, no hay respuesta correctas o incorrectas.
Marca con un aspa (X) dentro del paréntesis la respuesta que estime
convenientemente.
- Nunca : Si no piensa, siente lo que indica en la frase.
- A veces : Si de vez en cuando piensa, siente lo que se indica en la frase.
- Siempre : Si continuamente, siente, piensa o le sucede lo que indica en la frase.

Nunca A veces Siempre


1. Me duele algo o tengo algún malestar. ( ) ( ) ( )
2. Los golpes son parte de mi vida casi lo espero ( ) ( ) ( )
siempre por cualquier cosa que haga mal.
3. Me recargo con el trabajo del hogar. ( ) ( ) ( )
4. Ingiero mis alimentos fuera del horario. ( ) ( ) ( )
5. Mi compañero se pone abusivo cuando toma o ( ) ( ) ( )
pierde el juego.
6. Me golpea tan fuerte que necesito ir al médico ( ) ( ) ( )
7. Me golpea sólo con puños y pies. ( ) ( ) ( )
8. Me pongo violenta con mis hijos. ( ) ( ) ( )
9. No deseo levantarme me siento agotada y sin ( ) ( ) ( )
fuerzas.
10. Soy yo la que cuida a los niños sin contar con ( ) ( ) ( )
el apoyo de otras personas.
11. Me es difícil expresar mis sentimientos por ( ) ( ) ( )
temor a ser rechazada.
12. Ando tensa, asustada y preocupada. ( ) ( ) ( )
13. Me hace quedar mal ante mis amigos y ( ) ( ) ( )
familiares.
14. Solo cuando quiere me da para el diario. ( ) ( ) ( )
15. Su pareja le insulta con palabras soeces. ( ) ( ) ( )
16. Tengo ganas de llorar, me siento muy triste, ( ) ( ) ( )
17. Critica mi apariencia física. ( ) ( ) ( )
18. Me amenaza con dejarme, matarme o ( ) ( ) ( )
quitarme a mis hijos.
19. Mi compañero actúa como si fuera su ( ) ( ) ( )
sirvienta personal.
20. Me exige obediencia a su antojo. ( ) ( ) ( )
21. Tengo relaciones por imposición de mi pareja. ( ) ( ) ( )
22. No me gusta hablar de temas sexuales. ( ) ( ) ( )
23. Me siento avergonzada por mi embarazo. ( ) ( ) ( )
152

UNIVERSIDAD NACIONAL DE TRUJILLO


ESCUELA DE POSTGRADO
Escala para Estimar Capacidades de cuidado a niños de uno a cinco años
(EECA)

Revisado por: Deets

1. Nº de Cuestionario: Clave: __________________


1. Edad materna :
_______________________________________
2. Educación :
_______________________________________
3. Ingreso semanal familiar :
_______________________________________
4. Estado marital :
_______________________________________
5. Nº de miembros en la familia :
_______________________________________
6. Problemas de salud que ha tenido su niño :
_______________________________________________________________
_______________________________________________________________
_______________________________________________________________
7. Estimación personal del estado de salud de su niño (a):
a) Buena b) Regular c) Deficiente
8. Qué importancia tiene para Usted el desarrollo de su hijo (a):
a) Mucha b) Regular c) Poquita d) Nada
9. Con qué frecuencia trae a su niño (a) para valoración del desarrollo:
a) Cada mes b) Cada dos meses c) Cuando se enferma

d) Otra: ______________________________
10. Cómo considera el desarrollo de su niño (a):
a) Bueno b) Regular c) Deficiente

Cuidado a niños de uno a cinco años


153

Este cuestionario está diseñado para identificar actividades que las


madres realizan con sus niños (as). Por favor circule el número que indica qué
tan frecuente realiza cada actividad con su niño.
Cuál es la edad del niño para el cual Usted está contestando este cuestionario? __ Sexo : ____
Claves: 5 = Siempre - Lo que Usted hace todo el tiempo de forma consistente.
4= frecuentemente – Lo que Usted normalmente hace.
3= Ocasionalmente – Lo que Usted hace algunas veces.
2= Raramente – Lo que Usted escasamente hace.
1= Nunca – Lo que Usted nunca hace.

SIEMPRE

FRECUENTEMENTE

RARAMENTE
OCASIONALMENTE

NUNCA
CODIFICACIÓN
1. Llevo a mi niño (a) a control usual 5 4 3 2 1 _________
de salud.
2. Tomo medidas para asegurar que el 5 4 3 2 1 _________
hogar de mi niño (a) sea seguro.
3. trato de ayudar a mi niño (a) para 5 4 3 2 1 _________
tener una buena autoimagen.
4. Estimulo a mi niño (a) para estar en 5 4 3 2 1 _________
actividades con otro niños (as) de su
misma edad.
5. Me aseguro de que mi niño (a) esté 5 4 3 2 1 _________
provisto con comidas de cada uno de
los cuatro grupos básicos.
6. Promuevo períodos de descanso 5 4 3 2 1 _________
para mi hijo (a) en el día.
7. Antes de criticar las actuaciones 5 4 3 2 1 _________
del niño (a), considero sus
limitaciones.
8. Veo que mi niño (a) reciba sus 5 4 3 2 1 _________
vacunas a tiempo.
9. Me aseguro que mi niño (a) tenga 5 4 3 2 1 _________
tiempo para jugar.
10. Estimulo a mi niño (a) a tomar 5 4 3 2 1 _________
parte en actividades familiares.
11. Me aseguro que mi niño (a) 5 4 3 2 1 _________
duerma bien por la noche.
12. Checo a mi niño (a) por signos de 5 4 3 2 1 _________
154

enfermedad.
13. Recuerdo a mi niño (a) que ingiera 5 4 3 2 1 _________
suficiente líquidos.
14. Ayudo a mi niño (a) para aprender 5 4 3 2 1 _________
a llevarse bien con otros.
15. Cuando alguien está fumando, 5 4 3 2 1 _________
trato de sacar a mi niño (a) fuera de la
habitación.
16. Me aseguro que mi niño (a) 5 4 3 2 1 _________
desarrolle un entendimiento del valor
nutricional de los alimentos que
come.
17. Cuando planeo las comidas, 5 4 3 2 1 _________
presto atención a las preferencias de
alimento de mi niño (a).
18. Enseño a mi niño (a) a estar alerta 5 4 3 2 1 _________
de seguridad a los peligros.
19. Ayudo a mi niño (a) a enfrentar 5 4 3 2 1 _________
eventos de estrés.
20. Cuando el doctor ordena una 5 4 3 2 1 _________
medicación para mi niño (a) sigo las
instrucciones cuidadosamente.
21. Pregunto al doctor o enfermera 5 4 3 2 1 _________
acerca de las complicaciones de los
tratamientos médicos que mi niño (a)
está recibiendo.
22. Me doy cuneta qué tan frecuente 5 4 3 2 1 _________
mi niño (a) orina.
23. Estimulo / fomento las actividades 5 4 3 2 1 _________
sociales para mi niño (a).
24. Hago juicios acerca de si mi hijo 5 4 3 2 1 _________
(a) está creciendo y desarrollándose
normalmente.
25. Apoyo a mi niño (a) para tomar 5 4 3 2 1 _________
parte en actividades de grupo.
26. Elogio / alabo a mi niño (a). 5 4 3 2 1 _________
27. Checo los lugares fuera de 5 4 3 2 1 _________
nuestra casa, por peligros potenciales
para mi niño (a).
28. Me aseguro que mi niño (a) 5 4 3 2 1 _________
utilice medidas de seguridad en el
automóvil.
29. Estimulo a mi niño (a) para estar 5 4 3 2 1 _________
incrementando su independencia.
30. ayudo a mi niño (a) a aprender 5 4 3 2 1 _________
nuevas palabras.
155

31. Evalúo la calidad del aire que mi 5 4 3 2 1 _________


niño (a) respira.
32. Ayudo a que mi niño (a) aprenda a 5 4 3 2 1 _________
comunicarse efectivamente.
33. Me doy cuenta que tan frecuente 5 4 3 2 1 _________
mi niño (a) tiene movimientos
intestinales.
34. enseño a mi niño (a) a tener 5 4 3 2 1 _________
cuidado con la propiedad de otra
persona.
35. Ayudo a mi niño (a) a adaptarse 5 4 3 2 1 _________
en los cambios en su desarrollo.
36. Fomento que mi niño (a) sea un 5 4 3 2 1 _________
miembro de la familia responsable.
37. Trato de saber que está haciendo 5 4 3 2 1 _________
mi niño (a) en la escuela.
38. Me aseguro que mi niño (a) 5 4 3 2 1 _________
participe en ejercicio físico.
39. Cuando el clima está caliente o 5 4 3 2 1 _________
cuando mi niño (a) ha estado más
activo, lo estimulo a que tome más
líquidos.
156

UNIVERSIDAD PRIVADA ANTENOR ORREGO


FACULTAD DE CIENCIAS AGRARIAS
ESCUELA PROFESIONAL DE INGENIERIA EN INDUSTRIAS ALIMENTARIAS

1. Título del Proyecto:


Efecto de tres proporciones trigo – tocino y tiempo de proceso en el
tratamiento térmico y calidad sensorial de shambar enlatado.
2. Responsable : Silvana Marivel Villanueva Catalán.

3 . Asesor : MSc Antero Vásquez García

4 . Lugar de Ejecución :

5 . Duración : 7 meses.

6 . Aprobado :

Asesor Decano

Presidente del Jurado Miembro del Jurado

Miembro del Jurado Responsable

7 . Fecha de Presentación: Trujillo del 2003.


157

I. ANTECEDENTES Y JUSTIFICACIÓN
1.1 ANTECEDENTES:

Giannoni (1977), realizó un estudio en atún enlatado en envases tipo tuna 1/2 lb
(307x113) donde evaluó simultáneamente el tiempo de procesamiento térmico por el
método de Stumbo (1973) y la consecuente degradación de nutrientes por el método
de Jean et al. (1971). Encontró que para obtener una Retención máxima de Tiamina
equivalente al 54.78%, correspondió un tiempo de proceso de 55.26 minutos a 250ºF.

Mendoza (1993), realizó un estudio en el proceso de optimización del tratamiento


térmico de una crema a base de olluco enlatada, en envases de hojalata de tipo tall
1lb (301x408). Con las pruebas de penetración de calor obtuvo valores: fh=45.56 min,
fc=50.69 min. , jh=1.1104, jc=1.244. Considerando To=76.1ºF, T1=240ºF. ,con Z=18ºF,
F0=2.52 min. ,el proceso de optimización fue de 230ºF por 107 min. % Retención
máximo de ácido ascórbico igual a 83,593%.

Bailón (1994), realizó un estudio para evaluar las condiciones de proceso para el
enlatado de olluco con charqui. Envasó en latas tall de 1lb barnizadas (301x408).
Agregó solución de cubierta (salmuera) a temperatura de 100ºC que fue vertida sobre
el envase que contenía el olluco con charqui y aderezo, dejando un espacio de cabeza
de 6 mm. El tratamiento térmico se hizo considerando F 0=6 min., con Z=18ºF para
productos cárnicos.

Huapaya (1995), realizó un estudio, en pulpa de camu-camu enlatada y pasteurizada


a 212°F x 23.85 min. Con Z=16ºF, F0 = 0.23 min. Los parámetros óptimos de
calentamiento y enfriamiento para la pulpa en envases tipo tall 1lb, fueron: un valor
de fh = 26.34min. ; fc =28.95min. ; jh=0.85, jc=1.18, T0=75.56ºF y % Retención
máxima de ácido ascórbico = 80.157.

Obregón (2001), estudio el. ”Efecto de la Temperatura sobre la textura de gajos de


mandarina satsuma (citrus unshiu) en almíbar”. Envasó en frascos de vidrio de 500ml
(11.4 x 7.5 cm). Con una relación 1.5:1.0 gajos, almíbar, respectivamente. Los
valores de penetración de calor que caracterizan el tratamiento térmico fueron:
fh=19.417 min ; fc=16.051min ; jh=1.10 ; jc=1.40 ; tpsih=66.272ºF y
tpsic=269.413ºF. , F0 = 3.5min , % Retención de textura = 44,10 a 105°C x 12.94min.
158

1. 2 JUSTIFICACION:
El plato típico de Trujillo y de la Sierra Liberteña es el shambar que es una que es una
sopa agradable y nutritiva de cereal, legumbre y carne de cerdo.
En relación a la nutrición humana, los cereales son excelentes fuentes de energía
(almidón) pero pobres en proteínas, por ello es muy importante la incorporación de
legumbres en la dieta por la cantidad de proteínas que poseen.
Los granos de cereales son relativamente pobres en proteínas totales y en lisina y
otros aminoácidos, estas deficientes pueden superarse mezclándose con productos
derivados de las semillas leguminosas. El resultado más evidente de esta mezcla es el
ser mas rico en proteínas que componente cereal solo.
Además de esto, las leguminosas mejoran la calidad de las proteínas del cereal
suplementándolos con los aminoácidos limitantes, como la lisina (Potter, N. 1999).
La carne de cerdo es excelente fuente de lípidos, los lípidos representan un papel
importante en la alimentación; su función nutricional básica se debe a su aporte
energético (8,5 cal/g), ácidos grasos esenciales y vitaminas liposolubles, unidas a
características organolépticos tales como su textura, sabor de los alimentos y
aplicaciones culinarias (Cheftel, 1976)
El presente proyecto de investigación permitirá aplicar el proceso tecnológico para
obtener un producto conservado. Siendo una de las combinaciones de ingredientes
mas favorables para un mayor aprovechamiento de las proteínas, además garantizada
la presencia de aminoácidos esenciales y vitaminas, liposolubles.

II. FUNDAMENTACION TEORICA


2.1. SHAMBAR:
Se define como una sopa espesa de legumbres, cereal y carne de cerdo. En Trujillo,
es costumbre comer este plato típico los días lunes.
Sopa elaborada a base de Trigo pelado, mezclado con haba, garbanzo, arvejas y otras
menestras. Cuando todo esta cocido se incorpora carne de chancho.
Todo es sancochado y lleva un aderezo en base a cebollas picadas con ají colorado
frito en aceite. Al servir se le agrega el culantro picado (INEI, 2002).

EL TRIGO:
El trigo es una especie vegetal perteneciente a la familia de las gramíneas; genera
frutos secos con una sola semilla. Este tipo de fruto es una cariópside que
comúnmente se denomina grano. Su nombre científico es Triticum aestivum, originario
de Asia Menor, Asia Central y África del Norte. Su periodo vegetativo es de 90 a 160
159

días (según variedades). Las zonas de producción son: Santiago de Chuco, Otuzco,
Julcán, Pataz, Gran Chimú, Sánchez Carrión.

Entre las principales variedades se citan el Florencio, Nariño, Amapola, Imperial,


Elmiro, Atahualpa, Verti, Montano, Estaquilla, Ollantay, Zapata, Bayo, Cajabamba,
Niño , Pelón, Centeno, Azul. El de variedad Estaquilla se caracteriza por tener grano
largo y procede mayormente de la Provincia de Santiago de Chuco. (Ministerio
Agricultura, 2002).

Según Calvel (1975), mencionado por Chang, (1995), las características del grano de
trigo son: 1) El grano de trigo o Cariópside tiene una estructura compleja, de forma de
nuez alargada, que contiene en su interior una semilla de 6 a 8 mm de largo y 3 a 4
mm de ancho. Su examen revela; una cara dorsal mas o menos convexa; con una
cara ventral con un surco profundo; en su parte superior, cortos pelos que forman el
cepillo, en su parte inferior, visible sobre la cara dorsal el germen. 2) El color del trigo
varía del rubio al blanco. 3) El peso de 1000 granos varía de 35 a 55 g.

Bennión (1967), citado por Chang, (1995) menciona que algunos trigos son de color
rojo (aunque también pueden ser púrpura), depende mucho del pigmento en la
cubierta de la semilla. La cubierta del grano de trigo está compuesta por 5 capas; las 3
primeras constituyen el salvado que se separa del resto durante la molturación.

Según Hlynka (1967), citado por Chang (1995), la cubierta o pericarpio rodea toda la
semilla, está constituida por varias capas de células que reciben el nombre de:
intermedia, cruzada y tubular, situadas debajo del epicarpio, es decir, que mientras
éste último es el más externo, la capa de células tubulares es la más interna del
pericarpio.

Con frecuencia la composición química del grano, varía en el trigo como cualquier otro
grano de cereal. Aunque la cantidad usual de proteínas es del 8 al 15%, se presentan
valores tan bajos como del 7% y tan altos como del 24% (Desrosier, 1999).

TOCINO:
Según el Artículo 225º del reglamento sanitario de alimentos, define al tocino como la
carne de cerdo que conserva su piel y grasa, sometida a curado, secado y ahumado.
(Ministerio de Salud 1986).
160

LEGUMBRES:
Especie de vegetales pertenecientes a la familia de las leguminosae.
Las leguminosas, son plantas con flores que al fructificar producen vainas que
contienen semillas, tienen un contenido de proteínas considerablemente mayor que los
gramos de cereales (Potter, N. 1999).
Collazos, et.al. (1993) reporta la composición química de los ingredientes del shambar,
como se muestra en el cuadro1.
161

CUADRO 1: COMPARATIVO DE LA COMPOSICION QUIMICA DE LOS INGREDIENTES PRINCIPALES

COMPOSICIÓN POR 100 GRAMOS DE PORCION COMESTIBLE


ALIMENTO Carbohi- Ribofla- Ácido
Energía Agua Proteínas Grasa Ceniza Fibra Calcio Fósforo Hierro Tiamina Niacina
NOMBRE dratos vina Ascórbico
(Cal) (g) (g) (g) (g) (g) (mg) (mg) (mg) (mg) (mg)
(g) (mg) (mg)

Trigo 336.00 14.50 8.60 1.50 73.70 1.70 3.00 36.00 224.00 4.60 0.30 0.08 2.85 4.80

Tocino 490.00 32.80 13.50 47.90 --- 5.00 --- 26.00 70.00 1.20 0.24 0.12 2.00 1.90

Arvejas Secas 351.00 11.50 21.70 3.20 61.10 2.50 4.50 65.00 289.00 2.60 0.25 0.15 3.43 3.5

Habas secas con


340.00 11.50 23.80 1.50 60.20 3.10 6.40 197.00 413.00 12.8 0.39 0.30 4.00 8.6
cáscara cruda

Garbanzo crudo 362.00 11.40 19.20 6.10 60.10 3.20 2.60 120.00 370.00 8.30 0.38 0.38 2.80 5.4

Fuente: Collazos, et.al (1993)


2.2. TRATAMIENTO TERMICO:
Los alimentos sometidos a tratamiento térmico deben ser protegidos mediante un
recipiente adecuado cuya finalidad principal es la de impedir la entrada de
microorganismos y de oxigeno. Los dos recipientes mas utilizados para los
vegetales tratados son las latas de hojalata y los recipientes de vidrio.

El vacío en el interior del recipiente puede lograrse mediante agotamiento por calor,
por medios mecánicos o inyectando vapor en el espacio libre de la parte superior
del recipiente inmediatamente antes de proceder a su cierre. El método de
agotamiento por calor depende del producto. Si el producto puede ser introducido
caliente esto es suficiente, en caso contrario puede ser preciso que los recipientes
llenos atraviesen en el túnel de vapor antes de cerrarlos.

Los recipientes cerrados tienen que ser tratados para esterilizar su contenido. Esto
suele realizarse mediante calentamiento durante un tiempo y con una temperatura
predeterminada con exactitud en una atmósfera de vapor saturado, en agua
caliente o, de forma ocasional, en una mezcla de vapor y aire (Arthey y Dennos,
1992).

Se define esterilización como la destrucción de la totalidad de los microorganismos


de un producto (Mafart ,1994). La esterilización comercial es el proceso que
permite guardar a temperatura ambiente los productos envasados en latas y
similares (Singh y Heldman ;1998).

Esterilización Comercial (HTST). Es aplicable para productos que se calientan por


convención y procesamiento aséptico. Procesamiento HTST, hasta que la
resistencia de las enzimas se vuelva importante. Para los productos que se
calientan por conducción. Generalmente no se aplica HTST, procesar el alimento a
temperatura de 250 a 265 ºF. ( Lund,
1977).

El valor F es una medida del efecto total letal sobre los microorganismos que
tienen un tratamiento térmico. En término FO indica el valor F en el centro de un
envase, FO indica el valor de F equivalente en minutos a 121ºC y FS la letalidad
integrada del calor recibido por todos los puntos en un recipiente. El valor F O de
163

un tratamiento térmico puede obtenerse en la práctica mediante la suma de las


eficacias letales de las temperaturas alcanzadas a intervalos de 1 minuto, a partir
de la curva de calentamiento y enfriamiento de un producto durante su tratamiento
térmico (Rees ,1994).

La difusividad térmica puede calcularse conociendo las propiedades Termofísicas


del producto (Casp y Abril,1999):

k
 
 .Cp
Donde:

K = Conductividad térmica
ρ = Densidad
Cp. = Calor especifico
Cp = f (carbohidratos, proteínas, grasa, cenizas, humedad)
K = f (carbohidratos, proteínas, grasa, cenizas, humedad
(Singh y Heldman ; 1998).
Conocer las propiedades termofísicas de un alimento no es demasiado frecuente
por lo que es más habitual calcular la difusivida térmica ( α ); cuando el producto se
encuentra en un envase cilíndrico:

0.398

 1 0.427 
 2  fh
R H2 

Donde:
R = Radio del cilindro
H = Semialtura del cilindro
fh = Factor de pendiente de la curva de penetración de calor.

El factor de pendiente fh se puede calcular para cada producto conociendo su curva


de penetración de calor. Para ello se representa el logaritmo de la diferencia entre
la temperatura del autoclave y la del producto contra el tiempo de proceso. A la
rama descendente de esta curva se le ajusta una recta, cuyo inverso de la
pendiente será el factor fh.
164

Al calcular de esta forma la difusividad térmica, se tiene en cuenta también las


características termofísicas del envase en el que se encuentra el producto y la
efectividad del sistema de calentamiento empleado. Casp, A y Abril, J. (1999)

III. PROBLEMA

¿Cual es el efecto de tres proporciones trigo – tocino y tiempo de proceso en


el tratamiento térmico y calidad sensorial de shambar enlatado?

IV. OBJETIVOS

 Evaluar el efecto de tres proporciones trigo – tocino en la calidad


sensorial de shambar enlatado.

 Evaluar el efecto del tiempo de proceso en la calidad sensorial de


shambar enlatado.

 Determinar los valores de Fo y Co utilizando los métodos generales


y matemáticos.

V. TIPO DE INVESTIGACIÓN

5. 1 De acuerdo a la orientación: Aplicada

5. 2 De acuerdo al método de contrastación: Experimental

VI. HIPÓTESIS:

La proporción trigo 2: Tocino1 y el tiempo de proceso de 90 minutos


permiten obtener shambar enlatado de calidad sensorial aceptable.

VII. MATERIALES Y METODOS

7. 1 MATERIALES Y EQUIPOS

7.1.1 MATERIA PRIMA

Trigo variedad Estaquilla, procedente de Santiago de Chuco,


Provincia de Trujillo, Departamento de La Libertad.
Tocino de cerdo.
Frejol.
165

Habas.
Garbanzo.

CANTIDAD DE MATERIA PRIMA

Ingredientes Líquido de
Relación Trigo Tocino Haba Garbanzo Arveja y Gobierno
Trigo – saborizantes
(g) (g) (g) (g) (g) H2O + sal
Tocino
(g) (g)

T 1:1 112.5 112.5 15 15 15 10 120

R1 2:1 150 75 15 15 15 10 120

R2 3:1 169 56 15 15 15 10 120

R3 4:1 180 45 15 15 15 10 120

7.1.2. EQUIPOS

- Autoclave Horizontal a vapor

- Pie de rey

- Balanza de reloj

- Balanza analítica Soehnle 0.1g

- Bandejas de acero inoxidable

- Vacuometro

- Termómetro

- Selladoras de latas Angelus 75p.

- Dispositivo de registro de temperatura

- Termocuplas
166

7.1.3. MATERIALES

- Envases de hojalata tipo “Tall” 1Lb, (301 x 408).

- Cuchillos, maderas de cortar, mesas, etc.

- Vasos de precipitación.

- Refrigeradora.

7.1.4 INSUMOS

Sal común 8g
Aceite 2g
Cebolla 2g
Ajos 1g
Ají panca 3.5g
Pimienta 0.5g
Comino 0.5g
Culantro picado 0.5g

7.2 METODOS FISICOQUIMICOS

DETERMINACION DE PROTEINA TOTAL (Método micro Kjeldahl)


METODO
Muestra:
Pesar 0,3 (en papel seda) gramos de muestra, luego agregar 1 g de
catalizador de oxidación, para acelerar la reacción, agregar 10ml de H 2SO4
concentrado y colocar el balón en la cocina de digestión, ésta termina
cuando el contenido del balón es completamente cristalino o complementa
mente claro.
Colocar la muestra digerida en el aparato de destilación, agregar 7 a 10 ml
de NaOH con fenolftaleina hasta que vire (rojo carmín) para que se
produzca la destilación. Conectar el refrigerante y recibir el destilación
termina cuando ya no se destila mas amoniaco y el papel tornasol no vira a
color azul, luego se procede a la titulación con NaOH valorado (0.1 N) hasta
que vire a turquesa, anotar el gasto.
167

Blanco:
Destilar 40 ml de NaOH mas 20ml de agua destilada y recibir en un matraz
40 ml de HCl 0.1N más indicador de proteína hasta que el papel tornasol no
vire a color azul. Luego titular con hidróxido de socio 0.1N, anotar el gasto.

DETERMINACION DE HUMEDAD (método de estufa)


- Preparar la muestra a analizar, homogenizándola previamente.
- Pesar la placa petri o cápsula de porcelana en una balanza
analítica y anotar el peso.
- Adicionar 5g (alimento seco) o 10g (alimento fresco) del alimento
homogenizado. Anotar el peso.
- Colocarla en la estufa a 105°C por un tiempo mínimo de 3 horas.
- Utilizando pinzas metálicas retirar la cápsula de la estufa.
- Enfriar en un desecador y pesar en balanza analítica. Anotar el
peso.
- Establecer la diferencia del peso respecto al peso inicial.
- Realizar por duplicado.
- Calcular el contenido de humedad en b.h. y b.s. y expresarlo en
porcentaje.
diferencia depeso
% Humedad (b.h.)  x100
peso( g )muestra
diferencia depeso
% Humedad (b.s.)  x100
Peso( g )materia sec a
- Calcular el porcentaje materia seca.
% HS  100  % Humedad

DETERMINACION DE GRASA TOTAL (Método de Soxhlet)


- En este método es necesario usar muestras deshidratadas.
- Poner a secar en estufa a 110°C el matraz a usar por espacio de
una hora, sacarlo y enfriarlo en un desecador donde se deja
enfriar (20minutos)
- Pesar el matraz.
- Pesar 5g de muestra y empaquetarla en papel filtro whatman N°2.
el paquete se coloca en el cuerpo del soxhlet y se agrega hexano
168

destilado hasta que una parte del mismo sea sifoneado hacia el
matraz.
- Conectar la cocina a temperatura baja. El hexano al calentarse se
evapora y asciende hacia la parte superior del cuerpo donde se
condensa por refrigeración con agua y cae sobre la muestra,
regresando posteriormente al matraz por el sifón, arrastrando
consigo la grasa. El ciclo es cerrado y la velocidad de goteo del
hexano debe ser de 30 a 40 gotas por minuto.
- El proceso dura en promedio, 3 horas. El matraz debe sacarse
del aparato cuando contiene poco hexano (momentos antes que
este sea sifoneado desde el cuerpo). Luego evaporar en un
desecador.
- Pesar y determinar la cantidad de grasa total en 5 g de muestra y
expresarlo en porcentaje.

7.3 METODO EXPERIMENTAL

7.2.1 Descripción del Proceso de Enlatado.

Materia prima, se utilizara trigo, variedad estaquilla


Selección y clasificación, se eliminará la materia prima que se
encontrará en malas condiciones, así como algunos elementos
extraños.
Lavado, Se efectuará con agua corriente para eliminar el polvo
y las partículas presentes en la superficie del cereal.
Remojo, se colocará la materia prima en agua potable por un
tiempo de 10 horas, antes del envasado.
Envasado, el producto ya escaldado es llenado con el aderezo y
Tocino a los envases de hojalata de una libra de capacidad tipo
“Tall” (301 x 408), tomándose el peso neto.
Adición de líquido de gobierno, llamado también, líquido de
relleno, solución de cubierta, es la mezcla (salmuera) con la que
se llena el envase una vez completada su carga de producto. Esta
constituida por agua y sal en un porcentaje del 2%, se somete a
un calentamiento a 100°C y se vierte sobre el envase que
contiene el trigo con tocino y aderezo, tratando de dejar un
espacio de cabeza de 6mm. Tiene por finalidad: Llenar los
169

espacios que deja el producto y desalojar el aire, que puede


producir alteraciones en el alimento y corrosión en la lata.
Exhausting, pre esterilización o eliminación del aire. Esta
operación consiste en la eliminación del aire del espacio
superior del envase así como el disuelto en el producto, creando
un vació parcial dentro del envase.
Sellado, para este proceso se empleará una maquina selladora
semiautomática para latas tipo “Tall”.
Tratamiento Térmico, para esta operación se utilizará un
autoclave Horizontal. En las pruebas de penetración de calor se
trabajará a una Temperatura de retorta de 240°F por un tiempo
establecido de acuerdo al diseño experimental.
Enfriado, el producto esterilizado es enfriado con agua corriente
hasta una temperatura interna de 50°C.
Almacenaje, se almacenará en cajas de cartón a temperatura
ambiente.
.

Tocino Materia Prima Trigo, Habas,


Arveja, garbanzo
170

Selección y Clasificación
Cortado

Lavado

Infusión en
salmuera Remojo 10 hr

Tocino Envasado
Trigo + Ingredientes +
Tocino

Exhausting

Sellado 90°Cx 3 min.

Tratamiento Térmico 240°Fx90 min.

Enfriado

Almacenaje

Figura : Diagrama de Flujo para el enlatado de shambar en


envases tipo “Tall” (301 x 408).

7.2.2.- Esquema Experimental


171

R1 R2 R3

tp1 tp2 tp3 tp1 tp2 tp3 tp1 tp2 tp3


tp1 tp1 tp1 tp1 tp1 tp1 tp1 tp1 tp1

Tratamiento térmico
Fo = métodos (ball y patashnik)
Co = métodos (ball y patashnik)
Determinación Fisicoquímico
Humedad, proteínas, lípidos,
Evaluación Sensorial
Escala de apreciación hedónica

T: Trigo (estaquilla), con tocino.


R1: Relación, trigo: tocino 2:1
R2: Relación, trigo: tocino 3:1
R3: Relación, trigo: tocino 4:1
tp1: Tiempo de proceso a 70 min
tp2: Tiempo de proceso a 80 min
tp3: Tiempo de proceso a 90 min
172

RESUMEN DE VARIABLES DEL DISEÑO EXPERIMENTAL

Variable Independiente Variable Dependiente


Tiempo de Análisis
Relación proceso Fo sensorial

tp1 = 70
R1 tp2 = 80
2:1 tp3 = 90

tp1 = 70
R2 tp2 = 80
3:1 tp3 = 90

tp1 = 70
R3 tp2 = 80
4:1 tp3 = 90
173

7.3. METODO ESTADÍSTICO.

Diseño: Bloques Completamente al Azar, con arreglo bifactorial 3R*tp, con


3 repeticiones.

Número de Número de Interacciones


Tratamiento
1 T,R1,tp1.

2 T,R1,tp2.
3 T,R1,tp3.
4 T,R2,tp1.
5 T,R2,tp2.
6 T,R2,tp3.
7 T,R3,tp1.
8 T,R3,tp2.
9 T,R3,tp3.

VIII. PLAN DE EJECUCIÓN:

ETAPAS MESES

a. Implementación 1.0

b. Prueba Experimental 2.0

c. Análisis de Resultados 2.0

d. Preparación de Informe 2.0

TOTAL 7.0
174

IX. – PRESUPUESTO

9.1 Bienes
Información Bibliografía S/. 300
Materiales 200
Material de Oficina 100
9.2 Servicios
Movilidad S/. 300
Refrigerio 200
Fotocopias 300
Servicio de computo 400
Comunicación 200
Impresión de tesis 1 200
TOTAL S/.3200

X. BIBLIOGRAFÍA :
Association of analytical Chemists, 1997. Official methods of analysis. Adfs
Editorial Board. U.S.A.
Arthey D, Dennis C. 1992. Procesado de Hortalizas. Editorial Acribia. Zaragoza.
España.
Bailón R. 1994. Evaluación de las Condiciones de proceso para el Enlatado de
Olluco (ullucus tuberosus loz) con Charqui. Tesis Ingeniero en Industrias
Alimentarias. UNALM. Lima-Perú.
Codex Stan 97. 1981. Norma del Codex para la Espaldilla de Cerdo Curada
Cocida.

Casp A, Abril J. 1999. Procesos de Alimentos. Ediciones Mundi-Prensa. España.

Chang, L. 1995. Efectos de la temperatura y el tiempo de exposición sobre las


características farinográficas de harina especial de trigo (Triticum Vulgare).
Tesis. Ingeniería en Industrias Alimentarías. UNALM Lima-Perú

Collazos, E. et al 1993. La composición de alimentos de mayor consumo en el


asdPerú. Sexta edición.

Desrosier N.1999 Elementos de Tecnología de Alimentos Editorial Continental.


México.

Giannoni E. 1977. Evaluación y optimización del Tratamiento Térmico de Alimentos


Enlatados. Tesis. Ingeniería en Industrias Alimentarias. UNALM. Lima-Perú

Huapaya E. 1995. Evaluación de la perdida de vitamina c durante el procesamiento


y almacenamiento de Pula de Camu-Camu (Myrciaria Paraensis), Tesis.
Ingeniería en Industrias Alimentarias. UNALM. Lima-Perú
175

INSTITUTO NACIONAL DE ESTADISTICA E INFORMATICA. 2002. Almanaque de


la Libertad 2001 – 2002. Editorial “El comercio”
dasTrujillo – Perú.

Lund D. 1977. Maximizing Nutrient Retention. Food Technology. Vol.31, N°2.

Mafart P. 1994. Ingeniería Alimentaría Vol.I. Procesos Físicos de Conservación.


Editorial Acribia Zaragoza España.

Mendoza F. 1993. “Evaluación y Optimización del Tratamiento Térmico en una


Crema Base de Olluco (Ullucus tuberossus loz) Enlatada”. Tesis. Ingeniería
en Industrias Alimentarías. UNALM. Lima-Perú.

Ministerio de Agricultura 2002. “Expositor: Agencias Agrarias, Provincias de la


Libertad. Trujillo-Perú.

Ministerio de Salud. 1986. Reglamento Sanitario de Alimentos.

Singh R, Heldrman D. 1998. Introducción a la Ingeniería de los Alimentos. Editorial


Acribia Zaragoza. España.

Obregón A. 2001. “Efecto de la Temperatura sobre la textura de Gajos de


Mandarina Satsuma (citrus unshiu) en Almíbar”. Tesis de Post Grado.
UNALM. Lima-Perú.

Potter, N. 1999 “Ciencia de los alimentos” Editorial Acribia S.A. Zaragoza


afdasEspaña.

Rees J. 1994. Procesado Térmico y Envasado de los Alimentos. Editorial


Acribia Zaragoza España.

ANEXOS
176

ANEXO 1: ESCALAS DE CLASIFICACION DE APRECIACION HEDONICA PARA


MEDIR ACTITUDES FRENTE A ALIMENTOS

PRUEBA DE EVALUACION SENSORIAL

Producto: …………………………………………………………………………
Nombre del panelista: ………………………………………………………….
Fecha: ……………………………………………………………………………

Por favor pruebe las muestras y evalué, usando la siguiente escala:


Me agrada mucho 4
Me agrada poco 3
Me desagrada poco
2
Me desagrada mucho 1

Escriba el número de la clave de las muestras según corresponda.

Muestra Calificación

Comentario:

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS
CENTRO DE INVESTIGACION
177

U.I. BIOTECNOLOGIA

CODIGO DEL PROYECTO:


PALABRAS CLAVES: anchoveta, anchoveta con Fríjol

I. GENERALIDADES

1.0. Titulo: Efecto de la adición de tres proporciones de filete de


anchoveta (Engraulis ringens) y tres tiempos de esterilización en la
composición química proximal y aceptabilidad general de conservas
tipo Tall 1 lb de frijol bayo (Phaseolus vulgaris).

2.0. Personal investigador:


2.1. ANTERO CELSO VÁSQUEZ GARCÍA Dr.
PROFESOR PRINCIPAL DE
DEPARTAMENTO ACADEMICO DE BIOLOGIA-FCCBB-UNPRG

2.2. JOSE TEODORO REUPO PERICHE MSc.


PROFESOR ASOCIADO DE
DEPARTAMENTO ACADEMICO DE BIOLOGIA-FCCBB-UNPRG

3.0. Resolución de aprobación.

4.0. Tipo de investigación


4.1 De acuerdo al fin que se persigue: APLICADA
4.2 De acuerdo al diseño de investigación: EXPERIMENTAL

5.0. Área de investigación: Alimentación


6.0. Línea de investigación: Control de calidad Total de alimentos

7.0. Lugar de ejecución:


Para los trabajos de campo: Jesús del Mar SRL. Chimbote
Para Trabajos de Laboratorio:
1. Laboratorio de BROMATOLOGIA DE LA FCCBB- UNPRG
2. Facultad de Ingeniería Química de la Universidad Nacional de Trujillo
178

3. Planta Piloto de la Facultad de Ingeniería Agrícola de UNPRG

8.0: Duración del proyecto: 15 meses (Octubre 2005 a Diciembre del 2006)

9.0. Fecha de inicio: 01 de Octubre del 2005

9.0. Fecha de término: 31 de diciembre del 2006

Dr. ANTERO CELSO VASQUEZ GARCIA

MSc JOSE TEODORO REUPO PERICHE..

Lambayeque, Diciembre del 2006

II. ASPECTO DE LA INVESTIGACION


179

1. O. REALIDAD PROBLEMATICA

1.1. Planteamiento del problema:

En términos generales, el pescado es un alimento de elevado valor nutritivo por su


i) fácil digestibilidad, ii) elevado contenido de aminoácidos esenciales, iii) elevada
concentración de ácidos grasos poliinsaturados sobretodo Eicosapentaenoico (EPA:
C20:5) y Docosagexaenoico (DHA: C22:6), iv) cantidad significativa de vitaminas y
sales minerales, particularmente indicado para proporcionar a nuestro cuerpo,
todos los nutrientes necesarios para mantener su adecuado metabolismo.

En los últimos años se ha hecho patente la tendencia al incremento del consumo de


pescado a escala planetaria en función a dos perspectivas: i) la tendencia
cuantitativa, manifiesta por el incremento del consumo de pescado al estado fresco,
que creció en 36,6% en 1998 seguida del congelado; el curado y el enlatado
tradicional; el desarrollo de nuevas tecnologías que implican un incremento y
diversificación de conservas enlatadas; y ii) la tendencia cualitativa, explicada en
función de las preferencias de los consumidores que incluye: cambios en la dieta
por motivos de salud (beneficios en el tratamiento de enfermedades como el
Parkinson y Alzheimer, reduce los niveles de colesterol en sangre y a aspectos
nutricionales); mejoramiento en los procesos de empaque y canales de distribución;
incremento en los niveles de vida por el crecimiento económico en los países
desarrollados y cambios en los factores sociales, En años recientes, se ha
desarrollado significativamente la tecnología de los platos preparados listos que
responden a cambios en estilos de vida y hábitos de consumo en los seres
humanos, así como la necesidad de contar con alimentos listos para su consumo
(BBVA Banco Continental, 2000).

La pesca industrial en el Perú es abundante y diversa, por que se capturan


diferentes especies de peces que son utilizadas a nivel industrial: anchoveta,
básicamente en producción de harina y aceite de pescado; sardina, jurel, caballa,
bonito, atún en conservas de pescado; merluza y otras especies en congelados.
Existen muchas otras especies que se capturan artesanalmente para el mercado
180

local, como cachema, cabrilla, cherlo, coco, cojinova, congrio, doncella, liza, lorna,
machete, mero, pampanito, pejerrey, pejesapo, pez diablo, picuda, pintadilla,
tiburón, tollo, etc.

Una de las especies más importantes para la industria pesquera en nuestro


país es la anchoveta (Engraulis ringens) que habita desde la costa hasta a 50
millas mar afuera en verano y hasta las 100 millas en invierno. Perú es el principal
productor de harina de pescado en el planeta basado en una sola especie (la
anchoveta), pequeño pelágico que en un año alcanza su desarrollo. La historia de
la pesquería peruana se liga a la disponibilidad de anchoveta y datos significativos
son los que reportan que en 1970 se capturó y desembarcó oficialmente 12
millones de toneladas, posteriormente esta cifra disminuyó ostensiblemente y en los
años recientes con la implementación de adecuadas políticas pesqueras, se ha
llegado a capturar cifras cercanas a los ocho millones de toneladas anuales. Otros
países que capturan especies similares a la anchoveta peruana orientan su
aprovechamiento para el consumo humano directo, enlatándola tipo sardina, en
congelado, salado, ahumado, surimi y secándola para así evitar pérdidas de
materia prima y de proteínas (Instituto Tecnológico Pesquero del Perú, 2004). 2La
anchoveta es de mucha utilidad, tanto comercial como industrial, así como de gran
importancia desde el punto de vista alimenticio, por la cantidad de proteínas y
aminoácidos esenciales; así como ácidos grasos de la serie omega 3;
Eicosapentaenoico, (EPA) y Docosahexaenoico, (DHA); contienen, además,
proporciones importantes de fósforo y de vitamina B12.

Por otro lado, el frijol bayo (Phaseolus vulgaris), es una planta herbácea
anual, que muestra una gran variación en costumbres, caracteres vegetativos, color
de las flores y en el tamaño, forma y color de las vainas y semillas. Todas las
formas tienen una raíz central bien desarrollada, que crece rápidamente alcanzando
a veces una profundidad de 90 cm o mas, pero con las raíces laterales limitadas
principalmente a la zona superior del suelo y que aporta nódulos esféricos o
irregulares. Las vainas de las semillas son finas, rectas o ligeramente curvadas, de
bordes redondeados o convexos y extremo prominente. El color puede variar desde
amarillo hasta verde oscuro, teniendo, a veces, manchas rosa o púrpura. El número
de semillas puede oscilar entre 1 y 12; muestran variación importante en su color,
tamaño y medida Su elevado contenido proteico (22,00%) y bajo contenido de
grasa (1,60 %) así como su contenido en aminoácidos esenciales y su común uso
181

en la dieta del poblador costeño lo constituye en una alimento indispensable


(Instituto Nacional de Nutrición, 1993).

La alimentación humana tiende a la diversificación de alimentos, sobre todo


en el mundo occidental, por lo que es necesaria la complementación en la dieta
diaria. Además es necesario considerar que la proteína de origen animal no podrá
sustituir a la de origen vegetal ni en corto ni mediano plazo, por lo que será
necesario complementar estos tipos de alimentos (Cabero y Moreno, 1985).

1.2. Formulación del problema científico


El problema científico se plantea en los términos siguientes:
¿Cuál es el efecto de la adición de tres proporciones de filete de anchoveta
(Engraulis ringens) y tres tiempos de esterilización en la composición química
proximal y aceptabilidad general de conservas tipo Tall 1 lb de fríjol bayo
(Phaseolus vulgaris)?

1.3. Justificación e Importancia del estudio


La investigación tecnológica del procesamiento de nuevos productos, ha permitido
desarrollar en los últimos años, una gran variedad de ellos a partir de las especies
tradicionales, sin embargo en los últimos años se ha orientado a la producción de
anchoveta en conservas por cuanto puede llegar hasta pobladores de las zonas
más alejadas y de extrema pobreza en el país. Los nuevos productos están
alcanzando su máximo desarrollo, por cuanto se adaptan con relativa facilidad para
producir alimentos de fácil preparación, precio razonable y con elevado valor
proteico.

En función a los conocimientos existentes sobre la problemática nutricional, calidad,


procesamiento, complementación y diversificación alimentaría se plantea el
presente estudio para obtener una alternativa de alimento procesado para el
consumo humano con la utilización de dos especies conocidas, abundantes,
aceptadas en la dieta de nuestra población .Una de origen vegetal, el frijol bayo
(Phaseolus vulgaris) y otra de origen hidrobiológico, filetes de anchoveta
(Engralis ringens) que complementarían y mejorarían la calidad nutritiva del
alimento sobretodo en el valor proteico. El fin es que ambos alimentos en
182

condiciones de procesamiento adecuados, puedan llegar a nuestra población en


conservas en envase de hojalata tipo Tall 1 lb; que son las que mejor se adaptan
para su procesamiento en fábricas de conservas disponibles en casi todo la costa
peruana.
.
Además en la tecnología alimentaria moderna; el producto final es conveniente
evaluarlo tanto; composición química proximal; su aceptabilidad general y su
calidad microbiológica, considerando estos tres indicadores, características de un
alimento nutritivo, agradable e inocuo,

1.4. OBJETIVOS

1.4.1 Determinar el efecto de la adición de tres proporciones de filete de anchoveta


(Engraulis ringens J) en la composición química proximal de conservas de tipo Tall
1 Lb fríjol bayo (Phaseolus vulgaris).

1.4.2. Determinar el efecto de la adición de tres proporciones de filete de anchoveta


(Engraulis ringens J.) en la aceptabilidad general de conservas tipo Tall 1 Lb de
fríjol bayo (Phaseolus vulgaris).

1.4.3. Evaluar los Valores F0, C0 y E0 como indicares de tratamiento térmico en


conservas de fríjol bayo con adición de tres proporciones de filete de anchoveta.

2.0 MARCO TEORICO

2.1 Antecedentes del Problema

El Instituto del Mar del Perú- Instituto Tecnológico Pesquero del Perú (IMARPE-ITP,
1996) reportan que la composición química proximal de la anchoveta es: 70,80% de
humedad; 8,20% de grasas; 19,10% de proteínas y 1,2 % de sales minerales. En lo
relacionado con ácidos grasos poliinsaturados reportan 18,2% de EPA y 9,2% de
DHA.

El Instituto Nacional de Nutrición (1993), reporta que la composición química


proximal el fríjol bayo es 11,00% de humedad; 22,00 % de proteínas; 1,60% de
183

grasas 57,80 % de glúcidos, 4,00 % de fibra y en relación con aminoácidos


esenciales los mas abundantes son: leucina (476 mg/gN); Lisina (450 mg/gN);
Fenilalanina (326 mg/gN); Valina (287 mg/gN) y Treonina (248 mg/gN). Además
cantidades significativas de acido glutámico y acido aspártico.

La ciencia de los alimentos está interesada, no solo en los fundamentos químicos


de su estructura y en los mecanismos de las reacciones en que participan, sino
también en explicar las alteraciones que sufren estos durante su almacenamiento o
procesado, solos o combinados; áreas que son de marcada importancia para que
los alimentos se transporten y lleguen a la población en condiciones que no pierdan
su valor biológico, tengan bajo costo y características físicos, químicas y
organolépticas adecuadas, éstas últimas son importantes cuando se trata de
alimentos envasados (Wong, 1995).

El Instituto Tecnológico Pesquero (ITP, 1999), menciona que desde 1996 viene
priorizando la investigación aplicada y desarrollo tecnológicos de los recursos
pesqueros, lo que ha permitido poner en el mercado una gran variedad de
productos a base de pescado, que se adaptan con relativa facilidad a los procesos
de elaboración, a precios razonables resaltando el elevado valor nutritivo.

El Instituto Tecnológico Pesquero del Perú (ITP, 2003) reporta que ha ensayado en
la producción piloto de conservas de anchoveta en diversas salsas y tipos de
envase tales como en envase de aluminio ¼ club con 125 g de capacidad, en
envase tinapa (202x308) y envase de hojalata 1 lbTall (3003x407) con 425 g de
peso neto. Además refiere que se ha producido a nivel piloto, otras, cuyos paquetes
tecnológicos se ofrecen a los industriales.

En la actualidad la evaluación sensorial de los alimentos constituye en una de las


herramientas más importantes para las actividades de la industria alimentaria. Se
aplica en control de calidad y proceso, diseño y desarrollo de nuevos productos,
etc. Existen diferentes pruebas para el análisis sensorial según lo que se pretenda
demostrar. Se distinguen tres tipos pruebas: pruebas afectivas, discriminativas y
descriptivas. Las pruebas afectivas están orientadas al consumidor y sirven para
medir la aceptabilidad del producto y al mismo tiempo la satisfacción del
184

consumidor. Dentro de estas se encuentra la prueba hedónica que miden el agrado


o desagrado del producto (Anzaldua, 1994).

2.2 Base teórica


El Proyecto propuesto se basa en la teoría de la termodestrucción de los
microorganismos y el efecto del calor sobre los nutrientes y componentes
responsables de sus características organolépticas (Fellows, 1994).
Además, todos los procesos de conservación de alimentos, están orientados
a mantener las características fisicoquímicas y nutritivas del alimento, sin
embargo es deseable que la disminución de ellas originadas por el proceso,
sean mínimas (Frazier y Westhoff, 1994).

La esterilización por calor es la operación unitaria en la que los alimentos


son calentados a una temperatura suficientemente elevada y durante un
tiempo suficientemente largo, como para destruir en los mismos la actividad
microbiana y enzimática. Los alimentos, estabilizados por este sistema
poseen una vida útil superior a seis meses (igual o mayor a 4 años).

La esterilización de alimentos envasados origina cambios sustanciales en su


valor nutritivo y características organolépticas. Las mejoras en los procesos
tecnológicos de esterilización van encaminadas, por tanto, a reducir efectos
no deseados sobre los componentes nutritivos y las características
organolépticas de los alimentos, reduciendo el tiempo de tratamiento de los
productos envasados o esterilizándolos a aquel en el que se considere que
el producto llegue a ser estéril comercialmente (valor F 0); tenga un grado de
cocimiento adecuado (valor C0) y la destrucción de enzimas termo
resistentes sea efectiva (Valor E0).

En este contexto, el valor F 0, es el valor letal integrado del calor recibido por
todos los puntos del contenido de un envase durante el tratamiento;
representa una medida de la capacidad de un determinado tratamiento
térmico para reducir el número de esporas o de células vegetativas de un
determinado microorganismo por envase (Jay ,2002). En términos mas
concretos; Valor F0 es el tiempo en minutos necesario para que a una
185

temperatura de 121,1 ºC se logre la destrucción de las esporas y formas


viables del Clostridium botulinum.

El proceso de esterilización por el calor no sólo destruye los microorganismos


viables, sino que también afecta a las deseables propiedades nutritivas y
organolépticas de los componentes de los alimentos tales como proteínas,
azúcares, grasas y vitaminas, así como a la textura, buqué, color, etc. El objetivo de
la industria conservera es producir alimentos enlatados microbiológicamente
seguros y con un elevado valor nutritivo (Sikorski, 1994).

La proteína del pescado ocupa en lo referente a valor nutritivo el segundo lugar


después de la leche de mujer y por delante incluso de la leche de vaca y de la
carne de animales de sangre caliente (Tscheuschner, 2001).

El tratamiento térmico origina la desnaturalización de las proteínas, lo que da como


resultado la pérdida de su solubilidad y actividad enzimática. Las proteínas del
pescado comienzan a coagular a 30ºC; la coagulación de la última fracción
concluye a 80 ºC. La hidrólisis de las proteínas también puede producirse después
de 90 minutos de calentamiento a 110 ºC y al cabo de 60 minutos de calentamiento
a 130 ºC. En cambio, pueden apreciarse pérdidas de aminoácidos después de
períodos de calentamiento más cortos. La intensidad de la hidrólisis de las
proteínas aumenta al elevarse la temperatura y al prolongarse el tiempo de
calentamiento. La acción del calor también origina aumento del pH entre 0,3 y 0,6
unidades. La capacidad de las proteínas de fijar iones de calcio, magnesio y fósforo
se acentúa considerablemente. Como consecuencia de los cambios que se
registran en la configuración y desdoblamiento de las cadenas proteicas, se
produce mayor número de grupos sulfhidrilo, amino, hidroxilo y carboxilo. El
calentamiento prolongado de las proteínas a altas temperaturas puede motivar
pérdidas irreversibles de grupos sulfhidrilos, como resultado de la formación y
liberación de sulfuro de hidrógeno.

La esterilización por el calor origina igualmente, ligeros cambios en los lípidos,


como consecuencia de su hidrólisis, oxidación y polimerización. Los productos
resultantes de la oxidación de los lípidos pueden reaccionar con sustancias
nitrogenadas en reacciones del tipo Maillard, lo cual reduce el valor biológico de los
186

alimentos enlatados. Los azúcares se degradan cuando se exponen a


calentamientos prolongados a altas temperaturas. Aminoácidos, péptidos y grupos
amino de las proteínas pueden combinarse con azúcares en reacciones de
pardeado (Maillard). Los productos de estas reacciones son mezclas complejas de
compuestos de alto y bajo peso molecular que pueden provocar cambios de color y
textura en los alimentos enlatados (Sikorski, 1994).

Bender (1972), en Hall (2001), revisó los efectos negativos en el valor nutritivo en
relación con las proteínas y observó que no se afectan de forma significativa por la
exposición a las condiciones de temperatura y tiempo del proceso de enlatado; por
el contrario, algunos compuestos proteicos, como aquellos arrastrados por las
espinas de salmón y sardina, las cuales se reblandecen lo suficiente para ser
comestibles, no son desechados una vez en el plato. La desnaturalización de las
proteínas por calor, causa pérdidas de agua que oscilan entre 9 y 28%,
dependiendo de la severidad del proceso y tratamientos previos, la especie, el pH y
otros factores fisiológicos. Los tratamientos previos como la cocción minimizan este
defecto, pero aumentan las pérdidas de proteínas solubles.

Los cambios de aroma que ocurren en el pescado durante las largas exposiciones a
temperaturas elevadas, limitan la aceptabilidad del producto pero son difíciles de
definir; cuando resulta posible, se enmascaran con salsas y aderezos.

Los cambios de textura también son inevitables pero, como ya se ha mencionado,


pueden ser ventajosos en cierto modo. La desnaturalización proteica excesiva y la
correspondiente disminución de la capacidad de retención de agua de los
componentes estructurales dan lugar a un producto seco, con textura estropajosa.
En este sentido, el pescado graso se ve menos afectado debido al efecto restrictivo
que ejercen los lípidos en la pérdida de agua. Así pues, la elección de la materia
prima es importante, cuanto menos fresco es el pescado más agua se perderá y,
por lo tanto presentará mayor deterioro de la textura.

Cuando se utiliza materia prima de baja calidad pueden darse cambios de color
más pronunciados. La decoloración del atún enlatado, conocida como
enverdecimiento, se debe al óxido de trimetilamina, mioglobina, cisteína y al
proceso de cocción y, puede reducirse mediante la adición de combinaciones de
187

ciertas sustancias o antioxidantes han desarrollado un método en el que puede


usarse la evaluación combinada del contenido de oxido de trimetilamina (OTMA) y
trimetilamina (TMA) en pescado crudo, para estimar la probabilidad de que se
produzca el enverdecimiento durante el proceso térmico (Ah Khavat, 1978,
Nagaoka y col., 1971, citados por Hall, (2001).

El efecto que ejerce la conservación por el calor sobre el valor nutritivo de los
alimentos tiene, por consiguiente, una importancia considerable para procesadores
de alimentos. Uno de los cambios mas importantes que puede producirse en un
alimento conservado por el calor es el movimiento de agua y de sólidos en el seno
del alimento durante el tratamiento térmico, almacenamiento y recalentamiento. En
un producto que forma parte de una receta o en un producto en el que es
consumido la totalidad del contenido del envase pueden despreciarse estos
cambios, desde un punto de vista nutritivo, ya que no alteran la cantidad total de
nutrientes consumidos. Sin embargo, en aquellos productos que se envasan junto
con un líquido que se elimina antes del consumo, la porción comestible suele
experimentar dilución, deshidratación o pérdida de sólidos totales. En tales casos la
interpretación de cualquier cambio aparente en la composición debe realizarse
teniendo presentes estas consideraciones.

La conservación mediante el calor puede provocar cambios tanto deseables como


no deseables en la calidad nutritiva de las proteínas. Son susceptibles no
solamente al calor sino también a la oxidación, ambientes alcalinos y a la reacción
con otros componentes del alimento tales como azúcares reductores y productos
que oxidan los lípidos. La cantidad total de proteína bruta suele aparecer
relativamente sin modificar por efecto del tratamiento térmico, aunque puede
experimentar la lixiviación hacia el componente líquido de algunos productos. Los
niveles de proteína bruta parecen ser estables; sin embargo, durante el posterior
almacenamiento de las hortalizas y los cereales enlatados, los cambios que
experimentan se asocian a la estructura terciaria y funcionalidad y los cambios
químicos tienen relación con la digestibilidad y disponibilidad de los aminoácidos.
Los factores mas importantes para establecer las condiciones de esterilización
orientan a considerar la velocidad de penetración del calor hasta el punto más
tardío (punto critico o punto mas frío del contenido), teniendo en cuenta el tamaño,
el material de fabricación y forma del envase, la naturaleza físico– químico del
188

contenido y el tipo de carga bacteriana presente en el alimento (Rees y Bettison,


1994).

2.3. Variables:
2.3.1. Variables independientes:
1. Proporciones de filete de anchoveta (Engraulis ringens J.).
Proporción 1: 75 Filete: 175 g Frejol
Proporción 2: 125 g : 125 g Frejol
Proporción 3: 165 g : 85 g Frejol
2. Tiempo de esterilización (70, 80 y 90 minutos)
2.3.2. Variables dependientes:
1. Composición química proximal
2. Aceptabilidad general

2.3.4. HIPOTESIS:
La proporción de 75 g de filete de anchoveta (Engraulis ringens J.) y un tiempo de
esterilización de 70 minutos, permitirán obtener conservas tipo Tall 1lb de fríjol bayo
(Phaseolus vulgaris) con mejor composición química proximal y aceptabilidad general.

3.0. MARCO METODOLOGICO

2.2.1. Diseño de contrastación de Hipótesis

Lo previsto para la realización de este proyecto, corresponde a una investigación de


tipo experimental con estimulo creciente según el cual se tendrá un grupo control
conservas de fríjol bayo y 3 experimentales en los que se adicionarán 75; 115 y 165
g respectivamente según las consideraciones de Vásquez et al., (2004).

3.2 Población y Muestra


La población objeto de estudio estará constituido por conservas de frijol bayo tipo
tall 1 lb. La muestra estará constituida por 120 latas de conservas de frejol bayo a
las que en la fase del envasado se adicionarán por separado 3 proporciones de
filete de anchoveta. Se realizarán evaluaciones mensuales durante los meses de
mayo a diciembre del 2006, según disponibilidad.
189

3.3 Materiales, técnicas e instrumentos de recolección de datos


3.3.1. Materiales:
Insumos:
-Agua
-Glutamato monosódico
-Sal
-Envases: el material será de hojalata, de dos cuerpos en buen estado de
conservación con una capacidad de 425 g, tipo Tall 1 lb
7.1.3. Equipos e instrumentos:

- Autoclave
- Cocinadores
- Mesas de fileteo
- Cuchillos
- Marmita
- Selladora
- Pozas de remojo
- Balanza Ohaus (capacidad 2,0 Kg, Sensibilidad 0,1 g)
- Termómetro

De análisis Bromatológico
- Equipo Kjeldahl para análisis de proteínas
- Equipo Soxhlet para análisis de grasas
- Estufa
- Mufla
- Material de laboratorio convencional.

3.3.2. Técnicas

3.3.2.1. Procedimiento experimental

Procesamiento del frijol

El fríjol después de lavado y seleccionado, será remojado por un lapso de 3 horas y


posteriormente escaldado a una temperatura de 95ºC y por 20 segundos, luego de
lo cual quedará listo para ser incorporado al envase.
190

Procesamiento de la anchoveta
Recepción de materia prima, la anchoveta se recibirá entera, se deberá observar
que los especimenes sean de primera calidad, estar convenientemente refrigerados
y protegidos de la luz y el calor; puesto que la calidad del pescado comienza a
deteriorarse tan pronto como este muere. La valoración de calidad se hará en
función a la escala de Wittfogel citado por Vásquez y Reupo (1999).

Lavado
El lavado se hará con agua potable con el fin de eliminar el mucus de la piel del
pescado, bacterias, así como cualquier elemento contaminante presente en el
pescado.

Selección
Los peces deberán presentar ojos convexos, agallas de color rojo brillante o
rosadas, así mismo deberán estar exentos de deformaciones, cortes, heridas y
lesiones.

Precocinado, la anchoveta entera se precocinará en cocinadores estáticos, a 90


ºC durante 15 minutos para luego del enfriamiento, obtener los filetes

Envasado
Los filetes limpios de carne, vísceras y partes duras (huesos escamas; etc.), se
colocarán en envases de hojalata conteniendo frejol bayo en las proporciones
definidas en Variables

Adición de líquido de gobierno:


La adición de líquido de gobierno (agua y sal) se hará a una temperatura de 95 ºC.

Exhausting
La eliminación del contenido de aire en la lata se realizará con adición de vapor de
agua.

Sellado
Se realizará en una selladora para latas tipo tall 1 lLb.
191

Esterilizado
Se realizará en autoclaves estáticos de vapor, en esta etapa se evaluará la
intensidad del tratamiento

Secado de latas
Se realiza en una cámara continua, mediante un flujo de aire caliente.

Almacenamiento
Los envases serán almacenados en un lugar seco a temperatura ambiente.
El diagrama de flujo se muestra en la figura 1

3.3.2.2. Determinación de la composición química proximal


La composición química proximal se determinará de acuerdo a las técnicas y
métodos de la AOAC expuestos en Hart y Fisher (1991) y siguiendo a Vásquez y
Reupo (1999), considerando:
1. Determinación de humedad por el método gravimétrico de la estufa
2. Extracto seco, relacionando la humedad con el peso
3. Determinación de proteínas, por el método de Kjeldahl
4. Determinación de grasas, por el método de Soxhlet
5. Determinación de sales minerales por el método de incineración directa.
6. Determinación de carbohidratos: por diferencia.
7. Determinación de Fibra: método de
8. Determinación del Valor Nutritivo

Recepción de materia
prima (anchoveta) Recepción de materia
prima (frijol bayo)
Lavado
Lavado
Selección y
Clasificación Selección y
Clasificación

Encanastillado
Remojo

Cocinado
Escaldado

Enfriado
192

Adición de tres
proporciones de
Fileteado Filete de anchoveta Envasado

Adición de Líquido
de gobierno

Exhauster

Codificado y cerrado

Lavado

Esterilización
Pruebas de aceptabilidad
general

Análisis fisicoquímicos

Figura 1. Diagrama de flujo cualitativo de la producción de conservas de frijol bayo


con tres proporciones de filete de anchoveta

En la evaluación de la aceptabilidad general participarán 10 panelistas


semientrenados a quienes se aplicará una prueba de apreciación hedónica,
empleando una cartilla de calificación con escalas de intervalo de cuatro puntos,
siguiendo los criterios de Ureña y D’Arrigo (1999), adaptada por los autores.

La determinación de los valores F 0; C0 y E0 se realizarán de acuerdo a los criterios


propuestos por Sielaff (2000), siguiendo a Hahn y Eisner (1981) y Reichert (1981).

3.3.3. Instrumentos de recolección de datos


Para la recolección de datos del proceso se utilizarán hojas de registro
especialmente diseñadas y para la evaluación de aceptabilidad general se utilizará
una hoja de tal como se muestra en el cuadro 1.

2.2.5 ANALISIS ESTDISTICO DE LOS DATOS


193

Para el tratamiento estadístico de los datos de la composición química proximal se


utilizaran las pruebas de Análisis de varianza (ANOVA) y de Duncan. Para el
análisis estadístico de la evaluación de la aceptabilidad general, se utilizará las
pruebas de Kruskall Wallis y U mann Whitney incorporadas en el paquete
computacional SPSS (The Statistical Package for the Social Sciences), versión 11.0
para Windows.

2.2.5 ESQUEMA DE CONTENIDOS

El Informe final contendrá los correspondientes a un Informe científico de acuerdo a


las consideraciones de Day (1994): Introducción; Material y procedimientos;
Resultados; Discusión; Conclusiones; Referencias.

CUADRO 1. Cartilla de aceptabilidad general para conserva de frijol bayo

con filete de anchoveta

PRUEBA ORIENTADA AL CONSUMIDOR


194

ESCALA HEDONICA DE NUEVE PUNTOS


Código de la muestra: ...............................................
Nombre del panelista: ....................................
Fecha: ...................................................
Por favor pruebe las muestras y evalúe, usando la siguiente escala encerrando con un círculo
el número correspondiente:
Descripción Valor

ME GUSTA MUCHISIMO +4

ME GUSTA MUCHO +3

ME GUSTA BASTANTE +2

ME GUSTA LIGERAMENTE +1

NI ME GUSTA NI ME DISGUSTA 0

ME DISGUSTA LIGERAMENTE -1

ME DISGUSTA BASTANTE -2

ME DISGUSTA MUCHO -3

ME DISGUSTA MUCHISIMO -4

Comentario: ......................................................................................................

.........................................................................................................................

Lambayeque, de del 2005

III. ASPECTO ADMINISTRATIVO

3.1 CRONOGRAMA DE ACTIVIDADES

Las actividades a realizar se resumen en el siguiente diagrama de Gant


195

Años 2 0 0 5 2 0 0 6

Meses O N D E F M A M J J A S O N D

Actividades
1.Preliminares
--
-Elaboración del proyecto
---- --
-Contacto con la realidad
-- - -- -- --
-Implementación
2. Ejecución
-Recolección de datos -- -- --- --
-Tabulación y Análisis
--- --
3. Comunicación
-Preparación del informe -- --
Presentación del informe --
Final
-

3.2. PRESUPUESTO

02.00 BIENES S/ 14 500, 00


02.02 Material de Escritorio................................................S/ 200, 00.
02.03 Material para procesamiento de datos S/ 5 000, 00
02.05 Reactivos de Laboratorio S/ 5 000, 00
02.06 Material de impresión, fotográfico y de
fotocopiado........................................................................S/ 400, 00
02.12 Otras
Materias primas.......................................................S/ 3 000, 00
Material fungible......................................................S/ 900, 00
03.00 SERVICIOS . S/ 2 000, 00
03.05 Servicio de procesamiento de datos.........................S/ 500, 00
4.0 0 Pasajes y viáticos...................................................S/ 1 500, 00

09.00 BIENES DE CAPITAL S/ 9 220, 00


Equipos de laboratorio.......................................................S/ 5 000,00
01 computador personal.....................................................S/ 4 220,00
196

TOTAL S/ 25 720, 00

3.3 FINANCIACION
El financiamiento para la ejecución del presente proyecto será financiado en
parte por el FEDU y se formulará solicitud al CONCYTEC.

IV REFERENCIAS BIBLIOGRAFICAS
ANZALDUA A. 1994. La evaluación sensorial de los alimentos en la teoría y la
práctica, Zaragoza. Acribia.

BBVA BANCO CONTINENTAL. 2000. Perspectiva Mundial del Consumo Humano


Directo de Pescado. En: Perú: País en Marcha, Analysts View on Peruvian
Fisheries. PROMPERU-Ministerio de Pesquería, Lima.

BRENNAN, J. 1998. Las operaciones de la ingeniería de los alimentos. 3ª. ed.,


Zaragoza. Acribia.

CABERO, T. y J, MORENO. 1995. Leguminosas de grano., Madrid. Mundi Prensa.

FELLOWS, P. 1994. Tecnología de Procesado de Alimentos, Zaragoza. Acribia.,


DAY, R. 1994. Como escribir y publicar trabajos científicos. 4a. ed., Washington.
OPS/OMS,

FRAZIER W. y D. WESTHOFF. 1993. Microbiología de los alimentos. 4ª. ed.,


Zaragoza. Acribia.

HALL, G. 2001. Tecnología del procesado del pescado. Zaragoza. Acribia.

HAHN, G. y M. EISNER, 1981. Koordinierte tecnologie zur erhaltung der qualitat,


Stock. Alemania.
HART, L. y H. FISHER. 1991. Análisis moderno de los alimentos. 2ª. Reimpresión,
Zaragoza. Acribia

INSTITUTO TECNOLÓGICO PESQUERO DEL PERU. 1999. Tecnología de


pescado en conserva en base a Anchoveta, Callao. Mimeo vs.pgs..

INSTITUTO TECNOLOGICO PESQUERO. 2003. Investigación y desarrollo de


productos pesqueros; Fichas técnicas. Pdf. www.itp.org.pe.

INSTITUTO TECNOLOGICO PESQUERO -INSTITUTO DEL MAR DEL PERU.


1996. Compendio biológico tecnológico de las principales especies
hidrobiológicas del Perú., Lima. Stella. p: 39-42;67-70.

JAY. J. 2002. Microbiología Moderna de los alimentos. 6a. ed., Zaragoza. Acribia.

REICHERT, J. 1981. Optimale sterilizations temperaturen fur fertiggerichte.


KINMITTEILUNGEN Nr. 81+82 KIN-NEUMUENSTER. Alemania.
197

REES J. y J. BELTTSON. 1994. Procesado Térmico y Envasado de Alimentos.


Editorial Acribia S.A. Zaragoza – España.

SANCHEZ, H. y C. REYES. 2002. Metodología y diseños en la investigación


científica. 2a ed. Lima.

SIELAFF, H. 2001. Tecnología de la fabricación de conservas. Zaragoza.. Acribia.

SIKORSKI, Z. 1994. Tecnología de los productos del mar. Recursos Composición y


Conservación. Acribia. Zaragoza, España.

TSCHEUSCHNER, H. 2001. Fundamentos de la tecnología de los alimentos,


Zaragoza. Acribia.

UREÑA M. y M. D’ ARRIGO. 1999. Evaluación sensorial de los alimentos; Lima.


Editorial. Agraria

VASQUEZ, A. y J. REUPO 1999. Bromatología Analítica, Lambayeque. UPSA-


UNPRG. mimeo, vs.pgs.

VASQUEZ, A. N. DIAZ y O. VÁSQUEZ. 2004. Metodología de la investigación


científica, Lambayeque. UPSA-UNPRG. mimeo, vs.pgs.

WONG, D. 1995. Química de los alimentos. Mecanismos y teoría. Ed. Acribia.


Zaragoza, España.

REVISIÓN Y TRANSCRIPCIÓN BIBLIOGRAFICA

REVISIÓN BIBLIOGRÁFICA

INTRODUCCIÓN

Cuando se analiza la realidad, surgen ideas y la necesidad impulsora de investigar.


Las ideas requieren ser clarificadas, sustentadas y transformadas en interrogantes.
En este proceso el examen de la bibliografía cumple un rol importante porque
permite definir el problema a investigar, determina la naturaleza y los alcances de la
investigación, brinda las bases para la naturaleza y los alcances de la investigación,
igualmente da las bases para la formulación de la hipótesis, indicaciones para los
198

materiales y métodos así como las técnicas para una adecuada obtención y análisis
de los datos.

En la investigación Descriptiva y Experimental, el examen de la bibliografía cumple


una serie de funciones generales preparatoria para la recogida real de datos. En
esta clase de investigación se examinó la bibliografía para crear, a partir del
pasado, el contexto del nuevo estudio que se va a realizar con nuevos sujetos y con
nuevos datos.

Mediante la integración de la investigación y el pensamiento del pasado con la


investigación y pensamiento del presente, podemos hacer avanzar el conocimiento.
Para que este proceso funcione con éxito, el investigador tiene que conocer el
pasado, de modo que pueda diseñar la investigación de lo que ya conoce para
estudiar lo que no sabe. Muchas veces se observa como se investiga sobre los
temas que ya están lo suficientemente demostrados y que no necesitan más
repeticiones.

Cuando la nueva investigación no está basada en un examen a fondo de la


bibliografía, se transforma en una entidad aislada, que en el mejor de los casos,
puede tener una significación accidental con respecto a lo que ya se había hecho
antes.

Cuando nos basamos en un examen a fondo de la bibliografía, podemos esperar


tener enfoques coherentes e integrados de nuestros problemas, y que estas se
puedan resolver mediante la investigación.

TIPOS DE BIBLIOGRAFÍA

Existen dos tipos distintos de bibliografía:

a. La Bibliografía de Investigación: Se refiere a los informes publicados


sobre estudios que presentan datos. Ejemplo: Artículos científicos, Tesis.

b. La Bibliografía Conceptual: Se refiere a todos los demás trabajos;


abarcando las enciclopedias, diccionarios, libros o artículos que den
opiniones, informes de experiencias, exposición de teorías, es decir, todo
trabajo publicado cuya función esencial no sea la de presentar datos de
investigación.

FUENTES PRIMARIAS Y SECUNDARIAS

Desde el punto de vista de investigación la bibliografía se clasifica en fuentes


primarias y secundarias. Una fuente es primaria cuando el investigador difunde su
trabajo de investigación original a través de cualquier medio, en cambio una fuente
secundaria, cuando un estudio o conjunto de estudios elaborados por un autor es
publicado por otro que no es el autor de la investigación original. Por ejemplo: Los
artículos que se publican en revistas científicas son fuentes primarias, en cambio
los artículos que resumen la literatura existente acerca de un tema son fuentes
secundarias. Las fuentes secundarias son importantes porque proporcionan
información bibliográfica sobre fuentes primarias que pueden resultar importantes,
sin embargo no proporcionan detalles suficientes o bien es casi imposible que
199

mantengan una completa objetividad al resumir y revisar los materiales escritos por
otros (Polit y Hungler, 1995).

2.1.4. COMO HACER EL EXAMEN DE LA BIBLIOGRAFÍA.

El momento en que el investigador haga el examen bibliográfico, depende del


conocimiento que tenga del área problemática. Si el investigador conoce bien el
campo y ha leído mucho, hará una breve revisión. Si su conocimiento es pobre,
tendrá que revisar la bibliografía conceptual. Es conveniente concentrarse en la
bibliografía conceptual hasta que el área problemática se haya reducido, hasta
llegar al problema de investigación relativamente concreto.

Cuando se ha concretizado el problema se debe pasar a la bibliografía de


investigación y empezar a ver el qué, cuándo, dónde, quién y cómo, de la
investigación anterior realizada.

FASES DEL EXAMEN BIBLIOGRÁFICO

El examen de la bibliografía tiene dos fases:

a. Primera fase: consiste en localizar todos los trabajos importantes publicados en


el área problemática. Existen varias formas de localizar las fuentes adecuadas de
referencia, una de ellas es a través de los índices (índex) (por temas o autores en
orden alfabético), libros de resúmenes (Abstraes), ficheros manuales y
computarizados, consulta a bibliotecarios, etc. La búsqueda de bibliografía por
computadora adquiere cada día mayor importancia, como alternativa a la consulta
manual de los índices. A través de la búsqueda por computadora el investigador
puede obtener una lista de referencias con información completa y en muchos
casos también los resúmenes correspondientes. También es útil cuando se quiere
establecer conexión entre múltiples conceptos. Por ejemplo en un índice se puede
encontrar la palabra “alimentos”, pero si su interés se centra en los niños, puede
valerse de la computadora para identificar únicamente aquellas que coinciden con
las palabras claves “alimentos” y “niños”. Otra ventaja de la búsqueda por
computadora es que permite conseguir las referencias de la literatura más reciente,
hasta con un mes de anticipación a su publicación en los indexes o libros de
resúmenes. En resumen el uso de sistemas computarizados ahorra tiempo, que
puede utilizar el investigador en la lectura de las publicaciones. Existen varias
bases de datos como: MEDLINE, CANCERLINE, AIDSLINE, etc. Ahora existen
además bases de datos en formato CD-ROM (disco compacto con memoria sólo
para lectura). Algunas sugerencias para localizar referencias bibliográficas son:

- Familiarícese con las palabras claves (o encabezado temático) a


través de una exploración manual.

- Haga uso de sinonimias de las palabras claves.

- Revise las referencias de las últimas publicaciones.

Una vez que ha revisado el material bibliográfico, leer aquellas partes con lo que no
está familiarizado. Al ir leyendo lo que otros han hecho o pensado sobre el área
problemática vamos elaborando gradualmente los cimientos de ideas, sobre los que
200

reconstruirá nuestro propio estudio. Es recomendable leer varias veces un artículo


para habituarnos al estilo, trate de hallar puntos principales, no haciendo mucho
caso a las formulaciones estadísticas, sino al asunto importante. Algunas
interrogantes claves son:

- Tiene sentido la forma como el investigador conceptualiza el problema?.

- Parece univoca la hipótesis?

- El diseño de investigación permite ver la relación entre variables?

- Se midieron de manera razonable las principales variables o habría sido


necesario mejor usar otro método?

Hay que hacer una distinción entre la bibliografía que examina el investigador y la
que se incluye en el estudio, es decir, la que se cita como “Antecedentes
Bibliográficos”.

La cantidad de trabajos que el investigador tiene que leer está relacionado con la
familiaridad que tiene con el problema a investigar, algunos investigadores pueden
tener poca o mucha familiaridad con todos los conocimientos necesarios.

Los “Antecedentes Bibliográficos” benefician tanto al investigador como al lector del


proyecto. Para el investigador constituye el trasfondo del problema y proporciona, el
marco en que se va a describir su estudio. Al lector; le da un resumen de ideas y las
investigaciones que necesita para comprender el estudio y también una buena
estimación de la erudición del investigador.

El examen de la bibliografía en un proyecto está determinado, por estudio que va a


hacer. Esto significa que la selección de lo que hay que citar en el proyecto se hace
en función de lo que sea significativo y necesario para comprender el estudio
actual. La parte que le sirve al investigador para su formación, pero que no sea
necesario para comprender el estudio debe eliminarse del informe del proyecto.

La importancia que el EXAMEN DE LA BIBLIOGRAFÍA, tenga en la elaboración de


las ideas del investigador, depende, como es lógico de la riqueza de esa bibliografía
y es obligación del investigador encontrar la que existe y examinarla. El no es
responsable del desinterés o del desprecio que otras generaciones hayan podido
sentir hacia un área problemática, y por ello, si su búsqueda pocos resultados, tiene
derecho a decirlo; en el capítulo correspondiente del proyecto se citará, las fuentes
consultadas indicando lo poco encontrado.

Si existe bibliografía en el área problemática, el tiempo que dedicará el investigador


depende de lo que conozca el área problemática y la bibliografía. Si conoce bien la
primera y ha mantenido al día sus conocimientos sólo necesitará darle un ligero
repaso para asegurarse que está informando de los últimos avances en
investigación, y en el terreno de las ideas. En caso que los conocimientos sean
incompletos y desactualizados es necesario examinar a fondo la bibliografía.

b. Segunda fase: Consiste en redactar esos fundamentos de ideas, como una de


las partes del proyecto de investigación, para ello es necesario elaborar resúmenes
201

de los puntos de vista más destacados en el campo que está trabajando.


Resultados fundamentales de las investigaciones relacionadas con nuestro estudio
y análisis crítico del pensamiento y de la investigación procedente.

FUNCIONES DEL EXAMEN DE LA BIBLIOGRAFÍA.

El examen bibliográfico cumple cinco funciones fundamentales que consiste en


suministrar:

a. El marco de referencia conceptual de la investigación prevista.

b. La comprensión del estado de la investigación en el área problemática.

c. Indicaciones para el enfoque, el método, la instrumentación de la


investigación y el análisis de datos.

d. Una estimación de las probabilidades de éxito de la investigación


planteada y de la significación o utilidad de los resultados.

e. La información específica necesaria para formular las definiciones, los


supuestos, las limitaciones y las hipótesis de la investigación.

MARCO CONCEPTUAL DE REFERENCIA

La revisión bibliográfica permite desarrollar el contexto conceptual amplio dentro del


cual se inserta el problema, solamente teniendo en cuenta esto, los resultados que
obtenga van a contribuir al campo de conocimientos existentes y que mientras
mayor sea la relación entre un estudio y otras investigaciones en un mismo campo,
mayor será la contribución de aquel.

El investigador tiene que conocer y comprender la disciplina en la que está


investigando. La forma más directa de hacerlo es leer los trabajos básicos en ese
campo, así como los escritos más recientes de los pensadores más importantes. El
investigador debe sentirse plenamente convencido, cuando haya terminado esta
fase, de que está al corriente de todos los puntos de vista que existen en ese
campo y en especial que ha comprendido todos los puntos de vista que defieren del
suyo o son opuestos a él. Esto no quiere decir que el investigador no puede
expresar su punto de vista, sino que tiene que hacer una distinción cuidadosa entre
los resúmenes del pensamiento de los demás y de su análisis crítico de ese
pensamiento.

ESTADO DE LA INVESTIGACIÓN

Esta segunda función permite conocer cuál es el estado en que se encuentra la


investigación en el campo de interés y permite planificar de forma inteligente un
trabajo de investigación que utilizará y desarrollará las experiencias logradas por
otros investigadores, sacará provecho de las experiencias malogradas y evitará la
repetición innecesaria de errores.

En primer lugar el investigador al hacer el Examen Bibliográfico, sabrá


202

QUÉ investigaciones se ha hecho y se están realizando y cuáles son los resultados,


esto facilitará determinar la originalidad del trabajo por realizar y logrará que se
adquiera una visión panorámica de los resultados en el área problemática., lo que
permitirá con nuestros resultados, si es posible hacer generalizaciones o entrar en
contradicciones o tener resultados poco convincentes, que será motivo para
intensificar las investigaciones.

CUÁNDO, se hecho tal o cual investigación y en concreto cómo se encuentra la


investigación actualmente en el área problemática. El hecho de saber cuándo se
hizo una investigación, permitirá conocer hasta dónde debe llegar cronológicamente
el examen bibliográfico y a la vez determinar si los conocimientos que se obtuvo
hace mucho tiempo siguen siendo válidos; por el tiempo transcurrido o las
condiciones cambiantes que han imperado. Esto puede llevar a repetir la
experiencia, siendo ello lícito.

DONDE, se han realizado las investigaciones, a nivel local, regional, o nacional.

QUIENES, fueron los sujetos estudiados. Esto significa identificar los universos y
poblaciones anteriormente estudiados, saber cómo se hizo el muestreo y la
amplitud de éste.

ENFOQUE; METODOS O INSTRUMENTOS DE LA INVESTIGACIÓN Y ANALISIS


DE DATOS

Esta parte permitirá conocer COMO se hicieron las investigaciones y en base a ello
podemos dar las indicaciones sobre metodología e instrumentación.

En concreto el investigador querrá saber en que medida se ha utilizado en las


investigaciones anteriores los enfoques históricos, descriptivos o experimentales,
pues ello le ayudará a orientar su propio enfoque. Por ese mismo motivo querrá
identificar los métodos de investigación que se han utilizado y en qué medida ello
puede ayudarle a seleccionar el suyo. Por último le interesa familiarizarse con los
instrumentos de recogida de datos utilizados y de qué manera son útiles para
utilizarlo o adecuarlo para su propia investigación.

La exposición de las tres primeras funciones del EXAMEN DE LA BIBLIOGRAFÍA,


en la investigación descriptiva y en la experimental, también debe haber dado una
idea de lo que el investigador busca al consultar la bibliografía.

 Para la PRIMERA FUNCION, la de obtener una visión panorámica, el


investigador está interesado por identificar cada punto de vista y los
argumentos y pruebas que lo apoyen; es un examen de IDEAS y
CONCEPTO, sin tener en cuenta como surgieron unas y otras.

 Para la SEGUNDA FUNCION, ha de comprender el estado de la


investigación, se hará un examen mucho más estructurado y concreto en la
que interesa identificar lo que ya se ha estudiado; los resultados del estudio,
cómo se relacionan entre sí los resultados de los distintos estudios, qué
sujetos han sido estudiados y cuándo y dónde se hizo la investigación.
203

 Para la TERCERA FUNCION, las indicaciones de metodología e


instrumentación, le interesa cómo se hizo y por qué se hizo la investigación.

En cierto sentido, la combinación de estas tres primera funciones, es lo que


determina la cuarta y quinta función del EXAMEN DE LA BIBLIOGRAFIA es decir
la estimación del éxito y de la significación de la investigación proyectada y la
decisión de continuar adelante, así como las definiciones, supuestos, limitaciones e
hipótesis de nuevo proyecto.

PROBABILIDAD DE ÉXITO Y SIGNIFICACIÓN DE LOS RESULTADOS

A través de la revisión bibliográfica, el investigador está en condiciones de evaluar


el éxito que han tenido otros investigadores en el área problemática y la utilidad de
sus resultados. Si los trabajos que se realizaron lograron éxito y sus conclusiones
son útiles, entonces el pronóstico para el trabajo a realizarse es sencillo y claro,
pero si los trabajos realizados demuestran que no han logrado éxito y sus
conclusiones no han sido convincentes o han sido de poco valor, entonces uno
debe tomar una decisión o abandonar el proyecto o lo altera.

DEFINICIONES, SUPUESTOS, LIMITACIONES E HIPOTESIS

Si después del Examen de la Bibliografía, se tiene fundados elementos de terminar


con éxito la investigación prevista, llegando a resultados que suponen una
aportación positiva en ese campo, se utilizarán los trabajos que componen la
bibliografía para formular las definiciones, supuestos, limitaciones e hipótesis.

Es recomendable utilizar las definiciones, ya usadas, a fin de que nuestra


investigación y las anteriores sean comparables. Asimismo, al examinar la
bibliografía, uno encuentra aspectos del área problemática que están
universalmente aceptados como hechos ciertos; esos hechos los podrá utilizar
como supuestos de su propio estudio. Por último, aquellos aspectos del área
problemática que están en discusión o abiertos a nuevas aportaciones, entonces el
investigador podrá señalar cuáles de esos podrá tener en cuenta y cuáles no; estos
últimos formarán la base de la formulación de las limitaciones de la investigación.

Ahora puede combinar los resultados de los estudios anteriores con el conocimiento
de las Teorías actuales y su propio conocimiento para formular las hipótesis; es
decir los resultados que espera de la investigación.

INDICACIONES PARA EL EXAMEN BIBLIOGRAFICO

El examen bibliográfico se hace en la BIBLIOTECAS, por tanto es necesario


conocer como están organizadas y como funcionan.

a. Se debe consultar otras fuentes que se encuentran en las bibliotecas


como: Diccionarios, enciclopedias especializadas para comprender
conceptos que se encuentren la bibliografía. Otras fuentes, deber ser
tesis, memorias, que proporcionan el contacto más completo y
actualizado de las investigaciones que se hacen en las universidades y
que muchas veces nunca son publicadas, por lo tanto no aparecen en
los libros de índices o de resúmenes.
204

b. Se debe comprender que hay dos criterios par hacer una buena
búsqueda bibliográfica: EXACTITUD Y CONSTANCIA. Por eso se debe
anotar la información esencial con exactitud y siempre de la misma
manera. Una forma sencilla de asegurarse esto es utilizando las fichas
bibliográficas.

Las citas, deben copiarse literalmente sin paráfrasis, en las fichas bibliográficas. En
esta etapa no sabemos como vamos a utilizar una idea que resumamos de la
bibliografía. Si transcribimos literalmente lo podremos utilizar posteriormente en
forma de cita parafraseada. Pero sólo si registramos una paráfrasis y luego
queremos usar la cita exacta, tenemos que regresar a la biblioteca. Cuando se
anota una cita en la ficha debe asegurarse que se anota el número de página del
libro o revista, pues lo necesitamos al dar la referencia.

A medida que leemos buscamos siete tipos fundamentales de información:

1º Argumentos que apoyen la necesidad del estudio, su éxito potencial, y su


significación.

2º Delimitación de los puntos de vista teóricos fundamentales.

3º Resúmenes de los resultados de investigación.

4º Indicaciones para las hipótesis del estudio proyectado.

5º Fundamento de cada una de las hipótesis.

6º Definiciones, limitaciones y supuestos del estudio proyectado.

7º Indicaciones sobre metodología e instrumentación.

Es necesario redactar un esbozo de la investigación que proyectamos, en base al


examen de la bibliografía, sino correremos el riesgo de olvidarnos parte de él y es
necesario porque ello es el fundamento de la armazón de nuestro estudio y
debemos alcanzar precisión y exactitud, que sólo alcanzamos al poner por escrito
las ideas.

FICHAS BIBLIOGRÁFICA

IMPORTANCIA DE LA FICHAS.

La ficha es el principal medio del que se vale el investigador para guardar todas sus
experiencias logradas a través de la lectura o de la investigación. El fichaje es,
pues, una técnica que facilita la sistematización bibliográfica, la ordenación lógica
de las ideas y el acopio de información en síntesis. El erudito no es sino el
investigador que tiene un fichero muy bien anotado y organizado.

Las fichas constituyen la “memoria escrita” del investigador, primero para registrar
todo lo que lee en revistas, libros científicos, etc., y segundo para redactar las
205

“Referencias Bibliográficas”, ya sea de su proyecto de investigación ó de su informe


de investigación.

Las fichas permiten anotar aquellas obras, artículos de revistas científicas o


periódicos que se consulta para poder llevar un registro personal de las lecturas o
para reactualizarlas. El investigador a fin de que su trabajo tenga consistencia debe
anotar lo que lee, es decir lo que considere que tiene valor.

CONFECCIÓN DE LAS FICHAS.

Las fichas son tarjetas de cartulina o papel, de diferentes colores, dimensiones y


calidades, siendo las más comunes las de cartulina blanca y rayadas por un lado.
En cuanto a sus dimensiones, las más utilizadas son las siguientes:

 La Pequeña : 12,5 x 7,5 cm.

 La Mediana : 15,0 x 10,0 cm.

 La Grande : 20,5 x 12,5 cm.

Internacionalmente, el formato pequeño se usa para tomar datos bibliográficos; en


el resto de casos, el investigador es libre de escoger el tamaño y calidad de fichas
que mas se ajusten a las características de su trabajo.

Las fichas se pueden elaborar personalmente, dividiendo exactamente pliegos de


cartulina; pero resulta más barato y de fácil confección las de papel bond, inclusive
de papel periódico.

En cuanto a las medidas que se le puede dar, cono ya se ha dicho depende del
investigador, pero de acuerdo a criterios internacionales es de 12,5 cm. de largo por
7,5 cm. de alto para las fichas bibliográficas propiamente dichas y para las fichas de
trabajo o investigación pueden variar de 15,0 x 10,0 cm. O 20,0 x 12,5 cm., etc.

No existe una forma única para confeccionar las fichas, pero sí algunas
características indispensable; las cuales varían, según se trate de un libro, de una
revista, etc.

2.2.3. PARTES DE UNA FICHA BIBLIOGRÁFICA.

En términos generales, una ficha consta de las siguientes partes (Fig. 1):

a. Epígrafe o encabezamiento:

Expresa el contenido temático del documento fichado y está


representado por el de la materia específica.

b. La referencia bibliográfica de la fuente consultada:


206

Es la segunda parte de la ficha, para su asiento existen normas


internacionales.

c. El texto o cuerpo de la ficha:

Es la parte que contiene la información que usará el científico en su


trabajo.

d. El código que asigna el Centro Bibliográfico:

Esta parte de la ficha se refiere al registro del código de clasificación que


la biblioteca o centro de documentación le ha asignado a los libros,
folletos, tesis, etc. Este código puede escribirse en cualquiera de los
ángulos del lado derecho de la ficha (superior o inferior). Cuando se trata
de obtener fichas de un libro o revistas que sean personales, no es
necesario anotar este código, pudiéndose omitir.

EPIGRAFE ICTIOLOGÍA – CLAVE

REFERENCIA CHIRICHIGNO, N. 1998. Clave para identificar los peces


BIBLIOGRAFICA marinos del Perú. 2a. ed. Instituto del Mar del Perú. Pub.
Esp. Callao. Perú.

TEXTO Se presenta una clave par identificar 727 especies


incluidas en 388 géneros y 138 familias.
CODIGO
340

2.2.4. CLASES DE FICHAS

Los autores tanto extranjeros como nacionales, que tratan sobre la técnica de
fichas, presentan variaciones en la clasificación, en los nombres de algunos tipos y
en las estructura de las fichas. Entre los tipos de fichas de uso mas frecuentes, se
mencionan las siguientes:

 Fichas de registro

 La Ficha bibliográfica: aquella en que se consigna los datos generales


de una obra: autor. Año, título de la obra, edición, editorial, institución,
país, páginas. Organizadas alfabéticamente funcionan como un registro
de los diferentes trabajos que se ha leído o consultado.
207

 La Ficha Hemerográfica: Tiene la misma finalidad que la bibliográfica,


es decir, clasificar fuentes, con la diferencia que la Hemerográfica
registra datos de un artículo de revista, folletos, boletines, informes de
instituciones, etc.

 Fichas de trabajo o de investigación

Son instrumentos de investigación bibliográfica, documental o empírica, cuya


finalidad es de ordenar y clasificar los datos consultados, incluyendo observaciones
y crítica o puntos de vista personales. Hacer este tipo de fichas, significa hacer una
trabajo creador, de análisis, de crítica, o bien de síntesis. La tarjeta de trabajo refleja
ya nuestra capacidad de profundización y los propósitos que nos animan; es el fruto
de lectura y de reflexión.

Las partes de la ficha de trabajo o investigación son las siguientes:

 Cabeza o epígrafe: se coloca en el ángulo superior izquierdo de la


tarjeta. Refleja el contenido de la tarjeta. Podría decirse que es una
breve explicación del dato.

 Referencias bibliográficas de la fuente: Se cita de la misma manera


que la ficha bibliográfica.

 El dato: Es la información que extraemos del libro, revista ó


periódico. El dato puede ser: a. Una cita textual, b. Una síntesis, c. Una
crítica, d. Las tres cosas a la vez, e. Experiencias propias del
investigador, f. Observaciones directas en el campo; por lo que de
acuerdo a estos datos las fichas de trabajo o investigación se llamarán
Ficha Textual, Ficha de Síntesis o Resumen, Ficha de Paráfrasis, Ficha
Combinada, Ficha de experiencia y Ficha de Campo, respectivamente.

b.1 Ficha textual

En esta clase de ficha se transcribe entre comillas, fiel y literalmente, aun con
errores si los hubiera, las partes más significativas del contenido de las fuentes
escritas. Es el testimonio directo del autor y ahí reside su valor (Fig. 2). Esta ficha
presenta las siguientes características:

Tamaño: Para esta clase de fichas existen diversas medidas. Se sugiere el tamaño
intermedio 15 cm. de largo por 10 cm. de ancho, por ser de fácil manejo y
confección.

 Epígrafe: Debe ir en el extremo superior izquierdo de la ficha. En el extremo


superior derecho debe ir la palabra TEXTUAL u omitirlo.

 Referencias Bibliográficas de la fuente

 Contenido: La cita que aparece en la ficha debe ir entre comillas, se


transcribirá sin alteraciones.
208

Durante el fichaje, puede presentarse las siguientes situaciones:

Si al transcribir se desea omitir la parte inicial del párrafo, después de las comillas
se colocan tres puntos suspensivos y se empiezan a citar”. Si dentro de la cita
textual se suprimen algunas palabras o líneas se pondrá, entre paréntesis, tres
puntos suspensivos (...) y se continuará citando. Si se suprimen párrafos enteros
habrá que poner toda una línea de puntos suspensivos. Puede suceder también
que uno quiera cortar la cita antes de que concluya el párrafo original. En este caso
se colocan tres puntos suspensivos antes de las comillas finales...”

Puede darse el caso de que el autor haya subrayado una palabra o una frase. Tiene
que indicar al pie de la ficha, que el subrayado es del investigador o del autor.

Si la cita es extensa puede utilizarse más de una ficha, en este caso se las debe
enumerar correlativamente para evitar confusiones.

ALTERACION DE LOS ALIMENTOS. TEXTUAL


MICROBIANA

FEHLHABER, K. y P. JANETCHSKE. 1995. Higiene veterinaria de los alimentos.


Trad. por J. Esaín. Edit. Acribia, S.A. Zaragoza, España. p.130

“La variabilidad que se observa en los tiempos de conservación de alimentos


idénticos de diferentes partidas se explica por la existencia de diferencias en la
composición de las respectivas floras de contaminación. Requisitos previos para la
producción de alteraciones perceptibles en los alimentos son una concentración
suficientemente elevada de enzimas microbianos extracelulares, como resultado de la
multiplicación previa de los gérmenes, y la existencia de una condiciones óptimas para la
actuación de las enzimas en cuestión”.

Figura 2. Modelo de Ficha Textual.

b.2 Ficha resumen

Es aquella que resume o sintetiza en forma concisa con palabras propias,


cambiando el énfasis, variando la secuencia del material, eliminando lo que
considera no esencial, con estilo diferente, pero sin alterar el sentido de los hechos
(Fig. 3)

Esta ficha tiene las siguientes características:

 Epígrafe: Deberá ir en el extremo superior izquierdo. La palabra


RESUMEN aparecerá en el extremo superior derecho.

 Datos de la obra: Que va situado debajo del epígrafe.


209

 El resumen en sí: Recomendándose que éste tenga una presentación


esquemática y organizada.

ALIMENTOS: CARNE. Alteraciones. RESUMEN

FEHLHABER, K. y P. JANETCHKE. 1995. Higiene veterinaria de los


alimentos. Trad. por J. Esaín. Edit. Acribia, S.A. Zaragoza, España. p.235-242.

Alteraciones de la carne:
- Maduración incorrecta.
- Alteraciones de la calidad.
- Alteraciones causadas por microbios:
o Alteraciones superficiales de la carne.
o Enmohecimiento
o Luminiscencia.
o Putrefacción

Figura 3. Modelo de una Ficha Resumen.

b.3. Ficha de paráfrasis

Esta ficha presenta la llamada “cita ideológica”. Consiste en explicar, con palabras
propias un material que en la fuente original aparece con un lenguaje de difícil
comprensión. Permite aclarar conceptos complejos y hacer más operativo su
manejo. Sin embargo hay que anotar que se debe conservar exactamente las ideas
originales.

La Ficha de Paráfrasis presenta las siguientes características:

 Epígrafe: Se coloca en extremo superior izquierdo, se refiere al tema


principal parafraseado. En el extremo superior derecho se escribe la
palabra PARAFRASIS.

 Datos de la obra: va situado debajo del epígrafe. Se consigna datos del


autor, título, etc.

 Contenido o la Paráfrasis: como requisito básico, debe mantenerse la


propiedad del lenguaje. La paráfrasis no debe ser, en ningún caso, mas
confusa o difícil de entender que la fuente.

b.4. Ficha comentario

Llamada también Ficha de Ideas Personales, considerada quizás, la más valiosa,


porque al investigador le permite acumular ordenar y clasificar las ideas que
facilitarán y apuntalarán la redacción final de la investigación.

Presenta el aporte del lector y pone de manifiesto su propia creatividad; en ella se


nota todas las ideas personales, dudas, críticas, comentarios. Igualmente permite
210

indicar alguna contradicción o incoherencia que se encuentra en el texto y que ha


de ser de valiosa utilidad.

La Ficha de Comentario tiene como componentes:

 Epígrafe: Se coloca en el extremo superior izquierdo. En el extremo


superior derecho para señalar que se trata de una ficha de comentario, se
colocan corchetes  . Esta es una convención para indicar que dichos
contenidos pertenecen al autor, sucediéndose muchas veces, que por omitir
este detalle se piensa que es la anotación del autor.

 Referencias Bibliográficas.

 Cuerpo o contenido.

b.5 Ficha combinada

De acuerdo a las necesidades particulares del trabajo que se realiza, se


puede integrar o combinar en estas fichas algunos procedimientos que se ha visto
ya anteriormente. Esta ficha es muy útil pero pueden confundirse en posterior
análisis si no se toman las precauciones para separar cada tipo de anotaciones
(Fig. 4).

Las combinaciones más usuales son:

Ficha textual + Ficha resumen

Ficha textual + Ficha comentario

Estas fichas permiten comparar los contenidos extraídos de obras de otros autores
con anotaciones de diversa índole que han sido elaboradas por el lector –
investigador.

Presenta las siguientes características:

 Para su confección se tendrá en cuenta las convenciones ya señaladas


para cada ficha.

 Se utiliza comillas para encerrar aquello que corresponde la trascripción


textual.

 Cuando lo que sigue es un resumen, aparece la palabra RESUMEN.

 Si se trata de un comentario, este irá entre corchetes.


211

Figura 4. Modelo de Ficha Combinada


LECHE. Tratamiento y transformación. TEXTUAL

FEHLHABER, K. y P. JANETCHKE. 1995. Higiene veterinaria de los alimentos.


Trad. por J. Esaín. Edit. Acribia, S.A. Zaragoza, España. p.611-624.

“La leche cruda es un producto rápidamente perecedero, lo que hace necesario


su inmediato tratamiento. Mediante calentamiento y graduación del contenido de grasa
en una determinada cifra, se preparan las leches de bebida entera o parcialmente
descremada”.
RESUMEN
Entre los productos lácteos de larga duración se mencionan:
Leches condensadas que se ofrecen azucaradas y sin azucarar.
Leche en polvo que puede ser obtenida mediante desecación por contacto y por
pulverización.

b.6 Ficha de experiencia

Esta ficha sintetiza las experiencias u observaciones que el investigador o


docente va acumulando durante el desarrollo de su actividad. Estas fichas
pueden también guardar el resultado de una serie de vivencias personales,
constituyendo todo esto un material potencial valioso para realizar,
posteriormente, un trabajo de investigación o una tesis.

Presenta las siguientes características:

 Epígrafe: Que se coloca en el extremo superior izquierdo. En el extremo


superior derecho se escribe la palabra EXPERIENCIA.

 Consignar datos de la experiencia, tales como lugar, fecha, participantes y


cualquier anotación que fuera necesario.

 La experiencia misma, descrita en sus detalles esenciales, dejando de lado


cualquier información superficial y puramente anecdótica.

 Al final, opcionalmente, puede ir debidamente numeradas las conclusiones


respectivas.

b.7. Ficha de campo

Esta ficha registra las anotaciones hechas a base de la observación directa


de los hechos o entrevista; las dimensiones de la ficha y los datos que se registren
dependen del trabajo que se está realizando, quedando a criterio del investigador.

Presenta las siguientes anotaciones:

 Localidad.
212

 Información: Aquí se registra el nombre del informante o bien se indica si es


observación directa.

 Fecha.

 Clasificación: La guía más utilizada por el investigador de campo para la


clasificación es la guía de Murdock. También es muy común que cada
investigador elabore su propia guía.

 Título o encabezado: El título debe reflejar el contenido de la ficha.

 Texto: El contenido debe ser una unidad, haciendo referencia a un mismo


dato. Se debe distinguir entre información y comentario.

 El nombre o iniciales del investigador.

Ficha de Documentos inéditos

Cuando hablamos de documentos inéditos nos estamos refiriendo a los textos


mecanografiados que no hayan sido publicados por ningunas de las técnicas de
impresión. Estos documentos pueden ser o un libro de varias páginas o un artículo
mecanografiado que todavía, por algún motivo o conveniencia de su autor, no ha
sido publicado.

Ahora bien, todos los títulos de los documentos inéditos no se subrayan ni llevan
comillas porque hasta el momento no constituyen libros impresos ni artículos
publicados en alguna revista o periódico.

No existe ningún motivo para que estos textos mecanografiados no puedan ser
utilizados, al menos de alguna manera, como fuente bibliográfica. Si es
indispensable consultar dichos documentos es necesario que se pida el permiso
respectivo a su autor.

EL FICHERO BIBLIOGRÁFICO

En la medida que avanza el fichaje, tanto en la investigación como en el proceso de


estudio, es necesario que las fichas se organicen ordenadamente, de tal suerte,
que resulte fácil su ubicación en el momento preciso que se las necesite.

Para este efecto no tendrá sino que situar cada ficha en un fichero que podrá ser de
metal, de madera o hasta una sencilla caja de cartón, con tamaño adecuado para
que las fichas se puedan mantener en pie: puede tener un pasador central si son
perforadas.

Existen diversidad de formas de organizar las fichas en el fichero; se las clasifica


por autores, por orden alfabético, por temas, etc. Por último, las fichas que no
tengan clasificación exacta se deben agrupar bajo la sección “no clasificadas”. En
su oportunidad podrán tener un lugar.
213

Para compartir los espacios de los diferentes temas, se colocarán fichas de cartón
con pestañas (margen superior) en las cuales se escribirán los subtítulos, tras los
cuales se irán colocando las fichas respectivas.

2.3.1. TIPOS DE FICHERO

Alva (1984) menciona tres tipos de ficheros para el archivo personal del profesional
o estudiante universitario:

a. Fichero de investigación: Donde se archivarán los trabajos cuyos


documentos ya fueron redactados, sean o no publicados. Cada trabajo de
investigación estará representado en el fichero por las siguientes fichas:

Una de título del trabajo de investigación, preferentemente de un color diferente de


las otras.

Una ficha guía para cada una de las partes del esquema del trabajo de
investigación.

Detrás de cada ficha guía, correspondiente a cada parte del esquema, se ubicarán
aquellas que tienen la información usada de dicha parte, y siguiendo el
ordenamiento adoptado (numérico, alfabético-numérico, o alfabético).

Detrás de la última ficha guía que corresponderá a “referencia Bibliográficas” se


archivarán solamente las que registren dichas referencias: a) Fichero de
Referencias; contienen en orden numérico las fichas de autor de cada artículo,
puede tener o no pasador metálico y, en consecuencia las fichas pueden ser o no
perforadas. b) Fichero de Materias: Llamado también fichero de encabezamiento
de materia, de epígrafe o de palabras claves, reúne en orden alfabético las fichas
de materia.

PROBLEMA CIENTIFICO
1. ETIMOLOGÍA
Etimológicamente deriva del verbo griego proballo que significa lanzar o empujar
hacia adelante

2. DEFINICIONES
El término problema, en general, se puede definir diciendo con Bunge en Sierra
(1986) que es una dificultad que no puede resolverse automáticamente, sino
que requiere una investigación conceptual o empírica), igualmente (Pérez
1991) lo define como la duda o interrogante que tiene el investigador y que
desea resolver; además Zavaleta (1991) explica que el término problema sirve
para designar: dificultad e interrogación. En investigación científica se usa en la
acepción de interrogación, como pregunta. Pregunta sobre la realidad problemática
naturalmente; realidad que se explicita como todo aquello con características y
tendencias propias. Entonces éste podrá orientarse bien a las características, bien
a las tendencias propias.
214

Kerlinger (1975), al reflexionar sobre la expresión del problema científico señaló que
aunque los problemas de investigación difieren considerablemente, y aunque no
hay una forma “correcta” de expresar uno, pueden expresarse ciertas
características de problemas y expresiones de problemas y usarse con provecho.
Un problema es entonces una oración interrogativa que pregunta: ¿Qué relaciones
existen entre dos o más variables?, la respuesta es lo que se esta buscando en la
investigación; si el problema es científico, casi siempre contendrá dos o más
variables.

Moya 1994 lo definió con mayor criterio como es la reflexión científica que
expresa la contradicción entre el saber y la conciencia del no saber cuya
precisión y solución requiere de la utilización del método científico

3. SITUACION PROBLEMÁTICA

El proyecto debe comenzar por ubicar el asunto en estudio dentro de un contexto


amplio, de manera que posteriormente sea fácil comprender su importancia,
limitaciones y proyecciones. La investigación científica se inicia con la identificación
y formulación del problema materia de indagación. El problema tiene básicamente
tres dimensiones que deben tenerse en cuenta en su definición: a) su relación con
el área científica en la que se va a investigar; es decir, están sustentados en la
teoría y los resultados de investigaciones anteriores vinculados al problema objeto
de estudio (marco conceptual). b) La perspectiva temporal del problema para
determinar si éste se relaciona con una situación pasada, presente o futura.
Digamos, por ejemplo, Cómo fue el fenómeno “X’’ el año pasado? Cómo es el
fenómeno “X’’ actualmente? Cómo será el fenómeno “X’’ en el futuro?. c)
Determinación de la naturaleza de la investigación. Las cuestiones materia de
investigación pueden ser: descriptivas, las que ayudan a comprender las
características de un fenómeno; explicativas, ayudan a explicar la ocurrencia de un
fenómeno; predictivas, ayudan a predecir la ocurrencia de un fenómeno (Gil y Alva,
1993)

4. DELIMITACION
Kerlinger (1975), señalo que no siempre le es posible al investigador formular su
Problema en términos sencillos, claros y en su totalidad. Con frecuencia, solo posee
una noción general, difusa y aún confusa del problema; esto constituye la misma
naturaleza de la complejidad de la investigación científica. La expresión adecuada
del problema de la investigación es una de las partes más importantes de ésta. Si
se desea resolver un problema, generalmente debe conocerse qué problema es.
Puede decirse, que una gran parte de la solución reside en conocer qué es lo que
se trata de hace; otra parte consiste en conocer qué es un problema y
especialmente qué es un problema científico.

La inmensa realidad, conjunto de seres, cosas, cualidades, cantidades,


conocimientos, teorías, entes, ciencias, etc. y demás todavía por conocer;
representa para el ser humano dotado de curiosidad insaciable y deseo de
comprender cada vez más y con mayor profundidad, un constante desafío; Pero
será imposible lograr este objetivo de golpe, de una sola vez; entonces la necesidad
de avanzar poco a poco, determinando con precisión la parte a investigar, resultará
capital. El establecer que punto específico de la realidad va ser explorado, justifica
la necesidad primordial y prioritaria de definir el problema científico.

5. CLASES DE PROBLEMAS
215

Según acabamos de ver, hay la posibilidad de centrar el interés científico en las


características o en las tendencias; entonces, los problemas, reciben los nombres
de problemas de Descubrimiento y de Explicación, respectivamente.

El problema de explicación tiene dos alternativas: prospectivo y retrospectivo. Se


puede preguntar por los efectos desconocidos de una variable conocida, caso del
problema prospectivo; y se puede preguntar por una causa desconocida partiendo
de un efecto conocido (variable dependiente), caso del problema retrospectivo.

De otro lado, según el rol que el investigador jugara en la producción del fenómeno
a observar; activo o pasivo, el problema científico se catalogará como Experimental
o Descriptivo, respectivamente. El problema descriptivo es una interrogante sobre
estado o relación de variables, tal como ocurren, natural o artificialmente, sin
propósito primario de observación.

En el problema experimental, el investigador provoca y controla la relación, con la


finalidad de observar las relaciones entre las variables, variando y graduando las
magnitudes cuantas veces sea necesario. Nos parece necesario establecer las
diferencias entre el problema científico y el filosófico, entre otros ambos estudian la
relación causa - efecto, buscando las primeras causas el filosófico y las últimas el
científico.

6 COMO PRODUCIR PROBLEMAS

Zavaleta (1991) expresó que no existe ninguna fórmula para hacer genios. La
concepción del problema científico depende de la inteligencia, de la genialidad del
científico investigador, cualidad, al parecer escasa y fugaz; pues aun los grandes de
la ciencia no lo han sido por todas sus obras y por toda su vida, ni siquiera para
todos sus actos científicos

El caso de Newton es muy esclarecedor. ¿Por qué esa tarde se preguntó sobre la
caída de la manzana? Por qué esa y no otra?; sin embargo, se señalan y
recomiendan algunas técnicas para la producción o creación de problemas, útiles
para comenzar, que en todo caso no alcanzan a beneficiar como la incorporación a
un buen equipo de investigación.

Se podría hacer, primero, una lista numerada de los fenómenos o hechos de la


realidad, en una especie de lluvia de ideas. Luego esta será depurada y priorizada
frente a cada anotación se registrarán las posibles explicaciones, las que se nos
ocurran, para a continuación eliminar dejando sólo las pertinentes. Lo que queda
debe ser nuevamente tamizado con el criterio de la susceptibilidad a la verificación
empírica. Con los residuos formamos el problema

7. ELEMENTOS

De acuerdo con Sierra (1986) en la noción de problema se pueden distinguir cuatro


elementos: i) el sujeto; ii)b) la dificultad; iii) la solución y iv) la investigación
necesaria para la solución. El sujeto en el problema es el hombre; la dificultad
puede ser teórica o práctica, del orden del conocimiento o del orden de la acción,
como tal dificultad involucra una contradicción entre conocimientos una oposición
entre lo que se conoce y la realidad o un inconveniente que se interpone entre el
conocimiento y la acción. La solución involucra una posibilidad remota de
216

solucionarlo y el último elemento, la investigación es lo que distingue y tipifica los


problemas humanos. Así como se concibe que la investigación científica es la
fuente de la ciencia se afirma igualmente que los problemas son la fuente de la
investigación científica.

8. CONDICIONES Y REQUISITOS:

Desde el punto de vista subjetivo los requisitos de los problemas a investigar se


pueden agrupar alrededor de tres rasgos fundamentales: viabilidad, no excesiva
dificultad e interés.

Desde el punto de vista objetivo los requisitos pueden ser los siguientes: i) el
problema a investigar debe pertenecer a la ciencia o materia en la cual se forma el
investigador; ii) el problema no ha de ser vago o genérico sino que debe ser
concreto y estar formulado lo mas precisamente posible; iii) el problema elegido
debe representar alguna novedad; trascendencia y viabilidad en su ejecución.

9. PLANTEAMIENTO DEL PROBLEMA

Torres (1994) al referirse al significado expresa que plantear en forma correcta un


problema de investigación significa que se debe realizar sobre un trasfondo de
conocimiento teórico existente, y que un problema bien planteado prácticamente
tiene el 50 % de su solución ya que orienta hacia la correcta formulación de los
objetivos e hipótesis, diseñar los instrumentos para recolectar la información,
establecer las técnicas y los procesos metodológicos a utilizarse. Si el problema no
esta bien planteado, se formularán objetivos e hipótesis incorrectas e incoherentes,
se seleccionarán instrumentos (material de laboratorio, cuestionarios, cédulas de
entrevista, etc.) poco útiles para captar y procesar la información requerida, en
consecuencia, se obtendrán conclusiones inconsistentes e impregnadas de los
errores indicados anteriormente.

Un planteamiento incorrecto del problema, tendrá repercusiones en todas las


etapas de la investigación dificultando en muchos casos, continuar con el estudio
con la consiguiente pérdida de tiempo y economía. Debido a estas circunstancias,
los estudiantes que están realizando tesis cambian el trabajo inicial por otro; sin
embargo, seguirán cometiendo los mismos errores si es que no rectifican las
causas fundamentales de los mismos.

El planteamiento del problema, es uno de los procesos más importantes de la


investigación. Su estructura está constituida por limitantes e interrogantes que
cuestionan la naturaleza del fenómeno y por las implicancias sociales de su
solución El planteamiento del problema es un proceso mediante el cual se
fracciona la realidad en la mente a fin de dirigir la atención hacia una parte
específica de la misma. El fraccionamiento no es proceso inmediatista del
investigador, sino el resultado de la selección sistemática. La selección específica
es la fragmentación mental de la idea general; por eso, siempre es considerada
como de necesidad primordial, la conveniencia de conocer las teorías que se
relacionan con el, a fin de establecer posteriormente un marco teórico y conceptual
de referencia, argumentado y válido para la formulación de las hipótesis.

2.2. Limitaciones
217

La limitación del problema de investigación, se inicia con la observación natural a


través de ella, el investigador toma el primer contacto con la realidad como paso
previo para realizar la investigación.

Las limitantes se establecen en función de los objetivos del investigador y de la


institución que patrocina el proyecto. También se toman en consideración la
naturaleza del objeto de estudio, la disponibilidad de tiempo, los recursos humanos
y financieros.

Las limitaciones imprescindibles de toda investigación son:

2.2.1. Teórica, está determinada por la existencia de investigaciones (ejecutadas)


afines a la que pretendemos realizar. Dentro del ámbito científico, estas limitantes
circulan como teorías científicas en las distantes fuentes bibliográficas, permiten
tener una visión general del problema y comprender mejor las variables de
investigación La especificación y cuantificación de las teorías, es una característica
de esta limitante.

2.2.2. Temporal, las investigaciones empíricas y los análisis teóricos, tienen una
fecha de inicio y de término. No hay investigaciones eternas, aunque si pueden ser
interrumpidas por múltiples factores. Esta limitante, puede ser:

 Transversal, dentro de ella están comprendidos todos los estudios


que pueden ejecutarse con rapidez, siempre y cuando que el problema esté
correctamente planteado. Ejemplo: El investigador puede seleccionar niños de
distintas edades (5, 7, 9 años ) y someterlos a un test de inteligencia. La variable de
investigación es la inteligencia, por tanto, el efecto observado en cualquier nivel
puede hacerse con rapidez. En cambio, si el estudio fuera prolongado (longitudinal),
podríamos persistir en cualquier otra variable distinta a la indicada. Los resultados
pueden ser incorrectos si el problema es planteado con limitante temporal
incoherente y los grupos tienen un ambiente significativamente diferente unos de
otros.

 Longitudinal, Investigaciones longitudinales, son aquellas que


requieren un largo período de tiempo para su ejecución y el investigador conoce
sus variaciones desde el inicio hasta la culminación. Ejemplo: el investigador tiene
como objetivo determinar las habilidades motoras de niños de 5 años; para ello,
tiene que trabajar con dos grupos de niños. Un grupo debe estar conformado por
niños que han tenido mucha experiencia con juguetes educativos y otro grupo que
carece de tal experiencia. Para alcanzar el objetivo, el investigador debe iniciar un
estudio longitudinal de dos años para medir la habilidad motora de ambos grupos.

2.2.3. Espacial

Esta limitante se refiere al área geográfica (local, regional, nacional e internacional)


en la cual está comprendido el problema de investigación. La limitante espacial del
problema de investigación planteado, implica que las unidades de análisis
corresponderán a un espacio determinado y sólo se estudiará una parte de ellas.
Los resultados se generalizarán para el total de la población de la cual fue extraída
la muestra representativa.

2.3. Interrogantes
218

Las interrogantes y respuestas eidéticas, permiten al investigador tener ideas


generales acerca de lo que tiene que ejecutar, ellas dan claridad y solidez al
planteamiento del problema, en efecto, éste no va a sufrir modificaciones a medida
que avanza la investigación. Si es necesario realizar ajustes, deben llevarse acabo
dentro de los límites señalados por el marco teórico y conceptual de referencia, de
lo contrario, se obtendrán resultados lejos de la realidad que se pretende indagar.
Un problema bien planteado es la mitad de la solución (Ackoff).

Las interrogantes de investigación, son:

2.3.1. Generales
Son aquellas que orientan la investigación a la búsqueda de las causas y
consecuencias del problema general. en este caso, las preguntas deben
establecerse de acuerdo a la naturaleza del objeto de investigación y a la selección
general de éste.

2.3.2. Específicas
Son las que inducen respuestas concretas sobre las propiedades, relaciones y
conexiones internas del problema específico de investigación. Algunas de ellas son
derivados de las generales. Este tipo de interrogantes se formularán hasta el
agotamiento, es decir al máximo límite de su formulación. Las respuestas se
obtendrán en el proceso de investigación.

Pérez (1991) señala que cuando nos planteamos el problema lo hacemos en tres
órdenes: a) por ausencia de conocimientos; b) para rectificar los conocimientos y c)
para ratificar los conocimientos.

En todo el planteamiento del problema deben cumplirse los siguientes requisitos:


a) Que sea real.
b) Que sea factible de realizarse y comprobarse.
c) Que haya relación entre las variables a estudiar.
d) Que haya una delimitación del problema en tiempo, espacio y universo
(personas, animales, etc.); así como una delimitación teórica (marco
teórico).
e) Que esté ubicado en su contexto general, por ejemplo: el papel de los
residentes en los hospitales, papel de la sala de emergencia en los
hospitales, etcétera.
En resumen, el planteamiento del problema es el primer paso del método científico
y quizás el más importante; es el centro del diseño de la investigación, ya que si
hacemos un buen planteamiento, el resto de la investigación se da por si sola; lo
contrario ocurre si hacemos un mal planteamiento, lo que nos obligará a replantear
reiteradamente el problema hasta que hagamos un buen planteamiento

10. CRITERIOS SOBRE PROBLEMAS Y EXPRESIONES DE PROBLEMAS

La concepción original de Kerlinger en Oblitas (1991) es que hay tres criterios


acerca de buenos problemas y expresiones de problemas primero, el problema
debe expresar una relación entre dos o más variables. Formula, en efecto
preguntas como: ¿ se relaciona A con B?; Cómo se relaciona A y B ?, Cómo se
relaciona A con B en las condiciones C y D?. Las raras excepciones a esta
sentencia ocurren principalmente en la investigación taxonómica o metodológica.
219

Segundo, el problema debe formularse claramente y sin ambigüedad en forma


de pregunta. En lugar de decir, por ejemplo, “El problema es”, o “El objeto de este
estudio es”, formular una pregunta. Las preguntas tienen la virtud de plantear
directamente los problemas. El objeto de un estudio no es necesariamente igual
que el problema de un estudio.

El tercer criterio es a menudo difícil de satisfacer; requiere que el problema y la


expresión del problema deben ser tales que impliquen posibilidad de prueba
empírica. Un problema que no tiene inferencias para probar su relación o
relaciones expresadas no es un problema científico. Esto significa no sólo que se
expresa una relación real, sino también que las variables de la relación pueden
medirse de algún modo; muchas preguntas interesantes e importantes no son
preguntas científicas, simplemente porque no son susceptibles de comprobación.

Zavaleta (1993) refiere que Kerlinger ha planteado claramente los criterios para
formular eficazmente el problema de investigación, cuando recomienda los tres
aspectos siguientes:
1. Formularlo como pregunta o proposición interrogativa.
2. Señalar las variables, por lo menos dos, de manera clara e inequívoca, en
relación implícita.
3. Que exista posibilidad de verificación empírica.

Este autor trata de explicitarlo del modo siguiente:


El primer punto se refiere al continente a la esencia del problema científico. Que
también se puede presentar en redacción condicional. En el segundo se hace
alusión al contenido, señalar claramente las variables relacionadas entre sí. Es
muy importante considerar pues que el no hacerlo llevará necesariamente a
variaciones en los resultados.

También hay que ser muy cuidadoso con el asunto de la relación entre variables. Es
muy importante el hecho de la existencia de variables intermedias no percibidas,
desconocidas. Ocurre tal como se da con los números naturales.

En relación al número de variables, la ciencia cada vez profundiza más el


conocimiento de la realidad, estudiando variables intermedias y al parecer no hay
límite para ello. De otro lado, al plantear el problema, hay que incluir por lo menos
dos variables; puesto que ninguna explicación sería posible con solo una. La
relación causa - efecto requiere de por lo menos dos, una para independiente o
causa y la otra para dependiente o efecto. La primera que origina el cambio en otra,
necesariamente. Lo mejor sería plantear los problemas así. Cuando se incrementan
el número de variables las relaciones pueden resultar múltiples, intrincadas y
difíciles de percibir y esclarecer.

El tercer criterio señalado por Kerlinger, corresponde a la condición esencial para la


ciencia: ser empíricamente verificable; sino lo hay, el asunto no es de la ciencia
sencillamente.

El problema científico es componente fundamental para la elaboración del protocolo


de investigación. Determina los conocimientos antecedentes que debemos recordar
y recoger. Un modo práctico de proceder sería conseguir bibliografía en la mayor
cantidad posible, sobre cada una de las variables y naturalmente sobre la relación
entre ellas. Es necesario para una adecuada planificación y fundamentación. Se
220

requieren de los conocimientos más elementales a los más complejos, de los más
generales a los más particulares, de los más antiguos a los últimos, los que figuran
en publicaciones de la especialidad y de especialidades afines. La erudición facilita
grandemente la labor; da muchas ideas para hacer investigación científica y permite
el uso de modelos ya verificados.

De la influencia del problema científico debe derivar: desde el título hasta el


protocolo y el informe final; por lo que se sugiere que el título debe dar una idea
clara del problema a investigar.

Fundamentalmente en el problema va ha quedar materializada la inquietud del


investigador y va, necesariamente, a generar respuestas tentativas. Tales juicios
son el alma de la hipótesis científica, paso siguiente en el método de la
investigación científica.

Las dificultades en la elaboración del problema científico y de todo el protocolo y


por consiguiente de toda la investigación, pueden reducirse a base de reflexión y de
recordar que el error está siempre presente en la obra humana; que la revisión, una
y otra vez, de nuestros planteamientos para buscarlos, a la luz de las publicaciones
de los diversos especialistas, también perfeccionará cada vez nuestra obra

11. EVALUACIÓN DEL PROBLEMA.

El plan de investigación debe incluir las razones justificatorias de su ejecución .Los


criterios para evaluar un problema son: importancia (teórica o práctica), novedad
(en contenido, en enfoque o en condiciones), interés por parte de los ejecutores y
factibilidad o posibilidad real de verificación empírica.

12. FUNCIONES
Moya (1994) lo considera: Hilo conductor del trabajo de investigación que
conduce desde el saber hacia el No saber

13. RELACIONES CON EL MARCO TEÓRICO

Todo el marco teórico es la base de la correcta formulación del problema pues


enlaza directamente la teoría científica con el problema científico.

14. RELACIONES CON LA HIPÓTESIS


Kerlinger (2002), sostiene que hay poca duda de que las hipótesis son instrumentos
importantes e indispensables de investigación científica. Para esta creencia hay tres
razones principales: Una, son, por así decirlo, los instrumentos de trabajo de la
teoría. La segunda razón es que las hipótesis pueden ser demostradas y pueden
demostrarse que son probablemente ciertas o probablemente falsas; los hechos
aislados no son probados, como dijimos anteriormente; sólo se prueban las
relaciones. Puesto que las hipótesis son proposiciones de la relación, ésta es
probablemente la principal razón de que se usen en la investigación científica.
Tercera, las hipótesis son poderosos instrumentos para el progreso de los
conocimientos, porque permiten al hombre salir de sí mismo. Aunque construidas
por el hombre, las hipótesis existen, pueden ser sometidas a prueba y puede
demostrarse que son probablemente correctas o incorrectas aparte de los valores y
las opiniones del hombre.
221

Tan importantes como las hipótesis son los problemas ocultos tras ellas. Como
señaló Dewey, la investigación generalmente comienza con un problema, con una
situación problemática. Dice Dewey que hay primero una situación indeterminada
en las que las ideas son vagas, se suscitan dudas y el pensador se muestra
perplejo. Agrega que el problema no es enunciado, realmente no puede ser
enunciado, hasta que uno ha experimentado tal situación indeterminada.

15. UTILIDAD E IMPORTANCIA

Virtudes de los Problemas y las Hipótesis


a) Dirigen la investigación. Las relaciones expresadas en las hipótesis dicen al
investigador,en realidad que ha de hacer. b); los problemas y las hipótesis, como
ordinariamente son expresiones de relación generalizada, permiten al investigador
deducir manifestaciones empírica-específicas inferidas de los problemas y las
hipótesis.

Hay importantes diferencias entre problemas e hipótesis. Estas últimas si se


expresan apropiadamente, pueden ser sometidas a prueba. Aunque una hipótesis
buena, pueden deducirse de ellas otras hipótesis demostrables. Los problemas y
las hipótesis hacen avanzar los conocimientos científicos ayudando al investigador
a confirmar o negar una teoría.

En resumen, el investigador que no supone una relación por anticipado no da a los


hechos la oportunidad de demostrar o negar algo. Si se compilan datos primeros y
luego se escoge un dato y se llega a una conclusión basándose en él, se han
violado las reglas del juego científico. Las hipótesis encarnan la teoría o parte de
ella, en forma demostrable o casi demostrable. Las hipótesis son entonces
importantes fuente entre la teoría y la investigación empírica.

Problemas, Valores y Definiciones


Para aclarar más la naturaleza de los problemas y las hipótesis, se expondrán
ahora dos o tres errores comunes. Primera, los problemas científicos no son
cuestiones normales y éticas.

Generalidad y Especificidad de Problemas e Hipótesis


Si el problema es muy general, suele ser demasiado vago y no puede ser
demostrado. Así, es científicamente inútil, aunque puede ser interesante leerlo.

El otro extremo es demasiado especificado. Todo estudiante ha piensa que es


necesario reducir los problemas a un tamaño práctico. Esto es cierto; pero por
desgracia, podemos también reducir el problema hasta suprimirle la existencia. En
general, cuanto más específico es el problema en la hipótesis, tanto más claras son
sus inferencias de demostración; pero la trivialidad puede ser el precio que
paguemos. Demasiada especificidad es quizá un peligro peor que demasiada
generalidad.

Definido el problema de investigación se asume como tarea inmediata la


formulación de la hipótesis. Estas son proposiciones tentativas que pretenden
explicar o resolver el problema. En este caso la hipótesis es un instrumento valioso
en el campo de la investigación científica en razón de que permite relacionar la
teoría con la observación de los hechos y viceversa (Gil y Alva, 1993)

ASPECTOS DE LOS PROBLEMAS A INVESTIGAR:


222

a) Descriptivo. f) Conflictivo.
b) Estructural. g) Evolutivo.
c) Funcional. h) Histórico.
d) Demográfico j) Genético.
e) Ecológico. k) Proyectivo.

Reflexión Científica
*Terremotos En base a: Conocimientos teóricos
*Destrucción de Ecosistemas Conocimientos empíricos
*Extinción de especies
*Destrucción de recursos naturales
*Crisis económica
*Deserción estudiantil USO DEL METODO CIENTIFICO
*Desempleo PROBLEMA CIENTIFICO
*Desnutrición
*Explosión demográfica
Contradicción entre lo conocido
y lo desconocido (Núcleo central
del problema de Investigación)
HECHOS REALES
OBJETIVOS
NO CIENTIFICOS

Hilo conductor del trabajo de investigación que conduce desde el


saber hacia el No saber

ES LA REFLEXION CIENTIFICA QUE EXPRESA LA CONTRADICCION


ENTRE EL SABER Y LA CONCIENCIA DEL NO SABER CUYA PRECISION
Y SOLUCION REQUIERE DE LA UTILIZACION DEL METODO CIENTIFICO

Observaciones Concluyentes Poder Especial de las Hipótesis

A veces, se oye decir que las hipótesis son innecesarias en la investigación, que se
las restringe innecesariamente a la imaginación investigadora, que la tarea y la
ciencia y la investigación científica es hallar cosas y no insistir en lo obvio, que las
hipótesis son obsoletas, etc. Tales afirmaciones son muy engañosas. Conciben
erróneamente el objetivo de las hipótesis.

Casi puede decirse que las hipótesis es el instrumento más poderoso que ha
inventado el hombre para alcanzar conocimientos fidedignos. El hombre observa un
fenómeno. Especula sobre las causas posibles. Naturalmente, su cultura tiene una
multitud de respuestas para explicar la mayor parte de los fenómenos, muchas
correctas, muchas incorrectas. Sus dudas son sistemáticas. Insiste en someter las
explicaciones de los fenómenos a prueba empírica controlada. Para lograrlo, debe
223

formular explicaciones susceptibles de prueba empírica controlada. Formula las


explicaciones en forma de teorías e hipótesis. El científico simplemente disciplina la
cuestión escribiendo hipótesis sistemática y comprobable. Si una explicación no
puede ser formulada en forma de una hipótesis comprobable puede ser
considerada entonces como una explicación metafísica y no susceptible de
investigación científica. Como tal, es negada por el científico como carente de
interés.

Sin embargo, el poder de las hipótesis va más allá de esto. Una hipótesis es una
predicción. Dice que si ocurre X, ocurrirá también Y. Las hipótesis son parte de las
reglas del juego. Aunque las hipótesis no sean confirmadas tienen poder; pero el
científico no puede distinguir lo positivo de lo negativo, a menos que use hipótesis.
Es posible conducir una investigación sin hipótesis, particularmente en las
investigaciones de exploración; pero es difícil concebir la ciencia moderna en toda
su rigurosa y disciplinada fertilidad sin la guía poderosa de las hipótesis.

OBJETIVOS

Definición
Son puntos de referencia que guían el desarrollo de la investigación y a cuya
consecución se dirigen todas las acciones. Son los móviles o propósitos de la
investigación que permiten orientar las actividades del investigador hacia la
ejecución de los mismos, prefigurando el enfoque epistémico - metodológico, el
proceso de análisis y la formulación de las hipótesis.

Los objetivos se establecen en coherencia con la selección y las limitaciones del


problema, con la finalidad de precisar la relación que deben tener con el título de la
investigación y la hipótesis de trabajo. Deben ser claros y precisos, a fin de ser
comprendidos no sólo por el investigador que los formula sino también por otras
224

personas. Su contenido determina el carácter de la investigación (básica o


aplicada) y las variables de la hipótesis.

Clases
Los objetivos se clasifican en:
Generales
Son los que persiguen propósitos últimos. El logro de estos objetivos es paulatino,
en algunos casos, no son detectados con facilidad. Su formulación responde a la
selección general del problema, por eso, las metas son cuantificadas o descritas
con mayor detenimiento.

Específicos
Son los que logran propósitos concretos. Establecen metas cualitativas
(descriptivas) y cuantitativas (físicas) en un determinado período de tiempo. Para el
establecimiento de dichas metas, estos objetivos deben tener tres elementos
distintivos:
a. La especificación de índole cualitativa y/o cuantitativa.
b. La fijación del tiempo o plazo en que serán alcanzados.
c. La decisión o voluntad de ejecutarlos en el lapso fijado.
Secuenciales
Son objetivos que sirven para alcanzar otros. Se dividen en intermedios y finales.
Los primeros logran propósitos que fluctúan entre los específicos y los finales y los
segundos, cumplen el papel de los fines. De estos objetivos se derivan los
específicos que representan el desglose de la finalidad en distintos aspectos del
problema de investigación.

Para plantear cualquiera de estos objetivos, el investigador tiene que formular


muchos de ellos y escoger los que más se adecuan a la naturaleza del objeto de
estudio. Cada objetivo, evalúa los propósitos a lograrse, considerando factores de
tiempo, recursos humanos y financieros, acceso a laboratorios y a distintas fuentes
bibliográficas. Para el efecto, deben ser precisos para evitar confusiones o posibles
desviaciones de las intenciones reales de la investigación, coherente con los
métodos, las técnicas y las estrategias consideradas para la ejecución del proyecto
y estar orientadas a:

i). Identificar los factores que condicionan la realidad.


ii) Jerarquizar las causas que originan el problema de investigación.
iii) Establecer un punto de referencias para evaluaciones de los cambios de
actitudes de la población y las implicancias en la estructura social.
iv) Lograr la comprobación de las hipótesis formuladas.
v) Obtener una base para la programación posterior de investigaciones de
trascendencia social.
vi) Ofrecer información para contribuir a la investigación de otros problemas.

Además de estas características generales, cada objetivo tiene las propias. Los
generales, tienen que ver con el desarrollo social, con las finalidades de la ciencia,
la tecnología y la filosofía en los términos más amplios, en consecuencia, tienen la
misma orientación. Los específicos indican de una manera concreta lo que se va a
investigar en un período de tiempo, por eso, siempre son de número reducido.

Objetivos de la investigación (Hernández 1991)


225

Una vez planteada la situación existente es posible definir más específicamente lo


que se piensa indagar .Se tendrá presente que una investigación posee dos tipos
de objetivos: unos internos, o propios de la investigación, los cuales expresan la
duda o las dudas que se espera despejar; y otros externos que se derivan de las
razones que originaron el estudio. Es obvio que son los primeros los que más
interesa formular.

EL MARCO TEORICO

CRITERIOS PARA SU ELABORACIÓN

Función de precisar y organizar ideas y conceptos contenidos en la


presentación y justificación del problema y convertirlos en acciones concretas.

El marco teórico se formula sobre la base de teorías que sustentan el


problema o de otras como políticas, pedagógicas, sociológicas y filosóficas.

El marco conceptual implica la definición de términos básicos y también


conceptos con significados específicos que necesitan darles acepciones distintas a
las de uso común, cuando se toma un término de un texto determinado se debe
226

utilizar las formas de citas adecuadas que más adelante se explican: Sin embargo
en algunas ocasiones el investigador se ve obligado a crear conceptos y
definiciones para explicitar términos que faciliten la lectura y comprensión de los
fenómenos que se estudian. Estos deben definirse cuidadosamente y de ser
posible operacionalmente.

El marco empírico debe ser congruente con los conocimientos


comprobados previamente y relacionados con el problema en estudio, datos que
generalmente son reportados en revistas.

Estos tres aspectos constituyen los antecedentes pues no existe campo del
conocimiento completamente nuevo por lo que se sugiere para elaborar esta
sección la revisión de la literatura en forma sistemática y racional empezando por
las obras más generales, recientes y sencillas y seguir hacia las más específicas,
antiguas y complejas.

En este aspecto se deben tomar en cuenta las formas de cita bibliográfica


usada para mencionar las referencias considerando reglas, estilos y sistemas. Las
reglas fundamentales son: i) enumerarse sólo obras y reportes importantes y
publicados, ii) cotejar todas las partes de cada referencia con las publicaciones
originales inclusive antes de presentar el manuscrito. En los estilos se debe
reconocer que hay gran variedad. Un ejemplo de ellos es el mencionado por
O’Connor que en 1978 en Estados Unidos revisó 53 revistas y encontró 33 estilos
diferentes.

Se consideran en este aspecto tres sistemas principales de citas


bibliográficas:

a. Sistema de nombre y año (Sistema Harvard): en él se escribe el


apellido del autor seguido del año de publicación entre paréntesis según los
ejemplos siguientes

Si se trata de un autor: Vásquez (1995); si el mismo autor en el mismo año


tiene mas de una publicación la cita seria del modo siguiente: Vásquez (1995a) y
Vásquez (1995b).
Si se refiere a dos autores; la cita sería del modo siguiente:

Vásquez y Romero (l995) agregándose las letras a, b ó c si se refiere a los


mismos autores que hayan reportado mas e una publicación en el mismo año.

Si se cita a tres autores en la primera vez se mencionan los apellidos


paternos de los dos primeros separados por coma y se cita el apellido del tercer
autor seguido del año de publicación entre paréntesis. Por ejemplo: Vásquez,
Romero y Díaz (l996) y si se les vuelve a citar se refiere el primer autor seguido de
el vocablo latino “et al”; por ejemplo:

Vásquez et al., (l996).


Si se cita a cuatro autores sólo se indica el apellido del primer autor seguido
de et al desde la primera vez, por ejemplo: Vásquez et al., (1997) considerando los
mismos criterios si se trata de mas de una publicación hecha en el mismo año.

b. SISTEMA NUMERICO ALFABETICO:


227

Los que usan este estilo deben citar el texto y al final del mismo indicar el
número entre paréntesis el mismo que debe coincidir con el orden que los autores
se reportan en referencias. Por ejemplo:

Ante la comprobada sobre mortalidad de las niñas en algunos países en


desarrollo, se han postulado dos grandes tipos de hipótesis para explicar el
fenómeno (20).

Si se quiere puntualizar o resaltar al autor o autores deben indicarse éstos


seguido del número entre paréntesis que le corresponde en referencias, por
ejemplo:

Con datos de la Encuesta Mundial de Fecundidad para ocho países, Maine


(25) estimó que en América Latina y el Caribe se puede prevenir un 33% de las
defunciones maternas evitando los embarazos no deseados.

Si se quiere resaltar el año de publicación se debe redactar el texto con las


consideraciones pertinentes seguidas del año de publicación y el número entre
paréntesis escrito al final del texto y que le corresponde en referencias, por ejemplo:

Con datos de la Encuesta Mundial de Fecundidad para ocho países, Maine


en 1991(25) estimó que en América Latina y el Caribe se puede prevenir un 33% de
las defunciones maternas evitando los embarazos no deseados.

c. SISTEMA DE ORDEN DE MENCION:

En este caso se deben citar las referencias por número según el orden en el
que se mencionan en el texto, es un sistema adecuado en publicaciones que tienen
pocas referencias o citas y la presentación no es alfabética al respecto es necesario
destacar que se han establecido requisitos uniformes para la preparación de
manuscritos que se proponen para escritos biomédicos. Este es conocido también
como el Sistema Vancouver. Y está de acuerdo con las normas ANSI (American
National Standars Institute)

En el campo de las ciencias Biomédicas existen muchas discrepancias, sin


embargo en el campo específico de las Ciencias Biológicas las reglas y estilos del
Council of Biology Editors Style Manual(1983) sugiere el sistema numérico
alfabético y se ratifica incluso en las ediciones de l983 y l987 hechas por Salvat
Editores(l987) en idioma Español.

Bibliografía
The Chicago Manual of Style(1982) que es la Biblia de la mayor parte de la
comunidad editoras de obras académicas sigue respaldando con claridad las citas
ordenadas alfabéticamente. La forma mas práctica y útil de ordenar las entradas de
una lista de referencias o de una bibliografía es seguir el orden alfabético por
autores ya sea en toda la lista o en cada una de sus secciones
.
Hutt (1986) en su obra Medical Style and Format se nuestra a favor del estilo
Filadelfia.

Practica 08: MARCO TEORICO


228

INTRODUCCION

El marco teórico proporciona el contexto para examinar un problema, es la


fundamentación científica. La formulación del marco teórico es un proceso que se
inicia simultáneamente al planteamiento del problema y de los objetivos, lo cual
significa sustentar debidamente el problema en un cuerpo de conocimientos. Esto
implica analizar y exponer aquellos elementos teóricos que se consideren
pertinentes para guiar la investigación, así como las ideas conceptos y experiencias
que tengan sobre el problema los investigadores.

Las enfermeras, como profesionales que utilizan la investigación, necesitan


aprender a apreciar de manera crítica las bases teóricas de la investigación. El
siguiente laboratorio tiene el propósito de ayudar en este proceso.

COMPETENCIA
Analiza de manera crítica el marco teórico que sustenta el problema científico
propuesto en el proyecto de investigación demostrando actitud de apertura al juicio
crítico.

CAPACIDADES
– Emite juicio crítico sobre el marco teórico que sustenta la investigación
propuesta.
– Emite juicio crítico sobre el marco conceptual del investigador expuesto en el
proyecto de investigación.
– Analiza el marco empírico que respalda la investigación propuesta.

ACTITUDES
– Respeta el punto de vista de los demás
– Trabaja en equipo demostrando responsabilidad

PROCEDIMIENTOS
1- Lectura silenciosa de material alcanzado.
2- Formar tres grupos de cuatro a cinco participantes y revisar según la asignación
del profesor la parte correspondiente en cada uno de los proyectos del grupo al
que pertenece.
- Sub grupo 1: Marco teórico.
- Sub grupo 2: Marco conceptual.
- Sub grupo 3: Marco empírico.--
3- En reunión a nivel de grupo compartir con los demás compañeros sus
conclusiones y sugerencias
229

HIPÓTESIS

Desde la perspectiva de Kerlinger (1975), la hipótesis es una expresión


conjetural de la relación entre dos o más variables. Las hipótesis aparecen siempre
en forma de oración afirmativa y relacionan, generalmente o específicamente,
variables con variables. Hay dos criterios para hipótesis “buenas” y expresiones
hipotéticas. Son idénticas a las de problemas; i) las hipótesis son expresiones de
las relaciones entre variables; ii) las hipótesis tienen claras inferencias para probar
las relaciones expresadas. Estos criterios significan entonces que las expresiones
hipotéticas contienen dos o más variables que son mensurables o potencialmente
mensurables o que especifican como se relacionan las variables. Una expresión
que carece de una u otra de estas características, o de ambas, no es hipótesis en el
sentido científico de la palabra.

Planteado el problema científico, la tarea siguiente es esbozar una


respuesta tentativa que permita obtener una solución adecuada y dentro de
contextos lógico-epistemológicos.

Desde los siglos XVII y XVIII, se ha debatido intensamente acerca del valor
de las hipótesis en el conocimiento científico y en esa época sólo se las evaluaba
230

desde un punto de vista estrictamente lógico como silogismo hipotético, En los


siglos XIX y XX su importancia aumentó pues se les atribuye la función de
facilitación; utilidad y practicabilidad en el conocimiento científico.

Desde el punto de vista epistemológico la palabra hipótesis, deriva de dos


voces griegas: hipo que significa bajo y tesis que significa posición y su
interpretación es que es una explicación supuesta que está bajo ciertos hechos a
los que sirve de soporte (Escalante, 1988). Desde el punto de vista genérico se
define hipótesis científica como una proposición general enunciada para responder
tentativamente a un problema (Pardinas 1973); es decir un a solución anticipada del
problema por lo tanto es solamente una conjetura que necesita ser comprobada por
medio de la experimentación. Desde otro punto de vista se define hipótesis como la
respuesta que da el investigador a la interrogante enunciada en su problema o para
explicar un fenómeno. La hipótesis es un enunciado conjetural, una proposición
provisional sobre la relación que hay entre dos o más variables o fenómenos.

Respuesta
¿  anticipada

PROBLEMA Hipótesis
CIENTIFICO Científica
FUENTES DE UNA HIPOTESIS CIENTIFICA:

1. Del conocimiento científico previo; es decir la teoría; toda hipótesis no


puede partir de suposiciones desligadas al conocimiento científico y debe fundar
sus respuestas tentativas con argumentos que articulen el conocimiento científico
existente. Por un proceso deductivo se llega a la predicción de que si estas
premisas son ciertas se darán determinados resultados.

2. De la observación de los hechos y sus relaciones; la ciencia es el


estudio de las realidades contrastables por la experiencia y si se toma en cuenta la
observación de hechos y se trata de establecer relaciones causa efecto, la
posibilidad de esbozar hipótesis a partir de estas relaciones es fundada si se abarca
científicamente.

3. De la observación empírica disponible, considerada la información


empírica como investigación experimental, ésta es una fuente confiable que
permitiría formular hipótesis sobre bases científicas y comprobadas de modo tal que
las proposiciones enunciadas sean confiables.

4. De los resultados de otros estudios donde se desee volver a


verificar; el conocimiento científico nunca se agota y el método científico es un
continuo planteamiento de problemas e hipótesis, los que basados en resultados ya
obtenidos someten su pretensión de verdad a verificación empírica.

FUNCIONES DE LAS HIPÓTESIS


231

1. ORIENTA LA INVESTIGACIÓN ; La hipótesis da una dirección determinada a


la investigación, concentra las actividades del investigador a la solución del
problema; es decir define una dirección en la investigación eliminando distorsiones
y el azar en el proceso de investigación científica.

2. DELIMITA LA INVESTIGACION; formulada correctamente la hipótesis el


investigador se concentra en fundamentarla y comprobarla dejando de lado
cualquier otra; señala los alcances y límites de la investigación científica.

3. PROPONE EL DISEÑO DE CONTRASTACION ; adecuadamente formulada la


hipótesis, el investigador orienta sus acciones a desarrollar métodos, técnicas y
procedimientos que permitan comprobarla con eficacia y validez.

4. ESTIMULA LA INVESTIGACIÓN; si la hipótesis planteada para resolver un


problema es aceptada y comprobada se transforma en una ley científica y orienta a
la obtención de nuevo conocimiento científico que servirá de fuente para la
formulación de nuevos problemas y si es rechazada dará lugar al planteamiento de
nuevas hipótesis; en ambos casos tanto para lo positivo como para lo negativo, el
investigador sería motivado para realizar nuevas y mejores investigaciones.

ELEMENTOS DE UNA HIPOTESIS


Los elementos estructurales de una hipótesis científica son:
1. UNIDADESDE ANALISIS; que pueden ser individuos, grupos, objetos,
instalaciones, etc.

2. VARIABLES, definidas como las características o propiedades cualitativas


o cuantitativas que presentan las unidades de análisis.

3. LOS ELEMENTOS LOGICOS; que relacionan las unidades de análisis con


las variables y éstas entre sí.

Dada la hipótesis:

Cuanto mayor es el uso de agroquímicos en los terrenos de cultivo de la


zona de Lambayeque; tanto mayor será la contaminación originada por los restos
de su degradación en los organismos vivos y en el ecosistema.
Las unidades de análisis son:
*Terrenos de cultivo de la zona de Lambayeque.
*Organismos vivos y el ecosistema

Las variables son:


*Factor causal (variable dependiente) : uso de agroquímicos
*Variable dependiente (Efecto) : contaminación por restos de agroquímicos.

Los términos lógicos son:


*Cuanto mayor es
*Tanto mayor será

CLASES DE HIPOTESIS:
1. SEGÚN SUS RELACIONES:

1.1.Hipótesis inductivas:; cuando se formulan a partir de relaciones


observadas entre las características de una realidad.
232

Ejemplo: Los niños que han recibido instrucción preescolar alcanzarán un


nivel más alto en el primer grado que aquellos que no han recibido instrucción
preescolar.

1.2. Hipótesis deductivas; cuando una hipótesis se formula a partir de una


teoría científica:
Ejemplo

2. SEGÚN SU FUNCION

2.1. HIPOTESIS DESCRIPTIVAS; aquellas referidas a la existencia, la


estructura, el funcionamiento, las relaciones y los cambios de ciertos fenómenos.

Ejemplo:

2.2. HIPOTESIS EXPLICATIVAS; son suposiciones tentativas acerca de los


factores que serían tentativas acerca de los factores que serían la causa de los
fenómenos estudiados.

Ejemplo:

HIPOTESIS

PROBLEMA HIPOTESIS
(La pregunta) (Suposición
Probable)

MARCO TEORICO
Informacion empirica

1. Forma de desarrollo de las ciencias


(Provisional pero probable)
233

2. Respuesta probable frente al problema científico

*0 Sistema de conocimientos de carácter complejo y sintético

 Tiene como fundamento el conocimiento científico

 Tiene como núcleo central a la suposición

Origen:

1. En el mismo planteamiento del problema

2. Antes es una conjetura (suposición inicial todavía no investigada)


(Eslabón importante en el proceso de Investigación)

3. Se perfila y desprende del marco teórico.

Componentes:

1. Conocimientos verdaderos (Conocimientos científicos verificados o


fidedignos), bases para la hipótesis ; pero no su esencia)

2. Conocimientos probables (fundamentada en el conocimiento científico


pero NUEVO)

3. La suposición, articula los conocimientos científicos con los


conocimientos probables considerada el Alma de la Hipótesis

CONOCIMIENTOS
PROBABLES
(NUEVOS)

SUPOSICION HIPOTESIS
234

CONOCIMIENTOS VERDADEROS
(CIENTIFICOS, PROBADOS Y
FIDEDIGNOS)

EVALUACION DE LAS HIPOTESIS

En este aspecto se debe evaluar si realmente la sistematización de las


hipótesis obedece a criterios esbozados por autores de reputación tales como
Kopnín (1966) que señala que las hipótesis constituyen el camino indispensable
para el descubrimiento de las leyes, para la creación de teorías fidedignas.

La mayoría de concepciones sobre la hipótesis es que es una respuesta


probable frente al problema o una solución adelantada que se hace sobre la base
de conocimientos teóricos y empíricos de carácter complejo y sistemático que se
organiza especialmente para explicar el problema que se investiga y que es núcleo
central de la suposición.

Se debe considerar además que las hipótesis tienen su nacimiento con el


mismo planteamiento del problema. Moya (1994) afirma que: el comienzo de lo
nuevo aún desconocido en el problema significa que él señala la dirección hacia la
cual apuntará la investigación para encontrar el nuevo conocimiento que se busca
y su entorno. Igualmente se resalta de la literatura que el conocimiento probable
antes de ser hipótesis es una conjetura; es decir cuando el investigador lanza su
primera respuesta frente al problema planteado aún sin argumentaciones
teóricas ni empíricas, es decir una suposición inicial, cuyos fundamentos teóricos y
empíricos aún no se conocen, sin embargo se debe considerar que este es un
eslabón importante en el proceso de la investigación mas adelante a medida de que
se nutre de l conocimiento científico teórico y empírico se llega a la formulación de
la hipótesis de investigación.
235

De lo expuesto anteriormente se afirma que la hipótesis se perfila y


desprende del marco teórico ya que éste le da el soporte necesario y el encuadre a
la suposición y por otro enunciar una explicación probable a la exigencia de la
interrogante algunos autores consideran que los conocimientos de las hipótesis: los
conocimientos verdaderos; los conocimientos probables y la suposición
conllevan a definir que la suposición es considerada como el alma de las
hipótesis.

Es indudable que existe una estrecha correlación entre hipótesis y problema


generalizándose que se integran en un sistema, una totalidad y que en el proceso
de investigación se establece una lógica de hipótesis a problema.

En esta fase se debe evaluar si el planteamiento de la hipótesis se hace


sobre la base de su fundamentación teórica y empírica como una respuesta
probable al problema y considerar los criterios siguientes:

1. Que la respuesta probable al problema sea precisa; es decir relevar,


poner en primer plano, a la suposición que originará la hipótesis.

2. Que sea científicamente fundada, es decir, garantizada por suficientes


conocimientos teóricos y empíricos

3. Que sea factible de comprobación o verificación

4. Que establezca relaciones entre variables.

5 Que sea lógicamente coherente con el conjunto del proyecto,


particularmente, con el problema y el marco teórico, lo que se obtiene en la práctica
verificando que la hipótesis responda al problema; que las ideas contenidas en ellas
no sean contradictorias.

6. Que los enunciados sean claros y precisos con el uso adecuado del
lenguaje científico.

Es importante además identificar las variables del objeto en estudio y en


una investigación de tipo experimental considerar que la variable independiente
es la causa, es el estímulo; y es aquella que el investigador puede controlar o
manipular en función de lo que pretende obtener como resultado exacto y confiable
(VICAES) y que en el enunciado de la hipótesis constituye el sujeto de la oración,
igualmente identificar la variable dependiente considerada como el efecto de la
variación de la variable independiente (VADEF) y que en el enunciado es el
predicado o el criterio

En este mismo proceso identificar las variables intervinientes las que deben
ser controladas para “evitar”su acción en el experimento. De una adecuada
identificación de las variables dependerá su operacionalización y por lo tanto la
selección de los indicadores pertinentes.

Por un proceso deductivo seleccionar las consecuencias lógicas permitirá


establecer un diseño lógico adecuado y posteriormente un diseño experimental de
acuerdo a los criterios expuestos por Campbell y Stanley(1979); Sánchez y
Reyes(l987); Goode y Hatt(1986) y otros que definan adecuadamente el proceso de
236

contrastación de las hipótesis en términos de fácil comprensión y explicación que


posteriormente permitirá establecer todo el diseño metodológico.

“Los tiempos son tres: Presente de las cosas


asadas, presente de las cosas presentes y
presente de las cosas futuras”
San Agustín

DISEÑOS DE CONTRASTACION DE HIPOTESIS


EN INVESTIGACIÓN CIENTÍFICA
Como conductores de trabajos de investigación y de la enseñanza de Metodología
de Investigación Científica para estudiantes y profesores, con frecuencia nos hemos
encontrado con situaciones de no identificar el tipo de investigación que estaban
desarrollando constituyendo una traba para la planificación del Proyecto de
Investigación, particularmente en sus aspectos de Hipótesis y el correspondiente
Diseño de Contrastación de la Hipótesis.

En tal sentido, frente a esta situación se ha desarrollado el presente documento que


tiene por finalidad informar sobre los diferentes DELINEAMIENTOS
EXPERIMENTALES, que se pueden aplicar en la formulación del Proyecto de
Investigación. Para el efecto se presentan los esquemas presentados por Sánchez
y Reyes (1985), Ary, Jacobs Y Razavich (1982) y, Goode y Hatt (1986); los mismos
que esencialmente están basados en Campbell y Stanley (1979), teniendo en
cuenta sus consideraciones originales, a fin de que cada investigador pueda elegir
el más apropiado de acuerdo a sus necesidades, pero garantizando su validez
interna y generalización de su esquema.
237

El presente acapite no pretende ser un recetario dogmático; sino un orientador en el


sentido de que la buena investigación depende de la agudeza, invención y
perspicacia del investigador. Así pues en algunas ocasiones se podrán aplicar una
mezcla de delineamientos, no coartando la originalidad y libertad de pensamiento
del investigador; también cada investigador, dentro de las normas de buen sentido y
de los principios de coherencia, podrá diseñar su propio modelo, surgido más por el
problema estudiado o por el contexto en que se halla inmerso, que de los criterios
apriorísticos.

Esperamos una crítica constructiva para mejorar el documento, a pesar de que hay
un grupo de casta estéril de científicos hipercríticos que, además de no producir
nada en el campo de la Metodología de la Investigación Científica, se mantienen en
un estado insomne a la espera de que, al surgir cualquier trabajo, le pueda sacar
algún desaire.
238

DISEÑOS DE INVESTIGACIÓN
DISEÑO es una estructura u organización esquemática que adopta el investigador
para relacionar y controlar las variables de estudio; cuyo objetivo es imponer
restricciones controladas a las observaciones de los fenómenos.
Implica pasos que se deben seguir en la solución de problemas para poder
encontrar las posibles soluciones del mismo. Cumple dos funciones básicas y
prioritarias:
1. Permite hacer las comparaciones necesarias requeridas para las hipótesis de la
investigació
2. Capacita al investigador a través del análisis estadístico de los datos, para hacer
las interpretaciones significativas con relación a los resultados del estudio.

1. DISEÑOS DESCRIPTIVOS
No se pueden considerar propiamente diseños; pero pueden ser tratados como
tales porque proporcionan al investigador guías u orientaciones para la realización
de un determinado estudio. No se presenta la administración o control de un
tratamiento. Se corresponden con el tipo de Investigación Descriptiva.
INVESTIGACIÓN DESCRIPTIVA SIMPLE
Se busca y recoge información respecto a una situación previamente determinada
(objeto de estudio). No se supone la influencia de variables extrañas, obteniéndose
solamente la información que proporciona la situación. El diagrama o esquema del
diseño puede ser:
M O M= muestra con quien se va a realizar el estudio.
O= información relevante o de interés que se recoge de la
muestra.

INVESTIGACIÓN DESCRIPTIVA COMPARATIVA


Se buscan de varias muestras con respecto al mismo fenómeno y luego se
caracteriza a este fenómeno en base a la comparación de los datos recogidos,
en la totalidad de ellos en alguna categoría.
M1 O2 M1 M2 M3 = cada una de las muestras
M2 O3 O1 O2 O3 = Información (observación) recolectada en
cada muestra.
M3 O3 O1= O2 = O3 Comparaciones en cada una de las muestras.
239

INVESTIGACIÓN CORRELACIONAL
Está interesada en la determinación del grado de relación entre dos o más
variables de interés en una misma muestra o el grado de relación entre dos
fenómenos observados.

INVESTIGACIÓN CAUSAL COMPARATIVA


Se recolecta información de dos o más muestras con el propósito de observar el
comportamiento de una variable, tratando de controlar estadísticamente otras
que pueden afectar la variable estudiada 8variable dependiente).
M1 O1X M1 y M2 = muestras
x = variable controlada estadísticamente
M2 O2X O1 y O2 = observaciones o mediciones realizadas.

INVESTIGACIÓN LONGITUDINAL
Se toma una muestra de sujetos la misma es evaluada en distintos momentos
en el tiempo y por un periodo bastante largo.

INVESTIGACIÓN TRANSVERSAL
Estudia a los sujetos de diferentes características (edades) en un mismo
momento.

2. DISEÑOS EX – POST FACTO


También hace referencia a un tipo de investigación en el cual el investigador no
introduce ninguna variable experimental en la situación que desea estudiar. Por el
contrario solo examina los efectos que tiene una variable que ha actuado u ocurrido
de manera normal u ordinaria. Tampoco se presenta la administración o control de
un tratamiento, sino se asume que la variable independiente ya ha actuado u
ocurrido, limitándose a señalar las posibles relaciones con (efectos sobre) la
variable dependiente. Se genera cuando se trata de responder a interrogantes:
¿Cuál es el factor contribuyente en una determinada situación?, ¿Qué efecto tuvo o
ha tenido un determinado factor en los organismos?, ¿Cuáles son las
características que distinguen a un grupo de otro? Estos diseños también se
corresponden con el tipo de Investigación Descriptiva.

DISEÑO CO – RELACIONAL:
240

Implica la recolección de conjuntos de datos de dos o más grupos de sujetos


con la intención de determinar la subsiguiente relación entre los conjuntos de
datos.
O1 O2 O1 = conjunto de datos observado de un grupo.
O2 = conjunto de datos observados del otro grupo.

DISEÑO DE GRUPO CRITERIO


Se utiliza cuando se está interesado en la operación de hipótesis que es lo que
causa o produce una condición o estado peculiar. A menudo se inicia con la
contrastación de un estado que se opone al estudiado.
(X) O1 (X) = variable experimental no manipulable.
O2 O1, O1 = conjunto de datos observados de uno y otro
grupo.

3. DISEÑOS EXPERIMENTALES
Es un tipo de investigación en el cual el investigador introduce alguna variable
experimental en la situación que desea estudiar; la variable independiente es
manipulable, es decir que puede ser introducida en una situación y observar sus
variaciones. El experimento es el método de investigación más refinado con que se
verifican las hipótesis. Los diseños experimentales son univariados.
X = tratamiento experimenta (variable independiente)
O = observación o medición
A = factores de selección controlados por aleatorización
----- = grupos intactos, control incompleto del sesgo o influencia del factor de
selección
X1, X2, X3 = tratamiento experimental 1, 2, 3.
O1, O2, O3 = observación o medición 1, 2, 3.
Ap = grupos seleccionados por apareamiento

3.1 DISEÑOS PRE - EXPERIMENTALES


No tienen la capacidad de controlar adecuadamente los factores que
influyen contra la validez interna y validez externa.

3.1.1 Diseño de un solo grupo después:


241

Se aplica un tratamiento a un grupo y luego se hace la observación en los


sujetos que componen el grupo, con el fin de evaluar los efectos del tratamiento.
Falta grupo control.
X O
3.1.2 Diseño de Pre – Test y Post – Test con un solo grupo:
No usa grupo control. Implica la realización de tres fases:
- Una medición previa de la variable a ser estudiada
- Introducción de la variable experimental a los sujetos
- Una nueva medición de la variable.
O1 X O2
3.1.3 Diseño de comparación de grupos solo después:
Hace uso de un control, el mismo que no recibe el tratamiento experimental.
Los grupos que intervienen no son seleccionados, pues ya están formados.
X O1
---------------
O2

3.2 DISEÑOS CUASI EXPERIMENTALES


Controlan algunas, aunque no todas, las fuentes que amenazan la validez.
Son más adecuados que los Diseños Pre - Experimentales. Se emplean en
situaciones en las que es difícil o casi imposible el control experimental riguroso.

3.2.1 Diseño de Series de Tiempo


Se realizan mediciones periódicas de la variable dependiente en un solo
grupo, antes de la aplicación de la variable independiente, y luego de dicha
aplicación se efectúan nuevas mediciones.
O1 O2 O3 O4 X O5 O6 O7 O8

3.2.2 Diseño de Muestras Equivalente en el Tiempo


Similar al diseño anterior. La variable experimental se aplica varias veces al
grupo y su aplicación se alterna con períodos de aplicación.

X1 o1 XO O2 X1 O3 XO O4

3.2.3 Diseño con Grupo Control no equivalentes:


242

Se aplica cuando se tiene dos grupos formados. Se evalúa la variable


dependiente en ambos, luego a uno de ellos se aplica el tratamiento experimental y
el otro sigue las tareas de rutina.
O1 X O2
---------------------
O3 O4

3.2.4 Diseño Contrabalanceado:


Se aplica también cuando los grupos están formados, pero todos los sujetos de cada grupo
pasan por las mismas condiciones experimentales, aunque en distinta secuencia.
Replicaciones X1 X2 X3 X4
1 Grupo A B C D
2 Grupo C A D B
3 Grupo B D A C
4 Grupo D C B A
MEDIA MEDIA MEDIA MEDIA

3.2.5 Diseño de Muestras Separadas


Es la repetición, por dos veces, del diseño pre – experimental de un solo
grupo antes y después. Se produce porque la variable independiente no se puede
aplicar a todos los sujetos al mismo tiempo.
O1 X O2
-----------------------------------------
O3 X O4

3.2.6 Diseño Arreglado:


Resulta de la combinación de diseños pre- experimentales, ninguno de los cuales
por si mismos son adecuados para la investigación, pero que combinados pueden
satisfacer ciertos requerimientos.
GRUPO A X O1
------------------------------
GRUPO B O2 X O3

3.3 DISEÑOS EXPERIMENTALES PROPIAMENTE DICHOS


Proporcionan el control adecuado el control adecuado de las posibles fuentes que
atentan contra la validez interna. Variable experimental €, Grupo Control ©
243

3.3.1 Diseño de Grupo Control sólo después:


Requiere de dos grupos de sujetos que previamente han sido seleccionados
aleatoriamente a cada uno de ellos. Después de proceder a aplicar el tratamiento a
uno de los grupos, se evalúa a ambos.
E A X O1
C A O2

3.3.2 Diseño de dos grupos apareados sólo después:


E proceso de selección se realiza a través del apareamiento. El tratamiento
es aplicado a cada uno de los sujetos del grupo experimental y luego se procede a
evaluar la variable a ambos.
E Ap X O1
C Ap O2

3.3.3 Diseño de dos grupos Pre y Post Test:


La selección de los sujetos para cada grupo se realiza en forma aleatoria. La
variable dependiente es medida antes y después de la aplicación del tratamiento.
E A O1 X O2
C A O3 O4

3.3.4 Diseño de cuatro grupos de Solomón:


La selección de los sujetos es aleatoria. Al primer y segundo grupo se les efectúa
una medición antes de la aplicación del tratamiento, al tercer y cuarto grupo solo
después de la aplicación:
C A O1 X O2
E1 A O3 O4
E2 A X O5
E3 A X O6

3.4. DISEÑOS FACTORIALES


Estudia el efecto simultáneo de diversas variables (factores) en una misma
situación. Se manipulan en forma simultánea dos o más variables independientes, a
fin de analizar su efecto independiente que cada una de ellas produce en la variable
dependiente, así como los efectos conjuntos debido a las interacciones entre las
244

diversas variables; en este sentido estos diseños experimentales factoriales son bi y


multivariados.

3.4.1. DISEÑO FACTORIAL SIMPLE:


Es un diseño que tiene dos variables independientes y en donde cada variable tiene
dos valores o condiciones (niveles), cada una de las cuales se combinan: 2 x 2.
Variable experimental X1
VARIABLE ATRIBUTIVA X2 TRATAMIENTO A TRATAMIENTO B
Nivel 1 Celda 1 Celda 3
Nivel 2 Celda 2 Celda 4
3.4.2. OTROS DISEÑOS FACTORIALES:
Pueden ser construidos teniendo en cuenta el número de variables y el número de
categorías de cada uno de ellos. En un diseño factorial 2 x 3 x 4 hay tres variables
independientes con dos, tres y cuatro niveles respectivamente.

MÉTODOS DE INVESTIGACIÓN

1. INVESTIGACIÓN EXPERIMENTAL
Los EXPERIMENTOS constituyen la forma más rigurosa y más deseable de la
INVESTIGACIÓN CIENTÍFICA. El control es la esencia del Método Experimental.
Las condiciones controladas que caracterizan al experimento permiten identificar
relaciones funcionales y verificas entre los fenómenos que interesan a los
investigadores. Cuando se controlan las condiciones en que ocurre un evento se
tiene ventajas notables sobre los observadores, quienes se limitan a contemplar o
estudiar un fenómeno sin controlarlo; así, a) Pueden manipular o alterar las
condiciones de manera sistemática y anotar la variación en los resultados, b)
Disponen de los medios para hacer que acontezca un evento en un momento en el
que estén preparados para realizar observaciones y mediciones exactas. c) Pueden
repetir sus observaciones las mismas condiciones, lo cual les permite identificarlas
245

y además describirlas de manera que otros las apliquen y comprueben los


resultados. Sin embargo aunque la experimentación es la forma ideal de resolver
los problemas de los investigadores, se debe reconocer que hay muchas preguntas
importantes que no pueden resolverlas a través de ella; por lo que hacen falta otros
tipos de investigación.

1.1. DISEÑOS PREEXPERIMENTALES


Proporcionan un escaso control o nulo de las variables extrañas que influyen
contra la validez(1) interna(2) y validez externa(3)

1.1.1. DISEÑO DE UN GRUPO, CON PREPRUEBA Y POTPRUEBA


1.1.2. DISEÑO ESTATICO, DE DOS GRUPOS

1.2. DISEÑOS EXPERIMENTALES VERDADEROS


Son los más recomendables para la investigación debido al control que
proporcionan
1.2.1. DISEÑO DE DOS GRUPOS, ALEATORIZADOS Y SOLO CON
POSPRUEBA.
1.2.2. DISEÑO DE DOS GRUPOS APAREADOS ALEATORIAMENTE Y SOLO
CON POST PRUEBA
1.2.3. DISEÑO CON PREPRUEBA Y POSPRUEBA CON DOS GRUPOS
ALEATORIZADOS
1.2.4. DISEÑOS DE TRES GRUPOS DE SOLOMON
1.2.5. DISEÑO DE CUATRO GRUPOS CON SOLOMON

1.3. DISEÑOS FACTORIALES


Son aquellos en los que se manipulan simultáneamente dos o más variables
con el propósito de estudiar el efecto independiente que cada variable produce
en la variable dependiente; así como los efectos debido a interacciones entre
las diversas variables.
1.3.1. DISEÑO FACTORIAL SIMPLE
1.3.2. OTROS DISEÑOS FACTORIALES

1.4. DISEÑOS CUASI EXPERIMENTALES.


No brindan un control experimental absoluto; por lo que el investigador debe
conocer las variables que pueden ser controladas en forma absoluta; las
246

fuentes de invalidez tanto externa como interna y tomarlas en cuenta al hacer


las interpretaciones.
1.4.1. DISEÑO CON PRE Y POSTPRUEBA, CON GRUPO CONTROL NO
ALEATORIO
1.4.2. DISEÑO CONTRAEQUILIBRADO
1.4.3. DISEÑO DE SERIES TEMPORALES CON UN GRUPO
1.4.4. DISEÑO DE SERIES TEMPORALES CON GRUPO CONTROL.

2. INVESTIGACION EX – POST- FACTO


El diseño EX POST FACTO se utiliza cuando los investigadores no están en
condiciones de probar la hipótesis, asignando sujetos a diferentes condiciones en
que puede manipularse directamente la variable independiente. Cuando se desea
investigar la influencia de variables como el ambiente, la parasitosis, educación
sanitaria, ambiente familiar, conducta, etc., a estas variables se les denominan
ATRIBUTIVAS y designan una característica que el sujeto posee; al contrario una
variable ACTIVA es la que se puede manipular directamente. Cuando en una
investigación intervengan variables independientes activas se emplea la
investigación experimental, en tanto que si son atributivas debe recurrirse a una
INVESTIGACIÓN EX POST FACTO, (DEL LATÍN CON POSTERIORIDAD AL
HECHO). Los investigadores logran la variación que desean, no por manipulación
directa de la variable, sino seleccionando a los individuos en que la variable está
presente o ausente.
Investigación sistemática empírica, en la cual el científico no tiene control
directo sobre las variables independientes, porque ya acontecieron sus
manifestaciones o por ser intrínsicamente. Se hacen inferencias sobre las
relaciones de ellas, sin intervención directa, a partir de la variación
concomitante de variables independientes y dependientes. (1)
Considera solamente el DISEÑO GRUPO CRITERIO:
3. INVESTIGACIÓN DESCRIPTIVA
Los métodos de investigación descriptiva sirven para obtener información
acerca de las condiciones existentes del estado actual de los fenómenos;
pretende precisar la naturaleza de una situación tal como existe en el momento
del estudio; así el objetivo es “describir lo que existe” con respecto a las
variaciones o las condiciones de una situación. Casi nunca busca la
247

comprobación de hipótesis. Tiene amplia aplicación en ciencias naturales y en


el campo educativo.
3.1. ESTUDIO DE CASOS
Es una investigación exhaustiva sobre un individuo, una familia, una
comunidad, una población. Se preocupa de averiguar porque hace alguna cosa
y en que forma cambia el comportamiento cuando el individuo responde al
medio ambiente. Aún cuando alcanza profundidad, siempre carecen de de
amplitud; aportan información sobre individuos excepcionales y no sobre
individuos representativos, su mayor utilidad no es como instrumento de
comprobación de hipótesis sino de la generación de ellas.

3.2. ENCUESTAS
Una encuesta recoge datos más o menos limitados a través de un número
relativamente extenso de casos, su finalidad es conseguir información sobre las
variables y no sobre los individuos. Intentan medir lo que existe sin preguntar
porque existe. Las preguntas de una encuesta deben suelen diseñarse para
proporcionar información acerca de las variables y no para relacionarlas
variables entre si; aunque la información puede señalar relaciones entre
variables. La encuesta que cubra la población entera del estudio se llama
censo; la que estudia sólo una parte se denomina encuesta muestral.

3.3 ESTUDIO DE TIPO EVOLUTIVO

Obtiene información confiable de cómo son los individuos en diferentes


etapas de su vida; en sus diversas características y la manera en que cambian los
rasgos con el crecimiento.

3.3.1 METODO LONGITUDINAL:

Estudia la misma muestra de individuos durante un lapso prolongado.

3.3.2 METODO DE MUESTRAS REPRESENTATIVAS (TRANSVERSAL):

Estudia individuos de diversos niveles de edad en el mismo punto del


tiempo.

3.4.1 ESTUDIOS DE SEGUIMIENTO:


248

Similar al método longitudinal se trata de investigar el desarrollo


subsecuente de los individuos después de un tratamiento o de una condición
determinados.

3.5. ANALISIS DOCUMENTALES

Orientados al examen de archivos y documentos

DISEÑOS DE CONTRASTACIOND E HIPOTESIS


(GOODE Y HATT, 1986)
1. DISEÑO DE UNA SOLA CASILLA
Usa un solo grupo con carácter de “experimental”: el investigador observa y
describe el comportamiento del grupo para luego informar. Es de carácter
retrospectivo y es el diseño apropiado para los problemas de identificación y
descripción; sus resultados son validos para formular, a partir de ellos,
nuevos problemas de tipo explicativo

Observaciones
en el grupo

Ejemplos:
1. descripción morfológica (forma, tamaño, estructura) de las células de la
mucosa labial
2. Identificación de los componentes de la cadena alimenticia en un
determinado ecosistema
3. Identificación de las c bacterias componente s de la flora normal de
Casmerodius albus egreta.
4. Determinación de las características morfoanatómicas de Ananas
comosus

2. DISEÑO EN LINEA O SUCESION


Requiere de un solo grupo en calidad de grupo experimental y las conclusiones
se establecen por comparación entre la situación antes de la aplicación de la
variable estímulo

Selección del grupo Observaciones ANTES


OBSERVACIONES
Experimental DEL ESTIMULO DESPUES
DEL
ESTIMULO
ESTIMULO
249

A A1 A2

3. DISEÑO CLASICO

Es el diseño típico en los experimentos; es de carácter prospectivo, requiere


grupos pareados; uno como grupo experimental y otro como grupo testigo. el
grupo experimental recibe la influencia de la variable independiente y el grupo
testigo o blanco no la recibe (estimulo nulo)

ANTES DESPUES

ESTIMULO
GRUPO A A’
EXPERIMENTAL

NO ESTIMULO

GRUPO
B’
TESTIGO B

Comparaciones: A vs B
A vs A’
B vs B’

4. DISEÑO CON GRUPOS DIFERENTES


Emplea dos grupos experimentales que reciben el mismo estimulo pero en
tiempos diferentes y a veces hasta en ambientes diferentes; es de carácter
prospectivo

TIEMPO 1
ESTIMULO

Z
TIEMPO 2

X
ESTIMULO

Z: Grupo de individuos franceses portadores del VIH en 2005


250

X: Grupo de pobladores brasileños portadores del VIH estudiados en 2006

5. DISEÑO CON DOS GRUPOS DESPUES


Es una variación del diseño clásico en la que se hacen solo dos observaciones,
ambas después de la aplicación del estimulo desconociéndose la situación
“antes” tanto del grupo experimental como del grupo testigo. Ninguno de los dos
grupos recibe estímulo alguno por parte del investigador; pues tanto la variable
independiente como el estimulo nulo (placebo) ya han sido aplicados sin la
coordinación del investigador; desconociéndose la situación “antes”. >Las
conclusiones se derivan de la comparación entre los resultados del grupo
experimental con el grupo testigo. Es un tipo de diseño retrospectivo

ANTES DESPUES

ESTIMULO
GRUPO X X’
EXPERIMENTAL

NO ESTIMULO

GRUPO
Z’
TESTIGO Z

Comparaciones: X’ vs Z’

6. DISEÑO CON ESTIMULO CRECIENTE


Es una variación del diseño clásico en la que se usan varios grupos
idénticos que servirán de grupos experimentales y testigo. La variable
independiente (estimulo) se aplican en dosis o por espacios de tiempo diferentes de
modo creciente; el grupo testigo no recibe estimulo. Las conclusiones se obtienen
por comparaciones entre los grupos experimentales y entre estos con el grupo
testigo

ESTIMULO

ANTES DESPUES

GRUPO TESTIGO Y ESTIMULO NULO Y’


251

GRUPO EXPERIMENTAL 1 Z1 2X Z1’

GRUPO EXPERIMENTAL 2 Z2 4X Z2’

GRUPO EXPERIMENTAL 3 Z3 8X Z3’

Ejemplo:

Y: grupo de conejos a los que no se oaplico tratamiento o se le dio un


placebo

Z1; Z2, Z3, Grupos de conejos a los que se se inocularán cepas de


Clostridium botulinum en concentraciones de progresión
creciente.

DISEÑOS DE CONTRASTACION DE HIPOTESIS


(Hernández et al., 1994)
Los Diseños de Investigación no Experimental o Ex Post Facto, nos sirve de
guía para tener una idea aproximada en lo que respecta a todos los aspectos que
se relacionen con ella y en este acápite, se trata los Diseños de Investigación no
Experimental o Ex Post Facto, como parte de la Investigación no experimental.

La Investigación no experimental es tratada bajo cinco aspectos. En el


primero apreciamos una definición básica de la investigación no experimental, así
como la relación entre la causualidad y la Investigación, ya que la causalidad
resulta ser parte importante en una investigación de este tipo. El segundo, nos
sirve para comprender lo que son los diseños ex post facto enfocando cuando
debemos usar este tipo de diseños y cuales son, ejemplificando para un mejor
entendimiento. El tercero, evalúa la investigación no experimental, dando a
conocer sus limitaciones y el valor de la misma. El cuarto, hace una comparación
entre la investigación no experimental y la experimental, para así ver las diferencias
y semejanzas entre estas y el último relaciona el tipo de estudio, la hipótesis y el
diseño de la investigación.

De lo expuesto anteriormente se puede deducir la importancia de este tipo


de investigación y por lo tanto de los diseños; la que radica en pro porcionar los
conocimientos teóricos básicos para un mejor entendimiento de los diseños ex post
facto o no experimentales.
252

La Investigación no experimental del tipo ex post facto es la que se realiza


sin manipular debidamente las variables independientes, se basa en variables que
ya ocurrieron o se dieron en la realidades sin la intervención directa del
investigador. Es un enfoque retrospectivo.

La investigación no experimental es conocida también como investigación ex post


facto (los hechos variables ya ocurrieron) y observa variables y relaciones entre
estas en su contexto natural.

Los diseños no experimentales se dividen de la siguiente manera:

Descriptivo
Transeccionales
Correlacionales/
Causales

Diseños no
Experimentales

De tendencia

Longitudinales De análisis
evolutivo
de grupo
Panel

La investigación no experimental posee un control menos riguroso que la


experimental y en aquella es más complicado inferir relaciones causales. Pero la
investigación no experimental es más natural y cercana a la realidad cotidiana.

El tipo de diseño a elegir se encuentra condicionado por el problema a


investigar, el contexto que rodea a la investigación, el tipo de estudio a efectuar y
las hipótesis formuladas.

1. INVESTIGACION NO EXPERIMENTAL.
1.1. ¿Qué Es la investigación ex post facto o no experimental?
Es la que se realiza sin manipular deliberadamente variables. Es decir, se
trata de investigación donde no hacemos variar intencionalmente las variables
independientes. Lo que hacemos en la investigación no experimental es observar
fenómenos tal y como se da en el contexto natural, para después analizarlos.
Como señala Kerlinger (1979, p. 116): La investigación no experimental o ex post-
facto es cualquier investigación en la que resulta imposible manipular variables o
asignar aleatoriamente a los sujetos o las condiciones de hecho, no hay
condiciones o estímulos a los cuales se expongan los sujetos de estudio. Los
sujetos son observados en un ambiente natural, en su realidad.
253

En un experimento, el investigador construye deliberadamente una situación


a la que son expuestos varios individuos. Esta situación consiste en recibir un
tratamiento, condición o estímulos bajo determinadas circunstancias, para después
realizar los efectos de la exposición o aplicación de dicho tratamiento o condición.
Por decirlo de alguna manera, en un experimento se “construye” una realidad.

En cambio en un estudio no experimental no se construye ninguna situación,


si no que se observan situaciones ya existentes, no provocadas intencionalmente
por el investigador. En la investigación no experimental las variables independientes
ya han ocurrido y no pueden ser manipuladas, el investigador no tiene control
directo sobre dichas variables, no pueden influir sobre ellas porque ya sucedieron,
al igual que sus efectos.

1.2. CASUALIDAD E INVESTIGACION CIENTIFICA


Se ha realizado y continúa haciéndose mucho trabajo, especialmente en
sociología, para el estudio y análisis de relaciones causales en investigación ex
post facto. Uno de los enfoques principales ha sido lo que se conoce como análisis
de trayectoria, cuyo objeto es estudiar y probar hipótesis alternativas o variables
independientes alternativas, y ayudar a establecer conexiones e inherencias
causales. Una buena obra de consulta es la Blalock, que examina esta toma difícil
en profundidad. Sin un conocimiento substancial del análisis de regresión múltiple –
más allá del tratamiento del tema en este texto – no es posible seguir las
exposiciones de Blalock y otros. Para el estudiante avanzado ciertamente deseará
estar al tanto de los progresos.

La posición adecuada en este libro es que el estudio de causa y casualidad


en un laberinto interminable. Una de las dificultades es que la palabra “causa” tiene
muchos significados e insinuaciones metafísicas. Quizá más importante es que no
se necesita realmente. Puede realizarse investigación científica sin invocar causas
ni investigaciones causales, aunque los términos que implican causa y otros son
casi imposibles de evitar y, por tanto, se usarán ocasionalmente. Blalock señala que
las leyes causales no pueden ser demostradas empíricamente, pero que es útil
pensar causalmente. Coincidimos en que las leyes causales no pueden ser
demostradas empíricamente, pero sentimos ambigüedad al pensar causalmente.
Hay poca duda de que los científicos piensen causalmente y que cuando hablan de
una relación entre p y q ESPERAN o CREEN que p causa q. Para ninguna
evidencia puede demostrar que p causa q.

Esta posición no es tanto una objeción a las nociones causales como una
afirmación de que no son necesarias al trabajo científico. PUEDEN aportarse
evidencias sobre la validez empírica de expresiones condicionales de la clase “Si p,
254

entonces q”, pueden probarse hipótesis alternativas y pueden formular expresiones


probabilísticas acerca de la p y q – y otras p y q y las condiciones r, s y t. Invocar la
palabra “causó” y la expresión “relación causal” no aparta realmente nada
constructivo. Puede hasta ser engañosa.

En manos expertas y usadas con circunspección, el análisis de trayectoria y


métodos relacionados puede ayudar a aclarar relaciones teóricas y empíricas. Pero
cuando su adopción y uso implican que se buscan y ENCUENTRAN causas, tales
métodos pueden ser engañosos. En suma, los elementos de lógica deductiva en
relación con expresiones condicionales, un contexto y método de trabajo e
inferencia probabilística, y la prueba de hipótesis alternativas son suficientes
ayudas para el trabajo ex post facto científico sin el excesivo bagaje de nociones
causales y métodos presumiblemente ligados al reforzamiento de inferencias
causales. Dejemos el caso con algunas palabras apropiadas de Bertrand Russell;
La palabra “causa” está tan inexplicablemente ligada con asociaciones
engañosas que hace deseable su completa eliminación del vocabulario filosófico...
la razón de que la física ha cesado de buscar causas es que, en realidad, no hay
tales cosas. La ley de causalidad... es una reliquia de una edad pasada,
supervivencia, como la monarquía, solo porque se supone erróneamente que se
hace daño.

1.2.1. Condiciones para inferir relaciones causales:


Si se desea llegar a la conclusión de que una variable (x) es la causa de otra (y) se
necesitan tres clases de datos:
1) Que se haya probado una relación estadística entre X
yY
2) Que X preceda a Y en el tiempo
3) Que Y no depende de otros factores.
Gracias a los dispositivos de seguridad integrados en un diseño
experimental, estos estudios suministran datos en todos estos aspectos y con ello
permiten hacer inferencias causales. Sin embargo, en los estudios ex post facto no
se dispone de ellos y por lo tanto la interpretación de la relación causal es mucho
más difícil.

Si en uno de estos estudios se establece la relación entre dos variables, el


siguiente paso será buscar datos relativos a los otros dos puntos. El investigador
debe establecer el orden temporal es decir, tiene que considerara si Y ocurrió antes
que X y si por lo tanto no puede ser un efecto de ella. Se toman decisiones acerca
de la relación temporal entre ambas sobre una base lógica o como resultado de
mediciones que muestran que los grupos no diferencian en Y antes de una
exposición a X. Así mismo es de suma importancia que el investigador examine si
255

además de X otros factores causaron Y. Para verificar esta posibilidad se


introducen otras variables dentro de análisis y se observan en que forman afectan
a la relación entre X y Y.

Quizá se descubra que esta relación perdura aún si se introducen otras


variables. En este caso, se dispone de pruebas que apoyan una inferencia causal.
Por otra parte tal vez se descubre que la presencia de las otras variables pueden
cambiar la relación entre X y Y e incluso eliminarla. De ser así, se saca la
conclusión de que X no causa a Y o que la relación entre ambas es espuria.

2. DISEÑO DE LA INVESTIGACION NO EXPERIMENTAL O EX POST FACTO

Al Intentar contestar preguntas como estas ¿Cuál era el factor contribuyente


en una situación dada? O ¿Qué efecto produjo una situación o practica social? O
¿Cuáles son las características que distinguen a este grupo del otro? El investigar
puede disponer una investigación ex post facto en el que dos o más grupos se
comparan: uno ha sido expuesto a la experiencia en cuestión y el otro no. También
puede estudiar dos grupos que sean distintos; en algunos aspectos, con el
propósito de descubrir las causas de la diferencia. El diseño fundamental para ello
es una modificación del diseño experimental, en el que compara dos grupos en una
variable dependiente.

El efecto supuesto del tratamiento ocurre en el grupo experimental pero no


en el control. Cuando se manifiesta en este lo hace en grado distinto, lo cual se
aprecia en las mediciones de Y1 y Y2. Es decir, ambas indican que los dos grupos
difieren en la medición de la variable dependiente. El investigador intenta relacionar
la variable dependiente Y con una variable independiente que apareció
previamente una variable no manipulable designada por (X), que ocurrió en el grupo
experimental no así en el de control obsérvese que la variable independiente no
manipulable se señala así (X), en contraste con la manipulable X.

Por ejemplo, un investigador puede estudiar el rendimiento deficiente (Y), y


para ello busca en el historial de estos estudiantes los posibles factores
contribuyentes (X) que hayan conducido a eso. En base a un número de
mediciones estandarizadas compararía en rendimiento de un grupo de estudiantes
de aprovechamiento normal con el de alumno de aprovechamiento deficiente. Haría
una precaución (X) de los grupos preatributos (X) de interés es decir, las variables
extrañas de importancia por apareamiento o por medios estadísticos, entre ellos el
análisis de covarianza, la correlación parcial o las puntuaciones de cambio.

2.1. PROCEDIMIENTOS EN UNA INVESTIGACION NO EXPERIMENTAL


256

Debido a la excesiva complejidad de la metodología de este estudio se


describe las etapas fundamentales para la comprensión del procedimiento de
diseño de tipo ex post facto con un ejemplo.

A continuación se expone las etapas del planteamiento de una investigación


para indagar la relación entre creatividad y rendimiento en la solución de problemas
por universitarios.

El estudio ex post facto compararía dicho rendimiento en los estudiantes


creativos. He aquí la hipótesis: los universitarios creativos mostrarán mayor
velocidad y exactitud en una prueba de solución de problemas que los no creativos.
En ellas se indican claramente la necesidad de un diseño ex post facto pues los
investigadores no pueden manipular la creatividad ni hacer una asignación aleatoria
de los sujetos a los grupos. No les queda más remedio que comenzar con dos
grupos que ya sean distintos en la variable independiente (creatividad) y
compararlos en la variable dependiente, rendimiento en la solución de problemas.

Tienen que definir universitarios creativos y universitarios no creativos. Al


estudiante creativo podrían definirlo como universitario no graduado de la escuela
de pedagogía que logre una puntuación por encima del cuartel superior en la
prueba de Guilford de uso y consecuencias alternativas y en una prueba de
anagramas. Los no creativos serán los que alcancen puntuaciones por debajo del
primer cuartel.

Deberían tratar de identificar otras variables aparte de la creatividad que


puedan afectar a la variable dependiente al rendimiento en solución de problemas,
por ejemplo: especialmente universitaria inteligencia, sexo, año de licenciatura.

Deberán tomar medidas para igualar los grupos experimental y de control n


esas variables por medio del apareamiento u otras técnicas estadísticas. Por
ejemplo: Un estudiante destacado del segundo año que pertenezca al grupo
creativo podría aparearse con su equivalente en el grupo no creativo.

Aplicará una medida de la variable dependiente, o sea una prueba de


solución de problema. Esto se realiza una vez que se han formado los grupos
apareados. El análisis ulterior de los datos mediante una prueba de “t” revelará
cualquier diferencia significativa en el rendimiento de solución de problemas de los
dos grupos, y tal vez muestre una relación entre la creatividad y el rendimiento en
esa dimensión.
257

2.2. ¿CUANDO UTILIZAR LOS DISEÑOS NO EXPERIMENTALES?


El diseño Ex Post Facto se utiliza cuando los investigadores no están en
condición de probar la hipótesis, asignando sujetos a diferentes condiciones en que
pueda manipularse directamente la variable independiente. En los estudios Ex Post
Facto los cambios de la variable independiente ya se produjeron y los
investigadores deben estudiarlos en forma retrospectiva para buscar los efectos
que pueden ocasionar en una variable dependiente observada.

Cuando en una investigación influyen variables ATRIBUTIVAS


independientes como el ambiente familiar, la motivación, la inteligencia, los hábitos
de lectura de los padres y de otras que designan una característica que el sujeto
posee antes de que comience un estudio.

Cuando el investigador trata de responder a interrogantes como las


siguientes: “¿Cuál fue el factor contribuyente en una determinada situación?”, o
“¿Qué efecto tuvo o ha tenido cierta condición social o determinada?” “¿Cuáles son
las características que distinguen a este grupo de otro?”.

2.3. TIPOS DE DISEÑOS NO EXPERIMENTALES


Diversos autores han adoptado diversos criterios para clasificar la
investigación no experimental.

a. De acuerdo al número de momentos o puntos en el tiempo en los


cuales se recolectan los datos (dimensión temporal)
Los diseños no experimentales se pueden clasificar en transeccionales y
longitudinales.

A.1. Diseños de Investigación Transeccionales o transversal


Los diseños de investigación transeccional o transversal recolectan datos en
un solo momento, en un tiempo único. Su propósito es describir variables, y analizar
su incidencia e interrelación en un momento dado. Por ejemplo, investigar el
número de empleados, desempleados y sus subempleados en una ciudad en cierto
momento. O bien, determinar el nivel de escolaridad de los trabajadores de un
sindicato, en un punto en el tiempo.

Pueden abarcar varios grupos o subgrupos de personas, objetos o


indicadores. Por ejemplo, medir los niveles de aprovechamiento de grupos de
primero, segundo y tercer año de instrucción básica o primaria. O tal vez medir la
relación entre la autoestima y el temor de logro en atletas de deportes acuáticos, de
raqueta y de pista. Pero siempre, la recolección de los datos es un momento único.
258

A su vez, los diseños transeccionales pueden dividirse en dos: descriptivos y


correlacionales/casuales.

A.1.1. Diseños Transeccionales descriptivos


Los diseños transeccionales descriptivos tienen como objetivo indagar la
incidencia y los valores en que se manifiesta una o más variables. El procedimiento
consiste en medir en un grupo de personas u objetos una o, generalmente, más
variables y proporcionar su descripción. Son, por los tanto, estudios puramente
descriptivos y cuando establecen hipótesis, estas son también descriptivas.

Los estudios transeccionales descriptivos nos presentan un panorama del


estado de una o más variables en uno o más grupos de personas, objetos (v.g.,
periódicos) o indicadores en determinado momento.

En ciertas ocasiones, el investigador pretende hacer descripciones


comparativas entre grupos o subgrupos de personas, objetos o indicadores (esto
es, en más de un grupo). Por ejemplo: un investigador que deseara describir el nivel
de empleo en tres ciudades.

En este tipo de diseños queda claro que ni siquiera cabe la noción de


manipulación que cada variable se trata individualmente, no se vinculan variables.

Ejemplos:
1. Las famosas encuestas nacionales de opinión sobre las tendencias de los
votantes durante períodos de elección. Su objetivo es describir el número de
votantes en un país que se inclinan por los diferentes candidatos contendientes en
la elección. Es decir, se encuentran en la descripción de las preferencias del
electorado.
2. Un estudio que pretendiera averiguar cual es la espectativa de ingreso
mensual de los trabajadores de una empresa. Su propósito es describir dicha
expectativa. No pretende relacionarla con la calificación del trabajador, ni su edad o
sexo, el objetivo es descriptivo.

A.1.2. Diseños Transeccionales correlacionales


Estos diseños describen relaciones entre dos o más variables en un
momento determinado. Se trata también de descripciones, pero no de variables
individuales sino de sus relaciones, sean estas puramente correlacionales o
relaciones causales.

En estos diseños lo que se mide es la relación entre variables en un tiempo


determinado. Por lo tanto, los diseños correlacionales/causales pueden limitarse a
259

establecer relaciones entre variables sin precisar sentido de causalidad o pueden


pretender analizar relaciones de causalidad. Cuando se limitan a relaciones no
causales, se fundamentan en hipótesis correlaciones y cuando buscan evaluar
relaciones Causales, se basan en hipótesis causales.

Ejemplos:
1. Una investigación que pretendiera indagar la
relación entre la atracción física y la confianza durante el noviazgo en pareja de
jóvenes, observando cuan relacionadas están ambas variables (se limitan a ser
correlacional).

2. Un estudio sobre la relación entre la


urbanización y el alfabetismo en una nación latinoamericana, para ver que variables
macrosociales mediatiza tal relación (causal).

Debemos recordar la causalidad implica correlación, pero no de toda


correlación significa causalidad. Primero establecemos correlación y luego
causalidad.

Estos diseños pueden ser sumamente complejos y abarcar diversas


variables. Cuando establecen relaciones causales son explicativos. Su diferencia
con los experimentos es la base de la distinción entre experimentación y no
experimentación. En los diseños transeccionales correlacionales/causales, las
causas y efectos ya ocurrieron en la realidad (estaban dadas y manifestadas) y el
investigador las(os) observa y reporta. En cambio, en los diseños experimentales y
causiexperimentales el investigador provoca intencionalmente al menos una causa
y analiza sus efectos o consecuencias.

Aun estructuras más complejas estos diseños se fundamentan en hipótesis


correlacionales y de diferencia de grupos sin atribuir causalidad (cuando pretenden
establecer relaciones causales). Asimismo, los diseños correlaciona-les/causales en
ocasiones describen relaciones en uno o más o subgrupos y suelen describir
primero las variables incluidas en la investigación, para luego establecer las
relaciones entre estas (en primer lugar, son descriptivos de variables individuales,
pero luego van más allá de las descripciones: van establecer relaciones).

Comentario Tanto en los diseños transeccionales descriptivos como en los


correlacionales/causales vamos a observar variables o relaciones entre estas en su
ambiente natural y en un momento en el tiempo.
260

Los diseños transeccionales correlacionales/causales buscan describir


correlaciones entre variables o relaciones causales entre variables, en uno o más
grupos de personas u objetos o indicadores y en un momento determinado.

A.2. Diseños de Investigación Longitudinal


En ocasiones el interés del investigador es analizar cambios a través del
tiempo en determinadas variables o en las relaciones que entre éstas. Entonces se
dispone de los diseños longitudinales, los cuales recolectan datos a través del
tiempo en puntos o períodos especificados, para ser inferencias respecto al cambio,
sus determinantes o consecuencias.

Los diseños longitudinales se fundamentan en hipótesis de diferencias de


grupos, correlacionales y casuales.
Ejemplo: Un investigador que buscara analizar como evolucionan los niveles
de empleo durante cinco años en una ciudad u otra que pretendiera estudiar como
ha cambiado el contenido sexual en las telenovelas en los últimos diez años.

Los diseños longitudinales suelen dividirse en tres tipos: Diseños de tendencia


(trend), diseños de análisis evolutivos de grupos (cohorte) y diseños panel

A.2.1. Diseños Longitudinales de tendencia


Los diseños de tendencia o trend son aquellos que analizan cambio a través
del tiempo dentro de alguna población en general. Su característica distintiva es
que la atención se centra en una población. Por ejemplo, una investigación para
analizar cambios en la actitud hacia el aborto en una comunidad. Dicha actitud se
mide en varios puntos en el tiempo (digamos, anualmente durante 10 años) y se
examina su evolución a lo largo de este período. Se puede observar o medir toda la
población o bien tomar una muestra representativa de ella cada vez que se
observe o midan las variables o las relaciones entre éstas.

Ejemplo:
Una investigación nacional sobre las actitudes hacia la dictadura militar de
los chilenos nacidos en 1973, digamos cada cinco años comenzando a partir de
1985. En este año se obtendría una muestra de chilenos de 12 años de edad y se
medirían las actitudes. En 1990, se obtendría una muestra de chilenos de 17 años y
se medirían las actitudes. En 1995, se obtendría una muestra de chilenos de 22
años y en año 2000 una muestra de chilenos de 27 años, y así sucesivamente. De
esta forma, se analiza la evolución o cambios de las actitudes mencionadas. Desde
luego, aunque el conjunto específicos de personas estudiadas en cada tiempo o
medición puede ser diferente, cada muestra representa a los sobrevivientes del
grupo de chilenos nacidos en 1973.
261

A.2.2. Diseños Longitudinales de evolución de grupo


Los diseños de evolución de grupo o estudios cohorte examinan cambios a
través del tiempo en subpoblaciones o grupos específicos. Su atención son las
cohortes o grupos de individuos vinculados de alguna manera, generalmente la
edad, grupos por edad (Glenn, 19977). Un ejemplo de estos grupos (“cohorts”)
sería el formado por las personas que nacieron en 1930 en Brasil, pero también
podría utilizarse otro criterio de agrupamiento temporal como: las personas que se
casaron durante 1986 y 1987 en Costa Rica o los niños de la ciudad de México que
asistían a instrucción primaria durante el terremoto que ocurrió en 1985. Tales
diseños hacen seguimiento de los grupos a través del tiempo. Usualmente en estos
diseños se extrae una muestra cada vez que se mide el grupo o subpoblación más
que incluir a toda la subpoblación.

Ejemplo.
Un ejemplo de investigación longitudinal evolutiva de grupo es el trabajo ya
citado que se realizó en Pemex acerca del SIDA, los datos a cerca de la evolución
de los enfermos se recolectaron a través del tiempo y se analizó la evolución de los
pacientes infectados entre 1984 y 1987 por la sangre o derivados contaminados
provenientes de Transfusiones y Hematología, S.A. de este momento se siguió la
evolución de los 49 sujetos que integraron el universo. Cuando terminó el período
de estudio, 18 de los pacientes habían fallecido, mientras que 31 se encontraban
vivos

A.2.3. Diseños Longitudinales Panel

Los diseños panel son similares a las dos clases de diseños vistas
anteriormente, sólo que el mismo grupo de sujetos es medido en todo los tiempos o
momentos.

Ejemplo:

Una investigación que observaran anualmente los cambios en las actitudes


de un grupo de ejecutivos en relación con un programa para elevar la productividad,
digamos durante cinco años. Cada año se observaría la actitud de los mismos
ejecutivos. Es decir, los individuos y no sólo la población o subpoblación, son los
mismos.

En los diseños panel se tiene la ventaja de que además de conocer los


cambios grupales, se conocen los cambios individuales. La desventaja es que a
262

veces resulta muy difícil obtener exactamente a los mismos sujetos para una
segunda medición u observaciones subsecuentes. Este tipo de diseños puede
estudiar poblaciones o grupos más específicos y es conveniente cuando se tiene
poblaciones relativamente estáticas.

A. Según Tuckman (1978)

Los diseños no experimentales son de 2 tipos:

B.1. Diseño Co-relacional

Según Tuckman (1978). Este tipo de estudio “implica la recolección de dos o


más conjuntos de datos de un grupo de sujetos con la intención de determinara la
subsecuente relación entre los conjunto de datos” (p.147).

Ejemplo:
Tratar de relacionar la formación profesional de los docentes de un centro de
Formación Magisterial y la efectividad que logran con sus educandos; este estudio
puede realizarse indagando por las notas obtenidas por los profesores en los
distintos cursos llevados en su formación profesional, y otras mediciones que
posiblemente hayan sido realizadas (actitudes, por ejemplo), esto por un lado; y por
el otro, midiendo su efectividad en los alumnos mediante las evaluaciones
pertinentes.

El siguiente esquema correspondería a este tipo de diseño: O1 O2

O1 correspondería al conjunto de datos con respecto a la formación


profesional de los profesores y O 2 sería el conjunto de datos pertenecientes a los
alumnos.

Aquí cabe señalar que el investigador no podría asignar a los profesores a


programas de formación profesional, ni controlar esta formación mediante el uso de
un grupo control. A lo sumo nos mostrará la relación existente entre la calidad de la
formación profesional del profesor (echo o conjunto de hechos que han ocurrido)y
su efectividad en la enseñanza.

Para determinar la existencia o no de una relación deben utilizarse las


medidas de correlación y como resultado puede tener una de las siguientes
interpretaciones:
- La variable medida en O1 ha causado en O2, lo que supone el
investigador en el ejemplo.
263

- La variable medida en O2 ha causado a O1.


- La variable no medida ha causado O1 y O2.

La imposibilidad de determinar inequivocadamente la relación se debe a que


el investigador no asigna a los sujetos a una condición ni ha manipulado la variable
independiente o experimental sino que simplemente muestra determinadas
características. Igualmente, una relación sumamente débil o su no existencia
pueden rechazar las tres interpretaciones.

La importancia y utilidad de estos estudios es que nos permita establecer


alguna relación entre variables sugiriendo por ende la posibilidad de una
causalidad.
Tuckman nos dice que estos estudios “no son adecuados para el
establecimiento de relaciones causales entre variables pero son útiles como un
primer paso en este sentido” (p.149)

B.2. Diseño de Grupo Criterio


Este tipo de diseño se utiliza cuando uno está interesado en la generación
de hipótesis con respecto a que es lo que causa o produce una condición o estado
particular. Para ser esto a menudo se comienza la contrastación de características
con una condición o estado que se opone al que queremos estudiar.

Ejemplo:
Si queremos estudiar cuales son los factores que contribuyen o causan la
indisciplina en un centro educativo. Aquí el investigador no puede generar un
estudio para obtener como producto la indisciplina, sino que debe de oponer a “un
centro educativo indisciplinado”, un “centro educativo disciplinado” para poder
observar que es lo que establece la diferencia.

La determinación de indisciplina tiene- disciplina puede hacerse mediante


escala o mediante el criterio de jueces o expertos.

Luego deberá de contratar a alumnos de un centro educativo con los del


otro, pudiendo en este momento examinar otros aspectos del comportamiento del
alumno (personalidad, por ejemplo) como posibles causas de la indisciplina en un
centro educativo.

Tuckman sostiene que en este tipo de estudios es incorrecto concluir que se


han identificado las causas del la indisciplina, ya que la identificación fue lograda
sobre la base después del hecho. Si se deseara establecer dicha relación causal se
deberá someter al centro educativo a un tipo de reglas de comportamiento y luego
264

comparar la conducta de los alumnos, con la conducta de los alumnos que han sido
sometidos a otras reglas de comportamiento (disciplina).

Este tipo de diseño puede ser diagramado de la siguiente manera:

(x) O1 O2

(X) es una variable independiente no manipulada.

VAN DALEN y Meyer (1996) opinaron que algunos autores en


particular los sociólogos – los diseños ex post facto son denominados también
diseños causal comparativo.

Cuando los científicos estudian las relaciones de causalidad, prefieren


emplear el método experimental, pero, en algunos casos, el método causal
comparativo es el único adecuado para encarar un problema. En un experimento de
laboratorio, el investigador controla todas las variables, a excepción de las
independientes que él maneja de diversas maneras para observar los cambios que
introducen. Pero, a causa de la complejidad y de la naturaleza de los fenómenos
sociales, un educador no siempre puede seleccionar, controlar y manipular todos
los factores necesarios para estudiar relaciones de causalidad.

En los casos en que los investigadores no pueden manejar la variable


independiente y establecer los controles requeridos en los “verdaderos
experimentos”, pueden, en cambio, realizar un estudio causal comparativo. En un
experimento, el investigador puede suponer que si se somete a los alumnos a la
experiencia A, se observará el resultado B. En consecuencia, decide manipular la
variable independiente A; para ello, expone a un grupo experimental a la
experiencia A, efectúa las verificaciones necesarias mediante un grupo de control y
observa el resultado. En un estudio causal comparativo, el investigador invierte el
procedimiento: parte de la observación del fenómeno B, que ya se ha producido, y
trata de hallar, entre las múltiples causas posibles, los factores variables
independientes que se relacionan con el fenómeno o contribuyen a determinar su
aparición.

La investigación causal comparativa tiene su origen en el método elaborado


por John Stuart Mill para descubrir las conexiones causales. El método de la
concordancia de Mill establece que “si dos o más instancias del fenómeno
investigado tienen sólo una circunstancia en común, en la cual todas las instancias
concuerdan, es la causa (o efecto) del fenómeno dado”.
265

Muchos procesos, prácticas, programas y resultados educacionales, han


sido analizados mediante el método causal comparativo. Los problemas
considerados son muy diversos; en algunos casos, se trata de estudios
relativamente simples, en los que no se procuran establecer relaciones
cuantitativas, en tanto que en otros, los trabajos realizados son bastante más
complejos y demandan la utilización de grupos de control y de algunos aspectos del
método experimental.

Cuando los educadores se proponen explicar los fenómenos, a menudo


realizan estudios causales comparativos. Pero este método de investigación
presenta algunas limitaciones.

1. La imposibilidad de establecer un control es una de las


mayores dificultades del método causal comparativo.

2. Si al estudiar un problema, el factor que produce un efecto determinado no


se incluye entre los puntos considerados, no será posible averiguar la causa. Pero,
¿de que manera se puede identificar un factor relevante?. Si algunos factores
parecen acompañar a ciertos fenómenos, uno o más de ellos puede ser su causa;
por otras parte, el hecho de que algunos factores aparezcan siempre que se
produce un fenómeno no significa que guarden con él una relación de causalidad.

3. El método de concordancia y diferencias exige que un solo factor sea el que


determine la aparición o la ausencia de un fenómeno. Pero, por lo general, esta
condición no se da cuando trabajamos con fenómenos sociales complejos, puestos
que estos últimos obedecen habitualmente a la acción de múltiples causas.

4. Un fenómeno puede ser producto de múltiples causas, e inclusive es


posible que en diferentes momentos obedezca a distintas de ellas.

5. Cuando dos variables se hallan relacionadas entre sí, es probable que


resulte difícil determinar cuál de ellas es la causa y cual es el efecto.

6. También surgen dificultades cuando se intenta clasificar a los sujetos en


grupos dicotómicos, a fin de establecer comparaciones entre ellos; los fenómenos
sociales sólo presentan similitudes si los incluimos en las más amplias categorías.
Por otra parte, los hechos sociales no se clasifican automáticamente en categorías
exclusivas.
7. Cuando se tratan de estudios en los que se comparan situaciones
normales, la tarea de seleccionar los sujetos no requiere los mismos cuidados y
precauciones que en el caso de los estudios experimentales más complejos. Por lo
266

general, resulta considerablemente difícil hallar grupos de elementos que sean


similares en todos sus aspectos, excepto en lo que respecta al hecho de hallarse
expuestos a una variable distinta. Siempre existe el peligro de que los grupos
presenten diferencias en la relación con otras dimensiones salud, inteligencia,
antecedentes familiares, experiencia anterior que pueden afectar los resultados del
estudio.

Los estudios causales comparativos poseen ciertas limitaciones y a menudo


no proveen información tan precisa y confiable como la que es posible obtener
mediante estudios experimentales rigurosos. En cambio nos proporcionan
instrumentos para abordar los problemas que no pueden estudiarse en condiciones
de laboratorio y nos brindan valiosos indicios acerca de la naturaleza de los
fenómenos.

Por otra parte, a medida que las técnicas, instrumentos y controles empleados
en los estudios causales comparativos se fueron perfeccionando, este método de
investigación ha ido adquiriendo cada vez mayor difusión.

3. EVALUACION DE LA INVESTIGACIÓN NO EXPERIMENTAL

3.1. LIMITACIONES DE LA INTERPRETACIÓN EX POST FACTO

La investigación ex post facto tiene tres debilidades principales, dos de las cuales
ya se han expuesto un detalle:
1) La incapacidad para manipular variables dependientes.

2) La falta de poder de distribución al azar, y

3) Al riego de interpretación inapropiada. En otras palabras, comparada


con la investigación experimental, siendo iguales otras cosa, la
investigación ex post facto carece de control.

Esta falta de la base de la tercera debilidad: el riesgo de interpretación


inapropiada.

El peligro de interpretaciones inapropiadas y erróneas en la investigación ex


post facto se debe en parte a la plausibilidad de muchas explicaciones de
acontecimientos complejos. Nos es fácil aceptar la primer y más obvia
interpretación de una relación establecida, especialmente si trabajamos sin
hipótesis para guiar la investigación, o avanzamos de la variable dependiente a la
267

variable independiente. Estas dos circunstancias están estrechadamente


relacionadas por que la investigación no guiada por hipótesis, la investigación “para
hallar cosas”, es a menudo investigación ex post facto. La investigación
experimental es más probable que se base en hipótesis cuidadosamente definidas.

La hipótesis son predicciones si – entonces. En un experimento de


investigación la predicción es de una X bien controlada a una Y. Si resulta cierta la
predicción, tenemos relativa seguridad al afirmar la condicional, si X, entonces Y.
Sin embargo, en un estudio ex post facto analizado en las mimas condiciones
estamos considerablemente menos seguros al expresar la condicional, por las
razones expuestas anteriormente. Cuidadosas salvaguardias son más esenciales
en este último caso, especialmente en la solución y la prueba de hipótesis
alternativas.

Una relación predicha (o no predicha) en investigación ex post facto puede


ser muy espuria, para su plausibilidad y conformidad con la concepción previa
puede hacerla fácil y aceptar. Este es un peligro en la investigación experimental,
para en MENOS peligro que en la investigación ex post facto porque una situación
experimental es mucho más fácil de controlar.

La investigación ex post facto producida sin hipótesis, sin predicciones,


investigación en la que los datos son simplemente recogidos y luego interpretados,
es aun más peligrosos en su capacidad de engañar. Diferencias o correlaciones
significativas son localizadas si es posible y luego interpretadas. Supongamos que
un educador decide estudiar los factores que conducen a un subaprovechamiento.
Escoge un grupo de niños con aprovechamiento inferior al normal y un grupo de
niños con aprovechamiento normal y administra una batería de prueba de ambos
grupos. Luego, calculan las medidas de los dos grupos sobre las pruebas y analiza
las diferencias con prueba t. Entre, por ejemplo, 12 de tales diferencias, tres son
significativas. El investigador deduce entonces que los niños con aprovechamiento
inferior al normal y los niños con aprovechamiento normal difieren en las variables
medidas por estas tres pruebas. Con análisis de las tres pruebas, cree que
comprende lo que caracteriza a los niños de bajo aprovechamiento. Como las tres
pruebas parecen que miden inseguridad, entonces la causa de su aprovechamiento
es inseguridad.

Aunque la sencillez de este ejemplo esta un poco exagerado, estudios


muy similares a este hipotético son emprendidos a menudo. Cuando son guiados
por hipótesis, los resultados de tales estudios son más validos, pero todavía son
más débiles porque se aprovechan de relaciones casuales, y, por encima de todo,
la explicación de los resultados parece plausible – una vez hallada una explicación
268

plausible. Según Merton, las explicaciones POST FACTUM no se prestan a


nulificaciones, porque son muy flexibles. Cualesquiera que sean las observaciones,
agrega pueden hallarse nuevas interpretaciones que “cuadren a los hechos”.

3.2. IMPORTANCIA DE LA INVESTIGACIÓN NO EXPERIMENTAL


Algunos autores afirman que no debería utilizarse este tipo de investigación
por los peligros que encierra la interpretación de la misma.

Por otra parte hay quienes afirman que muchas de las variables de gran
interés en la educación son susceptibles de la investigación experimental. No
podemos hacer una asignación aleatoria de niños u hogares rotos o intactos, a
clases bajas o altas, etc. Por lo tanto, si queremos aprender algo acerca de la
relación entre esas variables atributivas y otras, el método ex post facto constituye
nuestro único recurso. Si se utilizan sistemas apropiados para el control parcial y se
toman en cuenta las hipótesis alternativas, habrá mayores posibilidades de acertar
que de equivocarse. Kerlinger expresa este punto de vista con considerable
exactitud:

A pesar de sus imitaciones, este tipo de investigación se utiliza en


psicología, sociología y pedagogía simplemente porque en estas disciplinas
abundan los problemas que no pueden ser investigados experimentalmente. Su
carácter manipulable quedará demostrado por completo mediante una breve
reflexión sobre algunas importantes variables de la investigación pedagógica:
inteligencia, actitud, ambiente familiar, educación paterna, personalidad del
maestro, atmósfera escolar. Desde luego es posible realizar una investigación
controlada, no así una autentica experimentación. En su mayor parte los problemas
sociológicos de la educación son de carácter ex post facto, entre ellos: la desviación
extrema en la conducta del grupo y su efecto en el aprovechamiento las decisiones
del concejo técnico y sus efectos en el rendimiento y en la moral de los maestros y
supervisores. Aunque no quisiéramos recurrir a este tipo de investigación, tenemos
que hacerlo.

Incluso podemos afirmar que es más importante que la investigación


experimental, lo cual no es en absoluto una observación metodológica. Significa
más bien que los problemas que más trascendente de la investigación y
pedagógica de orden científico no se prestan a la experimentación, aunque algunos
de ellos pueden someterse a una investigación controlada ex post facto

4. CARACTERISTICAS DE LA INVESTIGACIÓN NO EXPERIMENTAL EN


COMPARACION CON LA INVESTIGACION EXPERIMENTAL
269

Tanto la investigación experimental como la no experimental son


herramientas muy valiosas de que dispone la ciencia y ningún tipo es mejor que el
otro. El diseño a seleccionar en una investigación depende más bien del problema a
resolver y el contexto que rodea al estudio. Desde luego, ambos tipos de
investigación poseen características propias que es necesario resaltar.

El control sobre las variables es más riguroso en los experimentos que en


los diseños cuasiexperimentales y a su vez, ambos tipos de investigación tienen
mayor control que los diseños no experimentales. En un experimento se realizan
relaciones “puras” entre las variables de interés, sin contaminación de otras
variables y por ello podemos establecer relaciones causales con mayor precisión.
Por ejemplo, en un experimento sobre el aprendizaje podemos variar el estilo de
liderazgo del profesor, el método de enseñanza y otros factores. Así, podemos
saber cuánto afectó cada variable. En cambio, en la investigación no experimental,
resulta más complejo separar los efectos de las múltiples variables que intervienen
(en un estudio no experimental sobre los daños que provoca el tabaquismo, sería
más fácil saber cuánto construyó el tipo de papel en que se envolvió el tabaco,
cuánto cada sustancia que compone la mezcla, el número de cigarrillos fumados, el
grado a que se consume cada cigarrillo, etcétera). En la investigación no
experimental las variables pueden manipularse por separado o conjuntamente con
otras para conocer sus efectos, en la investigación no experimental no podemos
hacerlo.

Por lo que respecta a la posibilidad de réplica, los diseños experimentales y


cuasi experimentales se pueden replicar más fácilmente, con o sin variaciones.
Pueden replicarse en cualquier lugar siguiendo el mismo procedimiento.

Ahora bien, como menciona Kerlinger (1979), en los experimentos (sobre


todo en los de laboratorio) las variables independientes pocas veces tienen tanta
fuerza como en la realidad. Es decir, en el laboratorio dichas variables no muestran
la magnitud real de sus efectos, la suele ser mayor fuera del laboratorio. Por lo
tanto, si se encuentra un efecto en el laboratorio, éste tenderá a ser mayor en la
realidad.

En cambio, en la investigación no experimental estamos más cerca de las


variables hipotetizadas como “reales” y consecuentemente tenemos mayor validez
externa (posibilidad de generalizar los resultados a otros individuos y situaciones
cotidianas).
270

Una desventaja de los experimentos es que normalmente se selecciona un


número de personas poco o medianamente representativo respecto a las
poblaciones que estudian. La mayoría de los experimentos utilizan muestras no
mayores de 200 personas, lo que dificulta la generalización de resultados a
poblaciones más amplias. Por tal razón, los resultados de un experimento deben
observarse con precaución y es a través de la réplica de éste (en distintos
contextos y con diferentes tipos de personas) como van generalizándose dichos
resultados.

En resumen, ambas clases de investigación: experimental y no


experimental, se utilizan para el avance del conocimiento y en ocasiones resulta
más apropiado un tipo u otro dependiendo del problema de investigación a que nos
enfrentamos.

Tomemos un ejemplo para explicar el concepto de investigación no


experimentales y su diferencia con la experimentación. Vamos a suponer que el
investigador dese a analizar el efecto que produce el consumo de alcohol sobre los
reflejos humanos. Si decidiera un enfoque experimental, asignaría al azar los
sujetos a varios grupos, supóngase cuatro grupos: un grupo donde los sujetos
ingirieran un elevado consumo de alcohol (7 copas de tequila o aguardiente), un
segundo grupo que ingiriera un consumo medio de alcohol (4 copas), un tercer
grupo que bebiera un consumo bajo de alcohol (una sola copa) y el cuarto grupo de
control que no ingiriera nada de alcohol. Controlaría el lapso en el que todos los
sujetos consumen su “ración” de alcohol, así como otros factores (misma bebida,
cantidad de alcohol servida en cada copa, etcétera). Finalmente mediría la calidad
de respuestas de los reflejos de cada grupo y compararía los grupos, para
determinar el efecto del consumo de alcohol sobre los reflejos humanos. Desde
luego, el enfoque podría ser cuasiexperimental (grupos intactos) o los sujetos
asignados a los grupos por emparejamiento (digamos en cuanto al sexo, que influye
en la resistencia al alcohol, pues las mujeres suelen tolerar menos cantidades de
alcohol que los hombres).

Por el contacto, si decidiera seguir un enfoque no experimental, el


investigador podría acudir a lugares donde se localicen distintas personas con
diferentes consumos de alcohol (por ejemplo, oficinas donde se haga el nivel de
consumo de alcohol, como una estación de policía). Encontraríamos personas que
han bebido cantidades elevadas, medias y bajas de alcohol, así como quienes no lo
han ingerido. Mediría la calidad de sus reflejos, llevaría a cabo sus comparaciones y
establecería el efecto del consumo de alcohol sobre los reflejos humanos.
5. RELACION EXISTENTE ENTRE EL TIPO DE ESTUDIO, LA HIPÓTESIS Y EL
DISEÑO DE LA INVESTIGACION
271

Anteriormente se comentó que el planteamiento del problema y en el marco


teórico nos indica si nuestro estudio o investigación se iniciará con fines
básicamente exploratorios, descriptivos, correlacionales o explicativos. Asimismo, el
tipo de estudio nos lleva a la formulación de cierta clase de hipótesis y éstas a la
selección de determinado diseño de investigación. En la tabla 7.1 se muestre
esquemáticamente esta correspondencia.

Algunos problemas de investigación pueden ser abordados o no en forma


experimental. Por ejemplo, si deseáramos analizar la relación entre la motivación y
la productividad en los trabajadores de cierta empresa, podríamos seleccionar un
conjunto de éstos y dividirlos al azar en cuatro grupos: uno donde se propicie una
elevada motivación, otro con mediana motivación, otro más con baja motivación y
uno último al que no se le administre ningún motivador. Después compararíamos la
productividad de los grupos. Tendríamos un experimento.

Si se tratara de grupos intactos tendríamos un cuasiexperimento. En


cambio, si midiéramos la motivación existente en los trabajadores así como su
motivación existente en los trabajadores así como su productividad y
relacionáramos ambas variables, estaríamos realizando una investigación
transeccional correlacional. Y si cada seis meses midiéramos las dos variables y
estableciéramos su correlación efectuaríamos un estudio longitudinal.

Pero vayamos más a fondo para analizar las diferencias. En la investigación


experimental se construye la situación y se manipula de manera intencional a la
variable independiente (en este caso el consumo del alcohol) después se observa
el efecto de esta manipulación sobre la variable dependiente (en este caso la
calidad de los reflejos). Es decir, el investigador influyó directamente en el grado de
consumo de alcohol de los sujetos. En la investigación no experimental no hay ni
manipulación intencional ni asignación al azar. Los sujetos ya consumían un nivel
de alcohol y en este hecho el investigador no tuvo nada que ver, no influyó en la
cantidad de consumo de alcohol de los sujetos. En una situación que previamente
existía, ajena al control directo del investigador. En la investigación no experimental
se eligieron personas con diferentes niveles de consumo, los cuales se generaron
por muchas causas, pero no por la manipulación intencional y previa del consumo
de alcohol. En cambio en el experimento, si se generaron lo niveles de consumo de
alcohol por una liberación deliberada de esta variable. En resumen, en un estudio
no experimental los sujetos ya pertenecían a un grupo o nivel determinado de la
variable independiente por autoselección.

Esta diferencia esencial genera distintas características entre la


investigación experimental y no experimental, que serán discutidas cuando se
272

analicen comparativamente ambos enfoques. Para ello es necesario profundizar en


los tipos de investigación no experimental.

La investigación no experimental es investigación sistemática y empírica en


que las variables independientes no se manipulan porque ya han sucedido. Las
inferencias sobre las relaciones entre variables se realizan sin intervención o
influencia directa y dichas relaciones se observan tal y como se han dado en
contexto natural.

Un ejemplo no científico (y tal vez hasta burdo) para ilustrar la diferencia


entre un experimento y un no experimento serían las siguientes situaciones:

EXPERIMENTO Hacer enojar intencionalmente a una persona


para ver sus reacciones.

NO EXPERIMENTAL Ver las reacciones de esta persona cuando


llega enojado.

En algunos casos el autor puede haber deducido que la investigación ex post


facto es inferior a la investigación experimental, pero esta deducción no estaría
justificada, es fácil decir que la investigación experimental es “mejor”, que la
investigación ex post facto, o que la investigación experimental tienen hacer “trivial”,
o que la investigación ex post facto es “meramente correlativa”. Tales expresiones,
si mismas, son simplificaciones excesivas. Lo que necesita el estudiante de
investigación es una comprensión equilibrada de las fuerzas y debilidades de
ambas clases de investigación. Adherirse inequívocamente a experimentación o a
experimentación ex post facto puede ser una mala política.

Algunos estudiantes de investigación creen que mucha investigación sobre


la conducta pero particularmente investigación educacional sufre una falta grave de
enfoque experimental riguroso y que estará atrasada mientras exista esta situación.
El autor cree que la buena investigación experimental se necesita urgentemente en
todos los campos, y que grandes dosis de mala investigación ex post facto deben
evitarse. Hay gran necesidad de mejorar en la investigación ex post facto
educacional. Quizá una buena regla sería ignorar los resultados de cualquier
estudio ex post facto que no prueba hipótesis. Excepciones esta restricción de
vencer pocas y muy lejanas entre sí.

Quizá otra buena regla sería ser altamente escéptico de cualquier estudio ex
post facto que solo pruebe una hipótesis: es decir, deben probarse
273

sistemáticamente hipótesis, “negativas” alternativas. Los investigadores deben


predecir relaciones significativas y relaciones no significativas siempre que sea
posible.

Una advertencia final de esta: tratar siempre los resultados e interpretaciones de los
datos de investigaciones ex post facto con gran cuidadoso y precaución, cuando se
debe ser cuidadoso con resultados e interpretaciones experimentales, se debe ser
doblemente cuidadoso con resultados e interpretaciones ex post facto.

MUESTREO Y DISEÑOS MUESTRALES

El muestreo de poblaciones, es decir los métodos que permiten seleccionar


una parte de la población (una muestra), para inferir sobre la población total.

BASE TEORICA DEL MUESTREO


Los datos masivos tienen dos propiedades simultáneas y fundamentales,
ellos son:
1. La diversidad, los elementos de una población están afectadas por un
sin número de fuerzas, que pueden actuar independientemente sobre los elementos
individuales. Pero en una población estadística, los elementos no pueden variar sin
límites. Por ejemplo: en una misma camada de peces, a pesar de que las
condiciones experimentales son las mismas, algunos peces crecen más que otros,
pero siempre dentro de ciertos límites, no hay un pez cuya talla es 1 cm. y el otro
1000 cm.

2. Regularidad o uniformidad: Las fuerzas independientes, que producen


una variable en una población, tienden a equilibrarse y concentrarse, alrededor de
un valor central. En nuestro ejemplo, la talla de los peces tiende a concentrarse
alrededor de una talla media.

Como las variaciones son limitadas y cada población tiene sus


características, es posible seleccionar una muestra aleatoria insesgada
relativamente pequeña que pueda representar una población particular.
274

Debido a la regularidad si se toma una muestra aleatoria grande, sus


características difieren muy poco de la población estadística. Sin embargo, debido a
la diversidad, un número de muestras aleatorias de las mismas características,
pueden diferir. Entonces, las muestras no tienen una regularidad estricta.

Los promedios son más estables, que los números individuales. Además los
promedios son más estables si se incluyen más observaciones. Esta es una
propiedad importante de los grandes números que tienden a ser uniformes y
estables, esto se conoce como la ley de los grandes números.

Consecuencias de la ley de los grandes números en el muestreo son:


1. Confiabilidad de las muestras: Cuanto mayor es el tamaño de la
muestra, es más representativa de la población.
2. Adecuación de los métodos muestrales.
Entonces, a través de la estabilidad de los grandes números es posible
determinar el tamaño de la muestra, dentro de límites señalados de precisión,
cuyas características pueden atribuirse a la población.

Se ha definido que aún cuando las muestras sean grandes, sus


características no son exactamente las mismas de la población, lo que se conoce
como errores muestrales, los que se pueden medir si las muestras son aleatorias.
Para ello se debe conocer la naturaleza de la distribución de frecuencias
subyacentes, se debe aplicar probabilidades, lo que se puede hacer solamente si
las muestras son aleatorias.

CRITERIOS BASICOS DE MUESTREO

MUESTRAS:
Los elementos incluidos en una población se llaman unidades muestrales
que se pueden agrupar en dos clases:
1. Unidades muestrales elementales; son todos aquellos elementos
contenidos en una población cuyas características van a ser medidas o contadas.
2. Unidades muestrales primarias, pueden ser las unidades elementales
mismas o agrupaciones de estas.
Las unidades elementales son los individuos que forman la población sobre
la que se va a inferir.

MUESTRA: Es un conjunto de las unidades elementales escogidas como


representativas a partir del cual se pueden inferencias acerca de la población y
pueden contener unidades primarias aunque el propósito sea conocer las
propiedades de las unidades elementales, es necesario puntualizar que el propósito
final del muestreo no es calcular estadísticas maestrales; sino hacer inferencia
respecto a la población .

En teoría de muestra se debe distinguir entre:

a. Muestra aleatoria o probabilística en la que se conoce la probabilidad


de ser seleccionada, se puede medir el error muestral y mantener dentro de límites
conocidos. El término muestra aleatoria no se utiliza para describir datos de la
muestra sino para definir el proceso empleado para seleccionar la muestra.
Por lo tanto la aleatoriedad es una propiedad del procedimiento muestral y no
de la muestra individual.
275

b. Muestra dirigida: se toma utilizando el juicio personal, por lo tanto no se


conoce la probabilidad de que un elemento sea considerado en la muestra por lo
que no puede aplicarse el análisis probabilístico.

POBLACION, UNIVERSO

POBLACION; conjunto de elementos o unidades muestrales acerca de la


cual se va hacer deducciones y puede ser: finita, si el número de elementos es
determinado; o infinita, si contiene un número indeterminado de elementos.

También es necesario diferenciar; Población total u Objeto de población


estadística; la primera se refiere al conjunto de elementos de la población mientras
que la segunda es la que es operacionalmente factible de ser muestreada.

UNIVERSO, es otro término frecuentemente empleado para describir una


población empleándose con rigurosidad en investigación experimental.

MARCO DE REFERENCIA
Siempre que el acceso a una población presente dificultades, se debe hacer
una lista, en la que identifiquen las unidades elementales. Esto se llama marco de
referencia y es la población estadística sobre la que se va a inferir; aquí cada
unidad debe ser claramente definida sin ambigüedad. Cuando se prepara el marco
de referencia se debe incluir la información necesaria para preparar una encuesta
sólida, esta puede ser considerada como una encuesta inventario y debe efectuarse
antes de llevar a cabo el muestreo por encuesta

En algunas ocasiones es necesario hacer una encuesta de verificación de


los elementos examinados (EVEE) la que se realiza en una zona más pequeña de
la zona total, pero es mas intensiva, posteriormente se comparan los resultados de
ambas encuestas y las diferencias sirven de base para ajustar o corregir el marco
de referencia original.

Es necesario tomar en cuenta los criterios de precisión, exactitud y


eficiencia.

a. Precisión: llamada también confiabilidad de los resultados muestrales,,


esto es el tamaño del error estándar de la estadística, a menor error estándar
mayor precisión.
b. Exactitud: es la diferencia entre el valor de la estadística muestral y el
verdadero valor del parámetro de la población, la que es causada por los errores no
muestrales y el sesgo. La exactitud es la meta de un estudio; pero la precisión es lo
que se puede medir.
c. Eficiencia: se dice que un diseño muestral es más eficiente que otro si
una misma precisión se obtiene con un menor costo.

PLAN DE MUESTREO

Para escoger una parte de la población sobre la cual se va a hacer


inferencia, se utiliza el diseño muestral, en él se consideran dos aspectos:

Selección: de las reglas y de las operaciones por las cuales los elementos
de la población van a estar incluidos en la muestra.
276

Estimación: de los valores de la población a partir de las muestras.

En muestreo de encuesta o muestreo de poblaciones, los diseños


muestrales pueden ser de tipos:

- Muestreos aleatorios o probabilísticos: donde el proceso de seleccionar


la muestra es aleatoria

- Muestreo no aleatorio: donde el proceso de obtención de la muestra es


en base de juicio, en forma causal. Etc. Kish [l975], los llama muestreo de modelos,
dentro de este tipo incluye el muestreo de poblaciones móviles por marcaje.

DISEÑOS DE MUESTREO PROBABILISTICO

En estos diseños, cada elemento de la población tiene una probabilidad


conocida y no nula de ser seleccionada. En consecuencia, a partir de la muestra se
puede hacer inferencia en la población, utilizando solamente métodos estadísticos,
sin hacer suposiciones acerca de las distribuciones de la población.

El muestreo irrestricto aleatorio [mia] es el procedimiento de selección de


la muestra, en la cual los elementos de la población tienen probabilidades iguales
de selección.

Los diferentes tipos de diseños de muestreo probabilístico son


modificaciones del mia. Los cambios se han introducido para proveer de diseños
más prácticos, económicos o precisos.

Kish[1975] entrega una tabla, con diferentes alternativas [anexo 1].

Los procedimientos muestrales más utilizados son:

1. Muestreo aleatorio no restringido o muestreo aleatorio simple [MAS].


2. Muestreo aleatorio restringido:

- Muestreo estratificado [MES]: - proporcional.


- desproporcionado.

- Muestreo por conglomerado [MPG] o agrupado:


- monoetápico.
- bietápico.
- multietápico.

Muestreo sistemático [MST].

1. MUESTREO ALEATORIO SIMPLE (MAS).

De los diferentes procedimientos muestrales, el muestreo aleatorio simple,


es el más conocido, porque es relativamente sencillo efectuar las estimaciones.

El muestreo aleatorio simple puede ser de dos tipos:


277

Con reposición en poblaciones finitas o sin reposición en poblaciones


infinitas: cada elemento de la población tiene una probabilidad igual e
independiente de ser incluido en la muestra

Sin reposición en poblaciones finitas: la probabilidad de selección de


cada elemento aumenta a medida que N [número de elementos de la población
disminuye].

En ambos casos se obtiene la muestra utilizando tablas de números


aleatorios.
El MAS es procedimiento eficiente si:
La población no es grande
Si las unidades muestrales son fáciles de obtener a un bajo costo.
En poblaciones cuyos elementos se concentran en áreas pequeñas.

En otros casos, el muestreo aleatorio simple [MAS] se vuelve poco eficiente


debido a su alto costo.

2. Muestreo estratificado [MES]:

Para emplear el muestreo estratificado (MES) se debe tener conocimientos


previos de la población a estudiar, porque ésta se debe dividir en estratos
homogéneos.
El procedimiento de selección de la muestra dentro de cada estrato puede
ser aleatorio o sistemático.

El muestreo estratificado se puede dividir en dos tipos:

a Muestreo estratificado proporcionado: donde el número de elementos


es proporcional al tamaño del estrato. Este tipo de muestreo puede utilizarse
solamente cuando la variabilidad de la población es pequeña.

b Muestreo estratificado desproporcionado: para determinar el tamaño


de muestra por estrato se efectúa una asignación óptima, para lo cual se considera:
el tamaño del estrato y la dispersión de las mediciones. Por consiguiente, se asigna
una mayor representación al estrato con mayor dispersión. Entonces, en los
estratos de menor variabilidad el tamaño de la muestra es más pequeño.

Existen otros criterios de asignación óptima del tamaño de muestra. Como


tomar tamaños de muestras pequeñas en los estratos en que obtener la muestra es
costoso o bien de difícil acceso. Otro caso, es tomar el mismo tamaño sin
considerar el tamaño de estrato.

También pueden subestratificarse los estratos, con el objeto de agrupar la


población con respecto a las características más relevantes. Este procedimiento se
conoce con el nombre de estratificación cruzada.

En el muestreo estratificado desproporcionado, en el cálculo de los


estimadores se utilizan ponderadores. Cabe señalar, que se debe ser en extremo
cuidadoso en la asignación óptima del tamaño de la muestra y en el empleo de las
correspondientes ponderaciones.

Los requerimientos básicos para el empleo de muestreo estratificado son:


278

- dentro de cada estrato debe haber tanta uniformidad como sea posible.
- la diferencia entre los estratos debe ser lo más grande posible.

El conocimiento previo de la población se puede obtener a través de: 1.


muestreo preliminar, 2. Observaciones pasadas y 3. Juicios de expertos
[desaconsejado por no ser muestreo probabilístico].

En el caso de que la población que se desea estudiar sea heterogénea y su


distribución de frecuencia altamente asimétrica, el muestreo estratificado [MES] es
más eficiente que el muestreo aleatorio simple [MAS]. Sin embargo, si la población
tiene una distribución simétrica o moderadamente asimétrica, la eficiencia de
ambos diseños muestrales es similar.

3. Muestreo por conglomerado [MPG]:

Los conglomerados son unidades de muestreo o unidades primarias,


conformados por agrupaciones de elementos o de unidades elementales.

Para que el muestreo por conglomerado sea eficiente se deben cumplir los
siguientes requisitos:
1. Las diferencias entre las unidades elementales deben ser tan grandes
como sea posible.
2. Las diferencias entre conglomerados [o unidades primarias] deben ser tan
pequeñas como sea posible.

Se puede observar que los requisitos del muestreo por conglomerados son
contrarios a los del muestreo estratificado.

Cabe hacer notar, que los requisitos del muestreo por conglomerados son
difíciles de satisfacer, porque en las mayorías de las poblaciones humanas o
animales, los elementos similares tienden a agruparse.
Es necesario hacer notar que en el muestreo por conglomerados es posible
tener costos inferiores a los muestreos obtenidos con los muestreos estudiados
anteriormente [MAS y MES]. Este menor costo se debe a que en MPG se
disminuyen los desplazamientos para la obtención de la muestra.

Por las razones antes señaladas, el muestreo por conglomerados puede ser
eficiente.

Existen varios procedimientos de muestreo por conglomerados:


 Cuando se muestrean todas las unidades elementales del
conglomerado, se trata del muestreo por conglomerado monoetápico.
 Cuando se extrae una muestra de los conglomerados, se trata del
muestreo por conglomerado bietápico.
 Cuando se selecciona una muestra de unidades elementales y una
muestra de conglomerados, el procedimiento utilizado tiene dos
etapas de selección final de la muestra, se denomina muestreo de
etapas múltiples o polietápico.

En los diversos tipos de muestreo por conglomerados, éstos pueden tener el


mismo tamaño o pueden ser diferentes. Por otro lado, en las diversas etapas, el
procedimiento de selección de la muestra puede ser aleatorio o sistemático. Resulta
279

evidente, que en el muestreo por conglomerado existe una gama de procedimientos


que pueden emplearse en diversos casos.

4. Muestreo Sistemático [MST]:

Es un muestreo probabilístico. La principal ventaja de este método es la


sencillez con que se escoge la muestra. Pero se debe ser cauteloso en su
utilización, porque la variable que se quiere medir puede tener una prioridad
“oculta”, entonces se puede caer en ciclos, y así sesgar la muestra que se obtiene.

El muestreo sistemático [MST] es eficiente, si los elementos próximos entre


sí tienen mayor uniformidad que los distantes. Estos requerimientos son similares a
los del muestreo estratificado proporcionado. Entonces si las poblaciones son
grandes los muestreos MES y MST tienen eficiencias similares. El muestreo
sistemático [MST] es más eficiente que el muestreo aleatorio simple cuando se
mantienen las condiciones señaladas anteriormente.

DISEÑO NO PROBABILISTICO:

En la tabla que ilustra este diseño [anexo 2], se presenta en forma


esquemática, los diferentes tipos de muestreo no aleatorios más frecuentemente
empleados.

ESCALAS DE MEDICION

Una de las etapas más importantes del proceso de la investigación científica es la


cuantificación de hechos o eventos observados; es decir, transformar en cifras el
producto de nuestras percepciones. Para esto, es necesario identificar con toda
exactitud la característica o atributo a ser medido en los elementos de estudio;
luego, hacer uso de un procedimiento objetivo así como de un instrumento sensible
y confiable. Sólo así la información obtenida permitirá llegar a conclusiones válidas.
En todo proyecto de investigación se debe especificar cada una de las variables
que se estudiará así como la escala de medición utilizada. Es necesario señalar
que la adecuada tipificación de las variables así como la identificación correcta de la
escala de medición, facilitan grandemente la elección del contraste estadístico para
el análisis.
280

En este acápite se describirán, brevemente, las escalas de medición que


frecuentemente se usan en los trabajos de investigación.

ESCALAS DE MEDICION
En cualquier estudio de investigación es necesario definir en qué escala se hará la
medición de las variables propuestas. Existen fundamentalmente cuatro tipos de
escalas: nominal, ordinal, de intervalo y de razón o proporción.

2.1 NOMINAL
Es el nivel más elemental de medición y consiste en clasificar los objetos de estudio
según las categorías de una variable. Para cada unidad de estudio se determina la
pertenencia a una entre varias categorías. Las categorías son mutuamente
excluyentes y exhaustivas, y no es posible establecer relaciones de orden entre las
categorías. Por ejemplo, las variables estado marital, sexo, procedencia, ubicación
geográfica se miden en escala nominal. Lo único que se logra en este nivel de
medición es la categorización o la identificación. Sirve para variables cualitativas.
Permite la comparación descriptiva entre variable o sus categorías, sin embargo no
permite la comparación cuantitativa entre ellas.

El alcance de esta escala es el conteo, y sólo los signos matemáticos de igualdad o


desigualdad hacen su presencia en esta escala de medición

2.2 ORDINAL
Este tipo de escala se usa para clasificar los objetos, hechos o fenómenos en forma
jerárquica según el grado que posea una característica determinada. Al igual que en
la escala nominal se determinan la pertenencia de las unidades a categorías. En
este caso se considera que existe un grado de intensidad de la propiedad medida,
por lo que las categorías guardan un orden, una jerarquía, pero no se obtiene
información sobre la magnitud de las diferencias entre los casos así clasificados.

De una unidad se puede decir a que categoría pertenece, puede conocerse la


frecuencia y, además, cuál es la categoría que ocupa determinada posición de
orden. Por ejemplo, dolor: leve, moderado, intenso; severidad de una enfermedad:
grado I, grado II, grado III; nivel de información sobre X aspecto: excelente, bueno,
regular y malo. La escala ordinal proporciona información en cuanto a la cantidad
de diferencia entre los objetos, pero no refleja distancia entre una y otra categoría.
Aaker expresa que debido a que no se conoce la cantidad de diferencia entre los
objetos, las operaciones aritméticas permisibles se limitan a estadísticas como la
mediana y la moda pero no a la media aritmética.

2.3 DE INTERVALO
Las escalas de intervalo poseen las características de las escalas nominales y de
las ordinales; en particular, la que se refiere al orden por rangos. Se asignan
números para indicar la intensidad de una característica, con unidad de medida y
origen arbitrarios, que se elige en base de conveniencias prácticas de tal manera
que se mantiene la igualdad de los intervalos. Aquí los números para clasificar los
objetos representan también incrementos iguales del atributo que se está midiendo.
Esto significa que las diferencias pueden ser comparadas. La diferencia entre 1 y 2
es la misma que entre 2 y 3, pero es sólo la mitad de la diferencia entre 2 y 4.Sin
embargo la ubicación del punto cero no es fija, puesto que cero no denota la
ausencia del atributo. Las variables temperatura y puntajes en un cuestionario de
conocimientos (inteligencia, rendimiento académico, nivel de información, etc.) se
miden, por ejemplo, en escalas de intervalo.
281

Aaker ( ), señala que las escalas de intervalo tienen propiedades muy deseables
porque virtualmente la totalidad del rango de las operaciones estadísticas puede ser
empleada para analizar el número resultante, incluyendo la suma y resta. En
consecuencia es posible calcular una media aritmética a partir de medidas de la
escala de intervalo.

2.4 DE RAZON
Llamada también de proporción, constituye el nivel más alto de medición
para las variables cuantitativas, contienen las características de una escala de
intervalo con la ventaja adicional de poseer el cero absoluto, lo cual permite
determinar la proporción conocida de valores de la escala.

Se asignan números para señalar la intensidad de una característica con


unidades de medida arbitraria, pero de origen fijo, lo que mantiene la igualdad de
las relaciones o proporciones. Se permiten las operaciones aritméticas con los
números que identifican las categorías. Por ejemplo: peso, talla, ingreso, CO2 en la
sangre, número de hijos, etc. se miden en escala de razón.

Cuadro 1. Tipos de escalas de medición

Escala Reglas para asignar Aplicación común


números
Nominal Los objetos son idénticos o Clasificación (por sexo,
diferentes área geográfica, clase
social).
Ordinal Los objetos son más grandes Rangos (preferencias,
o más pequeños. posición de clases).
Intervalo Los intervalos entre los Números índices, escala de
rangos adyacentes son temperatura, algunas
iguales. medidas de actitudes.
Razón Existe un punto de cero Ventas, ingresos, unidades
significativo para que las producidas, costos, edad.
comparaciones de magnitud
absolutas sean posibles
EVALUACION DE PROYECTOS DE INVESTIGACION

EVALUACION DEL PROBLEMA

La etapa de recolección y sistematización de la información teórica y


empírica y el nivel de reflexión que ella implica permite realmente reflexionar sobre
lo que se quiere investigar así como tener un avance de la comprensión del
tratamiento que otros estudiosos hayan hecho de ese problema, en estas
condiciones es posible hacer una evaluación, es decir si se justifica y es
importante desde el punto de vista del desarrollo de la ciencia, la tecnología y la
sociedad. Cuando no se tiene idea resulta materialmente imposible cumplir con
este paso.

Al referirse a este aspecto se debe tener en cuenta la trascendencia del


tema y el problema a investigar, tales como si su solución va a contribuir al
desarrollo científico y empírico, si va a conducir a nuevas investigaciones, si es
282

investigable o si está adecuado para el propio investigador. Desde esta perspectiva


hay que considerar lo siguiente:

1. Si es un problema relevante para la sociedad, como por ejemplo


investigar la necesidad de una nueva metodología en el proceso enseñanza -
aprendizaje de una determinada rama de la ciencia.
2. Si contribuye a solucionar un problema relevante para la sociedad,
derivado de lo anteriormente mencionado y que ayuda a tomar conciencia de que
su investigación apunta a la transformación de la realidad y en beneficio de la
sociedad.
3. Si es un problema relevante para el desarrollo científico y
tecnológico, pues puede ocurrir que su solución no contribuya a ello. No
contribuye cuando el problema ya haya sido suficientemente esclarecido por otros
investigadores y la investigación que se propone no tiene la perspectiva de avanzar
más allá cuando el problema es irrelevante para la sociedad.
4. Si puede ser tratado con la técnica y marcos teóricos disponibles,
porque puede ocurrir a veces que no existe aún la base teórica científica como para
abordar el problema. En este caso no queda más remedio que dejarlo solamente
planteado.
5. Si es adecuado para el propio investigador, es decir, si el que está
abordando el proyecto tiene la formación científica suficiente en el campo dentro
del cual está inmerso el problema que pretende investigar.
6. Si, finalmente es afrontado con los recursos materiales disponibles.
Del tipo de investigación depende la utilización de una serie de materiales y equipos
los que implican tener disponibles presupuestos y recursos necesarios para su
utilización y que no represente un estimado mayor que el lógicamente posible.

En algunos casos es conveniente considerar la forma o el procedimiento


para pasar de la recolección y sistematización de la información a la evaluación
del problema siendo mas natural y espontáneo en el docente que tiene una línea
de investigación ya definida, en la mayoría de los casos cuando los estudiantes
han elegido para investigar un tema seleccionado por el docente; Pueden surgir
algunas dificultades aún cuando muestren un marcado entusiasmo pues sino se
cultiva esa línea las posibilidades de una adecuada orientación no serán muy
exitosas. No obstante si los estudiantes muestran mucha voluntad pueden llegar a
cumplir con los requisitos antes mencionados en el proceso de evaluación de un
problema , por ejemplo, si llegan a valorar la relevancia o no que el problema tiene
para la sociedad.
En algunas ocasiones la evaluación del problema aparece en los modelos de
los proyectos como sinónimo de justificación e importancia, sin embargo
debe hacerse notar que estos aspectos tienen una estrecha vinculación.
Sánchez y Reyes (1987) asumen que la justificación e importancia responde al
porqué de la investigación, en tal sentido se puede destacar su importancia o
justificar la investigación considerando los criterios siguientes:
i) Puede haber una justificación legal, si el problema a investigar cumple
con exigencias dispositivos y directivas de dependencias que fijan políticas de
investigación.

ii) Puede mostrarse la importancia de un estudio desde el punto de


vista teórico - científico o tecnológico si se orienta al desarrollo e la ciencia o de la
técnica.
283

iii) Puede mostrarse la importancia práctica del estudio en el sentido de


que sus resultados permitan reajustar políticas de acción inmediata sobre un
determinado fenómeno o hecho.

Se han sugerido diversas reglas para plantear un problema de investigación


como las de Bunge (1982) o las de Gortari (1988 ) sin embargo creemos que es
conveniente dejar sentado los criterios siguientes al momento de evaluar un
problema:
1. las preguntas deben señalar con claridad y precisión lo que se requiere
investigar.
2. Las preguntas deben basarse en información teórica y empírica:
 Teórica: significa, que debe fundamentarse en un marco teórico
científico y que se deben seleccionar los conceptos más operativos que
articulados con los mas generales permiten reflejar real y
concretamente el objeto de la investigación.
 Empírica: debe incorporar información empírica elaborada por la ciencia
en la que se inscribe el problema y por el propio investigador.
 Debe expresar una relación entre dos o más variables.
 Se debe tener en cuenta las posibilidades de comprobación empírica.
 Si el problema se ha formulado con la rigurosidad lógica pertinente.
 Se debe considerar si en la formulación y planteamiento del problema
se ha utilizado el lenguaje científico.
En este punto consideramos necesario el deslinde terminológico entre el
planteamiento del problema, entendido como la aprehensión del objeto de
estudio por el método de investigación científica es decir apropiarse de la materia
de investigación en todos sus detalles, analizar sus distintas formas de desarrollo y
descubrir sus vínculos internos. El otro aspecto es la exposición del problema que
es la forma como el investigador ordena su discurso, es decir las distintas formas
en las que plantea, delimita, justifica y formula o enuncia el problema de
investigación. En este último caso se sugieren evaluar las pautas siguientes:

-1. Si el problema conserva la lógica interna, es decir, si hay coherencia


entre las ideas que se exponen, considerando en muchos casos la esquematización
de las ideas eslabonadas unas con otras.
-2. Si las preguntas han sido formuladas con claridad y precisión.
-3. Si en la fundamentación del problema hacen referencia a los avances
que otros científicos han producido sobre el problema; pero sin entrar en mayores
detalles y en el caso de que el problema se haya originado por experiencia propia,
que éste sea explicado muy brevemente.

EVALUACION DEL MARCO TEORICO


En este aspecto debe evaluarse:

1. Si el marco teórico tiene sustento en a) La teoría general y el


conocimiento teórico científico actualizado en que se encuentra el problema y b)El
conocimiento empírico del problema.

2. Si es la explicación primera del investigador, teórica e integral del


objeto de estudio o del problema.

3. Si considera el aspecto novedoso del investigador sobre el


problema en estudio y que posibilite una crítica que supere las concepciones
existentes sobre el objeto o problema en estudio.
284

4. Si posibilita el desarrollo de la hipótesis las que se encuentran


inmersas en el marco teórico, pero que sin embargo es necesario precisarlas.

5. Si está bien formulado; es decir:

i) Su construcción debe guardar una lógica interna en si misma.


ii) Si mantiene la lógica en el conjunto del proyecto especialmente frente a la
interrogante y las variables del problema que se plantea.

6. Si utiliza el lenguaje científico, que es mucho más exigible que cuando


se plantea el problema y no solo en el sentido del manejo apropiado de los
conceptos y categorías, sino también en el sentido sistemático y lógico de su
construcción.

El marco teórico de un proyecto es el resultado de un arduo trabajo por


parte del investigador, luego que se considera que ya se tiene la concepción sobre
el problema en estudio, hay necesidad de exponerlo siguiendo la dirección general:
de lo simple a lo complejo. Del fenómeno a la esencia. Al respecto Tecla ( l980 )
considera que es una etapa de discriminación donde se elimina aquella
información que resultó falsa o irrelevante y donde se omiten las tentativas fallidas
o tentativas falsas, considerando puntualmente que el método de exposición del
marco teórico comprende la selección y el desarrollo de la forma mas adecuada
para nuestros fines.

Generalmente se debe considerar si el marco teórico:

1. Tiene una lógica interna que articule diversas concepciones.

2. Si las concepciones seleccionadas se presentan con un nivel de


desarrollo que posibiliten una comprensión integral de los problemas planteados
. 3. Si el camino de la exposición es unidireccional, es decir que exponga el
tema desde lo general a lo particular o viceversa.

4. Si utiliza las categorías simple y complejo, fenómeno y esencia se sigue


generalmente este camino: de lo simple a lo complejo y del fenómeno a la esencia.

Finalmente se debe evaluar si se ha cumplido con las normas sugeridas


para la exposición del marco teórico:

 Conservar la lógica interna.

 Presentar con claridad: las categorías, las críticas a otras


concepciones y al propio enfoque del investigador

 La sustentación y fundamentación de las críticas a otras


concepciones y de su propio enfoque se harán con un nivel de
desarrollo que pueda ser comprensible por los lectores del
proyecto.

 La forma de presentar el texto varía, sin embargo se sugiere


abarcarlo desde lo simple a lo complejo y del fenómeno a la esencia.
285

 Para los que recién se inician en la investigación sería muy conveniente


seguir este esquema: i) primero presentar las categorías y conceptos
centrales; ii) segundo presentar los enfoques o concepciones elaborados
por otros investigadores con su respectiva crítica y iii) tercero, presentar
la concepción propia del investigador. El que puede ser perfeccionado a
medida que adquiere más experiencia.

EVALUACION DE LAS HIPOTESIS

En este aspecto se debe evaluar si realmente la sistematización de las


hipótesis obedece a criterios esbozados por autores de reputación tales como
Kopnín (1966) que señala que las hipótesis constituyen el camino indispensable
para el descubrimiento de las leyes, para la creación de teorías fidedignas.

La mayoría de concepciones sobre la hipótesis es que es una respuesta


probable frente al problema o una solución adelantada que se hace sobre la base
de conocimientos teóricos y empíricos de carácter complejo y sistemático que se
organiza especialmente para explicar el problema que se investiga y que es núcleo
central de la suposición.

Se debe considerar además que las hipótesis tienen su nacimiento con el


mismo planteamiento del problema. Moya (1994) afirma que: el comienzo de lo
nuevo aún desconocido en el problema significa que él señala la dirección hacia la
cual apuntará la investigación para encontrar el nuevo conocimiento que se busca
y su entorno. Igualmente se resalta de la literatura que el conocimiento probable
antes de ser hipótesis es una conjetura; es decir cuando el investigador lanza su
primera respuesta frente al problema planteado aún sin argumentaciones
teóricas ni empíricas, es decir una suposición inicial, cuyos fundamentos teóricos y
empíricos aún no se conocen, sin embargo se debe considerar que este es un
eslabón importante en el proceso de la investigación mas adelante a medida de que
se nutre de l conocimiento científico teórico y empírico se llega a la formulación de
la hipótesis de investigación.

De lo expuesto anteriormente se afirma que la hipótesis se perfila y


desprende del marco teórico ya que éste le da el soporte necesario y el encuadre a
la suposición y por otro enunciar una explicación probable a la exigencia de la
interrogante algunos autores consideran que los conocimientos de las hipótesis: los
conocimientos verdaderos; los conocimientos probables y la suposición
conllevan a definir que la suposición es considerada como el alma de las
hipótesis.

Es indudable que existe una estrecha correlación entre hipótesis y problema


generalizándose que se integran en un sistema, una totalidad y que en el proceso
de investigación se establece una lógica de hipótesis a problema.

En esta fase se debe evaluar si el planteamiento de la hipótesis se hace


sobre la base de su fundamentación teórica y empírica como una respuesta
probable al problema y considerar los criterios siguientes:

1. Que la respuesta probable al problema sea precisa; es decir relevar,


poner en primer plano, a la suposición que originará la hipótesis.
286

2. Que sea científicamente fundada, es decir, garantizada por suficientes


conocimientos teóricos y empíricos

3. Que sea factible de comprobación o verificación

4. Que establezca relaciones entre variables.

5 Que sea lógicamente coherente con el conjunto del proyecto,


particularmente, con el problema y el marco teórico, lo que se obtiene en la práctica
verificando que la hipótesis responda al problema; que las ideas contenidas en ellas
no sean contradictorias.

6. Que los enunciados sean claros y precisos con el uso adecuado del
lenguaje científico.

Es importante además identificar las variables del objeto en estudio y en


una investigación de tipo experimental considerar que la variable independiente
es la causa, es el estímulo; y es aquella que el investigador puede controlar o
manipular en función de lo que pretende obtener como resultado exacto y confiable
(VICAES) y que en el enunciado de la hipótesis constituye el sujeto de la oración,
igualmente identificar la variable dependiente considerada como el efecto de la
variación de la variable independiente (VADEF) y que en el enunciado es el
predicado o el criterio

En este mismo proceso identificar las variables intervinientes las que deben
ser controladas para “evitar“su acción en el experimento. De una adecuada
identificación de las variables dependerá su operacionalización y por lo tanto la
selección de los indicadores pertinentes.

Por un proceso deductivo seleccionar las consecuencias lógicas permitirá


establecer un diseño lógico adecuado y posteriormente un diseño experimental de
acuerdo a los criterios expuestos por Campbell y Stanley (1979); Sánchez y
Reyes(l987); Goode y Hatt (1986) y otros que definan adecuadamente el proceso
de contrastación de las hipótesis en términos de fácil comprensión y explicación
que posteriormente permitirá establecer todo el diseño metodológico.

EVALUACION DE MATERIAL Y METODOS

Se debe delimitar adecuadamente el área de estudio sobretodo cuando se


trata de estudios descriptivos considerando:

1. Lugar donde se realizará el estudio.


2. Delimitación geográfica.
3. Institución y otras consideraciones témporo-espaciales

Las consideraciones de población y muestra son de singular importancia


pues la primera es aquella en la que se generalizarán los resultados y de la cual
únicamente se tomará una porción adecuada para que, realizadas las mediciones
se puedan hacer las inferencias respectivas.

Se evaluará aquí la delimitación del tamaño de la población y la muestra


asociada a criterios de tiempo, costo, profundización del análisis de variables y su
control. . En la mayoría de los casos se debe indicar la fórmula utilizada para
287

determinar el tamaño de la muestra y las consideraciones pertinentes para su uso;


adoptadas para su selección, e igualmente verificar si el proceso de muestreo es
el mas adecuado para cumplir con los requisitos señalados por Pardinas(1979) que
expresa que: el muestreo consiste en seguir un método, un procedimiento,
tal que al escoger un grupo pequeño de una población se pueda tener un
grado de probabilidad de que ese pequeño grupo posea efectivamente las
características el universo que estamos estudiando

El diseño o técnica de observación implica generalmente la esquematización


de todo el proceso que comprenderá la experiencia (en el caso de los estudios
descriptivos) o el experimento (en el caso de estudios experimentales). Es mucho
más didáctico presentar un esquema que escribir cientos de palabras. Sin embargo
la secuencia lógica y ordenada en que se presenta es un punto importante a
considerar.

En lo relacionado a instrumentos se debe evaluar las características de los


instrumentos de lápiz y papel (formularios, encuestas, etc.) y los de medición
en lo relacionado a su confiabilidad y validez e igualmente la pertinencia del uso en
el momento necesario y concreto (Hernández et al, l994).

Las técnicas de recolección de datos debe ser planificada a fin de dar


respuesta objetiva al problema planteado y a la hipótesis formulada dependiendo
del tipo de estudio y los indicadores de las variables a medir.; aquí es conveniente
considerar los criterios de Cervo y Bervian (1980) que sugieren reglas para la
observación como un proceso fundamental en el acopio de datos.

Las técnicas de análisis deben describir los métodos para presentar los
datos, por ejemplo en cuadros, figuras y gráficos pues éstos constituyen medios
esenciales para organizar y resumir una serie completa de datos
Desde la fase de planeamiento el investigador se formará una imagen mental
sobre como organizar los datos y presentarlos en forma tabular

Las técnicas estadísticas dependen de los diseños estadísticos y no a la


inversa en otros términos el investigador decide cual diseño permitirá observar las
relaciones hipotéticas y enseguida selecciona el procedimiento que concuerde con
sus preguntas y con la índole de sus datos. No elige primero una técnica atrayente
y diseña después el estudio para que encaje en ella. .Un criterio importante es
asegurarse de que la información sea buena y confiable antes de proceder a
planificar cualquier tipo de análisis.

Un plan de tabulación podría ser correctamente evaluado si considera:

i) En detalle las variables identificadas que serán objeto de estudio.


ii) Determinadas las variables que serán analizadas individualmente o
aquellas que involucren cruce según el número y las escalas de
clasificación.
iii) En algunas ocasiones incluye el listado de cuadros que se presentarán.

Pineda et al (1994) consideran que el plan de análisis es un aspecto muy


importante pues es lo que determinará si se da respuesta a las preguntas de
investigación y que involucra el tratamiento estadístico de los datos, en términos
generales describe como será tratada la información, los mismos autores
288

establecen una relación muy interesante entre las escalas de medición y las
estadísticas por nivel que se exponen a continuación:

Escala Nominal : Modo, frecuencia, coeficiente de contingencia, Chi


cuadrado.
Escala Ordinal : Mediana, percentiles, rangos, cuartiles, Spearman rho,
Kruskal-Wallis (mas todas las anteriores ).
Escala de intervalo: Promedio, desviación estándar, varianza y correlación
de Pearson; correlaciones proporciones múltiples,
Prueba T, Prueba F, análisis de varianza (mas todas
las anteriores).

Mayores explicaciones y mas directas se obtendrán si se comparan las


consideraciones hechas en el proyecto con lo sugerido por Morles (1977) y Torres
(1994). Que se adjuntan

GUIA PARA LA EVALUACION DE PROYECTOS


DE INVESTIGACION

PUNTAJE No
ASPECTOS 0 1 2 345 Aplicables

A) Cualidades del Tema


1. Importancia del problema
2. Originalidad
3. Interés
4. Factibilidad
5. Delimitación

B) Cualidades Teórico-Conceptuales
6. Formulación del problema
7. Objetivos de la investigación
8. Limitaciones
9. Revisión de la literatura
10. Bases teóricas
11. Definición de términos
12. Supuestos
13. Sistemas de variables
14. Sistemas de hipótesis

C) Cualidades Metodológico-Operacionales
15. Población y muestra
16. Diseño de observación
17. Instrumentos
18. Técnicas de recolección de datos
19. Técnicas de análisis
20. Estudio piloto
21. Recursos propuestos

D) Cualidades Formales
22. Lenguaje y estilo
23. Presentación
289

24. Bibliografía
25. Anexos

EVALUACION GENERAL
PUNTOS

GUIA PARA LA EVALUACION DE PROYECTOS


DE INVESTIGACION

PUNTAJE No
ASPECTOS 0 1 2 3 4 5
Aplicables

A) Cualidades del Tema


1. Importancia del problema
2. Originalidad
3. Interés
4. Factibilidad
5. Delimitación

B) Cualidades Teórico-Conceptuales
6. Formulación del problema
7. Objetivos de la investigación
8. Limitaciones
9. Revisión de la literatura
10. Bases teóricas
11. Definición de términos
12. Supuestos
13. Sistemas de variables
14. Sistemas de hipótesis

C) Cualidades Metodológico-Operacionales
15. Población y muestra
16. Diseño de observación
17. Instrumentos
18. Técnicas de recolección de datos
19. Técnicas de análisis
20. Estudio piloto
21. Recursos propuestos

D) Cualidades Formales
22. Lenguaje y estilo
23. Presentación
24. Bibliografía
25. Anexos
290

EVALUACION GENERAL PUNTOS

DISEÑO METODOLÓGICO

Se consideran los aspectos siguientes:


1. Tipo de estudio
2. Área de estudio
3. Universo y muestra
4. Métodos e instrumentos de análisis
5. Plan de tabulación y análisis
6. Procedimientos.

Se debe delimitar adecuadamente el área de estudio sobretodo cuando se trata


de estudios descriptivos considerando: 1.lugar donde se realizará el estudio. 2.
Delimitación geográfica. 3. Institución y otras consideraciones temporo-espaciales

Las consideraciones de población y muestra son de singular importancia pues


la primera es aquella en la que se generalizarán los resultados y de la cual
únicamente se tomará una porción adecuada para que, realizadas las mediciones,
se puedan hacer las inferencias respectivas. Se evaluará aquí la delimitación del
tamaño de la población y la muestra asociada a criterios de tiempo, costo,
profundización del análisis de variables y su control.. En la mayoría de los casos se
debe indicar la fórmula utilizada para determinar el tamaño de la muestra y las
consideraciones pertinentes para su uso. adoptadas para su selección, e
igualmente verificar si el proceso de muestreo es el mas adecuado para cumplir con
los requisitos señalados por Pardinas (1979) que expresa que: el muestreo
consiste en seguir un método, un procedimiento, tal que al escoger un grupo
pequeño de una población se pueda tener un grado de probabilidad de que
ese pequeño grupo posea efectivamente las características del universo que
estamos estudiando

El diseño o técnica de observación implica generalmente la esquematización


de todo el proceso que comprenderá la experiencia (en el caso de los estudios
descriptivos) o el experimento (en el caso de estudios experimentales). Es mucho
mas didáctico presentar un esquema que escribir cientos de palabras, sin embargo
la secuencia lógica y ordenada en que se presenta es un punto importante a
considerar.

En lo relacionado a instrumentos se debe considerar las características de los


instrumentos de lápiz y papel (formularios, encuestas, etc.) y los de medición en
lo relacionado a su confiabilidad y validez, e igualmente la pertinencia del uso en
el momento necesario y concreto,(Hernandez et al, l994).

Las técnicas de recolección de datos debe ser planificada a fin de dar


respuesta objetiva al problema planteado y a la hipótesis formulada dependiendo
del tipo de estudio y los indicadores de las variables a medir.; aquí es conveniente
291

considerar los criterios de Cervo y Bervian (1980) que sugieren reglas para la
observación como un proceso fundamental en el acopio de datos.

Las técnicas de análisis deben describir los métodos para presentar los datos,
por ejemplo en cuadros, figuras y gráficos pues éstos constituyen medios
esenciales para organizar y resumir una serie completa de datos, por lo que desde
la fase de planeamiento el investigador se formará una imagen mental sobre
como organizar los datos y presentarlos en forma tabular

Las técnicas estadísticas dependen de los diseños estadísticos y no a la


inversa en otros términos el investigador decide cual diseño permitirá observar las
relaciones hipotéticas y en seguida selecciona el procedimiento que concuerde con
sus preguntas y con la índole de sus datos. No elige primero una técnica atrayente
y diseña después el estudio para que encaje en ella. Un criterio importante es
asegurarse de que la información sea buena y confiable antes de proceder a
planificar cualquier tipo de análisis.

Un plan de tabulación podría ser correctamente formulado si considera:

i) En detalle las variables identificadas que serán objeto de estudio.


ii) Determinadas las variables que serán analizadas individualmente o aquellas
que involucren cruce según el número y las escalas de clasificación.
iii) En algunas ocasiones incluye el listado de cuadros que se presentarán.

Pineda et al., (1994) consideran que el plan de análisis es un aspecto muy


importante pues es lo que determinará si se da respuesta a las preguntas de
investigación y que involucra el tratamiento estadístico de los datos, en términos
generales describe como será tratada la información, los mismos autores
establecen una relación muy interesante entre las escalas de medición y las
estadísticas por nivel que se exponen a continuación : en la escala nominal
(Modo , frecuencia, coeficiente de contingencia, Chi cuadrado); en la escala
ordinal ( Mediana, percentiles, rangos, cuartiles, Spearman rho, Kruskal-Wallis,
mas todas las anteriores ) y en la escala de intervalo :(Promedio, desviación
estandar, varianza y correlación de Pearson correlaciones proporciones múltiples,
Prueba T, Prueba F, análisis de varianza; mas todas las anteriores). Mayores
explicaciones y mas directas se obtendrán si se comparan las consideraciones
hechas en el proyecto con lo sugerido por Morles (1977) y Torres (1994), que se
adjuntan

“Un hoy vale por dos mañanas, si amas la


vida, economiza el tiempo, porque de
tiempo se compone la vida”.
B. Franklin
292

ESTADÍSTICA INFERENCIAL: RECUERDOS Y RECOMENDACIONES

La investigación científica tiene tres pilares que soportan su complicada


estructura. Estos pilares son:
a. Lógica, destinada a velar por la conservación de la verdad en los juegos
interferenciales propios de la ciencia; es decir que cuando se deduce e induce,
no surjan desviaciones y se produzcan resultados fallados o falsos.
b. Lenguaje, medio general de transmisión de ideas, las que deben ser
reproducidas fielmente sin distorsiones, sin apartar de la realidad, es decir que
cuando algo se dice con palabras se usen las adecuadas y se organicen de
manera tal que no siembren dudas u otras ideas no relativas al asunto, dentro
de los linderos de la semántica y la sintaxis.
c. Estadística, destinada por un lado a describir clara y simplemente las
realidades; a representar las, independientemente de su magnitud, aunque
fueran muy grandes las dimensiones que pudieran ostentar y a determinar el
comportamiento de esas grandes magnitudes empíricas en comparación con
los comportamientos normales (teóricos), de otro lado. Corresponde la primera
a la Estadística Descriptiva, a la Inferencial la segunda.

Se tratará ahora, de algunas partes del tercer pilar de la ciencia, de aspectos


teóricos y prácticos de la Estadística Inferencial, útil para investigadores poco
relacionados con la doctrina matemática en busca de mejor entendimiento con el
asesor especialista.
La estadística inferencial o analítica tiene una sola finalidad dominante:
determinar si los hallazgos tienen significación estadística. Se sabe que
significación estadística debe entenderse como la medida de la poca participación
del azar en los resultados. Esto quiere decir que si el azar participa mucho en los
resultados no hay significación estadística y si lo hace discretamente los resultados
son significativos. El valor convencional que sirve de punto crítico es 5%. Entonces
si se obtienen valores de 2%, 12%, 30% y 0.1%; se estará frente a resultados
significativos, no significativos, no significativos y significativos; respectivamente.
De lo mencionado anteriormente se pude concluir un hecho muy importante tan
importante como elemental y obvio que la aplicación de la estadística inferencial
sólo será procedente en caso de participación al azar. Es decir cuando se trabaje
con muestreo aleatorio. De ninguna manera en los censos. Ni cuando se confíe en
293

la opinión de expertos que usa el muestreo no aleatorio, en la solución de muchos


problemas científicos.
También resultará conveniente el tener en cuenta que un resultado
significativo no es prueba de verdad, es sólo un testimonio, algo que advierte si se
está caminando cerca de la teoría matemática o muy lejos de ella, tanto que
podríamos estar totalmente perdidos.

Significación estadística es la probabilidad de participación del azar en los


resultados de un experimento, se representa por p y su cálculo requiere de los
resultados del experimento perfectamente planificado y de muchos conocimientos
de la teoría estadística: pruebas, modelos, potencia, eficiencia, colas, zonas de
aceptación y rechazo, errores alfa y beta, parámetros, estadísticos, correlaciones,
progresiones, varianza, tablas, formulas, etc.

Como el conocimiento científico es un conocimiento intencional, para


lograrlo se necesita una adecuada y completa planificación. La actividad científica
es un a actividad intelectual, del más alto nivel, que no puede ser tributaria de la
improvisación ni del descuido. En esta etapa de planificación, que el investigador,
decide las pruebas a usar; es en esta etapa que debe consultar al asesor
especialista. Pues muchas veces aun cuando la muestra no sea aleatoria, el azar
puede intervenir en la distribución de los elementos a tal o cual grupo de
observación, a tal o cual variable estímulo.

Uno de los problemas más complicado, para los investigadores con pobre
formación estadístico, es la selección de la prueba. Entran en juego muchos
factores, por un lado y existe diversidad de pruebas, por el otro. Las pruebas se
clasifican en paramétricas y no paramétricas; pero esta no es una clasificación
exclusiva y excluyente. Hay casos de uso de unas siendo no paramétricas y de
otras paramétricas, con resultados muy similares; como también hay pruebas
mixtas. Así mismo, debe recordarse que todas las distribuciones, cuando aumentan
de tamaño terminan por normalizarse, es decir toman las características de la
distribución normal.

Sin embargo, esta multitud creciente de pruebas derivan de pocos modelos


estadísticos, todos destinados a obtener el valor p.
294

Valor P
Para calcular el valor p deben darse los siguientes pasos:
- ejecutar la investigación planeada.
- Obtener los datos
- Ordenar y presentar los datos con el auxilio de la estadística
descriptiva.
- Identificar la existencia de distribución y, si la hay conocida, su tipo.
- Alimentar la fórmula correspondiente y realizar cálculos.
- Obtener el valor experimental.
- Obtener el valor tabular, que requiere de tomar en cuenta el tipo de
distribución.
- Tomar en cuenta el tamaño de muestra.
- Establecer los grados de libertad, si son pertinentes.
- Ubicar la tabla y leer en ella

El valor tabular obtenido será comparado con la siguiente escala


convencional:

P < 0.05 = significativo


P < 0.01 = muy significativo
P < 0.001 = altamente significativo

En síntesis: si P> 0.05 no hay significación estadística, el azar participa


demasiado y podría ser el principal responsable de las diferencias observadas.

MODELOS ESTADÍSTICOS
Los modelos estadísticos sirven para derivar las fórmulas estadísticas o
estadísticos, simplemente; que son muchos y que día a día se incrementan por
nuevas creaciones.
Los principales y más comunes resultan de comparar:
- Parámetro con estadístico
- Estadístico con estadístico
- Frecuencia observada con esperada
- Sucesiones observadas con esperadas.
295

- Valores de variables con valores de otra variable u otra observación.


- Dato A con Dato B por pares.

 Parámetro con estadístico:


Compara valores poblacionales conocidos o supuestos con valores
muestrales de la misma naturaleza. Es decir, por ejemplo, el promedio poblacional
con el muestral o las varianzas de ambos, muestra y población o las proporciones
poblacionales y muestrales.

En la práctica se usa para investigar incidencias o prevalencias. Si se sabe,


por ejemplo, que tal enfermedad tiene una tasa de 64%. Cabe preguntar ¿Ha
bajado realmente? ¿La diferencia es fruto de las fluctuaciones del azar?
Se pretende determinar si la diferencia es real o fluctuación por azar. La
prueba paradigma de este modelo es la Prueba Z.

 Estadístico con estadístico:


Compara valores de dos muestras. El promedio de una muestra
experimental con el promedio del testigo, por ejemplo, o la varianza de ambos o las
proporciones de dos muestras.
Se usan los valores sintéticos o consolidados de cada muestra. En otras
palabras, que si las muestras tienen:
X = 3 resultante de los datos 2, 2, 4,4
X = 4 resultante de los datos 3, 3, 5,5
Se utilizan los valores 3 y 4 (medias) o los datos 2, 2, 4,4 y 3, 3, 5,5.

En la práctica sirve para establecer si la variable independiente o estímulo


es efectiva. Pues de ocurrir así, los estadísticos tendrán diferencias significativas,
entr los grupos experimental y testigo.
Las pruebas prototipo de este modelo son la F de Fisher y la t de Student.

Análisis de varianza
El análisis de la varianza resulta útil y certero para estudiar series de una,
dos o más variables (uni, bi y polivarianza). Establece las varianzas en las serie de
datos, por campos para ser comparados con la varianza total, y establecer así el rol
del azar y cada una de las subcategorías de las variables.
296

El valor práctico radica en permitir estudiar múltiples factores de una sola


vez, con gran potencia y eficacia, que no se lograría; por ejemplo si en una serie de
cuatro observaciones aplicáramos la prueba t varias veces y que además elevaría
incontrolablemente el error beta.

El análisis de la varianza en la práctica podría servir para comparar varios


fármacos en el tratamiento de determinado proceso patológico o varios factores
causales.

 Frecuencia observado con esperada


No requiere del conocimiento del tipo de distribución ni de varianza. Este
modelo consiste en contar cuántos casos positivos hay en la muestra aleatoria,
para compararlos con las frecuencias esperadas, teóricas o predeterminadas.
En la práctica sirve para establecer a asociación o independencia de dos o
más variables, sin relación causa – efecto definitivo o necesario.
El paradigma de este modelo es la Prueba del X 2, que busca medir la
aleatoriedad de los resultados.
 Sucesiones observadas con esperadas
Cuando no existen más valores matemáticos que los contajes, la
aleatoriedad se puede establecer únicamente por la sucesión de los datos.
A la aparición continuada de la misma calidad o categoría se llama
Sucesión o Racha. Si observamos el orden de aparición experimental y
comparamos con el orden probable o teórico estamos en tal caso. En estas ideas
se basa toda la estadística no paramétrica. Es decirla estadística de las cualidades
o de los atributos, de todo lo que no es medible, de todo lo que es sólo contable.
Tal el valor práctico de las Pruebas de la mediana, de los signos, la U; entre
otras muchas.

 Cada valor de una variable con los de otra.


Es este un modelo muy importante. Compara cada valor de una variable en
dos observaciones de la misma o de otra. Incluye:
- Correlaciones
- Regresiones
297

Busca asociaciones y relaciones causa – efecto, es altamente


discriminativos y permite anticipar valores no conocidos (regresiones) y
responsabilidades en los cambios.
En la práctica las correlaciones miden el grado de asociación, entre valores
observados, sin relación causa – efecto y sin posibilidades de proyección Ro(r) el
índice de correlación toma valores entre 1,0, - 1; para a correlación directa,
independencia e indirecta, respectivamente, cuando son perfectas, con la existencia
de todos los valores intermedios y sin delimitaciones netas y puntuales.
Entiéndase que correlaciones miden cuánto y en qué forma se asocian dos
variables, sin que una sea responsable de los cambios de otra. Sólo nos dice éstos
caminan junto o separados y cuan ligadas.
La regresión sí trata de establecer una relación causal y el grado de ella,
tanto que permite anticipar valores no observados con gran certeza.

 Dato con dato


Corresponde al modelo secuencial. Consiste en seleccionar aleatoriamente
un primer caso par someterlo a cierto tratamiento A o B y dar al siguiente el otro
tratamiento no seleccionado inicialmente. Comparar los resultados de la pareja y
anotar en gráfica ad – hoc al ganador; para seguir de la misma manera hasta
rebasar cierto límite previamente establecido, en función de la magnitud del valor p.
Se trabaja sin tamaño predeterminado de muestra y es muy práctico para
observaciones clínicas.

MODELOS DE DISTRIBUCIONES PROBABILÍSTICAS


Son esenciales para la inferencia; puesto que permiten calzar el modelo
experimental con la prueba pertinente.

Modelo de Bernoulli:
Aplicable cuando la variable aleatoria puede asumir sólo dos valores.
Ejemplo:
1 y 0 con p y q como sus probabilidades respectivas y p+q con E(x)=u=p y
V(x)=s2=E(x2)=p-p2=p(1-p)=pq
Casos:
Cuando el resultado dé un evento o su supuesto
Éxito – fracaso
298

Positivo – negativo
Femenino – masculino
Defectuoso – no defectuoso

Modelo Binomial:
Equivale a series repetidas e independientes de Bernoulli, con las
propiedades siguientes:
1.- Se repite experimento sencillo varias veces y resultados son
independientes.
2.- Resultados son dos categorías mutuamente excluyentes (éxito-fracaso).
3.- La probabilidad (p) de éxito en una prueba es invariable en todas sus
pruebas.
(q) probabilidad de fracaso= (1-p).
4.- En pruebas determinadas se buscan resultados positivos o no.
5.- Se realiza experimento idéntico en número fijo de pruebas.

La variable Binomial es discreta y tiene n+1 valores posibles. Sirve para


resolver problemas como:
¿En número de pruebas, cuál es la probabilidad de obtener x éxitos?
La función probabilística binomial se representa con la expresión:
b (x;n,p)=(ca)pxqx-n término de Binomial! (q+p)n con E(x)=np y V(x)=npq

Modelo Multinomial:
También se ocupa de pruebas independientes como el Binomial que puede
considerarse un caso especial, pues el Multinomial resulta de reemplazar los
coeficientes Binomiales por Multinomiales.
Aplicable a experimentos como:
-K resultados posibles mutuamente excluyentes.
-Con probabilidades p1+p2+……pk=1
-Repetido el experimento n veces sirve para resolver problemas como:
¿Cuál es la probabilidad de obtener exactamente x1 ocurrencias en e1 x2 en
e2 …..xk en ek; dado que x1 + x2 + x3 ………xk-n?

Modelo Hipergeométrico:
299

Aplicable a muestreo de población finita sin reemplazo, con elementos cuyos


resultados pueden ser solo de dos categorías: éxitos-fracasos. Con eventos
de-pendientes por no haber reemplazado y con probabilidades que varían
con cada tirada. El núnero de éxitos en las n pruebas dependientes se llama
Variable Hipergeométrica y se genera con tres números fijos N n y k.
El Modelo Hipergeométrico es mejor que el Binomial si el muestreo es
destructivo.

Modelo Uniforme Discreto:


Aplicable a experimentos que pueden terminar en n formas mutuamente
excluyentes e igualmente posibles. Con expresión:
u (x,r)=1/(Nn)

Modelo de Poisson:
Aplicable cuando interesa conocer la ocurrencia de un evento más no su
ocurrencia, como:
1.- Probabilidad de las n ocurrencias por unidad de tiempo o espacio t,
idénticas; sin importar tamaño para determinación del promedio.
2.- Eventos independientes entre intervalos temporo-espaciales.
3.- Promedio constante y positivo, que determina para intervalos pequeños:
Eventos proporcionales a intervalos.
Probabilidad de más de un evento en intervalos despreciables.
La función de probabilidad es:
P (r;u)=S(x;u)

Modelo Uniforme y Continuo:


Corresponde a variable aleatoria cuyo valor está comprendido en intervalo
finito para número finito, con probabilidades constantes. La probabilidad de
un subintervalo tendría la probabilidad proporcional a la longitud del
subintervalo.
Modelo Exponencial:
Ante una secuencia de eventos que siguen la Ley de Poisson, en una tasa
de u eventos por unidad de tiempo cabe preguntar ¿Cuánto tiempo
necesitamos esperar para observar la primera ocurrencia de un evento?
Con P(x)>x=P( no ocurrencia en (O, x))=eu donde:
300

u =medida de ocurrencia por unidad de tiempo


x =intervalo entre sucesos
e =base de logaritmos naturales

Modelo Normal General:


Con variable continua, con las constantes u y s, con valores de la medida
entre menos y más infinito.
Propiedades:
a. está definida la probabilidad por la distancia entre mu y sigma.
b. a mayor desviación de mu a x, menor probabilidad de densidad de x.
c. la curva para n tiene 2 puntos de inflexión a distancia sigma.
d. la curva nunca toca el eje de las x, va al infinito.
e. cambio de una mu desplaza toda la distribución, mientras el sigma altera
posición relativa.
f. cambio linear de escala da distribución normal.
g. si los valores de la variable son independientes su suma también lo es.
h. si X está normalmente distribuida Z = (x -)/s. transforma x a Z en unidades
de desviación estándar.

Modelo Normal Estandarizado:


Una distribución estandarizada si  = 0 y s2 = 1 con función de distribución.
P(a< x <b) = N(b) – N(a)
El modelo de distribución normal; es el más importante porque:
- muchos fenómenos siguen la ley de probabilidad normal.
- Se aproxima a muchas distribuciones.
- De él derivan otras como t, X2 y F.
- Y se convierten en normal cuando el tamaño es suficientemente grande.

Pruebas Estadísticas
Derivan de los modelos revisados y son múltiples. Pero en general buscan
valores estandarizados del error estadístico.
Recordemos que error estadístico se llama a la diferencia entre el parámetro
y el estadístico, entre valores poblacionales verdaderos y los muestrales obtenidos.
En general:
EE = P – E
301

Ejemplos:
EE =  - x
EE = s2 – s2
Pero como la media, median, moda, proporciones, etc, serán muy distintas
de una variable a otra hay necesidad de convertirlas a valores uniformes para poder
compararlas e inferir acertadamente. Es decir hay que expresarlas en las mismas
unidades, a esto se llama estandarizar y se logra dividiendo el error estadístico por
el error estándar o desviación de la media.
Si trabajamos con tallas  (mu) podría resultar en 175 cm y la media
muestral x en 170; entonces el error estadístico será 175 – 170 = 5 cm. Pero si lo
hacemos con hemoglobina con media poblacional de 14 y muestrale de 13 el error
estadístico será 1 g. Más ¿Qué conclusión podemos sacar de comparar 5cm con
1g? De allí la necesidad de la estandarización. Esta se logra convirtiendo los
valores a unidades de desviación correspondiente. Para el ejemplo planteado, los
errores estándar estimados son de 2cm y 0.5g.; respectivamente, que nos darían
unidades estandarizadas Z = 2.5 y 2. Demostrando gran similitud en los
comportamientos de variables y de unidades tan diferentes. Las inferencias
resultarán más próximas a la realidad y tendrán más sentido.

Clases de Pruebas Estadísticas


a. Paramétricas
Z para medias
Para proporciones
X2 para varianza
F
T para desviación poblacional desconocida n pequeña
Para dos media con n pequeña con muestras dependientes.
b. No paramétricas
Mediana para sucesiones del signo
X frecuencia de dos o mas clases para independencia (contingencia) para
homogeneidad.
Mediana para dos muestras independientes para dos muestras iguales.
Wald-wolfowitz para muestras independientes.
Wilcoxon para dos muestras iguales.
H de Kruskal-Wallis
302

U de Mann-Whitney

c. mixta
Correlaciones
Regresiones

Ejemplos:

- Caso 1
Hipótesis:
El tratamiento A es mejor que el B
Resultados
Media (DS) n ANTES DESPUÉS
Grupo A 10 25(0.6) 20 (0.2)
Grupo B 8 24(0.5) 22 (0.5)
Identificación de Datos:
Antes Después
25 = Xa 20 = Xa
24 = Xb 22 = Xb
0.6 = Sa 0.2 = Sa
0.5 = Sb 0.5 = Sb
nA = 10 nB= 8
Análisis:
Tipo de variable : continua
Tipo de prueba : paramétrica
Tamaño de muestra : pequeña
Modelo estadístico : estadístico
con estadístico
Conclusión: Prueba F
Prueba t

- Caso 2
Hipótesis:
El tratamiento A es mejor que el B
303

Resultados
antes después
A 18 15
B 16 2
Identificación de datos:
18 = na
16 = nb
15/18 = pa
2/16 = pb
34 = total n
Análisis:
Tipo de variable : discreta
Tipo de prueba : no paramétrica
Tamaño de muestra : grande
Modelo estadístico : proporciones
Conclusión:
1- Z para proporciones
2- X2

- Caso 3
Hipótesis:
El tratamiento A es mejor que el B, C, D.
Resultados
A B C D T
1 6 4 3 8 21
2 8 5 2 2 17
3 3 5 2 3 13
4 2 3 6 0 11
T 19 17 13 13 62
Identificación de Datos
1, 2, 3, 4 = pruebas observadas
4 = Tamaño A, B, C
A, B, C, D = Categorías
3 = Tamaño D
19 = Total A
304

15 = Tamaño Total
17 = Total B
21 = Total OBS 1
13 = Total C
17 = Total OBS. 2
13 = Total D
13 = Total OBS. 3
62 = Gran Total
11 = Total OBS. 4
Análisis:
Tipo de variable : continua
Tipo de prueba : paramétrica
Tamaño de muestra : grande
Modelo estadístico : varianza vs varianza
Conclusión: ANÁLISIS DE COVARIANZA
- Caso 4.
Hipótesis:

La incidencia del proceso será más alta el año siguiente.


Resultados
Antes después
22% 26%
n = 120
Identificación de datos:
22 = p
26 = p
120 = n
Análisis:
Tipo de variable : discreta
Tipo de prueba : no paramétrica
Tamaño de muestra : grande
Modelo estadístico : parámetro con estadístico.
Conclusión:
Z para proporciones
-
305

Caso 5.
Hipótesis:
El procedimiento A es mejor que B y C.
Resultados
A B C T
Positivos 12 11 10 33
Negativos 3 8 10 21
Total 15 19 20 54
Identificación de Datos:
12, 11, 10, 3, 8,10 = frecuencias observadas
54 =N
15 = TA
19 = TB
20 = TC
33 = T positivos
21 = T negtivos
Análisis:
Tipo de variable : discreta
Tipo de prueba : no paramétrica
Tamaño de muestra : pequeño
Modelo estadístico : frecuencia observada vs frecuencia esperada.
Conclusión
Prueba del X2
Caso 6.
Hipótesis:
La variable A disminuye los latidos cardíacos.
Resultados:
Pacientes antes después
1 80 70
2 76 76
3 100 99
4 72 74
5 80 70
6 95 110
7 70 76
306

8 65 63
9 75 72
10 90 88
Identificación de Datos:
Todos datos pareados
Análisis:
Tipo de variable : discreta
Tipo de prueba : no paramétrica
Tamaño de muestra : pequeño
Modelo estadístico : aleatoriedad de diferencias.
Conclusión:
Prueba de Wilcoxon.

PROCEDIMIENTO PRÁCTICO PARA SELECCIONAR LA PRUEBA


Paso 1. Identificación de datos.
o Hacer una relación de los datos anotando a lado de cada uno su
símbolo.
Para ello:
 Leer cuidadosamente la hipótesis
 Plantear los resultados a obtener

(Usar letras griegas para parámetros y latinas para estadísticos).

Paso 2. Análisis de datos


Establecer:
- tipo de variable (continua o discreta)
- tipo de prueba (paramétrica, no paramétrica)
- tamaño de muestra (grande, pequeña)
- modelo estadístico.
Conclusión: Prueba…..
307

LA MONOGRAFIA

DEFINICION:
Es el tratamiento científico, sistemático, completo y metódico de un asunto
cualquiera, con el empleo del método científico sea este en el campo de las letras o
de las ciencias.

Según la Real Academia de la Lengua en Oblitas (1987); monografía, es el


tratamiento, científico y sistemático de una determinada parte de una ciencia o de
algún asunto en particular que se ejecuta con profundidad.

Con este nombre se conoce en la educación superior al primer intento de


escribir un artículo científico; pero que requiere sin embargo de por lo menos una
adiestramiento previo en las técnicas de lectura, del resumen de un libro o cualquier
otra fuente bibliográfica y del manejo adecuado de las fichas de investigación.

De acuerdo al enfoque de Fox (1981) la monografía es el resultado de la


investigación bibliográfica que encuentra en el pasado la solución al problema
científico en estudio.

2.2. CARACTERISTICAS DE UNA MONOGRAFIA:


308

Para ser considerada como tal, una monografía debe reunir las
características siguientes:
1. EXACTITUD, para el tratamiento de los datos y el logro adecuado al
planteamiento de los problemas a solucionar.

2. IDONEIDAD, proveniente de la solvencia del investigador, según la cual


el trabajo monográfico debe ser adecuado para realizarlo
independientemente y con la solvencia intelectual requerida.

3. VERIFICACION: referida a la autenticidad de datos obtenidos, los que


permitirían verificar los reportados en la monografía.

4. IMPARCIALIDAD, un trabajo monográfico científicamente desarrollado


debe estar al margen de subjetivismos personales, esgrimiendo la
verdad escueta y precisa como un eje en el desarrollo de la monografía.

5. NOVEDAD en el tratamiento de temas desconocidos o marginados o


que necesitan aclaración y tratamiento profundo en beneficio del
autor(es) o de la comunidad intelectual en la que están inmersos y se
desenvuelven.

6. CLARIDAD en el manejo temático y el perfil estadístico, es decir


eliminando aspectos que formalmente constituyen adornos de
apreciaciones subjetivas que confunden al lector; además debe usarse
adecuadamente las propiedades del lenguaje para expresar con certeza
y elevado criterio, el pensamiento que se desea transmitir.

7. ENFASIS, para tratar un solo tema con la profundidad necesaria, sin


distorsiones que conlleven a errores de interpretación en el lector.
8. CORRELACION, para tratar el tema en forma secuencial en capítulos y
subcapítulos interrelacionados entre sí, de modo tal que exista una
manifiesta coherencia, exactitud, claridad en el fondo y forma y por lo
tanto en la elocución.

9. ELEGANCIA Y CORRECCION GRAMATICAL, el adecuado uso de la


semántica y la sintaxis en el leguaje, permitirá al autor expresar
claramente sus ideas y al lector le otorgará motivación e interés para
interpretar claramente lo que escrito está.

2.3. SELECION DEL TEMA MONOGRÁFICO

El punto de partida más importante en la elaboración de una monografía es


el sentir, verdadero entusiasmo por un tema y preferirlo entre otros, de modo tal que
se posibilite el acopio de numerosa y actualizada información sobre el tema.

El estudiante debe concentrar su atención y personal interés en el desarrollo


sistemático del tema, es decir que sea capaz de asimilarlo como una de sus mas
vivas preocupaciones.

Para la selección del tema monográfico se debe tomar en cuenta las


consideraciones que a continuación se mencionan

2.3.1. INTERES DEL INVESTIGADOR POR UN DETERMINADO TEMA:


309

Motivado por las perspectivas de estudios posteriores y futuros; por la


actualidad del problema a investigar y por la importancia que significa el aprendizaje
de la elaboración de una monografía para aplicarlo en otras asignaturas con las
aptitudes que el caso requiere.

2.3.2. DELIMITACION DEL TEMA; la precisión en el tema permite al investigador


abarcarlo con exactitud y trabajar con seguridad en la recopilación y ordenamiento
de los datos, realizando el esfuerzo necesario para aclararlo mediante cuidadosa
discusión

2.2.3. NOVEDAD DEL TEMA PROXIMO A ESTUDIARSE, esto implica que se debe
seleccionar temas que no hayan sido desarrollados por otros investigadores, es
decir no limitarse a transcribir otras monografías; sino a darle orientación personal,
particular y novedosa del tema monográfico.

2.2.4. ESTUDIO ANALITICO PRELIMINAR DE OTROS TRABAJOS

Relacionada con las fuentes de información , las que debe ser reputadas
como de máximo valor científico, actualizado y de preferencia, bibliografía
contenida en libros(bibliografía conceptual) o revistas u otras fuentes primarias de
investigación de carácter científico, publicados, evitando peculiares informaciones
periodísticas.

2.2. 5. ORIGINALIDAD, para aplicar los conocimientos científicos bajo la emisión de


juicios de valor y criterios de ordenamiento en la creación y elaboración de
documentos que como la monografía tienen valor científico.

2.2.6. EXTENSION DEL TEMA, éste debe ser pequeño en su extensión y sencillo
en su concepción de modo que el volumen del artículo no resulte en un número
exagerado de páginas, que distraiga la atención del lector o cree un clima de abulia,
cansancio y desgano para leerlo; sino que debe centrar la atención del lector en el
tema monográfico.
2.2.7. RELACION CON EL ASESOR; siendo éste un documentos científico,
conviene señalar que quien conduzca a estudiante en el desarrollo de una
monografía debe poner a disposición del estudiante investigador, su mejor
predisposición y orientarlo según su experiencia y conocimientos para una
adecuada selección y abordaje del tema lo mismo que para su elaboración y
presentación.

2.4. ESTRUCTURA DE UNA MONOGRAFIA


Se sugiere considerar en una monografía las acciones
1. SECCION PRELIMINAR
 Pasta
 Pagina titular
 Dedicatoria(*)
 Epígrafe(*)
 Contenido
 Lista de tablas
 Lista de figuras
2. CUERPO DE LA MONOGRAFIA
 Introducción
310

 Definición de términos
 Capítulos y subcapítulos
 Discusión
 Conclusiones
 Resumen
 Referencias bibliográficas
3. SECCION APENDICE
 Anexos(si los hubiere) (*) = opcional

2.4.1. SECCION PRELIMINAR

 PASTA Y PAGINA TITULAR, en la elaboración de esta parte de la


monografía se sugiere considerar lo siguiente:
1. NOMBRE DE LA INSTITUCION, completa y en forma de pirámide
invertida, con mayúsculas, sin comilla y luego la unidad académica a la que
pertenecen los autores.
2. TITULO, breve y conciso y resume en una frase el aspecto
fundamental de la investigación, corto, claro, generalmente no mas de 15
palabras, no usar abreviaturas y debe incluir los elementos principales del
problema a investigar.
3. AUTORES, nombres y apellidos completos en orden alfabético; pero
empezando por los nombres y señalando apellidos paterno y materno (en algunos
casos se estima conveniente utilizar los nombres y apellidos de los autores tal
com0o aparecen en la s publicaciones científicas de los cuales son autores
4. INTENCION Y FINALIDAD:
Indica el propósito de la elaboración y presentación de la monografía, por
ejemplo: monografía que se presenta para la asignatura de Biología Celular
5. LUGAR Y FECHA:
Para ubicar em el espacio y en el tiempo la monografía como u trabajo
científico.
A manera de ejemplo se ilustra en la figura 1 los diversos aspectos que se
deben incluir en la portada o página titular
 2. DEDICATORIA: es el reconocimiento que el autor(es) formula a
alguna persona o institución suele colocarse a la altura de la octava
línea próxima al margen derecho, no muy extensa, sin incluir
demasiados nombres , sobria , sin grandilocuencia ni sentimentalismos

 3. EPIGRAFE:
Destaca una determinada frase de cualquier autor que revele de modo
sugestivo o completo el sentido de la investigación; se recomienda en
este caso evitar el exceso, no menos de tres y no mas de quince líneas
cada una; se escriben a espacio simple y con distribución similar a la
dedicatoria.
 CONTENIDO
Es una lista de las partes del trabajo con sus respectivas divisiones y
subdivisiones, aquí se indica el número de las páginas en donde se
encuentran cada una de ellas según el orden en el que aparecen.

Las partes principales del cuerpo de la monografía se listan aquí con números
romanos, en mayúsculas, sin subrayar y seguidas de puntos suspensivos hasta un
311

centímetro antes de indicar la página; estas se empiezan a escribir en el margen


izquierdo, con números romanos, seguidas de punto y dos espacios.
La palabra CONTENIDO, debe ser escrita con mayúsculas y a 4 centímetros
del borde superior de la hoja, los títulos de sección estarán separados unos de
otros por doble espacio y los títulos de segundo orden solamente pro un espacio.

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


ESCUELA DE POST GRADO
MAESTRIA EN CIENCIAS
MENCION INGENIERIA AMBIENTAL

ECOETICA
312

AUTORES: CESAR ALBERTO GARCIA ESPINOZA


ANTERO CELSO VASQUEZ GARCIA

Monografía que se presenta como


requisito parcial del curso Metodología
de la Investigación Científica

LAMBAYEQUE, 2003
313

DEDICATORIA

SI PIENSAS QUE ESTAS VENCIDO; VENCIDO ESTAS


314

C BARNARD

AGRADECIMIENTO
315

CONTENIDO

Página

I. INTRODUCCION............................................................................. 1

II. DEFINICION DE TERMINOS....................................................... 3

III. ECOETICA.................................................................................. 5

3.1 DEFINICION................................................................... 5

3.2 FILOSOFIA......................................................................

3.3 CRITERIOS......................................................................

3.4 APLICACIONES.................................................................

3.5 LIMITACIONES..............................................................

3.5.1. Científicas............................................................
3.5.2 Técnicas...............................................................
3.5.2 Filosóficas..............................................................
316

IV. DISCUSION.................................................................................... 20

V. CONCLUSIONES.......................................................................... 23

VI. RESUMEN.................................................................................... 24

VII. REFERENCIAS BIBLIOGRAFICAS........................................... 25

VIII. ANEXOS........................................................................................ 26
317

I. INTRODUCCION

.............................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
................................................................................................................................

.............................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
....

.............................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
........

.............................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
.........................................................................................................................................
........

.............................................................................................................................
.........................................................................................................................................
318

II. DEFINICION DE TERMINOS

...............................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
...............................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
319

......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................

..........................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....................
320

III. ECOETICA

3.1. DEFINICION. ...........................................................................................


......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
......................................................................................................................................
....

3.2. FILOSOFIA

3.3
321
322
323
324
325
326
327
328
329
330
331
332
333

IV. DISCUSION

..........
334
335

V. CONCLUSIONES
336

VI. RESUMEN
MAXIMO 200 PALABRAS
337

VII. REFERENCIAS BIBLIOGRAFICAS

Siguiendo los criterios de Day ( 1994)


338

ANEXOS
339
340

UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO


FACULTAD DE CIENCIAS BIOLOGICAS

LA LLUVIA ACIDA

AUTOR: ÁNTERO CELSO VÁSQUEZ GARCÍA

Monografía que se presenta como


requisito parcial del curso de
Metodología de la Investigación
Científica

Lambayeque, 2005
341
342

I. INTRODUCCION

Los problemas ambientales globales que se evidencian en la


actualidad, básicamente son consecuencia de una inadecuada política de
desarrollo de la humanidad con una larga historia en la que, la
industrialización, marcó un punto de quiebre en la salud ambiental del
planeta tierra, Nuestro Hogar, hoy amenazada por numerosas situaciones
que la tornan un tanto vulnerable y proclive al daño ecológico en el que el
ser humano sufriría las peores consecuencias.

Glynn y Heincke (1999), consideran que los principales problemas


ambientales globales de origen antropogénico son: i) Efecto invernadero; ii)
Deterioro de la capa de Ozono y iii) La lluvia ácida, los que amenazan
incesantemente al ser mas inteligente sobre el planeta. Cuestión un tanto
contradictoria por cuanto él ha sido el creador de la mayoría de situaciones
que implican riesgo y peligro para si mismo.

Se ha considerado conveniente realizar esta investigación de tipo


bibliográfico en razón de que hay una diseminación del conocimiento
científico respecto a la lluvia ácida que va, desde la confusión en la acepción
de los términos hasta una sesgada interpretación de los datos y hechos
registrados hasta la actualidad y previstos para el futuro, mas aun en razón
de que las reacciones químicas implicadas en la producción de lluvia ácida
en la atmósfera son complejas y aún poco conocidas. Sin embargo por la
importancia que este problema reviste, tanto para docentes como para los
estudiantes universitarios en general y de los de la facultad de Agronomía en
La Universidad Nacional de Tumbes, en particular, se pretende abarcarlo con
una perspectiva científica y didáctica de modo tal que el documento sea útil
para los fines prácticos.

El documento abarca consideraciones pertinentes sobre el ciclo del


agua; los factores que influyen en él así como la contaminación atmosférica
343

originada por la lluvia ácida. De este último tema se analizan: el origen; las
fuentes; la extensión y fuerza, efecto sobre los organismos vivos y el medio
acuático y, terrestre y aéreo; se pretende explicar químicamente desde la
perspectiva de autores de publicaciones recientes, así como las
posibilidades tecnológicas para mitigar los efecto.

Se espera que al culminar la lectura del documento se logren los


objetivos siguientes:
1. Definir en forma sencilla el termino lluvia ácida,
2. Deslindar la terminología pertinente relacionada con la lluvia ácida.
3. Explicar desde la perspectiva de la Química, las reacciones
involucradas en el fenómeno de contaminación aérea denominada
la lluvia ácida
4. Ejercitar al estudiante para que dado un esquema del ciclo
hidrológico, indique con precisión las fuentes de contaminantes
que originan la lluvia ácida
5. Valorar los conocimientos existentes, de modo tal que
internalizados por los actores nos oriente a prever situaciones
proactivas para minimizar los efectos de la lluvia ácida.

II. DEFINICION DE TERMINOS


344

SOx .- Oxido de azufre


NOx .- oxido de nitrógeno
Lluvia natural o normal como la precipitación atmosférica en forma
de gotas de agua que resultan de la unión de las microgotas que, en
suspensión, se encuentran formando la nubes, originándose otras de mayor
tamaño que caen por acción de la gravedad (Seoanes, 1996).

Lluvia ácida, como forma de contaminación atmosférica, que se


origina cuando los óxidos de azufre y nitrógeno se combinan con la
humedad atmosférica para formar ácidos sulfúrico y nítrico, que pueden ser
arrastrados a grandes distancias de su lugar de origen antes de depositarse
en forma de lluvia

Deposición ácida, es lluvia, niebla, bruma, o nieve con más acidez


de lo normal

Precipitación ácida Así como también hay partículas secas en la


atmósfera, la combinación de deposición y caída de estas partículas

III. CICLO DEL AGUA


345

3.1 DEFINICION
Es el movimiento del agua de los puntos de evaporación a la atmósfera,
precipitación y nueva evaporación (Nebel y Wright, 1999). Llamado también
ciclo hidrológico, en esencia consiste en que el agua pasa a la atmósfera por
evaporación o transpiración y vuelve al suelo por condensación y
precipitación.
Hay tres circuitos principales en el ciclo: i) el circuito del escurrimiento
superficial, en el que el agua de lluvia se desplaza por el suelo y se
convierte en parte del sistema de aguas superficiales; ii) el circuito de
evapotranspiración, en el que el agua se infiltra, se retiene como agua
capilar y regresa a la atmósfera por evaporación y transpiración vegetal; y iii)
el circuito de agua freáticas, en el que el agua se infiltra, circula por
conductos acuíferos y sale por manantiales, fuentes o pozos, donde se une
al agua superficial. Estos tres se muestran en la figura 1.

1
3

Fuente: Nebel y Wright (1999)


Figura 1. Ciclo del agua

3.2. FACTORES QUE INFLUYEN EN EL CICLO DEL AGUA:


346

3.2.1. Temperatura ambiental


Es un factor importante básicamente porque si se incrementa la temperatura,
la evotranspiración aumenta forma significativa, tal como sucede en las
zonas tropicales y subtropicales; además, se debe considerar que el
incremento de la temperatura, afecta la actividad metabólica de los
organismos vivos de acuerdo al factor Q 10, explicitado en el sentido de que
un aumento de 10 ºC en la temperatura ambiental duplica la velocidad de las
reacciones enzimáticas. Según el Coeficiente de Temperatura. La velocidad
de nuevas reacciones biológicas se duplican aproximadamente con un
aumento de 10°C de temperatura (Q 10 = 2). Desde la perspectiva de Capó
(2002), la elevación de la temperatura hace aumentar la velocidad de
volatilización de los productos químicos, su solubilidad en el agua y las
velocidades de las reacciones en las cuales están implicados

3.2.2 Intensidad luminosa.


Al existir una mayor intensidad luminosa y también una mayor cantidad de
horas luz, la fotosíntesis en las plantas expuestas, es mayor, lo que origina
liberación de cantidades mayores de oxigeno y agua.

3.2.3 La naturaleza fisicoquímica del suelo


Dependiendo de la composición química del suelo (lecho) en los diversos
estratos, como por ejemplo, zonas rocosas, arenosas, fangosas, arcillosas;
la escorrentía, la precolación y la filtración varían considerablemente.

3.2.4 Características fisicoquímicas del agua confinada en ríos, lagos,


océanos y napa freática
Se incluyen características tales como: Temperatura, Oxigeno disuelto, CO 2,
dureza, pH y otros. El agua que penetra en el suelo queda retenida como en
una esponja. De ahí, la toman las plantas y la devuelven a la atmósfera por
transpiración. Cuando el suelo llega al límite de su capacidad de retención,
el líquido adicional que se filtra por su propio peso se denomina agua de
gravedad.
347

Las aguas freáticas son las que se acumulan sobre un estrato impermeable
y saturan los poros del suelo; la parte superior es el nivel freático. Las aguas
freáticas se extraen cavando pozos que superen el nivel freático o que se
desliza horizontalmente hasta que llega a un manantial; tal como se aprecia
en la figura 2.

Figura 2. Vías de infiltración del agua y su relación con el suelo

3.2.5. Condiciones climáticas, sobretodo el tipo, intensidad, velocidad


y dirección de los vientos, que influyen significativamente en el
desplazamiento de las masas de vapor de agua.

3.2.6. Altitud sobre el nivel del mar.


El aire húmedo de los vientos alisios se enfría conforme sube por la ladera
de una montaña. Las condiciones desérticas ocurren en el lado de sotavento
en tanto que el aire descendente se calienta y tiende a evaporar el agua del
suelo; comúnmente denominado sombra de lluvia. En otros términos el ciclo
348

en lo referente a la evaporación, es mayor en zonas de menor altitud, cerca


de nivel del mar siempre y cuando se trate de zonas tropicales (Figura 3)

Figura 3. Desplazamiento de los vientos en relación con la altitud snm y la


temperatura

3.3. RELACIÓN DEL CICLO DEL AGUA CON LA CONTAMINACIÓN


ATMOSFÉRICA
3.3.1 CONTAMINACIÓN ATMOSFÉRICA
3.3.1.1 DEFINICIÓN
Capó (2002) define contaminación atmosférica como “la presencia de
sustancias en la atmósfera que resultan de la actividad del hombre o de
procesos naturales y que producen efectos negativos en el hombre y en el
medio ambiente”. El mismo autor también la define, como la presencia en la
atmósfera de sustancias o energía en tales cantidades y de tal duración que
son capaces de causar daño a los hombres, las plantas o animales, de
dañar los objetos y estructuras fabricadas por el hombre, de provocar
cambios de temperatura y clima o dificultades para el cómodo disfrute de la
vida, de los bienes o de otras actividades humanas. Esta definición implica,
por consiguiente, la necesidad primaria de medir la cantidad o amplitud de
349

los distintos contaminantes previamente detectados, así como el tiempo que


permanecen activos en la atmósfera, dentro de la capa que sirve de sustento
vital al hombre, puesto que la atmósfera en una determinada zona esta
condicionada a la presencia de tres elementos primarios:1) fuentes de
emisión contaminantes, tales como chimeneas, tubos de escape, etc. 2)
condiciones, metereológicas que determinan la dispersión de los
contaminantes en las capas inferiores de la atmosférica. 3) receptores
animados e inanimados, sobre los cuales inciden y a quienes afectan los
contaminantes dispersados. De acuerdo con estas consideraciones; si
faltare cualquiera de estos tres elementos, no se permitiría la formación de
una zona con contaminación atmosférica.

3.3.1.2 FUENTES DE CONTAMINACION ATMOSFERICA


La contaminación atmosférica se generan desde dos fuentes: i) naturales y
ii) antropogénicos. Una lista de las fuentes naturales se muestra en la tabla
1. Tabla 1. Contaminantes Naturales del Aire

Fuente Contaminantes
Volcanes NOX, SOX, H2S, SCO, HCI, HF, etc
Cenizas y partículas sólidas
Incendios Forestales CO2, CO, NOx, SO2, CH3CL, HCN, etc.
Vientos Huracanados Partículas de Polvo
Plantas Vivas Hidrocarburos: Parafinas y terpenos, polen.
Plantas en
Desintegración CH4, H2S
Suelos Procesos de desinfección: N2O
Procesos Aeróbicos: NH3
Procesos anaeróbicos: CH4, NO; H2S
Mar Emisión de Gases CO, CO2, CH4, N2O, S2C, CH3CL
Partículas salinas.
Descargas Eléctricas NOx
Los contaminantes antropogénicos, denominados también contaminantes
primarios (los más importantes se muestran en la tabla 2), al ser liberados
al ambiente por las actividades del hombre, por cambios químicos y acción
de la luz solar en la atmósfera, se transforman en los denominados
contaminantes secundarios resultantes de una reacción química entre un
contaminante primario y uno o más componentes del aire.
350

Tabla 2. Contaminantes atmosféricos gaseosos

Tipo Contaminantes Contaminantes


primarios secundarios

Compuestos de Azufre SO2, H2S SO3 ; H2SO4

Compuestos de nitrógeno NO; NH3 NO2 ; NO3

Compuestos del carbono C1 – C3 Aldehídos, Cetonas,


Ácidos

Óxidos del carbono CO, CO2 Ninguno

Compuestos de los HF, HCl Ninguno


halógenos

FUENTE: Capó (2002, 61)

Otro criterio para clasificar los contaminantes atmosféricos más importantes,


es aquel que atendiendo a su estado físico considera:

i) Partículas sólidas y líquidas

ii) Gases y vapores

Desde la consideración de la presencia de contaminantes en las distintas


capas de la atmósfera se distinguen:

EN LA TROPOSFERA:

 Óxidos de Carbono, CO; CO2


 Óxidos de Nitrógeno: NO, NO2; N2O
 Óxidos de Azufre: SO2; SO3
 Compuestos Orgánicos Volátiles (COVs)
 Hidrocarburos, CH4, C6H6 ; Freones,
 Halógenos.
 Oxidantes fotoquímicos: PAN
 Macropartículas suspendidas: Polvo, Pb.
 Sustancias radiactivas: Rn, Po, I.
 Calor.
351

 Ruido.

EN LA ESTRATOSFERA:

 Oxido de Nitrógeno.

 Halometanos

3.4. LLUVIA NORMAL

Seoanez (1996), define la lluvia normal como la precipitación atmosférica


en forma de gotas de agua que resultan de la unión de las microgotas que,
en suspensión, se encuentran formando las nubes, originándose otras de
mayor tamaño que caen por acción de la gravedad. La lluvia es un
mecanismo natural de limpieza de la atmósfera y tiene propiedades de
acarreo únicas, remueve los gases atmosféricos, aerosoles, partículas, y
todos aquellos compuestos que han sido introducidos a la atmósfera por
diferentes fuentes de emisión naturales (erupciones volcánicas, incendios
forestales y descargas eléctricas) o antropogénicas (plantas de energía,
industria y transporte). Por lo tanto, la lluvia es un indicador útil de los niveles
de contaminación ambiental, que aporta datos valiosos acerca de entradas
de nutrientes y compuestos tóxicos a los sistemas terrestres y acuáticos.

3.5 LLUVIA ÁCIDA,

3.5.1. DEFINICION

Seoanes, op cit., define Lluvia ácida como la precitación de gotas de agua


que al entrar en contacto con óxidos de azufre y óxidos de Nitrógeno del aire
contaminado y por acción fotoquímica toma un carácter marcadamente
ácido.

Baird (2001) señala que el termino genérico Lluvia ácida cubre una
variedad de fenómenos que incluyen también a la niebla y a la nieve y ácida.
352

Gutiérrez et al., (1997) consideran a la lluvia ácida como forma de


contaminación atmosférica, que se origina cuando los óxidos de azufre y
nitrógeno se combinan con la humedad atmosférica para formar ácidos
sulfúrico y nítrico, que pueden ser arrastrados a grandes distancias de su
lugar de origen antes de depositarse en forma de lluvia. Adopta también a
veces la forma de nieve o niebla, o precipitarse en forma sólida

Glynn y Heincke (1999), mencionan que la lluvia normal tiene en términos


genéricos un pH aproximado de 5,60, atribuido al equilibrio entre el agua de
lluvia y el dióxido de carbono del aire, el cual se disuelve en cantidad
suficiente en las gotas para dar una solución diluida de ácido carbónico.
Igualmente señalan que la lluvia ácida tiene pH menor de 5,6 y en amplias
áreas del este de Norteamérica y del norte de Europa, donde predominan las
fuertes precipitaciones pluviales, la lluvia cae con un pH cercano a 4 y en
raras ocasiones de 3,0. La preocupación tiene relación sobre todo con los
efectos de la acidez en las poblaciones de peces y otros animales acuáticos
con daños potenciales a cultivos y bosques y con el creciente deterioro de
los materiales para construcción, incluso parece probable que las lluvias
acidificadas pudiesen penetrar en las reservas de aguas subterráneas y
aumentar la solubilidad de los metales tóxicos, Las aguas ácidas disuelven
también metales como el plomo y el cobre de las tuberías de agua caliente y
fría.

En la consideración de Nebel y Wright (1999) deposición ácida es lluvia,


niebla, bruma, o nieve con más acidez de lo normal. Así como también hay
partículas secas en la atmósfera, la combinación de deposición y caída de
estas partículas se denomina precipitación ácida (Figura 4)

De hecho, aunque el término lluvia ácida viene usándose desde hace más
de un siglo -procede de unos estudios atmosféricos realizados en la región
de Manchester, Inglaterra-, un término científico más apropiado sería
deposición ácida. La forma seca de la deposición es tan dañina para el
medio ambiente como la líquida.
353

Figura 6. Deposición Ácida, las emisiones de dióxido de azufre y óxidos de


Nitrógeno reacciones con los radicales hidroxilos y el vapor de aguad e
la atmósfera para formar sus ácidos respectivos, que caen como
deposición ácida seca o mezclados con agua como precipitación ácida

3.5.2. ORIGEN
El problema de la lluvia ácida tuvo su origen en la Revolución Industrial, y no
ha dejado de agravarse desde entonces. Hace mucho que se reconoce la
gravedad de sus efectos a nivel mundial, como ejemplifican los periodos de
smog ácido en áreas muy industrializadas. No obstante, la gran capacidad
destructiva de la lluvia ácida sólo se ha hecho evidente en las últimas
décadas. En algunas latitudes, la lluvia ácida ha erosionado estructuras, ha
dañado los bosques y las cosechas, y ha puesto en peligro o diezmado la
vida en los lagos de agua dulce.
Se atribuye a las emisiones industriales ser la principal causa de la lluvia
ácida. Debido a que las reacciones químicas implicadas en la producción de
lluvia ácida en la atmósfera son complejas y aún poco conocidas, las
industrias tienden a rechazar la imputación y a hacer hincapié en la
necesidad de realizar estudios posteriores y, debido al coste de reducir la
354

contaminación, los gobiernos de turno han respaldado su actitud. Los


estudios publicados a comienzos de la década de 1980, no obstante,
inculpaban inequívocamente a las industrias como principal fuente de la
lluvia ácida.

3.5.3 CICLO DEL AGUA Y SU RELACION CON EL pH

En el ciclo del agua es pertinente considerar lo relacionado al pH como un


factor importante y con marcada influencia en las reacciones fisicoquímicas
por lo que consideramos necesario explicitar su concepción. El valor pH se
refiere en principio al grado de acidez o alcalinidad de una solución,
expresión de la concentración de iones H + y iones OH- respectivamente.
Para un cabal conocimiento de este valor es necesario considerar la
definición de Bronsted (1928) para un ácido (donador de protones) y de una
base o álcali (aceptor de protones). Así por ejemplo cuando el ácido acético
se disuelve en agua un cierto número de sus moléculas se disocia de la
manera siguiente:

CH3COOH + H20 CH3COO- + H3O+


Ácido acético Anión acetato
En la reacción un protón del ácido acético ha sido donado al agua
produciendo un anión (acetato) y un catión (ion hidronio), al invertirse la
reacción el anión acetato actúa como un aceptor de protones y por lo tanto
cumple con el requisito de una base. El ácido acético y los iones acetato se
conocen como par conjugado ácido - base. Un ácido fuerte es aquel que
dona protones fácilmente al agua, mientras que uno que no los dona se
conoce como ácido débil

El grado de disociación que es específico para cada ácido se puede calcular


a partir de la fórmula siguiente:
H+ A-
K = ---------------
HA
Donde para una solución dada:
355

HA: es la concentración del ácido sin disociar.


H+ : es la concentración de iones hidrógeno.
A- : es la concentración de la base conjugada
El agua se disocia muy ligeramente y produce, tanto iones hidrógeno (como
un ácido) como iones hidroxilo (como una base) y para ilustrar este caso se
puede utilizar las ecuaciones siguientes:
H2O H+ + OH-

H+ OH-
------------ = K
H2O

Donde K es la constante de disociación del agua, por lo tanto:

H+ OH- = K H2O

Como el grado de disociación es tan leve, H 2O se puede considerar como


aproximadamente constante, por lo tanto se puede combinar con K y da Kw:
H+ OH- = Kw

La medición de la conductividad eléctrica a la temperatura ambiental que


indica que la concentración de iones Hidrógeno (o hidroxilo) es
aproximadamente 10-7 N

Igualmente se asume que en un litro de agua a 22 °C hay:


= 0.0000001 g de iones H+
= 1 / 107
Por lo tanto la concentración de iones H+ = OH- = 1 x 10-7 = 7

Sobre la base de estas consideraciones el valor pH introducido por


Sorensen en 1909, se define como el logaritmo negativo de la concentración
de iones hidrógeno:
356

pH = - log H+
Esta definición es útil para:
1. Calcular el pH de una solución:
2. Calcular la concentración de iones Hidrógeno H+
3. Calcular el logaritmo de base 10 de  H+

Se trata de resumir la escala de pH en la figura 5.


Valores de pH
1 7 14

Acidez creciente Alcalinidad creciente


Valor de pH Neutro Valor del pH
De una solución de una solución
normal en normal en
iones H+ iones OH-

Figura 5. Esquematización de la escala de pH

Como el pH es el logaritmo negativo de H+ , las soluciones ácidas tienen


valores menores de 7,0 y las soluciones básicas tienen valores mayores que
7,0. Cuanto menor sea el pH por debajo de 7,0 tanto mas ácida será la
solución; cuanto mayor sea el pH por arriba de 7,0 la solución será mas
básica. Como la escala de pH es logarítmica, un cambio en pH de una
unidad corresponde a un cambio diez veces mayor o menor en la
concentración de iones H+

3.5.4 EXTENSIÓN Y FUERZA


357

Nebel y Wright (1999) enfatizan que en ausencia de contaminación, la lluvia


es ligeramente ácida, con pH de 5,6. y que la precipitación ácida, entonces
es cualquier precipitación que tenga pH de 5,5 o menos.
En nuestros días, la precipitación ácida es la norma en casi todo el mundo
industrializado; por ejemplo, el pH de la lluvia o la nieve en buena parte del
este de EEUU es de alrededor 4,5. Muchas áreas de esa región reciben
precipitaciones con pH de 4,0 y, a veces, incluso de 3,3. La niebla y el rocío
tienen todavía mas acidez en las montañas boscosas del este de los
Angeles, los científicos se han encontrado con que gotas de niebla que caen
de las agujas de los pinos tienen pH de 2,8 (casi 1000 veces mas ácidas de
lo normal). La precipitación ácida también es grave en Europa, desde el
Reino Unido al centro de Rusia, y este bien documentado en Japón.
En términos más precisos, la lluvia ácida se incluye en las denominadas
contaminaciones transfronterizas, es decir que originadas en un país a o
latitud determinada se puede transportar a grandes distancias por acción de
los vientos Los contaminantes pueden ser arrastrados por los vientos
predominantes a lo largo de cientos, incluso miles de kilómetros.
Este fenómeno se conoce también como transporte de largo alcance de
contaminantes aéreos (TLACA). En 1968 Svante Oden, de Suecia demostró
que la precipitación sobre los países escandinavos se estaba haciendo cada
vez más ácida, que los compuestos de azufre de las masas de aire
contaminado eran la causa primordial y que grandes cantidades de las
sustancias acidificantes provenían de emisiones de las áreas industriales de
Europa central y Gran Bretaña.
Los estudios de trayectorias en Norteamérica han demostrado que mas del
50% de la precipitación ácida en Ontario central se debe a las masas de aire
que pasas sobre las fuentes emisoras de azufre mas importantes de los
estados del oeste medio de Estados Unidos, en especial Ohio e Indiana
(Environment Canada, 1981). Por otra parte, las lluvias ácidas de los
Adirondacks y del sur de Québec, en muchos casos parecen tener su origen
en los estados industriales del litoral oriental como Nueva York,
Massachussets y Maryland, y también en Pensilvania y tros estados sobre
358

los cuales ya ha pasado antes el aire. Más del 10% de la lluvia ácida que
cae en el noreste de Estados Unidos proviene de fuentes canadienses

3.5.5 FUENTES DE LOS CONTAMINANTES QUE ORIGINAN LA


LLUVIA ACIDA
Nebel y Wright (1999) clasifican las fuentes en:
i) Fuentes naturales, que contribuyen con cantidades cuantiosas de
contaminantes procedentes de volcanes, espuma del mar y procesos
microbianos expresado en el orden de 50 a 70 millones de toneladas en
óxidos de azufre por año. Además, señalan que los relámpagos, la quema
de la biomasa y los procesos microbianos originan de 30 a 40 millones de
toneladas de óxidos de nitrógeno.
ii) Fuentes antropogénicas. En este contexto podemos distinguir fuentes
puntuales tales como

a) La industria de fundición de metales no ferrosos (es decir conversión de


minerales a metales libres); en esta consideración, muchos metales valiosos
como el cobre y el níquel, se encuentran en la naturaleza como metales
sulfurados, en la primera etapa de la conversión a metales libres, los
minerales son calcinados habitualmente en el aire para eliminar el azufre
que se convierte a SO2 y es a menudo emitido al aire; por ejemplo:

2 NiS(s) + 3O2(g) 2Ni O + 2 SO2(g)

b) La generación de energía en plantas termoeléctricas


c) La combustión de los combustibles fósiles; en los que finalmente se
generan tanto SOx como NOX (figuras 5, 6 y 7)

Las fuentes antropogénicas se calculan en 100 a 130 millones de toneladas


de óxidos de azufre y de 60 a 70 de oxido de nitrógeno. La diferencia vital
entre ambas fuentes es que los óxidos de la fuente antropogénica están muy
concentrados en las regiones industrializadas, en tanto que en las emisiones
359

de las naturales están distribuidos en todo el planeta y son parte del


ambiente global. Los niveles de los óxidos antropogénicos han aumentado
por lo menos cuatro veces desde 1900, en tanto que los otros se mantienen
constantes. Cada año en Estados Unidos se liberan 19.9 millones de
toneladas de dióxido de azufre de las que el 88% provienen de los
combustibles (sobretodo de las plantas de energía eléctrica operadas con
carbón). De óxidos de nitrógeno son 21.3 millones de toneladas, 44.5% de
las emisiones de los transportes y 50% de los combustibles quemados en
sitios fijos. En el este de aquel país, la fuente de más de 50% de la
deposición ácida son las chimeneas de 50 enormes plantas que funcionan
con carbón.

Figura 5. Fuentes primordiales de los principales contaminantes que originan


la lluvia ácida (Nebel y Wright, 1999, p:386)

SO2 + H2O +O2

H2SO4
360

pH

Figura 6. Formación del ácido sulfúrico a partir del SO 2 procedente de la


combustión de petróleo y derivados.

Figura 7. Formación de NOx a partir de la combustibles fósiles

REACCIONES QUIMICAS

Los valores menores de 5,6 indican la presencia de ácidos fuertes tales


como ácido sulfúrico y ácido nítrico, que son producidos a partir de las
reacciones de sus precursores, óxidos de azufre y de nitrógeno (SO x y NOx)
con la humedad de la atmósfera (H2O).
De los compuestos precursores de ácidos, el SO 2 en fase gaseosa es
emitido en forma significativa por plantas termoeléctricas, el cual es oxidado
a SO4 = y el radical (•SO4-) al reaccionar con el peróxido de hidrógeno
361

(H2O2) produce el H2SO4 influenciado por la intensidad de la luz solar, la


humedad relativa y la presencia de nieblas y nubes, este proceso de
transformación química se describe de manera general mediante las
siguientes ocho reacciones:

·SO2(g) + H2O(l) SO2·H2O (1)

·SO2 + ·H2O H+ + HSO3-(l) (2)

· HSO3-(l) H+ + SO3=(l) (3)

·SO3=(l) + O2(g) ·SO5-(l) (4)

2·SO5-(l) ·SO4-(l) + SO4=(l) + O2(g) (5)

SO4-(l) + HCO3- SO4=(l) + H30+ + ·CO3- (6)

SO4-(l) + H2O2 HSO4-(l) + ·HO2 (7)

· SO4-(l) + Cl- SO4=(l) + Cl (8)

Los NOx formados en los procesos de combustión están relacionados con:


i) La fijación térmica del nitrógeno atmosférico en el aire de
combustión, conocido como NOx térmico y cuya formación depende de la
temperatura máxima o la alta presión, la concentración de nitrógeno en el
combustible, la concentración de oxígeno y el tiempo de residencia.
ii) El nitrógeno molecular para los procesos de combustión, es
conocido como NOx de combustible.

En pruebas de sistemas de combustión externas con combustibles fósiles se


ha mostrado que más del 95% de los NO x emitidos lo constituye el NO. En el
caso de los combustibles residuales el factor más importante para la
362

formación de NOx es el contenido de nitrógeno en el combustible; la


conversión de nitrógeno a NOx se encuentra entre el 20 y 90% excepto en
grandes equipos en donde usualmente se alcanzan temperaturas muy
elevadas en la flama, por lo que las emisiones de NOx pueden ser mayores
Estudios sobre el NOx emitido en áreas urbanas, es decir en aire ambiente,
han mostrado que la conversión es <5% por hora, arriba del 24% por hora
ocurre con los demás NOx que son transformados a ácido nítrico «HNO3» y
nitrato de peróxi-acetilo «PAN».
La predominancia del NO emitido es oxidado a NO 2 el cual puede reaccionar
con OH durante el día y también con •HO 2, •R2, O3,•RO, •RO2, NO3 y otros.
Las reacciones con •HO2 y •RO2 son una parte central en atmósferas limpia y
contaminada.

·NO(g) + ·NO2(g) + H20(l) 2HONO(l) (9)

2NO2(g) + H2O(l) HONO(l) + HNO3(l) (10)

NO2(g) + OH- M
HNO3(l) (11)

En las reacciones 9, 10 y 11 en fase acuosa el NO y NO 2 contribuyen a la


depositación del ácido nítrico en forma de gotas, el tiempo de vida del NO 2
es de aproximadamente 1 día.

Es pertinente remarcar que la ligera acidez que presenta el agua de lluvia en


condiciones normales es causada por la formación de ácido carbónico,
cuando la humedad atmosférica alcanza un equilibrio con el bióxido de
carbono en el ambiente presentando un pH entre 5.0 y 5.6 unidades y que la
lluvia ácida es influenciada en menor proporción por los ácidos débiles
(ácido acético y fórmico), mientras que los fuertes (ácido sulfúrico y nítrico)
debido a su fuerza iónica son los que determinan la acidez en el agua de
363

lluvia cuando no son neutralizados. Sin embargo, si la presencia de los


ácidos débiles es considerable, estos causarían la acidificación

Los estudios referentes a la composición química de la lluvia son realizados


en tiempos prolongados, para detectar modificaciones causadas por el
incremento de actividades humanas, esto relacionado con las emisiones
totales de SO2 y NOx, en donde la aportación relativa de cada sector
(industrial, transporte, doméstico, comercial y de servicio) se debe al
desarrollo y funcionamiento de las actividades socioeconómicas del lugar.
El término NOx agrupa el óxido de nitrógeno (NO) y al bióxido de
nitrógeno (NO2).
Fu (1999) en términos genéricos establece las reacciones que se
producen a partir del SO2 para la formación del ácido sulfúrico, la primera en
presencia de ozono y la segunda con oxigeno molecular. Tal como se
aprecia en las reacciones a y b y en la figura 8.
H2SO4 (H2SO4)n
aerosol
a) SO2 + O3 SO3 + O2
1 H2O
b) SO2 + O2 SO3 H2SO4 (H2SO4)n
2
364

SO2 SO3 H2SO4

Figura 8. Emisión de SO2 a la atmósfera y posterior formación de Ácido sulfúrico

En la perspectiva de Fu (1999), el pH del agua de lluvia en la atmósfera se


debe al equilibrio que dan los iones Hidrogeno procedentes del ácido
carbónico; tal como se muestra en las reacciones siguientes.

CO2 + H2O = H2CO3

H2CO 3 = HCO3- + H+

HCO3- = CO3-2 +H+


Potenciales corrientes ácidas pueden originar pH de 4 ó inferiores. El dióxido
de azufre puede ser acidificado en la atmósfera (de 1 a 5% / hr); tiene dos
bandas de absorción en el espectro de la troposfera; una cerca de 384 nm
dando origen a un radical de triple estado de .SO2 y otra cerca de 294 nm
causando formación de un estado simple de energía altamente excitada.
SO2+hv= .SO2
.SO2+O2=SO3+O
Al referirse a la acidez y dureza el mismo autor parte de la consideración de
que el dióxido de azufre se oxida hasta trióxido de azufre y éste al unirse con
365

el agua de la atmósfera origina ácido sulfúrico de acuerdo a las reacciones


siguientes:
SO2+O=SO3
SO3+ H2O=H 2SO4

La reacción en las gotas de lluvia parece originar la formación de bisulfito y


sulfito de acuerdo a las reacciones siguientes:
SO2 (g) + H2O= SO 2 (aq)

SO2 (aq) + H2O= H3O+ + HSO3-


HSO3 -+H2O = H3O+ + SO3-2
El sulfato puede ser oxidado por el oxigeno atmosférico y este proceso es
catalizado por iones metálicos tales como Cu+2 y Fe+3
2SO3-2 + O2 = 2SO4-2
Otros agentes oxidantes también están presentes; por ejemplo O 3 y H2O2
HSO3- +O3 = HSO4- +O2
SO32- +H2O2= SO4-2 + H2O

La oxidación del dióxido de nitrógeno a ácido nítrico es muy rápida,


reacciona con un radical OH- o con Ozono de la manera siguiente:
NO2 + OH. = HNO3
NO2 + O3 = NO3 + O2
NO3 + NO2 = N2O5
N2O5 + H2O =2HNO3
El ácido clorhídrico (HCl) puede liberarse directamente de la combustión del
carbón.

Al respecto, Gutiérrez, et al (1997), mencionan que las transformaciones


químicas que ocurren en la atmósfera son caracterizadas como procesos de
oxidación, reducción y ácido base. Las reacciones involucran compuestos de
carbono, nitrógeno y azufre como los de mayor interés. La oxidación de
hidrocarburos, oxido nitroso y dióxido de azufre (SO 2) da lugar a la formación
de compuestos oxigenados tales como aldehídos, dióxido de nitrógeno (NO 2)
y ácido sulfúrico (H2SO4). Estos productos pertenecientes a los denominados
contaminantes secundarios se forman en la atmósfera a partir de los
contaminantes primarios que son emitidos de modo directo por las distintas
fuentes.
366

La radiación solar influye en los procesos fotoquímicos en la atmósfera


interactuando con moléculas que funcionan como fotoaceptores. Producto
de la disociación de moléculas estables son los radicales libres, los cuales
son muy reactivos, como ejemplo: oxigeno atómico (O), Hidrógeno atómico
(H), radical hidroxilo (OH) y radical hidroperóxido (HO 2). Numerosos
problemas ambientales no están confinados a un sistema sino que implican
interacciones entre ellas .La lluvia ácida tiene su origen en la emisión de
dióxido de azufre y óxidos de nitrógeno gaseosos a la atmósfera por las
chimeneas de estaciones generadoras, fundiciones y escape de
automóviles. Estos gases son transportados por corrientes aéreas sobre
amplias regiones. La precipitación pluvial los lava y origina la lluvia ácida
dañina para la vida acuática los bosques y los cultivos (Figura 9).

Figura 9.Lluvia ácida con la explicación de la reacciones químicas primarias

3.5.5 TRANSPORTE ATMOSFÉRICO

La concentración de un contaminante en un tiempo y lugar determinado


depende: 1) del índice de emisión y configuración de las fuentes, 2) de las
367

reacciones químicas y físicas que transforman una especie de contaminante


en otro, 3) del transporte y difusión (dilución) de los contaminantes como
resultado de diversas variables meteorológicas y de la difusión del
contaminante en los suelos y el agua (deposito seco), y por interacción con
gotas de agua o nubes (deposito húmedo).

El deposito ácido, particularmente en la forma de lluvia ácida, se ha


convertido en un problema ambiental grave y se relacionado en diversas
partes del mundo con la acidificación de lagos, ríos y aguas superficiales
dando como resultado la desaparición de la flora y fauna acuáticas. Se
considera que la lluvia ácida pueda producir daños directos e indirectos a los
bosques y a la vegetación, y aun, a monumentos y edificios, y así contribuir
a la corrosión de metales y pinturas. Los cambios mas significativos que se
han observado en ecosistemas acuáticos con acidez creciente, sobretodo
cuando el pH es inferior a 5,5 son los siguientes:
a. Reducción o eliminación de la población de peces
b. Reducción de la descomposición bacteriana y aumento de los
hongos en la materia de descomposición.
c. Reducción de la diversidad de plantas y animales acuáticos.
d. Reducción de la productividad del fitoplancton debido a la
alteración del ciclo de la generación de nutrimentos.
e. Incremento de la biomasa y la productividad de las plantas
macroscópicas bentónicas.
f. disminución de la biomasa y número de invertebrados
herbívoros.
g. multiplicidad de cambios en la cadena alimentaria.

3.5.6 EFECTOS DE LA DEPOSICIÓN ÁCIDA


La deposición ácida ha sido un problema causado por los centros
industriales durante mas de un siglo; sin embargo, su afecto a los
ecosistemas fue notado apenas hace 35 años, cuando los pescadores
comenzaron a observar grandes menguas en las poblaciones de peces de
368

muchos lagos en Suecia, Notario y las montañas Adirondack al norte del


estado de Nueva York. Los científicos suecos fueron los primeros en señalar
como causa el aumento en la acidez del agua de los lagos y a vincularla a
precipitaciones con un pH anormalmente bajo. Desde ese entonces, como
los daños ecológicos se han difundido, los estudios han revelado los
diversos modos en que la deposición ácida altera y destruye los sistemas
naturales.

3.5.6.1 Efectos en los ecosistemas acuáticos


El pH del ambiente es crucial porque afecta el funcionamiento de casi todas
las enzimas, hormonas y otras proteínas de los organismos que lo habitan.
Por lo general los seres vivos regulan su pH interno, pero cuando el pH del
entorno es casi siempre bajo, a menudo supera esta capacidad regulatoria
en muchas formas de vida. La mayor parte de los lagos, chacras y corrientes
de agua dulce tienen un pH natural de 6 a 8 y los organismos están
adaptados a el. Huevos, esperma y crías son muy sensibles a los cambios.
Si el pH del ambiente varía incluso en una unidad del punto optimo, casi
todos se trastornan y muchos mueren.

Cuando estos sistemas acuáticos se acidifican, casi todos los organismos


superiores mueren, ya sea por que la acidez los mate o porque impida que
se reproduzcan. Cuando el agua con un pH bajo disuelve a los metales
pesados, liberando sustancias que entonces se vuelven muy tóxicos para las
plantas y los animales que lo asimilan. Por ejemplo conforme los lagos se
acidifican, los peces acumulan mercurio. En los grandes lagos, las
concentraciones de este metal son tan elevadas que los estados
circundantes advierten que no se consuman la pesca recogida de esas
aguas

3.5.6.2 Efectos en los bosques


El daño de la precipitación ácida sobre los bosques se debe a reacciones
químicas con los suelos. En principio la precipitación les añade nitrógeno y
369

azufre, que estimula el crecimiento de los árboles; después, estas sustancias


arrastran por lixiviación los neutralizantes (por lo regular sales de calcio y
magnesio). Cuando las sales dejan de neutralizar la lluvia ácida, se
desprenden iones de aluminio de los minerales del suelo. La combinación de
aluminio (que es toxico) y la creciente escasez de calcio (esencial para los
vegetales) reduce el crecimiento de los árboles. En algunas partes de
Europa la decadencia de los bosques es un problema grave y las pruebas
indican que allí ocurren los mismos cambios químicos en el suelo. Dadas las
diferencias en la capacidad neutralizadora de los suelos y los montos
distintos de nitrógeno y azufre de la lluvia ácida, los bosques están afectados
en grados diversos; algunos siguen creciendo en tanto que otros
desaparecen. A veces, un resultado de la acidificación es el surgimiento
paulatino de especies más resistentes. Por ejemplo en Nueva Inglaterra, los
abetos balsámicos vienen reemplazando a las piceas.

3.5.6.3 Efectos en los seres humanos y sus obras


Uno de los efectos más notables de la precipitación ácida es el deterioro de
las piezas de ornato. La piedra caliza y el mármol (que es una forma de
piedra caliza) son los materiales preferidos para los monumentos y las
fachadas de los edificios. La reacción entre los ácidos y la piedra caliza los
erosiona a un ritmo muy acelerado.
Edificaciones y esculturas que se han mantenido en pie cientos y aun miles
de años sin grandes cambios se disuelven y desmoronan a ojos vistas.
Algunos funcionarios están preocupados de que los escurrimientos de
aluminio y otras sustancias toxicas a causa de la precipitación ácida
contaminen las aguas superficiales y las subterráneas. El aumento en la
acidez del agua también arrastra plomo de las tuberías viejas y de las
soldaduras de los nuevos tubos de cobre.

Las construcciones, las estatuas y los monumentos de piedra, sufren erosión


por efecto de diverso contaminantes que arrastra el aire entre ellos la lluvia
ácida. Los materiales de construcción como acero, pintura, plásticos,
370

cemento, mampostería, acero galvanizado, piedra caliza, piedra arenisca y


mármol también están expuestos a sufrir daños, los efectos de los diversos
contaminantes todavía no se pueden separar unos de otros de manera
confiable. Sin embargo se aceptan que le principal agente corrosivo
individual de los materiales de corrosión es el dióxido de azufre y sus
productos secundarios. Cuando los contaminantes azufrados se depositan
en una superficie de piedra arenisca o caliza, reaccionan con el carbonato
de calcio y lo convierten en sulfato de calcio (yeso), fácilmente soluble, que
se deslava con la lluvia.

3.5.6.4 Efectos en los cultivos


Aunque la sensibilidad hacia el daño foliar directo por la lluvia ácida de
algunos cultivos parece ser mayor que la de muchas especies de árboles, no
existen pruebas sólidas de que las hojas de los cultivo hayan sido dañadas
por gotas ácidas en el campo (NATO, 1980). No obstante, algunos estudios
detallados han comenzado a insinuar que incluso en un sistema agrícola
bien amortiguado la lluvia ácida puede ser perjudicial. Queda claro que los
sistemas terrestres son menos sensibles a la sedimentación ácida que los
sistemas acuáticos. Algunos efectos a corto plazo de la lluvia ácida pueden
ser benéficos, probablemente a causa de las aportaciones de nitrógeno
fertilizante. Sin embargo a largo plazo es muy posible que se produzcan
efectos dañinos. Sin duda se afectaran los ciclos y los equilibrios de los
nutrientes en el bosque, y el crecimiento de los árboles puede menguar

3.5.6.7 Efecto de la lluvia ácida en las aguas subterráneas y


potables
El agua del subsuelo se acumula con gran lentitud por la filtración de agua
de la superficie a través del suelo y el lecho rocoso hasta la capa freática. En
muchas áreas rurales y en especial en las áreas con cabañas, los pozos se
llevan mas abajo del nivel freático y el agua se bombea a la superficie para
consumirse sin previo tratamiento. Los datos científicos indican que en
ciertas áreas esta ocurriendo acidificación del agua del subsuelo y la
371

consecuente contaminación de la misma con metales solubles en ácido. Los


metales que son causa de mayor preocupación son el plomo, cobre y el zinc
y también el aluminio procedente del lecho rocoso. El agua del subsuelo es
muy susceptible a infiltración y a sustitución por aguas ácidas que se filtran
de más arriba. El riesgo de que esta agua subterránea se contamine con
metales pesados y aluminio aumenta de forma considerable a medida que el
pH de la lluvia y del agua que se filtra del suelo baja a 4.0 y da origen a
efectos adversos en la salud.

En un resumen esquemático se pueden apreciar los efectos de la lluvia


ácida en el agua y en el suelo (figura 10)

Figura 10. Procesos y efectos ambientales de la lluvia ácida


(Fuente Gutierrez et al 1997)

3.5.7. MANEJO O MEDIO DE REDUCIR LAS EMISIONES QUE FORMAN


ÁCIDOS

Puesto que es indudable que esta causando daño bastante considerable a


nuestro medio es claro que se necesita actuar para remediarlo. Debemos
estar concientes de la complejidad del problema, sus ramificaciones e
interacciones en el aire, el suelo, el agua y los sedimentos así como sus
372

efectos en las plantas, los animales los microbios. Si es probable que ciertas
acciones reparadoras tengan altos costos asociados con ellas, es necesario
tener la seguridad de que estos costos se justifican y que la acción va a ser
eficaz. No puede haber soluciones rápidas. La limpieza puede tomar
décadas, aun si comenzamos ahora. En los últimos años se ha establecido
los requisitos fundamentales para la acción: i) el reconocimiento de que la
lluvia ácida es un problema grave; ii) el conocimiento de que disminución de
las emisiones es la mejor solución.
Las emisiones del dióxido de azufre se pueden reducir si se toman las
medidas siguientes antes, durante y después de la combustión.

ANTES DE LA
COMBUSTION
Cambio de combustible Cambio de los combustibles con alto contenido de
azufre a otros con menor contenido de azufre.
Mezclado de combustible Mezclado de combustibles con contenido de azufre
más alto y más bajo para producir un combustible
común contenido de azufre de nivel medio.
Desulfuración de petróleo Eliminación del azufre durante el proceso de refinación
del petróleo por hidrogenación (adición de hidrogeno).
Lavado del carbón(limpieza Trituración y eliminación de azufre y otras impurezas
física del carbón) del carbón poniendo este en un liquido(el carbón limpio
flota, las impurezas se hunden)
Limpieza química del carbón Disolución el azufre del carbón con sustancias
químicas.
DURANTE LA
COMBUSTION
Combustión en lecho Mezclado de piedra caliza finamente molida con
fluidizado(CLF) carbón y combustión en suspensión
Inyección de piedra caliza en Inyección de piedra caliza finamente molida en un
quemadores de etapas quemador especial.
múltiples(ICQM)
DESPUES DE LA
COMBUSTION
Desulfuración de gases de Mezclado de un absorbente químico con cal o piedra
combustión(DGC) o lavado caliza con los gases de combustión para eliminar el
dióxido de azufre.

Las emisiones de dióxido de azufre de fundiciones no ferrosas se pueden reducir por


diversos medios entre los cuales se cuentan:
Separación de minerales Eliminación de algunos de los minerales azufrados de
los minerales metálicos antes de la fundición.
Cambio de proceso Uso de procesos de fundición que provocan menos
SO2 o generación de corrientes residuales mas fáciles
de controlar.
Fabricación de subproducto Captura del SO2 después del proceso de fundición
para producir ácido sulfúrico (que se utiliza en mucos
procesos industriales y en la fabricación de
fertilizantes) o azufre elemental (que se usa en
373

procesos industriales).

Las investigaciones dejan claro que las consecuencias políticas y


socioeconómicas serán graves si nada se hace.
Los cálculos de la Organización para la Cooperación y el Desarrollo
Económico (OCDE) se aplican en las regiones del noroeste y sur de Europa
y tienen como base el dólar americano en 1980. El costo medio de limpieza
se calcula en $ 780 por tonelada de azufre. Aplicado a toda Europa con
exclusión de estados independientes (antes URSS), el costo de una
reducción del 50% en el SO2 seria alrededor de $ 8 000 millones anuales.
La Oficina General de Contabilidad (GAO) del gobierno de Estados Unidos
sugirió en un informe de 1982 sobre la lluvia ácida, que una reducción en las
emisiones de SO2 de 10 millones de toneladas anuales en el este de
Estados Unidos costaría entre 3 000 y 4 500 millones de dólares (GAO,
1981)
La Clean Air Act (ley para el aire limpio), firmada en 1990 por Estados
Unidos y Canadá fija como objetivo una reducción del 50% en las emisiones
de azufre para el año 2000, lo cual constituye un paso en esta dirección
Como sabemos que alrededor de la mitad de las emisiones que forman
ácidos provenientes de las chimeneas de las plantas de energía eléctrica
que funcionan con carbón, las estrategias de carbón se centran en esas
fuentes. Entre las que se han propuesto, las seis principales son:
1. Limpieza del carbón,
2. Combustión con base de fundente,
3. Cambio de combustible
4. Empleo de depuradores,
5. Plantas de energía alternativa y
6 Reducción en el consumo de electricidad

Un aspecto químicamente importante es la denominada desulfuración


expuesta por Fu (1999) explicitado en los términos siguientes:
Hay muchas maneras de reducir las concentraciones de SO 2. El combustible
de bajo-azufre abrasador es una de las posibilidades. El carbón tiene un
374

volumen de azufre que va arriba de 3.4%, pero en las minas de Arizona se


encuentra carbón con un contenido de azufre de sólo 1%. También es
posible extraer el azufre del combustible. Para el aceite, esto es bastante
simple y está haciéndose actualmente en algunas refinerías.

El Azufre existe en forma orgánica e inorgánica en el carbón. El compuesto


de azufre inorgánico en el carbón es principalmente la pirita. La pirita puede
quitarse fácilmente protegiendo el carbón pulverizado para alimentar a los
hornos grandes y mejorar sus características de la combustión. También, la
pirita y el azufre orgánico (como RSR, RSH, o =CH-S-CH=) pueden quitarse
por una de las reacciones siguientes:
1. Desplazamiento
2. Neutralización ácido base
3. Oxidación.
4. Reducción.
5. Separación con solventes.
6. Descomposición térmica

Baird (2001) menciona que, cuando el dióxido de azufre emitido se diluye,


como ocurre en las emisiones de centrales energéticas, su eliminación por
oxidación, no es factible. En cambio, el SO 2 gas se elimina por una reacción
ácido-base entre este y carbonato de calcio (calcita) u oxido de calcio (cal)
en forma de sólido húmedo y apelmazado. Los gases emitidos pasan a
través de una suspensión del sólido húmedo, o bien se bombardean
mediante chorros de la suspensión. En algunas aplicaciones se utilizan
granos finos de oxido de calcio, en lugar de una suspensión de carbonato de
calcio, para retener el dióxido de azufre de las emisiones gaseosas. Con
estos procesos de lavado, mas formalmente conocidos por desulfuración
de los gases de combustión (flue-gas desulfuration), puede eliminarse
hasta el 90% del gas. El producto resultante es una suspensión de sulfito y
sulfato de calcio, o en el caso de que se utilice oxido de calcio granular, se
obtiene un sólido seco que, usualmente, se deposita en un vertedero. En
375

algunas operaciones, principalmente en Japón y Alemania, el producto es


totalmente oxidado por reacción con aire, y el sulfato de calcio obtenido se
seca y se vende como yeso. Las reacciones con carbonato de calcio son las
siguientes:
CaCO3 + SO2--------------------CaSO3 +CO2
sulfito de Ca

CaSO3 + O2----------------------CaSO4
Sulfato de Ca

En otros sistemas, el dióxido de azufre queda retenido mediante el uso de


suspensiones de sulfito de sodio o de óxido de magnesio, regenerándose
luego estas suspensiones y el SO 2 concentrado, por medio de la
descomposición térmica del producto.

Recientemente se han aplicado tecnologías limpias de carbón, en las que


el carbón puede utilizarse de una forma mas limpia y a menudo
energéticamente mas eficiente que en el pasado. En las diferentes
tecnologías, la limpieza puede ocurrir en la precombustión, durante la
combustión, en la postcombustión o por conversión del carbón en otro
combustible.

La limpieza en la precombustión se aplica cuando el carbón tiene el


contenido de azufre en el mineral que ha sido eliminado –usualmente en
forma de azufre pirítico, FeS2-, de manera que no puede producir dióxido de
azufre. El carbón se pulveriza hasta conseguir un tamaño muy pequeño de
partículas y se puede separar de forma efectiva en partículas minerales y
partículas de carbón. Esto último se lleva a cabo, aprovechando que los dos
tipos de partícula tienen diferente densidad, con lo que pueden separarse
mezclando el sólido pulverizado en un líquido de densidad intermedia, y
permitiendo que la porción correspondiente al combustible ascienda hasta la
parte superior, donde se recoge. Como alternativa a esta limpieza física, se
376

puede emplear métodos biológicos o químicos. Así, pueden usarse


microorganismos para oxidar el Fe +2 de la pirita insoluble en el carbón
pulverizado, a Fe+3 y obtener la forma soluble. Alternativamente, pueden
usarse cultivos de bacteria que “coman” el azufre orgánico en el carbón.
Químicamente el azufre puede lixiviarse con una disolución de sosa o potasa
cáustica.

En la limpieza por combustión, las condiciones de combustión pueden


modificarse para reducir la formación de contaminantes, o bien pueden
inyectarse substancias absorbentes al combustible y capturar los
contaminantes cuando se van formando. En la combustión con lecho
fluidizado, se mezclan calcita y carbón pulverizado y, luego, se suspenden
(“fluidizan”) en chorros de aire comprimido en la cámara de combustión.
Virtualmente, todo el dióxido de azufre se captura antes de que escape.
Puesto que este procedimiento permite utilizar temperaturas mucho más
bajas, se disminuye considerablemente la formación y emisión de la cantidad
de óxidos de nitrógeno. La nueva central de Aconi, en Nueva Escocia, es
una de las primeras en utilizar esta tecnología a gran escala.

Algunas de las técnicas avanzadas utilizadas en la limpieza de


postcombustión –tales como el uso de óxido de calcio granular o de
disoluciones de sulfito de sodio- ya se han descrito anteriormente. En el
proceso SNOX, desarrollado recientemente en Europa, los gases de salida
se mezclan con amoniaco gas para eliminar el óxido nítrico por reducción
catalítica a nitrógeno molecular (mediante la reacción discutida
previamente). l gas resultante se recalienta y el dióxido de azufre se oxida
catalíticamente a trióxido de azufre, el cual se hidrata después con agua
para dar ácido sulfúrico que se condensa y se elimina.

En la conversión de carbón, el combustible es, en primer lugar, gasificado


por reacción con vapor, la mezcla gaseosa se limpia de contaminantes, y el
gas una vez limpio, se quema en una turbina de gas, generando electricidad;
377

el calor residual de los gases de combustión se utiliza para producir vapor


para una turbina convencional y, así, generar mas electricidad. De forma
alternativa, el carbón gasificado puede convertirse en combustibles líquidos
apropiados para el uso en automóviles.

Las emisiones de dióxido de azufre de las centrales de energía pueden,


también, reducirse sustituyendo el carbón por petróleo, gas natural o carbón
con bajo contenido de azufre, no obstante estos combustibles son más caros
que el carbón con alto contenido de azufre.

La concentración de SO2 de los gases residuales de los procesos de


calcinación convencionales (tales como el utilizado para el Níquel) es alta;
consecuentemente es posible hacer pasar el gas sobre un catalizador de
oxidación que convierta el SO2 a SO3 sobre el cual pueda añadirse agua para
producir ácido sulfúrico comercial,

A partir de la reacción de generación del SO2

2 NiS(s) + 3O2(g) 2NiO + 2 SO2(g)

Se plantea las siguientes


2 SO2(g)+ O2(g) 2 SO3(g)

SO3(g) + H2O(ac) H2 SO4

La última reacción tiene lugar en dos etapas (que no se muestran), para


asegurar que ninguna de las substancias escapen al medio ambiente en
primer lugar el SO3 se combina con el ácido sulfúrico y luego se le añade
agua a la solución resultante (Baird, 2001).

3.6. CASOS DE LLUVIA ACIDA EN EL PLANETA


Durante la última década, la lluvia ácida ha sido un importante motivo de
preocupación porque continúa contaminado grandes áreas de nuestro
378

planeta. La lluvia ácida se produce (siguiendo la dirección del viento) en las


áreas de importantes emisiones industriales de dióxido de azufre y de oxido
de nitrógeno. Capó (2002), menciona que en Alberta, Canadá, entre el 32 el
46% del azufre emitido en forma de dióxido de azufre es transportado por las
corrientes asociadas a tormenta y depositado en la superficie del suelo en
forma de sulfuro o sulfato, en un radio de 32 km de distancia de la fuente
originaria. En Noruega se ha detectado un problema de acidificación por la
misma causa. En el área del río San Lorenzo, en Norteamérica, se ha
comprobado que un incremento de la acidificación de la precipitación causa
una disminución de las cosechas.

Nebel y Wright (1999) mencionan que en Noruega y Suecia, los peces han
desaparecido en por lo menos 6500 lagos y siete estuarios del Atlántico. En
Ontario, Canadá, alrededor de 1200 lagos han dejado de albergar vida. En
Adirondack, una región favorita de los paseantes neoyorquinos, más de 200
lagos carecen de pesca y muchos están desprovistos de toda vida aparte de
las algas y bacterias resistentes. Más de 190 lagos y ríos de Nueva
Inglaterra sufren de acidificación reciente. De las Montañas Verdes de
Vermont a las de San Bernardino, California, la desaparición de los bosques
causó gran preocupación en los años ochenta. En Nueva Inglaterra, 500 000
hectáreas de bosques de altura quedaron devastados.

Las investigaciones en el Bosque Experimental Hubbard Brooks en las


montañas Blancas de New Hampshire han mostrado una reducción notable
de calcio y magnesio en los suelos de los bosques desde los años sesenta.
En Estados Unidos la corrosión por ácidos en edificios, monumentos y
equipos de exteriores cuesta cada año miles de millones de dólares en
reemplazos y compostura. En Kamakura, Japón, una estatua de bronce de
Buda que se levanta a más de 11 metros de altura se está disolviendo poco
a poco con los baños de lluvia ácida proveniente de Corea y China

3.7. CASOS DE LLUVIA ACIDA EN EL PERU


379

En el Perú existen industrias con escaso nivel tecnológico de carácter


artesanal que muchas veces operan dentro de la informalidad, evadiendo las
normas de protección ambiental en el proceso de la actividad que realizan.
Esto ha ocasionado serios problemas de contaminación no solo del aire, sino
también del agua. Tal es el caso por ejemplo de la industria pesquera en
Chimbote (una ciudad ubicada a 450 Km. al norte de la capital peruana, a
pocos metros sobre el nivel del mar), siendo considerada esta como uno de
los lugares mas contaminados del país (YACHAY, 1997)

El diario El Comercio con el apoyo de DIGESA (Dirección General el


Ministerio de Salud) realizo mediciones por cinco horas consecutivas en la
avenida Abancay de Lima para verificar la existencia y el volumen de
partículas de polvo contaminante que caen cada minuto y que también se
hallan en suspensión en el aire; es decir, ese polvillo que se acumula y
ennegrece estatuas, fachadas, cortinas, prendas de vestir y hasta cristales
de los anteojos. En esas cinco horas se acumularon 200 microgramos de
polvo por metro cúbico más de la mitad del volumen del polvo permisible de
polvo en 24 horas. Según esta evaluación la avenida Abancay estaría
soportando mil microgramos de polvo al día, siendo el nivel permisible de
350 microgramos. Los principales problemas de salud que se relacionan con
el parque automotor en Lima Metropolitana son las emisiones de monóxido
de carbono y niveles de ruido generado

El INAIT señala que un vehículo automotor en buen estado emite a la


atmósfera por cada 27 galones de gasolina un promedio de 28 Kg. de
monóxido de carbono por día y 1,5 Kg. de oxido de nitrógeno de tal manera
que si se considera un rendimiento promedio de 30 Km/galón de
combustible, y un recorrido promedio de 50 Km /día, entonces el consumo
diario seria de 1,6 galones proporcionalmente en un día se emitirá a la
atmósfera 1,7kg de CO/vehículo-día
380

IV. DISCUSION Y COMENTARIOS

Como se ha expuesto, la tendencia actual esta orientada a un cabal


conocimiento de los problemas ambientales globales que posibilitarían
mitigar de alguna manera y en un tiempo relativamente corto, los impactos
ambientales negativos generados por la actividad humana.

En este contexto los científicos tratan de encontrar soluciones a problemas


previstos; pero no en las magnitudes en las que se presentan; por cuanto la
tendencia al desmedido desarrollo económico en el que se priorizó la parte
económica; poco a poco ha dado lugar al hipotético crecimiento o desarrollo
sostenible, el mismo que tendrá éxito en la medida en la que los países
industrializados se comprometan integralmente a cuidar la salud de nuestro
planeta.

El problema de la lluvia ácida es álgido y como lo mencionan Glym y


Heincke (1999) constituye uno de los problemas ambientales mas difíciles de
abarcar por cuanto este tipo de contaminación, no respeta fronteras locales,
de países o de continentes en razón de lo cual el enfoque y la tarea para
remediarla debe ser objeto primordial en el establecimiento de políticas
ambientales globales.

Se menciona que el científico Agnus Smith lo describió en 1885 pero que se


ha hecho evidente en los últimos cuarenta años; en los que gracias a los
avances de los conocimientos en Física, Química y Biología se ha tratado de
dilucidar el intrínseco fenómeno de la denominada precipitación ácida,
deposición ácida o más comúnmente conocida lluvia ácida. Autores como
Gutierrez, et al (1997), Fu (1999) y Baird (2001) reportan las ecuaciones
químicas, que incluyendo complejos procesos de oxidación y reducción y
otros nos brindan los criterios adecuados para una interpretación mas
completa de este fenómeno. E igualmente en base a ello plantean
alternativas de solución que orientan la tecnología al uso preactivo,
381

preventivo y correctivo de procesos para minimizar los contaminantes


primarios que originan esta perturbación.

En nuestro País no son muy evidentes aun, indicios de la denominada lluvia


ácida; sin embargo ya se han documentado hechos tales como los del
puerto de Chimbote, los de la ciudad de Lima y otras zonas urbanas en las
que el parque automotor se ha incrementado de manera incontrolada lo que
origina un aumento de sustancias contaminantes que originarían este
fenómeno. El caso es similar a zonas aledañas a industrias con emisiones
elevadas de dióxido de azufre. Un caso concreto es el ocurrido hace cinco
años en las cercanías de Santiago de Cao, provincia de Ascope,
departamento de La Libertad en la que estructuras de polímeros de alta
densidad importados para ser usados en la protección de los postes de
transmisión de energía eléctrica, resultaron dañados, pues en zona cercana
a Papelera Trupal S.A., se detectaron altas concentraciones de SO 2 que
posiblemente originaron la desintegración de estos polímeros (Vásquez, A.
2003, Com. Pers.).

Motivo para docentes y alumnos comprometidos con las ciencias básicas


como la Química y con la Bioética, es el adquirir el conocimiento necesario y
pertinente sobre aspectos que involucren acciones de prevención a todo
nivel para ejercer un efecto multiplicador en la sociedad de la cual somos
miembros.

Con la presentación documentada del tema hemos compatibilizado tanto las


causas, como las consecuencias de la lluvia ácida, así como diversos
mecanismos que podrían mitigar este problema o estar preparados para
hacerlo de darse el caso.
V. CONCLUSIONES
382

1. La tecnología humana puede causar graves impactos en extensas


áreas del planeta; como es el caso de la lluvia ácida, para corregir los
problemas ambientales y alcanzar un desarrollo global.

2. La contaminación del aire por lluvia ácida implica complejas


reacciones de oxidación y reducción cuyo conocimiento es necesario
para intentar mitigar este problema.

3. Los gases poco solubles como el SO2 y diversos compuestos sintético


como los halocarbonos se dispersan por todo el mundo y se
convierten en parte duradera o permanente de la atmósfera

4. Los gases más solubles como el SO 2 y los NOx pueden afectar


grandes porciones de los continentes y causar graves daños a los
ecosistemas, el turismo, la agricultura y la silvicultura, así como a
construcciones y materiales.

5. En Norteamérica cualquier intento por resolver el problema de la lluvia


ácida implica la participación de los gobiernos de Estados Unidos y
Canadá así como los estados y provincias de gran parte de la mitad
oriental del continente; y dado de que esto implica costos elevados,
será muy difícil que los gobiernos actúen rápido y de manera
conjunta.

6. La eliminación de contaminantes como el SO 2, el NOx y CO2 de los


gases de combustión es factible, pero muy costoso

7. Urge implantar políticas ambientales sólidas para el manejo


apropiado del medio ambiente.

VI. RECOMENDACIONES
383

1. La tecnología futura debería buscar fuente de energía y materia primas


que generen menos sustancias contaminantes capaces de escapar a la
atmósfera, por ejemplo, las plantas generadoras de energía nuclear son
de una tecnología mas limpia para producir energía en comparación con
las plantas generadoras alimentadas con carbón

2. Deben utilizarse las chimeneas altas para alivian los problemas locales
de contaminación del aire

VII. REFERENCIAS BIBLIOGRAFICAS

BAIRD, C. 2001. QUIMICA AMBIENTAL, Barcelona. Editorial Reverte SA.


p: 104-108
384

CAPO, M. 2002. Principios de Ecotoxicología, Diagnostico, Tratamiento y


Gestión del Medio Ambiente. Barcelona. McGraw-Hill Interamericana.
p: 58-65.

GLYNN, J. y G. HEINKE. 1999. Ingeniería Ambiental. 2ª ed, México.


Prentice Hall Hispanoamericana. p

GUTIERREZ, H., ROMIEU, I., COREY, G. y T. FORTOUL. 1997.


Contaminación del Aire, Riesgos para la Salud. México. El Manual
Moderno. p 8,161

FU, T. 1999. Environmental Chemistry: Essentials of Chemistry for


Engineering Practice, Vol 4A. USA. Prentice Hall Internacional. p: 310-
336, 364-365,

NEBEL, B. y R. WRIGHT. 1999. Ciencias Ambientales, Ecología y


Desarrollo Sostenible. 6ª ed., México. Prentice Hall
Hispanoamericana. p:71-73; 123 -135; 264-272; 400-406

SEOANEZ, M 1996. El Gran Diccionario del Medio Ambiente y de la


Contaminación, España. Coediciones Mundi-Prensa

YACHAY, CENTRO DE STUDIOS Y ASESORIA –ONG. 1997. Ecología Y


Desarrollo Sustentable, Almanaque Ambiental Del Peru, Lima.
Salgado Editores. p:71-74.
385
386

MODELOS DE INFORMES DE
INVESTIGACIÓN
MODELOS DE INFORMES DE TESIS
387

VALORACIÓN DE LA PÉRDIDA DE LA BIODIVERSIDAD EN LA


EXPLOTACIÓN DE YESO DE LAS CANTERAS DE MORROPE,
PROVINCIA Y DEPARTAMENTO DE LAMBAYEQUE - PERÚ.

VICTOR ESCOBEDO OBLITAS (1), JOSEFA ESCURRA PUICON (2), ANTERO VASQUEZ GARCIA (3)
1. Profesor Principal DE. Facultad de Ingeniería Civil- UNPRG
2. Profesor Asociado DE. Facultad de Ciencias Biológicas- UNPRG
3. Profesor Principal DE. Facultad de Ciencias Biológicas

I. INTRODUCCIÓN

Desde el punto de vista biológico, el ecosistema es el mas elevado de los


niveles de organización de la materia y está compuesto por biotopos y
biocenosis, los que en los últimos años, han merecido especial importancia
debido a consideraciones económicas y de valoración ante el continuo
deterioro de sus componentes, que van desde la simple acción del ser
humano sobre su entorno por desconocimiento, necesidad o ignorancia que
no le permite medir la magnitud del efecto negativo que ocasiona, hasta la
intervención de intereses públicos o privados

Kapp en Left (1995) señaló que no existe un instrumento económico,


ecológico o tecnológico de evaluación con el cual pueda calcularse el valor
real de la naturaleza en la economía, lo que ha conducido a una falta de una
teoría objetiva del valor de ella, sostiene además que los costos ambientales
y la valorización de los recursos naturales ya no son determinados de
manera objetiva y cuantitativa en la esfera económica, sino que dependen
de percepciones culturales, derechos comunales e intereses sociales

UICN , PNUMA y WWF (1991) al mencionar una nueva estrategia de cuidado de la


tierra señalaron que es necesario destacar dos aspectos : i) el primero basado en
una ética de cuidado de la naturaleza y las personas y ii) el segundo es una
estrategia en la cual las acciones recomendadas se refuerzan mutuamente a nivel
individual, local, nacional e internacional
388

La producción de yeso en el distrito de Mórrope, provincia y departamento de


Lambayeque, a pesar que no es considerada como una actividad estratégica para
el país, que se remonta a tiempos de la colonia, que en la actualidad podría permitir
el despegue económico de Mórrope y mejorar la calidad de vida de los pobladores
de esta zona, si se empleara una tecnología adecuada; considerando que en esta
acción se ha empleado por muchísimos años y se emplea todavía un árbol que es
considerado símbolo del bosque seco, Prosopis pallida (algarrobo), lo que ha traído
como consecuencia la pérdida de la biodiversidad en componentes de flora y fauna,
al extremo de verificarse la extinción de algunos organismos considerados símbolos
de identidad departamental. Por estas razones la actividad yesera no escapa a los
lineamientos generales que formuló Acosta (1998) para la reserva de Cuyabeno en
Ecuador referida a la explotación de petróleo.

Consideramos importante la realización de este estudio porque nos permite


analizar la problemática de un sector de nuestro departamento en la que una
actividad minera es aparentemente intrascendente e inofensiva para el
medio ambiente; pero que como veremos mas adelante ha ocasionado
serios trastornos en el ecosistema con un daño incalculable a la naturaleza,
a las formas de vida asociadas y que ha tenido un fuerte impacto negativo
en el desarrollo humano y cultural de los habitantes de esta zona.

Los objetivos propuestos en el presente estudio son:


i) Valorar la pérdida de la biodiversidad de la zona de estudio en
relación con la actividad minera de explotación de yeso.
ii) Medir la intensidad de los daños al ecosistema
iii) Proponer alternativas, tomando como punto de partida el uso de una
tecnología adecuada en la explotación de yeso.
iv) Formular sugerencias que permitan evitar un mayor deterioro del
ecosistema adyacente y recuperar las áreas deforestadas.

II. CRITERIOS PARA LA VALORACION DE LA PÉRDIDA DE LA


BIODIVERSIDAD POR LA EXPLOTACION DE YESO DE LAS
CANTERAS DE MORROPE
389

2.1. Características del área de explotación


El distrito de Mórrope tiene una superficie de 1 041,66 Km2 que representa el 11,1
% de la provincia de Lambayeque y el 7,2% del departamento de Lambayeque. La
cantera de yeso tiene una superficie de 6 000 Ha., que se extiende desde el paraje
llamado Casa Grande hasta tierra blanca enmarcado en los 06°50’ LS y 80 °LW.
(figura 1); el terreno, es caracterizado como relativamente llano con presencia de
dunas y médanos, depresiones y lechos arenosos de ríos. En la cantera de
Mórrope, bajo el suelo formado por una capa de arcilla y arena de 10 a 20 cm de
espesor se encuentra la piedra de yeso (CaSO4, 2H20) formando un manto
compacto y cristalino de 20 a 60 cm de espesor, de color blanco amarillento, que es
la materia prima del yeso refinado

Mórrope, se encuentra ubicado a 36 Km de la ciudad de Chiclayo, en la ruta


panamericana nueva entre las ciudades de Lambayeque y Piura con
caracterizaciones productivas de minero- agrícola, su temperatura ambiental en
estación cálida seca llega a 31°C y en media estación puede llegar hasta 16°C.
Gómez et al (1997) reportaron que los suelos de Mórrope se han tipificado del
modo siguiente: i) de uso agrícola, 8 069 Ha (1,87%); ii) tierras erizas, 44 150 Ha
(56,62%); iii) área Forestal, 193 158 Ha (28,75%) y iv) área minera, 55 057 Ha.
(12,76%). El área minera tipificada como desierto de arcilla, yeso y sal está ubicada
a 35 Km al NO del pueblo de Mórrope tiene muy poca vegetación o en otros casos
esta totalmente ausente

En el área forestal predomina el bosque seco ralo y en establecimiento


básicamente esta formado por Prosopis pallida (algarrobo), Capparis angulata
(sapote), Acacia macracantha (faique), Cordia lutea(overo), Capparis ovalifolia
(vichayo), Parkinsonia sp (palo verde), Brussera graveolens (palo santo), Vallesia
glabra (cuncun), predominando el primero de los nombrados. El Proyecto algarrobo
en su memoria explicativa de 1993 señaló que en base al inventario forestal para el
conjunto de los tipos de bosques secos de la subrregión es de 57,2 árboles / Ha y
en lo que se refiere al bosque seco ralo de llanura la densidad es de 40,5 árboles
/Ha y un volumen de 9,2 m3/Ha (cuadros 1 y 2). En la visita efectuada al área de
estudio, se obtuvo información en el sentido de que esta zona es hábitat de aves,
mamíferos y reptiles cuya relación se indica en el cuadro 3.
390

2.2. Población humana


Posiblemente el pueblo de Mórrope se formó en el año 1125 por migración de
pobladores pescadores - salineros procedentes de Felan (Piura), los que en tiempo
de la colonia fueron censados con fines tributación y religiosos. El primer censo del
que se tiene referencia fue realizado en 1876 en el que se contaron 7 caseríos con
un total de 1 422 habitantes en la zona rural y 4 903 en total; el censo de 1993
reportó 45 caseríos con 24 581 habitantes en la zona rural y 29 976 en total. En la
zona rural la densidad poblacional se ha incrementado a través del tiempo desde
4,7 hasta 28,7 habitantes por Km2.

En general los pobladores de Mórrope viven en condiciones de pobreza y falta de


oportunidades de trabajo, el 82,03 % de la población campesina está organizada en
la comunidad campesina de San Pedro de Mórrope, siendo su actividad principal la
agricultura y la minería, ambos ejercidos con tecnologías muy precarias y
rudimentarias. Según el INEI UNFPA en Gómez et al (1997) ocupa el número 3 en
el ranking de pobreza a nivel de la provincia de Lambayeque. Este régimen de vida
se da desde tiempos históricos y se acentúa debido a marginaciones; pero sin
embargo el poblador desarrolla una estrategia de supervivencia que permite que las
familias sobrevivan en un ambiente hasta cierto punto hostil, como es el desierto
morropano.

2.3. Explotación del yeso en el área y en función del tiempo

La explotación actual de yeso crudo para refinarlo es de 50 Tm/día, para lo cual se


siguen los siguientes procesos: extracción, transporte, trituración, cocción,
molienda, cernido y envasado (figura 2 ); de éstos, el que reviste especial interés es
el referido a la cocción ya que para ello se utilizan significativas cantidades de leña
obtenidas del algarrobo y sapote, inicialmente provisto de los bosques que
existieron en la zona de Mórrope; pero que actualmente, al haberse extinguido casi
totalmente, esta leña proviene de las mismas especies de árboles de los bosques
de Motupe y Olmos.

En esta operación la piedra de yeso se purifica cociéndola a elevadas temperaturas

(sobre los 300°C) en hornos muy rudimentarios, construidos directamente sobre el


suelo, de 5 metros de diámetro y 1 metro de profundidad, donde se colocan capas
391

de piedras de yeso sobre un lecho de leña que sirve como combustible(Foto 1). En
cada horno se utilizan 10 cargas de leña, cada una de las cuales tiene 30 rajas de
0,07 m de longitud con un peso promedio de 3,5 kg cada una, lo que significa
consumir 4 320 arboles anuales de 0,30 m de diámetro y de 4 metros de altura, lo
que representa 75,5 Ha por año para producir 12 280,32 Tm de yeso refinado por
año (cuadros 4, 5 y 6)

La explotación en períodos anteriores, era aún mas nociva, toda vez que para el
proceso se utilizaban dos volúmenes mas de leña para una producción similar, lo
que ha conducido posiblemente a un exterminio casi total de los bosques de
algarrobo de Mórrope, obligando, para sustentar esta industria, la tala de árboles en
zonas aledañas tales como Olmos y Motupe. Se debe aclarar que no es posible
calcular el volumen de yeso explotado en años anteriores debido a la falta de datos
fidedignos.

Gomez et al., (1997), informaron que la comunidad campesina de San Pedro de


Mórrope, hizo un estudio sobre el potencial de yeso por explotar, estimándose que
éste alcanza los 70 000 000 Tm, convirtiéndose en un recurso importante para el
despegue de la comunidad de Mórrope. Se estima que con una producción de 25
Tm. /hora trabajando las 24 horas diarias y 300 días al año el yacimiento se
agotaría en 383 años.

2.4. Valoración del suelo y actividades alternativas

La tala indiscriminada de los bosques de algarrobo de Mórrope, los que han sido
utilizados como leña en las yeseras y carbón de uso doméstico; las inadecuadas
políticas agrícolas, originaron una marcada desertificación de los bosques. Así,
Miranda en 1927 en Gomez et al (1997) señaló que entre 1920 a 1925 existían
amplios bosques de algarrobales en Mórrope, de los cuales se cortaba leña
en gran cantidad, la misma que cubría la demanda de las redes ferroviarias y
los vapores que traficaban los puertos de Lambayeque. En 1935 Bariandaran y
Paredes señalaron que en esta misma zona existían como flores del recuerdo y
a manera de muestrario pequeños algarrobales, lo que ha llevado a la extinción
de estos bosques.
392

Esta acción nociva ha traído como consecuencias:


i) La erosión del suelo, al haberse eliminado los algarrobales y por lo tanto la
protección contra el viento y el agua.
ii) Determinadas áreas de tierra se adecuaron al monocultivo (maíz,
menestras, arroz) en pequeña escala.
iii) Deterioro del suelo como substrato de organismos vivos nativos con la
consecuente disminución en diversidad y número de especies.

De lo expresado por la Dra. Carmen Felipe Morales ( com pers), quien


manifestó que para formar un cm de espesor de suelo en climas árido, el tiempo
necesario es de aproximadamente 200 años si lo relacionamos con el deterioro por
erosión del suelo, podemos inferir que el daño causado en un tiempo relativamente
corto ha sido grave y desastroso. En el supuesto caso de que la explotación del
yeso se hiciera con una tecnología apropiada definida por Bunge en Vásquez
(1998) como aquella que emplea recursos escasos, no daña el ambiente y
promueve una economía de trabajo intensivo, es decir evitando la utilización de la
leña, las posibilidades de uso de los árboles componentes de estos ecosistemas
podrían referirse del modo siguiente:
i) En la producción de miel (18 875 Kg, equivalente a US$ 29 445, 00)
ii) En la producción de carne, utilizando algarroba como forraje ( 20 838 Kg
equivalente a US$ 32 507,00
iii) En la producción de monocultivos (453 000 Kg equivalente a US$ 67
950.)

2.5. Pérdida de la Biodiversidad


Las leyes 26528 y 26721 (Cuba 1997), que vedan hasta el año 2008 la tala de
árboles de los bosques secos ubicados en la costa norte del país así como la
producción, comercialización, y transporte de leña y carbón, no han dado resultados
positivos. Para la producción de yeso refinado, sin embargo se siguen talando
árboles como algarrobo y sapote utilizados como leña en el proceso de cocción;
han originado colateralmente pérdidas en la biodiversidad que son importantes para
la fauna, el ecosistema y otras consideraciones ecológicas y mas aún, nuestra
investigación en campo nos ha llevado a recoger información que hasta cierto punto
ha sorprendido nuestra criterio biológico, pues en la actualidad se han extinguido o
casi extinguido las especies siguientes: Iguana iguana (iguana); Sciurus stramineu
393

(ardilla), Icterus groceannae (macanche) y un ave que es símbolo de identificación


departamental, Burhinus superciliaris (huerequeque) y disminución de Icterus
groceannae (chiroque).

En lo relacionado a la pérdida del bosque, Proyecto Algarrobo(1997), estimó que la


regeneración con irrigación asciende a US$3 000 por Ha, por lo que del análisis
comparativo se desprende que se ha obtenido US$ 56 335,97 como beneficio neto
en la producción de yeso refinado al año; pero se han perdido 75,5 Ha de bosque
en un año que equivalen a US $ 226 500; sin embargo nos preguntamos con
asombro; ¿Podrá este monto recuperar el valor de la biodiversidad perdida?,
pues como afirma Jiménez (1997), la deforestación de los bosques es la principal
amenaza contra la integridad del planeta.

2.6 Daños al ecosistema

Aún cuando los daños son inconmensurables debemos puntualizar que en este
caso, los ocasionados al ecosistema se pueden abarcar desde dos puntos de vista:
el primero relacionado con la tala indiscriminada de los árboles componentes de los
bosques entre ellos el algarrobo que ha originado una marcada desertificación con
la consecuente pérdida de la biodiversidad, lo que coincide con el criterio de
Michelangeli (1997). A esta altura es pertinente mencionar que en la India donde se
encuentra una especie de algarrobo Prosopis juliflora, introducida en los años 1877
y 1913 fue declarada planta real en 1949, el gobierno de esa época exhortó al
público a proteger, estimular y sembrarlo en grandes extensiones, pues es la planta
mas versátil para forestación de dunas móviles, arenales costeros, cerros
erosionados, riberas de ríos, terrenos salinos y baldíos y pastizales secos (Díaz,
1995).

La atingencia es: si este valor es asignado en otras latitudes, lo menos que


podemos hacer es no atentar contra su subsistencia debido a la importancia
ecológica y económica que tiene. Otro aspecto es lo relacionado a la contaminación
por la combustión de la madera, ya que el humo emanado contiene en altos
porcentajes sustancias tóxicas para el ser humano, tales como el 3-4 Benzopireno
que tiene efectos cancerígenos, y el CO 2 que incrementa los gases de invernadero.
394

La composición química del humo se reporta en el cuadro 7 según Zeitsev en


Bertullo (1975)
III. CONCLUSIONES

Del análisis de este documento podemos enunciar las conclusiones


siguientes:
1. La actividad de explotación del yeso en las canteras de Mórrope ha
originado una marcada desertificación, con serios daños al ecosistema.
2. La biodiversidad ha sido mermada al punto de llevar a la casi extinción
del Burhinus superciliaris (huerequeque) en la zona, símbolo de
identidad departamental.
3. Se verifica disminución de la calidad de vida del poblador morropano
4. Hay una pérdida significativa de la calidad del suelo

IV. SUGERENCIAS

1. Las leyes de protección de los bosques secos deben cumplirse irrestrictamente.


2. Se debe implementar una política de desarrollo integral que favorezca la
conservación de la naturaleza y el aprovechamiento del potencial yesero.
3. Se sugiere conceder a las comunidades la posibilidad de ser sujetos de crédito
para la ejecución de proyectos de mayor envergadura.

V. REFERENCIAS
ACOSTA, A. 1998. Elements for calculating the value of biological diversity losses:
The case of oil explotation at Cuyabeno reserve in the Ecuador an
amazonian region, Environmental history in Latin América. : 205- 219.

BERTULLO, V..1975. Tecnología de la producción de conservas de pescado y


marisco, Montevideo. Hemisferio Sur.: 220-225.

CUBA, S. 1997. Proyecto Algarrobo; una experiencia de desarrollo rural en los


bosques secos de la costa norte del Perú. SIPIAN VII, Huancayo

DIAZ, A. 1995. Los algarrobos, Trujillo. Libertad EIRL. p:2-93

GOMEZ, J.; M. AMAYA y G. SALDAÑA. 1997. Percepciones y expectativas de la


mujer rural en Lambayeque. Utopía Norteña 4: 203-253.

JIMENEZ, H. 1997. Los bosques en la economía mundial. Ciencia al día


395

http://aupec.univalle.edu.co.

LEFT, E. 1995. ¿De quien es la naturaleza?, sobre la reapropiación social de los


recursos naturales . Nueva Epoca 37: 58-64.

MICHELLANGELI, A. 1997. Aprovechamiento forestal y minería: Binomio posible.


IV Congreso venezolano de Derecho ambiental.
Uttp:/www.fundena.org./congreso/cong.htm.

PROYECTO ALGARROBO, 1993. Mapa e inventario forestal de los bosques secos


de Lambayeque, Memoria explicativa, Chiclayo. INRENA-FDN RENOM y
PAISES BAJOS:2-39.

UICN/PNUMA/WWF. 1991. Cuidar la tierra: estrategia para el futuro de la vida,


Gland. Suiza.

VASQUEZ, A. 1998. La teoría de la ciencia, Mimeo.

ANEXOS
396

SÍNDROME DE BURN-OUT EN

ENFERMERAS DE LOS SERVICIOS

HOSPITALARIOS DE LA PROVINCIA DE

TRUJILLO.

INFORME DE INVESTIGACIÓN

PI 6599

AUTORES : Ms. NOEMÍ, DIAZ VILLENA

Ms. TERESA, MENDO ZELADA

Lic. CESAR VASQUEZ OLCESE

ESCUELA PROFESIONAL DE ENFERMERÍA


397

FACULTAD DE ENFERMERÍA
UNIVERSIDAD NACIONAL DE TRUJILLO

TRUJILLO - PERU

2002

CONTENIDO
Pagina

RESUMEN

ABSTRACT

I. INTRODUCCIÓN.......................................................... 01

II. MATERIAL Y MÉTODOS.................................. 07

III. RESULTADOS.................................................................. 11

IV. DISCUSIÓN.....................................................................16

V. CONCLUSIONES............................................................22

VI. REFERENCIAS BIBLIOGRÁFICAS................................. 23

VII. ANEXOS............................................................................ 25

RESUMEN

Con el propósito de obtener información que sirva de base para la elaboración de


programas de promoción de la salud del personal de Enfermería se realizó el presente estudio
de investigación de tipo descriptivo correlacional, en los Hospitales Belén, Regional y
Victor Lazarte de Trujillo, durante los meses de junio – diciembre de 2002. La muestra
estuvo constituida por 56 enfermeras de los hospitales antes mencionados. Para valorar nivel
de Síndrome de Burnout se utilizó el inventario de Maslach Burnout (MBI) (1986) que
398

valora tres aspectos fundamentales del síndrome de burnout o de desgaste profesional: el


agotamiento emocional, la despersonalización y la ausencia de logros personales. Los
resultados se presentan en cuadros estadísticos de clasificación simple y doble, y para el
análisis se empleó la prueba de independencia de criterios (x 2). Se concluye que: i) El
personal de enfermería de los servicios hospitalarios de la provincia de Trujillo presentan un
nivel bajo en las dimensiones de cansancio emocional y despersonalización del síndrome de
burnout y alto en la dimensión de realización personal. ii) No existe relación estadística
significativa entre las dimensiones del síndrome de burnout en el personal de enfermería de
los servicios hospitalarios de la provincia de Trujillo con las variables edad, estado civil,
existencia de hijos, años de servicio, áreas de trabajo.

ABSTRACT

With the purpose of obtaining information that serves as base for the elaboration of programs
of promotion of the personnel's of Infirmary health was carried out the present study of
investigation of type descriptive correlational, in the Hospitals Belen, Regional and Victor
Lazarte of Trujillo, during the months of June–December of 2002. The sample was
constituted by 56 nurses of the hospitals before mentioned. To value level of Syndrome of
Burnout was used the inventary of Maslach Burnout it (MBI) (1986), that values three
fundamental aspects of the burnout syndrome or of waste professional: the emotional
exhaustion, the depersonalization and the absence of personal achievements. The results are
presented in statistical squares of simple and double classification, and for the analysis the
test of independence of approaches was used (x2). You concludes that: i) The personnel of
infirmary of the hospital services of the county of Trujillo presents a low level in the
dimensions of emotional fatigue and depersonalization of the burnout syndrome and high in
the dimension of personal realization. ii) Significant statistical relationship doesn't exist
among the dimensions of the burnout syndrome in the personnel of infirmary of the hospital
services of the county of Trujillo with the variable age, civil state, children's existence, years
of service, work areas.

I. INTRODUCCION

Día tras día se ponen de manifiesto mayor número de fuentes de estrés, así como
de signos indicativos de un aumento de problemas relacionados con el estrés en los
trabajadores de los sistemas de salud (Farber, 1983). Los cambios que se llevan a
cabo en el sector Salud generan una competencia cada día mas intensa donde los
profesionales que allí laboran se enfrentan periódicamente a situaciones difíciles
que exigen una gran capacidad adaptativa, pudiendo ir en deterioro su integridad
física y psicológica (Pancheri, 1990; Smith, 1989).
399

Inicialmente los estudios epidemiológicos sobre el estrés de los


profesionales de la salud, a nivel de las problemáticas subjetivas, relacionaban el
estrés y el desgaste profesional o el Síndrome de Burnout con las particularidades
del objeto de trabajo (Maslach, 1982). El trabajar con los aspectos emocionales
más intensos del cuidado del paciente, la enfermedad, la muerte, la angustia y la
incertidumbre, así como tratar con pacientes difíciles, con frecuencia afecta la
tolerancia para la frustración y la ambigüedad del profesional. El estrés crónico que
significa estar continuamente bajo tales circunstancias puede llegar a ser emocional
y físicamente extenuante, pudiendo conducir a la presencia de signos del síndrome
de estrés profesional (Freudenberger, 1974).
Es así, como el cuidado de la salud se viene convirtiendo en una práctica
insalubre en forma creciente para la integridad de los trabajadores de salud y
pacientes (Araquistain y otros, 2001).

Burn-out, es un término que tiene su origen en la industria aeroespacial.


Designa el agotamiento del carburador de los cohetes que tiene como resultado el
recalentamiento y la rotura de las máquinas (Araquistain y otros, 2001).

En el presente estudio, burnout, lo consideraremos equivalente al de


desgaste profesional o el de profesional quemado, exhausto o agotado. Este
término fue acuñado originalmente por Freudenberger (1974), aunque fue Maslach
(1982) quien primero empleó públicamente este concepto para referirse a una
situación que cada vez se hacía más frecuente entre aquellas personas que por la
naturaleza de su trabajo debían mantener un contacto directo y continuado con la
gente, y que después de meses o años de dedicación acababan por estar
desgastados profesionalmente. Debido a que el concepto de burnout ha surgido
íntimamente relacionado con el de estrés, es difícil establecer una clara diferencia
entre ambos. La única diferencia, más aparente que real, es que el burnout es un
estrés crónico experimentado en el contexto laboral (Alvarez, 1991).

Maslach y Jackson (1982) lo definen como un síndrome de agotamiento


emocional, de despersonalización y de reducción de la capacidad personal, que
puede presentarse en sujetos que, por profesión, se "ocupan de la gente". Se trata
de una reacción a la tensión emocional crónica creada por el contacto continuo con
otros seres humanos, en particular cuando éstos tienen problemas o motivos de
sufrimiento. Es decir, se puede considerar un tipo de estrés ocupacional, pero, el
factor característico del burnout es que el estrés surge de la interacción social entre
el operador y el destinatario de la ayuda. Por eso se dice que este síndrome es "el
precio de ayudar a los demás". El síndrome del burnout o quemamiento, está
perfectamente descrito y estudiado y siempre se refiere al que pueden sufrir los
profesionales que tienen por misión ayudar a los demás (médicos, enfermeras,
maestros, policías, asistentes sociales, funcionarios de prisiones, psicólogos, etc.)
(Livianos, 1999).
El agotamiento emocional, es una de las dimensiones del síndrome de
burnout considerado como el núcleo de este síndrome. Es un esquema de
sobrecarga emocional seguido de agotamiento emocional. La persona se implica
excesivamente desde el punto de vista emocional y al final se verá desbordada por
los requerimientos emocionales que le imponen los otros. La respuesta a tal
situación es el agotamiento emocional. El individuo se siente "vaciado" y le falta
400

energía para afrontar un nuevo día, sus recursos emocionales se han agotado
(Maslasch, 1982) ( Díaz y Stella, 2000).

La despersonalizacion es otra de las dimensiones del burnout, la persona


se forma una mala opinión de los demás, generalmente espera lo peor de ellos y no
tiene empacho en demostrarle cuanto les detesta. Esta reacción, cada vez más
negativa hacia la gente, se manifiesta de varios modos, llegando a ignorarles y a
ignorar sus necesidades y solicitudes y a no dar la ayuda, la asistencia o el servicio
más idóneo para ellos. Los sentimientos negativos hacia los demás, pueden
progresar hasta terminar con sentimientos negativos hacia sí mismo. Los
operadores de la ayuda pueden tener sentimientos de culpa o tormento por el modo
con que han considerado o tratado a la gente: sienten que se están transformando
en un tipo de persona fría e indiferente que a nadie gusta, ni siquiera a ellos
mismos (Maslasch, 1982) (Alvarez, 1991).

La realizacion personal, es la tercera dimensión de este síndrome, que


está disminuida en quienes la padecen. La persona suele sufrir un tormentoso
sentimiento de inadaptación sobre su propia capacidad de establecer relaciones
con los usuarios del servicio y que puede conducir a un auto-veredicto de "fracaso".
Con la caída de la autoestima, puede instaurarse la depresión. Algunos intentarán
resolver lo que interpretan como problemas personales a través de psicoterapia,
otros cambiarán de trabajo (evitando cualquier tarea que pueda implicar un contacto
estresante con la gente).
Así pues, el precio del burnout puede ser muy alto. Afecta negativamente,
tanto al operador, como a su familia, al usuario y a la institución. Muchas veces, se
trata de mecanismos de supervivencia del opera dor, que intenta reducir el estrés
quizás con alcohol o con fármacos o bien alejándose de la gente (Livianos, 1999)
(Araquistain, 2001).

Díaz y Stella (2001), señalan que Burnout es un síndrome que causa un


aumento de enfermedades psicosomáticas en trabajadores (del sector de servicios)
que debido a las malas condiciones en su lugar de trabajo, la falta de estímulos
personales, escasez de tiempo libre, y horarios inadecuados provocan factores
estresantes crónicos, los cuales llevan al desgaste en su trabajo, en su vida y en las
personas que lo rodean, pudiendo llevar a complicaciones como el abandono
personal o de la profesión, la depresión crónica, el alcoholismo, la drogadicción y
hasta el suicidio .

Promocionar la salud, prevenir enfermedad, curar, rehabilitar son tareas que


producen muchas satisfacciones pero también muchos problemas y tensiones. Es
conveniente remarcar que el riesgo alcanza a todos los profesionales de la salud en
contacto cotidiano con los pacientes (médicos, enfermeras, odontólogos,
nutricionistas, asistentas sociales, psicólogos, fisioterapista), sin embargo, la
permanencia de la enfermera en un lugar que no reúna las condiciones básicas de
higiene y seguridad, la falta de motivación para el desarrollo profesional y la
escasez de tiempo libre para su realización incrementan el riesgo para el desarrollo
de cansancio emocional y despersonalización que son características del síndrome
de Burnout, por lo que realizamos la presente investigación con el propósito de
obtener información que sirva de base para la elaboración de programas de
promoción de la salud del personal de Enfermería.

OBJETIVOS :
401

- Determinar el nivel del síndrome de burnout en el personal de


enfermería de los servicios hospitalarios de la provincia de Trujillo.
- Determinar la relación entre el síndrome de burnout en el personal de
enfermería de los servicios hospitalarios de la provincia de Trujillo con
las variables edad, estado civil, existencia de hijos, años de servicio,
áreas de trabajo.
402

II. MATERIAL Y METODOS

El presente trabajo de investigación de tipo descriptivo correlacional y de


corte transversal (Polit y Hungler, 1997), se realizó en los servicios hospitalarios de
la provincia de Trujillo durante los meses de marzo a diciembre del 2002.

POBLACIÓN DE ESTUDIO

Estuvo conformado por 366 enfermeras que laboran en los servicios


hospitalarios del Ministerio de Salud y EsSalud de la provincia de Trujillo.

MUESTRA

La muestra se tomó aleatoriamente y estuvo constituida por 56 enfermeras,


las mismas que fueron determinados en un nivel de confianza del 95% y un nivel de
precisión del 5% (anexo 1).

UNIDAD DE ANÁLISIS

Estuvo conformada por cada una de las enfermeras de los servicios


hospitalarios de los hospitales de la provincia de Trujillo.

INSTRUMENTO
El instrumento de medida para valorar la presencia de desgaste profesional
fue el Maslach Burnout Inventory (MBI) (1982, un inventario autoadministrado
constituido por 22 ítems en forma de afirmaciones sobre los sentimientos
personales y actitudes del profesional en su trabajo y hacia los pacientes. Fue
desarrollado por Maslach y Jackson (1997), y su versión en castellano ha sido
empleada en diversos profesionales de la salud mental (Araquistain y otros 2001)
(Álvarez, 1991). Este instrumento fue diseñado para valorar tres aspectos
fundamentales del síndrome de burnout o de desgaste profesional: el agotamiento
emocional, la despersonalización y la ausencia de logros personales. La subescala
de agotamiento emocional (AE), constituida por nueve ítems, valora la sensación de
estar emocionalmente saturado o exhausto por el propio trabajo. La subescala de
despersonalización (DP), integrada por cinco ítems, mide el grado en el cual la
respuesta hacia los pacientes es fría, distante e impersonal. La subescala de logros
personales (LP) consta de ocho ítems que valoran los sentimientos de competencia
y eficacia en la realización del trabajo.

Altas puntuaciones en las subescalas de agotamiento emocional (AE) y de


despersonalización (DP) y bajas puntuaciones en la subescala de logros personales
(LP) son reflejo de un alto grado de burnout. Un grado medio es reflejo de
puntuaciones medias en las tres subescalas. La presencia de bajas puntuaciones
en las subescalas de AE y DP, y de altas puntuaciones en la de LP son indicativas
de un bajo grado de burnout (tabla I).

TABLA I Valores medios del Inventario de Maslach en el sector sanitario


403

Subescala Media ± DE Baja Media Alta

Agotamiento emocional 22,19 ± 9,53 < 18 19-26 >= 27


Despersonalización 7,21 ± 5,22 <5 6-9 >= 10
Logros profesionales 36,53 ± 7,34 < 33 34-39 >= 40
FUENTE: Livianos Aldana L. De las Cuevas Castresana C. y Rojo Moreno L. El desgaste

profesional del psiquiatra.

Control de calidad del instrumento

El instrumento fue sometido a la prueba de confiabilidad alfa de Cronbach y la de


validez Inter-item.

Procedimiento

Se realizaron las coordinaciones respectivas con las autoridades de cada centro hospitalario.
Luego se procedió a la aplicación individual. En todos y cada uno de los casos; previamente
a la misma se les suministró información sobre los objetivos generales del estudio, y sobre el
carácter confidencial y anónimo del mismo.

Tratamiento estadístico

Los datos obtenidos se calificaron y tabularon manualmente, presentándose en


cuadros estadísticos. El análisis se realizó teniendo en cuenta la distribución porcentual del
grupo estudiado en base a las dimensiones del síndrome de burnout y la prueba de
independencia de criterios para demostrar la relación entre variables.
404

III. RESULTADOS

CUADRO 1. DESCRIPCION DE LA MUESTRA SEGÚN VARIABLES


SOCIODEMOGRÁFICAS Y LABORALES.

VARIABLES n %

EDAD 16 28.5
23 41.1
19 – 35
17 30.3
36 – 45

>45

ESTADO CIVIL 16 28.6


40 71.4
Soltera
Casada

HIJOS 44 78.6
12 21.4
SI
NO

AÑOS DE SERVICIO 8 14.2


12 21.4
0–5
7 12.5
6 – 10
15 26.8
11 – 15
13 23.2
16 – 20
01 1.8
21 – 25
>26

AREA DE TRABAJO 02 3.5


14 25.0
31 55.4
Servicios administrativos
07 12.5
Servicios especiales
02 3.5
Servicios médico
quirúrgicos
Pediátricos
Ginecoobstetricia
CUADRO 2. DIMENSIONES DEL SINDROME DE BURNOUT EN ENFERMERAS DE HOSPITAL DE LA PROVINCIA

DE TRUJILLO. 2002

ALTO MEDIO BAJO


DIMENSIONES n % n % n % TOTAL
N
%

CANSANCIO EMOCIONAL 4 7.1 06 10.7 46 82.1 56 100

DESPERSONALIZACION 8 14.2 07 12.5 41 73.2 56 100

REALIZACIÓN PERSONAL EN EL 38 67.8 11 19.6 07 12.5 56 100


TRABAJO
406

CUADRO 3. DIMENSIONES DEL SINDROME DE BURNOUT Y SU RELACION CON EDAD, ESTADO CIVIL,
PRESENCIA DE HIJOS, EN ENFERMERAS DE HOSPITAL DE LA PROVINCIA DE TRUJILLO. 2002

EDAD ESTADO CIVIL HIJOS


DIMENSIONES
19 - 35 36 -45 >45 S C SI NO
n % n % n % n % n° % n % n %

CANSANCIO EMOCIONAL X2 2.078 p > 0.O5 X2 0.438 p > 0.05 X2 2.492 p > 0.05
ALTO 1 6.3 2 8.7 1 5.9 1 6.3 3 7.5 4 9.1 0 0.0
MEDIO 0 0.0 3 13.0 3 17.6 1 6.3 5 12.5 6 13.6 0 0.0
BAJO 15 93.8 18 78.3 13 76.5 14 87.5 32 80.0 34 77.3 12 100.0

DESPERSONALIZACION X2 0.274 p > 0.O5 X2 3.297 p >0.O5 X2 1.724 p > 0.O5


ALTO 2 12.5 4 17.4 2 11.8 5 31.3 3 7.5 5 11.4 3 25.0
MEDIO 2 12.5 3 13.0 2 11.8 2 12.5 5 12.5 5 11.4 2 16.7
BAJO 12 75.0 16 69.6 13 76.5 9 56.3 32 80.0 34 77.3 7 58.3

REALIZACION PERSONAL X2 0.114 p > 0.O5 X2 0.304 p> 0.O5 X2 0.207 p > 0.O5
ALTO 11 68.8 16 69.6 11 64.7 12 75.0 26 65.0 29 65.9 9 75.0
MEDIO 4 25.0 3 13.0 4 23.5 3 18.8 8 20.0 8 18.2 3 25.0
BAJO 1 6.3 4 17.4 2 11.8 1 6.3 6 15.0 7 15.9 0 0.0

Total 16 100.0 23 100.0 17 100.0 16 100.0 40 100.0 44 100.0 12 100.0


407

CUADRO 4. DIMENSIONES DEL SINDROME DE BURNOUT Y SU RELACION CON TIEMPO DE SERVICIO EN


ENFERMERAS DE HOSPITAL DE LA PROVINCIA DE TRUJILLO. 2002

TIEMPO DE SERVICIO (años)


DIMENSIONES 0-5 6-10 11-15 16 - 20 21 - 25 >26
n % n % n % n. % n % n %
CANSANCIO EMOCIONAL
ALTO 0 0.0 1 8.3 0 0 2 13.3 1 7.7 0 0
MEDIO 0 0.0 1 8.3 2 28.6 1 6.7 2 15.4 0 0
BAJO 8 100.0 10 83.3 5 71.4 12 80.0 10 76.9 1 100
X2 1.56 p>0.05
DESPERSONALIZACION
ALTO 2 25 0 0.0 1 14.3 3 20 2 15.4 0 0.0
MEDIO 2 25 1 8.3 0 0.0 2 13.3 2 15.4 0 0.0
BAJO 4 50.0 11 91.7 6 85.7 10 66.7 9 69.2 1 100 .0
X2 0.94 p>0.05
REALIZACION PERSONAL
ALTO 6 75.0 7 58.3 6 85.7 8 53.3 10 76.9 1 100.0
MEDIO 2 25.0 2 16.7 1 14.3 4 26.7 2 15.4 0 0.0
BAJO 0 0.0 3 25.0 0 0.0 3 20.0 1 7.7 0 0.0
X2 3.29 p>0.05
TOTAL 8 100 12 100 7 100 15 100 13 100 1 100
408

CUADRO 5. DIMENSIONES DEL SINDROME DE BURNOUT Y SU RELACION CON AREA DE TRABAJO EN


ENFERMERASDE HOSPITAL DE LA PROVINCIA DE TRUJILLO. 2002

AREA DE TRABAJO (servicios)


DIMENSIONES
Administrativos Especiales Medico Pediátricos Gineco-obstetricia TOTAL
-quirúrgicos
n % n. % n % n. % n % n %
CANSANCIO EMOCIONAL X2 3.44 p > 0.05
ALTO 0 0.0 2 14.3 2 6.5 0 0.0 0 0.0 4 7.1
MEDIO 1 50.0 1 7.1 1 3.2 2 28.6 1 50.0 6 10.7
BAJO 1 50.0 11 78.6 28 90.3 5 71.4 1 50.0 46 82.1

DESPERSONALIZACION X2 0.803 p > 0.05


ALTO 0 0.0 2 14.3 6 19.4 0 0.0 0 0.0 8 14.3
MEDIO 0 0.0 1 7.1 3 9.7 2 28.6 1 50.0 7 12.5
BAJO 2 100.0 11 78.6 22 71.0 5 71.4 1 50.0 41 73.2

REALIZACION PERSONAL X2 3.315 p > 0.05


ALTO 2 100.0 6 42.9 23 74.2 5 71.4 2 100.0 38 67.9
MEDIO 0 0.0 3 21.4 7 22.6 1 14.3 0 0.0 11 19.6
BAJO 0 0.0 5 35.7 1 3.2 1 14.3 0 0.0 7 12.5

TOTAL 2 100.0 14 100.0 31 100.0 7 100.0 2 100.0 56 100.0


409

IV. DISCUSIÓN

Cuando se dice que un profesional está «desgastado profesionalmente» se trata


de reflejar que, como producto de una interacción negativa entre el lugar de
trabajo, el equipo o staff y los «clientes», el trabajador se encuentra desbordado,
estando agotada su capacidad de reacción adaptativa, no disponiendo de
recursos adecuados para amortiguar el estrés que su trabajo implica y
experimentando una constelación de síntomas ante las demandas de su
entorno laboral (Fernández, 1994).

El presente trabajo es, hasta donde alcanzan nuestros conocimientos, el primer


estudio en nuestro medio de estas características. Bien es cierto que hay
antecedentes de otros estudios a nivel nacional, pero éstos se centran en
profesionales del equipo de salud más no en enfermeras.

Los resultados de la presente investigación, muestran en el cuadro 01, las


características sociodemográficas y laborales de la muestra en donde
observamos que el mayor porcentaje se encuentra en la edad de adulto maduro
(36-45 años). En relación al estado civil el mayor porcentaje es casada y
generalmente con hijos. En el área laboral, se aprecia dos grupos significativos,
uno conformado por enfermeras con 6 a 10 años de trabajo y otro formado por
enfermeras de 16 a 20 años, seguida de aquellas con 21 a 25 años.

En el cuadro 02, se aprecia que la totalidad de la muestra en estudio presenta


el síndrome de burnout en alguna medida. Estos datos son corroborados por
Livianos y col., (1999) en una muestra de médicos psiquiatras, quien además
sostiene que el burnout o desgaste profesional es una variable continua que se
puede experimentar en bajo, moderado o alto grado, y no una variable
dicotomizada que está presente o ausente. El burnout o quemamiento, es un
síndrome de agotamiento emocional, de despersonalización y de reducción de
la capacidad personal, que puede presentarse en sujetos que, por profesión, se
"ocupan de la gente" (Maslach, 1997). Se trata de una reacción a la tensión
emocional crónica creada por el contacto continuo con otros seres humanos, en
particular cuando éstos tienen problemas o motivos de sufrimiento. Para,
Gómez S. y Bondjale Oko, (2002) este síndrome es "el precio de ayudar a los
demás".y está perfectamente descrito y estudiado y siempre se refiere al que
pueden sufrir los profesionales que tienen por misión ayudar a los demás
(médicos, enfermeras, maestros, policías, asistentes sociales, funcionarios de
prisiones, etc.).

De otro lado las puntuaciones antes presentadas ubican a casi el 20% de la


muestra en el rango de medio a alto en las subescalas de agotamiento
emocional, y despersonalización y de medio a bajo en las subescalas de logros
personales, siendo por tanto indicativas de la presencia de un grado moderado
de burnout o desgaste profesional en dichas enfermeras participantes en el
estudio. Además hay que recalcar que el rasgo fundamental del burnout es el
Cansancio Emocional (CE) o, lo que es lo mismo, la sensación de no poder dar
más de sí mismo y en este sentido se corrobora lo antes dicho al apreciar que
un porcentaje significativo (17.8%) presentan niveles de medio a alto tanto en la
dimensión CE. y despersonalización (D), (26.7%). Vale decir que las enfermeras
que vienen percibiendo este sentimiento negativo, para protegerse podrían estar
410

tratando de aislarse de los demás, desarrollando así una actitud impersonal


hacia los «clientes» y los miembros del equipo en el que están integradas,
mostrándose distanciadas, y utilizando etiquetas despectivas para aludir a los
usuarios o bien tratando de hacer culpables a los demás de sus frustraciones,
produciéndose un descenso de su compromiso laboral (Alvarez, 1991)
(Livianos, 1999). Todos estos recursos suponen para la profesional una forma
de aliviar la tensión experimentada de manera que al restringir el grado o la
intensidad de la relación con las demás personas, está tratando de adaptarse a
la situación, aunque lo haga por medio de mecanismos neuróticos (Livianos,
1999).

De otro lado, en la dimensión de realización personal en el trabajo (RP) un


mayor porcentaje presenta una alta puntuación lo que significaría que existe una
adecuación personal y profesional al puesto de trabajo. Sin embargo este tercer
componente puede estar encubierto por una sensación paradójica de
omnipotencia, ante la amenaza inconsciente de sentirse incompetente, es decir
el profesional redobla sus esfuerzos para afrontar las situaciones, dando la
impresión a los que le observan de que su interés y dedicación son inagotables
(Hunter, 1982) (Duxbury, 1984). Para Maslach y Jackson (1997) la
despersonalización es el elemento clave del Síndrome de Burnout. Además
postulan que estas tres dimensiones son fases sucesivas de un proceso que
concluye con el Sindrome de Burnout.

Al relacionar las dimensiones del síndrome de burnout con las variables edad,
estado civil y existencia de hijos (cuadro 3), se aprecia que el perfil de las
enfermeras que presenta altos valores en la dimensión cansancio emocional es
de una edad comprendida entre los 36 a 45 años, de estado civil casada y con
presencia de hijos; siendo posible distinguir que a menor edad el mayor
porcentaje (93.8%) presenta una puntuación baja en esta dimensión;
sucediendo lo mismo para las variables estado civil soltera (87.5%) y es mas
notorio aun en aquellas que no tienen hijos (100%).
En relación con la dimensión despersonalización que caracteriza una respuesta
fría, distante e impersonal hacia los pacientes, las enfermeras de 36 a 45 años,
de estado civil soltera y sin hijos fueron quienes registraron los mayores valores.

En relación con la dimensión de realización personal, las enfermeras de 36 a


45 años, de estado civil soltera y sin hijos fueron quienes registraron las mayores
puntuaciones.

Datos que son corroborados por los encontrados por Díaz y Stella (2000) en
médicos de atención primaria quien reporta como causales del síndrome de
burnout a la edad de 45 años, de estado civil casada y con hijos es decir a la
familia no como un factor protector sino un factor agravante ya que la
responsabilidad es mayor.

Sin embargo al someter los datos a la prueba chi cuadrado, no se encuentra


evidencia suficiente de significación estadística (p>0.05), lo que nos señala que
los factores edad, estado civil y presencia de hijos no se pueden considerar
como factores condicionantes para el desarrollo del síndrome de burnout en
411

enfermeras, datos que son corroborados por los encontrados por Liviano (1999)
en una muestra de médicos psiquiatras en Valencia.

La variable tiempo de servicio como enfermera (Cuadro 04) no hizo que se


registraran diferencias estadísticamente significativas en ninguna de las
dimensiones. Datos que difieren con los encontrados por Liviano (1999). Los
puntajes porcentuales mas bajos de las dimensiones CE y D se ubican en
enfermeras con mayor tiempo de servicio las mismas que obtienen los puntajes
mas altos en la dimensión realización personal. (Liviano, 1999).

En relación al área de trabajo (cuadro 05), no hay relación estadística


significativa con ninguna de las dimensiones del burnout. Sin embargo llama la
atención que en los servicios administrativos y de gineco-obstetricia se ubican
los puntajes mas altos para las dimensiones de C.E. y D, las que son indicativas
de presencia de burnout en un nivel significativo (Maslasch, 1997), de otro lado
también hay que hacer notar que dichos servicios son los que presentan
puntuaciones mas altas en la dimensión RP lo que significaría que existe una
adecuación personal y profesional al puesto de trabajo. Sin embargo este
componente puede estar encubierto por una sensación paradójica de
omnipotencia, ante la amenaza inconsciente de sentirse incompetente, es decir
el profesional redobla sus esfuerzos para afrontar las situaciones, dando la
impresión a los que le observan de que su interés y dedicación son inagotables
(Hunter, 1982) (Duxbury, 1984).

Aunque en el desarrollo del síndrome de burnout se hallan implicados factores


personales, familiares y organizacionales, es cierto también que los sistemas son
realmente difíciles de cambiar y las intervenciones más realistas para la
prevención y alivio del desgaste profesional son las estrategias individuales
basadas en el cambio de actitud como factor crítico (Munley, 1985) (Fernández,
1994).
412

V. CONCLUSIONES

1. El personal de enfermería de los servicios hospitalarios de la provincia de


Trujillo presentan un nivel bajo en las dimensiones de cansancio
emocional y despersonalización del síndrome de burnout y alto en la
dimensión de realización personal.

2. No existe relación estadística significativa entre las dimensiones del


síndrome de burnout en el personal de enfermería de los servicios
hospitalarios de la provincia de Trujillo con las variables edad, estado
civil, existencia de hijos, años de servicio, áreas de trabajo.
413

VI. REFERENCIAS BIBLIOGRAFICAS

ÁLVAREZ GALLEGO, E. y L. FERNÁNDEZ RÍOS. 1991. El síndrome de


«burnout» o el desgaste profesional: Revisión de estudios. Rev
Asoc. Esp Neuropsiquiatr;21:257-65.
ARAQUISTAIN y otros (2001). Malestar en las instituciones: Lo insalubre
de trabajar en salud. Síndrome de burnout. Argentina
DÍAZ, R. y E. STELLA. 2001 Síndrome de burnout en médicos de atención primaria.
Argentina. rubendiaz@movi.com.ar
DUXBURY, L.; G. ARMSTRONG y D. DREW. 1984. Burnout Correlates.
Nurs Res;33:97.
FARBER, B. 1983. Stress and Burnout in the Human Service
Professions. New York: Pergamon. General Psychology
Press.
FERNÁNDEZ RÍOS, L. 1994. Manual de psicología preventiva. Teoría y
práctica. Madrid: Siglo Veintiuno de España eds.
FREUDENBERGER H. Staff (1974). Burn-out. J Social Issues;30:159-65.
GÓMEZ SANCHO, M. y T. BONDJALE OKO, Síndrome de Burnout o quemamiento de
los profesionales. Prevención y tratamiento.
http://usuarios.tripod.es/prision/articulos/quemamiento.htm").
HUNTER, K..; J. JENKINS y L. HAMPTON. (1982). Burnout. Cris.
Intervention;12:141-50.
LIVIANOS, A.; DE LAS CUEVAS, C. y M. ROJO. 1999. El desgaste
profesional del psiquiatra. España. Vol. 27 – 5.

MASLACH C. 1982. Burnout: The cost of caring. .Englewood Cliffs. NJ.


Prentice Hall.
MASLACH C. y J. JACKSON (1997). M.B.I “Inventario Burn out” de Maslasch.
“Síndrome del quemado por estrés laboral asistencial” Publicaiones de
psicología aplicada. Serie menor num. 211 TEA ediciones. Madrid.
MUNLEY, A. 1985. Sources of Hospice Staff Stress and How to Cope with
It. North Am. Nurs Clin;20:343-55.
PANCHERI, P. 1990. Manual de psiquiatría clínica. 2a. ed., México.Trillas.
POLIT, D. y B. HUNGLER. 1997 Investigación Científica en ciencias de la salud. 5a ed.
Editorial Interamericana. México.
SMITH, S. 1989. Psicología. 2a ed. México. Harla.
414
415
416

UNIVERSIDAD NACIONAL DE
TRUJILLO
ESCUELA DE POST GRADO
PROGRAMA DE DOCTORADO EN MEDIO AMBIENTE

IMPACTO DE LA INDUSTRIA PESQUERA

SOBRE EL SISTEMA MARINO LITORAL DE

PUERTO MALABRIGO; MAYO - DICIEMBRE

DEL 2003

TESIS
PARA OPTAR EL GRADO DE
DOCTOR EN MEDIO AMBIENTE
417

Autor: ÁNTERO CELSO


VÁSQUEZ GARCÍA
Asesor: Dr. ÁLVARO
TRESIERRA AGUILAR

Trujillo – PERU

2005
No. Registro………………..
JURADO DICTAMINADOR

Dr. CARLOS BORREGO PERALTA Dr. FEDERICO GONZÁLES VEINTIMILLA


PRESIDENTE SECRETARIO

DR. ÁLVARO TRESIERRA AGUILAR


ASESOR
418

DEDICATORIA

A NOEMÍ,
MI AMADA ESPOSA PORQUE CON
SUS ORACIONES ME HIZO
CONOCER A DIOS

A
ALBERTO RUBÉN
WILMER ABRAHAM
Y ANA CECILIA,
MIS AMADOS HIJOS
Tratando de compensar el
tiempo que faltó dedicarles

A mis amados
padres
OSCAR Y
COMO MUESTRA DE GRATITUD
POR LA FORMACIÓN
PERSONAL Y QUE SON PARA
MI, REAL EJEMPLO DE VIDA,
HUMILDE, SENCILLA Y
VERDADERA
419

A MIS HERMANOS
MARTÍN ANSELMO,
OPTACIANO, ÁNGEL,
SANTIAGO ALBERTO,
HAYDEE e IRMA

CON SINCERO APRECIO

AGRADECIMIENTOS

A DIOS POR SU INMENSA BONDAD

AGRADEZCO DE FORMA MUY ESPECIAL AL Dr. ALVARO


TRESIERRA AGUILAR, POR SU CONSTANTE APOYO; ORIENTACION
OPORTUNA, Y SUGERENCIAS PARA LA EJECUCIÓN Y CULMINACIÓN DE
LA TESIS.

A LOS AMIGOS Y COLEGAS DE LA PRIMERA PROMOCIÓN DE


DOCTORADO EN MEDIO AMBIENTE DE LA ESCUELA DE POSTGRADO DE
LA UNIVERSIDAD NACIONAL DE TRUJILLO

AL AMIGO Y COLEGA LUIS CERNA BAZÁN, DECANO DE LA


FACULTAD DE CIENCIAS AGRARIAS DE LA UNIVERSIDAD PRIVADA
ANTENOR ORREGO DE TRUJILLO POR EL CONSTANTE APOYO EN EL
ABORDAJE DE TEMAS AMBIENTALES.
420

GRATITUD SINGULAR A CARLOS VILLANUEVA, JOSÉ REUPO Y LOS


AMIGOS DEL DEPARTAMENTO DE BIOLOGÍA DE LA UNIVERSIDAD
NACIONAL PEDRO RUIZ GALLO, POR LAS FACILIDADES BRINDADAS
PARA OBTENER LA LICENCIA QUE PERMITIÓ LA ASISTENCIA A LOS
CURSOS DE ESPECIALIDAD.

A LOS SEÑORES MIEMBROS DEL JURADO, Dr. CARLOS BORREGO


PERALTA Y Dr. FEDERICO GONZÁLES VEINTIMILLA POR SUS VALIOSAS
SUGERENCIAS PARA LA ELABORACIÓN DEL INFORME FINAL.

AL PUEBLO DE PUERTO CHICAMA, HOY PUERTO MALABRIGO,


QUE ME ENSEÑO A AMAR AL MAR.

A TODOS ELLOS MUCHAS GRACIAS


ÍNDICE

Página

RESUMEN.............................................................................. ix
ABSTRACT……………………………………………………………… x

I. INTRODUCCIÓN……………………………………………………. 1

II. MATERIAL Y MÉTODOS………………………………………….. 6

III. RESULTADOS…………………………………………………….... 13

IV. DISCUSIÓN…………………………………………………………. 37

V. PROPUESTA………………………………………………………… 52

VI. CONCLUSIONES………………………………………..……….. 66

VII. REFERENCIAS BIBLIOGRÁFICAS……………………..……… 67


421

ÍNDICE DE CUADROS
P
ágina
CUADRO Nº TÍTULO

01 CONCENTRACIÓN DE OXÍGENO DISUELTO (ppm) EN


EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO
(EM), NÚMERO DE MUESTREO Y NIVEL. 16

02 DEMANDA BIOQUÍMICA DE OXÍGENO (ppm) EN EL


AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO
(EM), NÚMERO DE MUESTREO Y NIVEL. 16

03 CONCENTRACIÓN DE SÓLIDOS SUSPENDIDOS


TOTALES (SST) (ppm) EN EL AGUA DEL SISTEMA
MARINO LITORAL DE PUERTO MALABRIGO, 2003,
SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE
MUESTREO Y NIVEL. 17

04 CONCENTRACIÓN DE ACEITES Y GRASAS (ppm) EN EL


AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO
(EM), NÚMERO DE MUESTREO Y NIVEL. 17

05 VALORES DE pH EN EL AGUA DEL SISTEMA MARINO


LITORAL DE PUERTO MALABRIGO, 2003, SEGÚN
ESTACIÓN DE MUESTREO (EM), NÚMERO DE
MUESTREO Y NIVEL. 18
422

06 TEMPERATURA DEL AGUA DE MAR (ºC) EN LA


COLUMNA DE AGUA DEL SISTEMA MARINO LITORAL
DE PUERTO MALABRIGO, 2003, SEGÚN ESTACIÓN DE
MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL.
18

07 CONCENTRACIÓN DE FOSFATOS (ppm) EN EL AGUA


DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO
(EM), NÚMERO DE MUESTREO Y NIVEL 19

08 CONCENTRACIÓN DE NITRATOS (ppm) EN EL AGUA


DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO
(EM), NÚMERO DE MUESTREO Y NIVEL. 19

09 CONCENTRACIÓN DE NITRITOS (ppm) EN EL AGUA


DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO
(EM), NÚMERO DE MUESTREO Y NIVEL. 20

10 CONCENTRACIÓN DE SULFUROS (ppm) EN EL AGUA


DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO
(EM), NÚMERO DE MUESTREO Y NIVEL. 20

11 SALINIDAD DEL AGUA DE MAR (0/00 ) DEL SISTEMA


MARINO LITORAL DE PUERTO MALABRIGO, 2003,
SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE
MUESTREO Y NIVEL. 21

12 VALORES DE MEDIA Y DESVIACIÓN ESTÁNDAR DE


VARIABLES DE CALIDAD DE AGUA DE MAR DE
SEGÚN ESTACIÓN DE MUESTREO, 2003 22

13 VALORES DE MEDIA Y DESVIACIÓN ESTÁNDAR DE


VARIABLES DE CALIDAD DE AGUA SEGÚN NIVEL DE
LA COLUMNA DE AGUA; PUERTO MALABRIGO, 2003
22

14 ANÁLISIS DE VARIANZA DE LOS INDICADORES DE


CALIDAD DE AGUA DEL SISTEMA LITORAL DE
PUERTO MALABRIGO, 2003 23

15 ESPECIES DE ALGAS COMPONENTES DEL


FITOPLANCTON DEL SISTEMA MARINO LITORAL DE
PUERTO MALABRIGO, 2003 SEGÚN ESTACIÓN DE
MUESTREO (EM), NÚMERO DE MUESTREO. 26

16 NÚMERO MAS PROBABLE DE COLIFORMES TOTALES


Y FECALES POR ESTACIÓN DE MUESTREO Y MES DE
423

MUESTREO EN AGUAS DEL SISTEMA MARINO 32


LITORAL DE PUERTO MALABRIGO, 2003

17 MATRIZ DE IMPACTOS AMBIENTALES CUALITATIVOS


DE LA INDUSTRIA PESQUERA SOBRE EL SISTEMA 35
MARINO LITORAL DE PUERTO MALABRIGO

18 MATRIZ DE IMPACTOS AMBIENTALES


CUANTITATIVOS DE LA INDUSTRIA PESQUERA
SOBRE EL SISTEMA MARINO LITORAL DE PUERTO 36
MALABRIGO

19 MATERIAL Y LONGITUD DE LOS EMISORES


SUBMARINOS DE LAS EMPRESAS PRODUCTORAS DE
HARINA Y ACEITE DE PESCADO; PUERTO
MALABRIGO 55

ÍNDICE DE GRÁFICOS
GRÁFICO Nº TITULO P
ágina
7
01 UBICACIÓN DE LAS ESTACIONES DE MUESTREO EN
PUERTO MALABRIGO, 2003

02 MATERIA ORGÁNICA EXPRESADA EN PORCENTAJE


DE PESO SECO DE SEDIMENTO DEL SISTEMA 29
MARINO LITORAL DE PUERTO MALABRIGO, 2003

03 TAMAÑO DE LAS PARTÍCULAS (mm) EN EL


SEDIMENTO DEL SISTEMA MARINO LITORAL DE
PUERTO MALABRIGO, 2003 30

04 ESQUEMA DE LA INSTALACIÓN DE UN COLECTOR


DE RILs DE LAS EMPRESAS PESQUERAS
PROPUESTO PARA PUERTO MALABRIGO 58

ÍNDICE DE FOTOS

FOTO Nº P
TITULO ágina

1 BOTELLA NISKIN UTILIZADA PARA LA OBTENCIÓN


DE MUESTRAS DE AGUA DE SUPERFICIE Y FONDO, 8
PUERTO MALABRIGO, 2003.
DRAG
DRAGDRAGA
2 VAN VEEN, DESPUÉS DE HABER OBTENIDO
424

EL SEDIMENTO DEL FONDO MARINO; PUERTO


MALABRIGO, 2003 9

3 MUESTRA DE SEDIMENTO ACONDICIONADA EN


BOLSAS DE POLIETILENO PARA SU TRASLADO Y
POSTERIOR ANÁLISIS EN LABORATORIO.
9

Título: IMPACTO DELA INDUSTRIA PESQUERA SOBRE


EL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO; MAYO - DICIEMBRE DEL 2003
Autor: ÁNTERO CELSO VÁSQUEZ GARCÍA
Asesor: Dr. ÁLVARO TRESIERRA AGUILAR
No de páginas: 76
Año : 2005
Institución: UNIVERSIDAD NACIONAL DE TRUJILLO
ESCUELA DE POST GRADO

RESUMEN

Se evaluó el impacto de la industria pesquera en el sistema marino litoral de Puerto


Malabrigo; distrito de Rázuri; provincia de Ascope; Región La Libertad desde mayo hasta
diciembre del 2003. Se establecieron cuatro estaciones de muestreo, 1: 500 metros al sur
del muelle, 2: Entre chata y orilla frente a la planta SIPESA; 3: Entre chata y orilla frente
a la planta HAYDUCK SAC 4: A un Km al norte de la estación 3. Muestras de agua de
superficie y fondo y de sedimentos fueron colectadas y analizadas siguiendo la
metodología sugerida en la RM No. 003-2002-PE (Protocolo para el Monitoreo de
efluentes y cuerpo marino receptor del 2002-04-13). Coliformes totales y fecales x 100
ml; se determinaron por los Métodos Normalizados para el Análisis de Aguas Potables y
Residuales 9215 A, 9221 A, 9221 B, 9221 C descritos por APHA; AWWA y WPCF
(1989). Se concluyó que: 1. La industria pesquera genera impactos ambientales negativos
valorados como significativos y muy significativos sobre el sistema marino litoral de
Puerto Malabrigo; 2. Impactos positivos significativos se generaron en aspectos
poblacionales de educación y economía por la generación de empleo, el incremento del
nivel de remuneración personal y de recursos económicas para la Municipalidad Distrital
de Rázuri; 3. Poliquetos de los géneros Nereis, Diopatra y Chaethopterus, fueron
indicadores de impacto ambiental de la industria pesquera sobre el sistema marino litoral
de Puerto Malabrigo.

Palabras claves: Impacto, Industria Pesquera, Puerto malabrigo


425

Título: IMPACTO DE LA INDUSTRIA PESQUERA SOBRE


EL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO; MAYO - DICIEMBRE DEL 2003
Autor: ÁNTERO CELSO VÁSQUEZ GARCÍA
Asesor: Dr. ÁLVARO TRESIERRA AGUILAR
No de páginas: 76
Año : 2005
Institución: UNIVERSIDAD NACIONAL DE TRUJILLO
ESCUELA DE POST GRADO

ABSTRACT

The impact of the fishing industry was evaluated in the coastal marine system of Puerto
Malabrigo; Rázuri district, Ascope county; Region LA Libertad from May to December
2003. Four sampling stations were settled down, 1: 500 meters at south of the jetty, 2:
Betwen snub and borders in front of SIPESA plant; 3: Betwen snub and borders in front
of HAYDUCK SAC plant, 4: At one Km at north of the station 3. Samples of surface
water and bottom, as well as of silts, were took and they analyzed following the
methodology suggested in the annexes 1, 2 and 3 of the Ministerial Resolution Nº. 003-
2002-PE (Protocol for the drain pursuit and receiving marine body of 2002-04-13). Total
and fecal Coliforms x 100 ml; were determined by the Normalized Methods of the
Analysis of Drinkable and Residual Waters 9215 A, 9221 A, 9221 B, 9221 C described by
APHA; AWWA and WPCF (1989). It was concluded that: 1. The fishing industry
generates negatives environmental impacts valued as significant and very significant on
the coastal marine system of Puerto Malabrigo; 2. Significant positive impacts were
generated in populational aspects of education and economy by the employment
generation, the increment of the level of personal remuneration and of economic
resources for the Rázuri Distrital Municipality; 3. Polychaets of the genera Nereis,
Diopatra and Chaethopterus, were indicators of environmental impacts of the fishing
industry on the coastal marine system of Puerto Malabrigo.
426

Key words: Impact, Fishing Industry, Puerto Malabrigo

I. INTRODUCCIÓN

Glynn y Heincke (1999) señalan que los estudios ambientales se deben considerar
desde el paradigma del desarrollo sostenible, interpretado como, aquel que orienta a
explotar los recursos naturales para satisfacer las necesidades del presente y preservarlos
para las generaciones futuras. Este paradigma ha cambiado la filosofía de la explotación
destructiva de la sociedad para alcanzar una que, a largo plazo, fomente la protección del
ambiente y sus habitantes.

En el contexto del Sistema de Gestión Medio Ambiental, dos definiciones son


sumamente importantes:1) Impacto Ambiental es la alteración positiva o negativa del
medio, producida por una acción humana; 2) Evaluación del Impacto Ambiental es el
estudio de identificación, predicción y previsión de los efectos de una acción antrópica
sobre el medio ambiente y de su posible minimización (Seoanez, 1996).

Miller (1994), menciona que toda forma de tecnología y todo lo que hacemos y
consumimos resulta en contaminación y degradación del ambiente; ello implica algún
grado de riesgo para la salud del ser humano y el bienestar de otras especies. Por tanto no
hay productos o procesos ambientalmente inocuos, sino que en algún grado son más o
menos nocivos para el ambiente.

Las aguas del mar territorial del Perú están consideradas entre las más ricas del
planeta por la variedad, calidad y cantidad de recursos hidrobiológicos que contiene. El
valioso potencial hidrobiológico, debido a la Corriente Peruana y los afloramientos
costeros, se sustenta en una productividad que en promedio alcanza los 330 g C/m 3/año,
427

condición que ha permitido catalogar al ecosistema marino peruano como uno de los de
mayor productividad (Brack y Mendiola, 2000). La pesquería marina peruana es una de
las más abundantes debido a las características bioecológicas de la Corriente de Peruana
y, en especial a la presencia de zonas de afloramiento con mayor intensidad frente a Paita,
Pimentel, Puerto Malabrigo, Chimbote y San Juan. En ellas, la diversidad y abundancia
de especies ha sido un factor determinante en la ubicación de industrias destinadas a la
elaboración de productos hidrobiológicos en condiciones tecnológicas diferentes.

La historia de la industria pesquera se asocia con la disponibilidad de Engraulis


ringens (anchoveta); pequeño pelágico que por su biomasa en nuestro mar ha posibilitado
el desarrollo de la industria de producción de harina y aceite de pescado, los que son
exportadas hacia distintos países del planeta (Tresierra y Culquichicón, 1993). En los
últimos años, se ha notado un incremento de las embarcaciones y plantas de
procesamiento, ligado a: i) la relativa abundancia de materia prima, ii) el incremento de la
flota, en número y capacidad de bodega; iii) el aumento del número de plantas de
procesamiento y su capacidad de transformación, así como su emplazamiento en los
puertos cercanos a lugares en los que se facilita el desembarque, la transformación y
comercialización. Ello permite resaltar el marcado crecimiento de esta actividad en
Chimbote, Coishco, Callao, Pisco, Supe, Huarmey, Paita y, en años recientes Puerto
Malabrigo (Instituto Tecnológico Pesquero del Perú, 2004).

El Instituto Nacional de Estadística e Informática (INEI, 2004) reporta que la


anchoveta contribuye con el 87 % del total de desembarques, que alcanzaron cifras de 8
051 t en el 2002 y 5 154 t en el 2003. En la región norte, los mayores volúmenes fueron
desembarcados en los puertos de Chimbote, Coishco, Puerto Malabrigo, Paita,
Parachique, Casma y Huarmey. El Instituto del Mar del Perú (IMARPE, 2004) reporta
que en el 2003 en Puerto Malabrigo se desembarcaron 217 569 t de anchoveta en mayo,
89 224 t en Junio, 42 810 t en julio, 137 939 t en octubre, 218 022 t en noviembre y 60
354 t en diciembre.

La industria de harina y aceite de pescado en nuestro país, en la última década, ha


incrementado sus niveles de producción utilizando tecnologías de punta, que han
permitido obtener productos de mayor calidad y competitividad en el mercado
internacional; sin embargo, desde sus inicios, ha originado muchos problemas
ambientales; algunos de los cuales aún persisten. Al respecto, Guillén (1981) citado por
428

Orozco et al., (1997), realizó un diagnóstico preliminar de las fuentes y efectos de este
problema en el Perú; en términos genéricos las aguas marinas son afectadas por descargas
de desagües domésticos, de la industria de harina de pescado, de residuos líquidos de la
minería, así como por los efluentes de las actividades petroleras y agrícolas.

Puerto Malabrigo, ubicado en la costa norte del Perú (7° 42'S - 79°27'W), distrito de
Rázuri, provincia de Ascope, Región La Libertad (Anexo 1), desde hace más de dos
décadas, desarrolla una importante pesquería industrial y artesanal; hasta 1994, contó con
una planta procesadora de harina de pescado, incrementándose a dos en 1995, la última
con capacidad operativa de 120 t/h y producción anual de 140 000 t con ambas fábricas.
Es Indudable que esta actividad ha originado una serie de cambios en el ambiente marino
adyacente; los que no han sido sistemáticamente evaluados desde una perspectiva
considerada en el sistema de gestión medio ambiental. En la actualidad, diez fábricas
desarrollan actividades de producción de harina de pescado de diferentes tipos:
Tecnología de Alimentos S.A, Pesquera Industrial El Ángel S.A, Sindicato Pesquero del
Perú S.A, Pesquera Chicama S.A, Pacífico Centro Norte SAC, Corporación Pesquera
INCA SAC, Alexandra SAC, Pesquera Exalmar SAC, Pesquera Hayduk S.A y otra que
recién se ha implementado.

Existen diferentes métodos y técnicas para la identificación de impactos


ambientales, tanto cualitativos como cuantitativos, citándose entre los más comunes al
método de la matriz de Leopold (1971), el método del Instituto Batelle-Columbus
descritos por Conesa (1997) y el método de De Torres (1999). Sin embargo, en las
consideraciones de Capó (2002), la determinación de bioindicadores es un aspecto
importante. El mismo autor define bioindicador como “un ser vivo que indica las
condiciones del medio en que vive”; en otros términos, bioindicadores son organismos o
comunidades en los que su existencia, sus características estructurales, su funcionamiento
y sus reacciones dependen del medio en que se desarrollan y cambian, al modificarse las
condiciones ambientales. Los bioindicadores son, consecuentemente, sensibles a los
cambios ambientales y reaccionan ante ellos como si fueran estímulos específicos; su
capacidad de respuesta depende de factores, tales como: i) la composición genética del
organismo, porque puede o no favorecer la adaptación a los cambios y por tanto, la
manifestación de respuestas, fácil y rápidamente visibles; ii) de su estado de desarrollo,
pues hay etapas en el ciclo vital que son más influyentes; por ejemplo, los individuos
juveniles suelen ser más sensibles, mientras que los adultos suelen ser más resistentes; iii)
429

de las propias condiciones ambientales, porque los estímulos pueden ser muy variados y
sus efectos no siempre son aditivos, sino que puede haber sinergismo o efectos
potenciadores de unas condiciones frente a otras.

Carrasco y Carbajal (1998) mencionan que los poliquetos representan uno de los
grupos más importantes en el macrobentos sub litoral, éstos, son organismos cuya
presencia o ausencia en el sedimento proveen una excelente indicación de las condiciones
del estado de salubridad del ambiente bentónico, constituyéndose en bioindicadores de
impacto ambiental.

Debido a que los informes científicos sobre aspectos ambientales en Puerto


Malabrigo son escasos, dispersos, no secuenciales, lo que origina serias dificultades para
generalizar de modo inferencial, considerando que la industria pesquera en nuestro país
es uno de los pilares de la economía y que las cuestiones ambientales no deben ser
abarcadas desde una perspectiva teórica, sino eminentemente pragmática, se ejecutó el
presente trabajo, ya que habiéndose emitido leyes que dan especificaciones de índole
ambiental en relación al funcionamiento de plantas productoras de harina de pescado;
éstas posiblemente no se cumplen en su totalidad; hechos que evidentemente ponen en
serio riesgo el ecosistema marino y sus componentes.

El problema científico se enuncia en los términos siguientes


¿Cuál es el impacto de la industria pesquera sobre el sistema marino litoral de Puerto
Malabrigo; mayo – diciembre del 2003?

La hipótesis científica planteada es:

La industria pesquera origina impactos negativos en el sistema marino litoral de


Puerto Malabrigo.

Los objetivos del presente trabajo de investigación son:


4. Identificar los impactos de la industria pesquera sobre el sistema
marino litoral de Puerto Malabrigo
5. Reportar los indicadores de impacto ambiental en el sistema marino litoral
de Puerto Malabrigo
3. Identificar los organismos bioindicadores de impactos ambientales de la
industria pesquera sobre el sistema marino litoral de Puerto Malabrigo.
430

4. Determinar la magnitud de los impactos ambientales de la industria pesquera


en el sistema marino litoral de Puerto Malabrigo utilizando un método
cuantitativo.

II. MATERIAL Y MÉTODOS

El estudio se realizó en la zona marina litoral de Puerto Malabrigo; distrito de


Rázuri; provincia de Ascope; Región La Libertad desde mayo hasta diciembre del 2003.
Se fijaron cuatro estaciones de muestreo (Gráfico 1).
431

Estación 1: Ubicada a 500 metros al sur del muelle, 07°41´54,9´´LS; 79°26´40,2


´´LW, considerada como testigo pues como las plantas están ubicadas al norte del
muelle, ésta no recibiría impacto alguno por la actividad de la Industria Pesquera.
Estación 2: Entre chata de SIPESA y orilla de la planta SIPESA, (30 metros
antes de la chata) 07°41´23,7´´ LS y 79°26´16,9´´ LW
Estación 3: Entre chata de HAYDUK y orilla de la planta HAYDUK S.A. (30 m
antes de la chata); 07°41´03,9´´ LS y 79°26´16,9LW
Estación 4: A un Km al norte de la estación 3 siguiendo la corriente; 07°40
´18,0” LS y 79°26´28,7´´

Los muestreos se realizaron considerando el ciclo reproductivo de la anchoveta,


las épocas de pesca y veda por reproducción (definida legalmente para los meses de
agosto y setiembre). En función de la evolución de la actividad pesquera se diferenciaron:
i) época de pesca normal (mayo y julio), ii) época de veda (agosto y septiembre) y, iii) de
intensa actividad industrial pesquera (noviembre y diciembre).

Para facilitar el manejo de la información y la tabulación de los datos se


consideró el número de muestreo y la fecha correspondiente en el año 2003 tal como se
menciona a continuación:
Muestreo 1: 21 de mayo
Muestreo 2: 10 de julio
Muestreo 3: 15 de setiembre
Muestreo 4: 04 de noviembre
Muestreo 5: 08 de diciembre
432

GRÁFICO Nº 1. Ubicación de las estaciones de muestreo en Puerto Malabrigo

Las muestras de agua de superficie se tomaron con un balde y las de fondo con
botellas Niskin de 2.5 Lts (Foto 1); las muestras de sedimentos se obtuvieron con una
draga Van Veen con 0.05 m2 de área de mordida; ambas manipuladas desde una
embarcación, especialmente contratada y adaptada para estos requerimientos, luego, una
cantidad adecuada fue depositada en bolsas de polietileno para su traslado hasta el
laboratorio y posterior análisis (Fotos 2 y 3).
433

.
Foto 1. Botella Niskin utilizada para la obtención de muestras de agua de
superficie y fondo, Puerto Malabrigo, 2003.

Foto 2. Draga Van Veen, después de haber obtenido el sedimento del fondo
marino; Puerto Malabrigo 2003
434

Foto 3. Muestra de sedimento acondicionada en bolsas de polietileno para su


traslado y posterior análisis en laboratorio.

Se determinaron las características fisicoquímicas de las muestras de agua usando


los métodos descritos por APHA, AWWA y WPCF (1989) considerando las variables con
los códigos que se indican

CÓDIGO MÉTODO
VARIABLES
ESTANDARIZADO
Oxígeno disuelto 4500 - O C.
DBO5 5210 - B.
Sólidos Suspendidos Totales (SST) 2540 - D.
Aceites y Grasas 5520 - B.
Fosfatos 4500 - P.
Nitratos 4500 - NO3- E.
Nitritos 4500 - NO2- B.
Sulfuros 4500 - S2- D.
Cloruros 4500 - Cl- B.
Salinidad 2520 - B.
pH 4500 - H+ B.
Temperatura 2550 - B.
Además, se realizaron análisis cualitativos y cuantitativos del zooplancton marino
según el método estandarizado 10200G y del fitoplancton marino según el método
estandarizado 10200F. Se determinó adicionalmente el número más probable (NMP) de
coliformes totales y fecales x 100 ml; según los métodos normalizados para el análisis de
aguas potables y residuales (APHA, AWWA, WPCF, 1989).
435

En el sedimento, se determinó la cantidad de materia orgánica, expresada en


porcentaje de peso seco del sedimento y la granulometría considerando el porcentaje de
partículas con rangos de: >2; >1.7; >1.4; >1.19; >0.15; >0.1; <0.075 mm.

Los análisis de las muestras de agua y de los sedimentos fueron realizados en los
laboratorios de la Empresa COLECBI SAC de la ciudad de Chimbote, y en el laboratorio
de Bromatología de la Universidad Nacional Pedro Ruiz Gallo de Lambayeque; de
acuerdo a los métodos detallados en los anexos 1, 2 y 3 de la Resolución Ministerial No.
003-2002-PE (Protocolo para el Monitoreo de efluentes y cuerpo marino receptor del 13
de abril de 2002).

El análisis de las comunidades de macroinfauna bentónica se evaluó de acuerdo a


los criterios de Carrasco y Gallardo (1989); Carbajal et al., (1995); sin embargo, debido a
la poca abundancia de especies y especímenes en cada muestreo no se aplicó el paquete
computacional Primer 5.1 para Windows como inicialmente se había previsto habiéndose
calculado solamente indicadores de abundancia tales como riqueza específica; diversidad
específica, equidad de Pielou para cada muestreo y estación. En este caso, se aplicaron
también las consideraciones pertinentes contenidas en la Resolución Ministerial No. 003-
2002-PE arriba citada;

Los datos fueron resumidos en cuadros y figuras y para el tratamiento estadístico


respectivo, se utilizó la hoja de cálculo Excel de Microsoft Office 2003. Para validar los
datos se utilizaron tanto el Análisis de Varianza y la prueba F incorporados en el Paquete
Computacional Estadístico para Ciencias Sociales (SPPS versión 11.0)

Los impactos ambientales generados por la industria pesquera sobre el sistema


marino litoral de Puerto Malabrigo se identificaron cualitativamente utilizando una matriz
de interacción tipo Leopold (1971) citado por Canter (1999). Para ello se estableció la
interacción de la actividad humana con el factor ambiental considerado, pintando de color
rojo, las cuadrículas correspondientes a los impactos negativos y de color verde, las
correspondientes a impactos positivos.

Para valorar cuantitativamente los impactos ambientales más importantes se


utilizó el método de De Torres (1999), en el que, a partir de la matriz cualitativa de
impactos mencionada en el párrafo anterior, se valoró cada impacto puntual por separado.
436

Para ello se diferenció la causa y el efecto del impacto haciendo referencia a la magnitud
del agente causante, su intensidad y duración en el tiempo, la magnitud del factor
ambiental que es afectado y la posible disminución, mitigación, reducción o moderación
de la causa.

En la valoración cuantitativa de la magnitud del impacto se consideró:

c1. Capacidad de acogida –fragilidad: 0 - 10

c2. Reversibilidad: 0 - 10

c3. Sinergia -potenciación de efectos: 0 - 10

c4. Cualidad ambiental del bien afectado: 0 - 5


C = (5c1 + 3c2 + 2c3)/20 * c4 < 25

C. Cantidad de bien afectado : 0 – 10

D. Cantidad de efecto: 0 - 10

(Pérdida de calidad ambiental)

MAGNITUD DEL IMPACTO = (A + B) * C < 500

(10 + 10) * 25

Para la interpretación de estos resultados se utilizó el rango de calificación


siguiente:

000 - 015: Nada significativo

015 – 060: Poco significativo

060 - 200: Significativo

200 - 400: Muy significativo

400 – 500: Crítico.

III. RESULTADOS
437

La mayor concentración de oxígeno disuelto en el agua, a nivel de superficie


(7.28 ppm) se determinó en noviembre en la estación de muestreo 1 al sur del muelle
frente al centro poblado. Anoxia total (0.00 ppm de oxígeno disuelto), se encontró en el
mes de noviembre a nivel de fondo, tanto al sur del muelle como frente a las plantas de
SIPESA y Hayduck SAC y en la estación de muestreo 4 (Cuadro Nº 1).

La Demanda Bioquímica de Oxígeno (DBO 5) varió desde 0.00 ppm a nivel de


superficie en diciembre en la estación de muestreo 2 hasta 7.20 ppm a nivel de fondo en
noviembre. Los valores fueron menores en setiembre comparados con todos los
muestreos tanto a nivel de superficie como de fondo. Frente A SIPESA se determinaron
las concentraciones más altas a nivel de fondo (7.20 ppm en noviembre y 6.85 ppm en
diciembre), Frente a la Planta de Hayduck SAC las concentraciones a nivel de superficie
fueron elevadas (6.19 en julio y 5.18 ppm en diciembre). En la estación de muestreo 4
valores mayores se determinaron a nivel fondo en los meses de mayo, julio y diciembre
(Cuadro Nº 2)

La concentración de sólidos suspendidos totales fue menor en la estación 4 (0


ppm) en la mayoría de los muestreos, y mayor en las estaciones de muestreo 1, 2 y 3
habiendo variado desde 17.98 ppm a nivel de fondo en el mes de setiembre hasta 49.15
ppm a nivel de superficie en noviembre; en los demás casos las concentraciones fueron
superiores a 19.76 ppm. Concentraciones menores se determinaron en la época de veda
(Cuadro Nº 3).

Concentraciones mayores de aceites y grasas se determinaron a nivel de


superficie en las cuatro estaciones de muestreo con valor mínimo en mayo en la estación
de muestreo 1 (0.45 ppm) y máximo (1.30 ppm) en noviembre en las estaciones de
muestreo 2 y 3. A nivel de fondo no se registró presencia de estas sustancias (Cuadro Nº
4).

El valor pH, fue menor (7.15) en las estaciones de muestreo 1, 2 y 3 a nivel de


superficie en julio y noviembre y a nivel de fondo en las estaciones de muestreo 2 y 3.
Fue mayor (7.33) en toda la columna de agua en julio. En las otras estaciones de muestreo
y muestreos, esta variable mostró valores similares (Cuadro Nº 5).
La temperatura del agua de mar en la zona de estudio fue menor en el fondo que
en superficie, habiéndose determinado valores desde 15.50 ºC en el fondo frente a la
438

planta de Hayduck SAC en el muestreo de julio y mayores en el orden de 17.30 ºC y


16.80ºC en el mes de diciembre en la estación 3 a nivel de superficie y fondo
respectivamente (Cuadro Nº 6)

Mayores concentraciones de fosfatos se determinaron a nivel de fondo y, en


época de veda, las concentraciones variaron desde 0.0763 ppm en la superficie en
setiembre en la estación de muestreo 4, hasta 0.1940 ppm a nivel de fondo en la estación
3 en noviembre (frente a la planta de Hayduck SAC) (Cuadro Nº 7).

La concentración de nitratos varió desde 0.0000 ppm a nivel de superficie en la


estación 1 en mayo hasta 0.1340 ppm a nivel de fondo en la estación 3 en noviembre, no
se determinaron variaciones significativas en las otras estaciones de muestreo (Cuadro Nº
8). En lo relacionado con nitritos la concentración fue 0 ppm a nivel de superficie en la
mayoría de los casos y menor a 0.005 ppm en el fondo en todas las estaciones y
muestreos (Cuadro Nº 9).

La concentración de sulfuros fue 0.0000 ppm a nivel de superficie en todas las


estaciones y muestreos; sin embargo a nivel de fondo, varió desde 0.0040 ppm en la
estación de muestreo 1 en época de veda, hasta 0.6800 ppm en la estación de muestreo 3
frente a la planta Hayduck SAC en noviembre cuando la actividad pesquera fue intensa
(Cuadro Nº 10). La salinidad varió desde 35.14 0/00 a nivel de fondo en la estación 1 en de
mayo hasta 35.22 0/00 en setiembre en las estaciones de muestreo 3 y 4 (Cuadro Nº 11).

El tratamiento estadístico de los datos relacionando variables con estaciones de


muestreo se presenta en el cuadro Nº 12 y relacionando variables de calidad con los
niveles de la columna de agua se muestran en el cuadro Nº 13. El Análisis de varianza de
estos datos permite definir que hubo diferencias estadísticas significativas (p<0.05) por
modelo y nivel de la columna de agua en oxígeno disuelto, temperatura, nitritos, mientras
que, considerando modelo, estación y nivel de la columna de agua éstas fueron
manifiestas en Demanda Bioquímica de Oxígeno (DBO 5). Además se determinó que
diferencias estadísticas significativas por modelo, estación, nivel e interacción se
presentaron en aceites y grasas y, solamente por nivel en lo referente a fosfatos (Cuadro
Nº 14).
439

CUADRO Nº 01: CONCENTRACIÓN DE OXÍGENO DISUELTO (ppm) EN EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL
Estación
de muestreo
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 5.36 2.65 2.33 2.09 4.56 1.98 7.28 0.00 6.38 1.86
EM 2 4.28 1.86 4.73 2.35 4.56 1.78 1.02 0.41 5.18 1.85
EM 3 4.36 1.84 4.73 2.07 4.56 2.34 1.56 0.00 3.83 0.00
EM 4 5.60 2.58 5.03 2.76 6.23 1.93 0.00 0.00 3.34 1.76

CUADRO Nº 02: DEMANDA BIOQUÍMICA DE OXÍGENO (ppm) EN EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL
Estación
de muestreo
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 1.63 3.66 1.78 4.19 1.55 2.15 1.63 3.21 1.65 3.54
EM 2 5.84 3.68 6.19 4.67 2.19 1.24 5.06 7.20 0.00 6.85
EM 3 4.85 3.14 6.19 2.17 2.19 1.92 3.28 4.81 5.18 3.65
EM 4 1.68 5.54 3.70 5.65 1.55 0.93 3.39 3.39 3.85 6.36
440

CUADRO Nº 03: CONCENTRACIÓN DE SÓLIDOS SUSPENDIDOS TOTALES (ppm) EN EL AGUA DEL SISTEMA MARINO LITORAL
DE PUERTO MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL

Estación
de MUESTREO
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 27.40 32.64 47.65 36.78 30.23 19.76 29.40 18.81 45.55 33.24
EM 2 32.24 35.42 31.31 39.94 19.08 17.98 27.10 24.11 36.27 36.46
EM 3 26.41 33.63 31.31 33.63 19.08 19.76 49.15 27.60 33.34 28.46
EM 4 0.56 0.00 0.80 0.00 0.50 0.00 0.00 0.00 0.70 0.00

CUADRO Nº 04: CONCENTRACIÓN DE ACEITES Y GRASAS (ppm) EN EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL
Estación
de MUESTREO
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 0.45 0.00 0.60 0.00 0.50 0.00 0.70 0.00 0.50 0.00
EM 2 0.60 0.00 1.10 0.00 0.50 0.00 1.30 0.00 1.20 0.00
EM 3 1.05 0.00 1.10 0.00 0.50 0.00 1.30 0.00 0.80 0.00
EM 4 0.56 0.00 0.80 0.00 0.50 0.00 0.00 0.00 0.70 0.00
441

CUADRO Nº 05: VALORES DE pH EN EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO MALABRIGO, 2003, SEGÚN
ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL

Estación
de muestreo
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 7.22 7.28 7.15 7.27 7.23 7.32 7.19 7.19 7.18 7.22
EM 2 7.18 7.20 7.25 7.15 7.21 7.21 7.15 7.18 7.21 7.21
EM 3 7.22 7.18 7.25 7.25 7.21 7.22 7.15 7.15 7.20 7.22
EM 4 7.20 7.23 7.33 7.33 7.22 7.22 7.19 7.19 7.24 7.27

CUADRO Nº 06: TEMPERATURA DEL AGUA DE MAR (ºC) EN LA COLUMNA DE AGUA DEL SISTEMA MARINO LITORAL DE
PUERTO MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL

Estación
de muestreo
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 16.20 16.00 16.50 16.00 16.80 16.40 16.10 15.80 16.80 16.20
EM 2 16.10 16.00 16.30 16.20 16.50 15.80 16.40 15.90 16.60 16.00
EM 3 16.00 15.80 15.60 15.50 16.40 15.90 16.30 15.80 17.30 16.80
EM 4 16.20 15.80 15.90 15.60 16.40 15.90 16.40 15.40 16.20 16.00
442

CUADRO Nº 07: CONCENTRACIÓN DE FOSFATOS (ppm) EN EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL

Estación
de MUESTREO
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 0.1400 0.1325 0.1400 0.1572 0.1200 0.1104 0.1100 0.1320 0.1400 0.1362
EM 2 0.1128 0.1582 0.1215 0.1658 0.0987 0.1324 0.1847 0.1511 0.1032 0.1476
EM 3 0.1124 0.1236 0.1215 0.1423 0.0987 0.1045 0.1314 0.1940 0.0875 0.1835
EM 4 0.1057 0.1346 0.0934 0.1413 0.0763 0.0764 0.1423 0.1423 0.1594 0.1012

CUADRO Nº 08: CONCENTRACIÓN DE NITRATOS (ppm) EN EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL
Estación
de MUESTREO
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 0.0000 0.1085 0.0800 0.1176 0.0800 0.0982 0.0900 0.0917 0.0800 0.0865
EM 2 0.1132 0.0652 1.1238 0.0789 0.1037 0.8234 0.1034 0.1148 0.1132 0.0865
EM 3 0.1048 0.0921 0.1238 0.0862 0.1037 0.0956 0.0924 0.1340 0.0875 0.1125
EM 4 0.0734 0.1116 0.0968 0.1263 0.0654 0.0945 0.1140 0.1140 0.0854 0.1188
443

CUADRO Nº 09: CONCENTRACIÓN DE NITRITOS (ppm) EN EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL
Estación
de muestreo
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 0 < 0.002 0 < 0.005 0 < 0.005 0 < 0.002 0 < 0.005
EM 2 0 < 0.005 0 < 0.005 0 < 0.005 0 < 0.002 0 < 0.005
EM 3 0 < 0.005 0 < 0.005 0 < 0.005 0 < 0.002 0 < 0.005
EM 4 0 < 0.005 0 < 0.005 0 < 0.005 0 < 0.002 0 < 0.005

CUADRO Nº 10: CONCENTRACIÓN DE SULFUROS (ppm) EN EL AGUA DEL SISTEMA MARINO LITORAL DE PUERTO
MALABRIGO, 2003, SEGÚN ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL
Estación
de muestreo
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 0.0000 0.0104 0.0000 0.0199 0.0000 0.0040 0.0000 0.0100 0.0000 0.0265
EM 2 0.0000 0.0184 0.0000 0.0248 0.0000 0.0110 0.0000 0.0631 0.0000 0.0356
EM 3 0.0000 0.0367 0.0000 0.0467 0.0000 0.0170 0.0000 0.6800 0.0000 0.0586
EM 4 0.0000 0.0180 0.0000 0.0270 0.0000 0.0100 0.0000 0.0201 0.0000 0.0260
444

CUADRO Nº 11: SALINIDAD (0/00) DEL AGUA DE MAR DEL SISTEMA MARINO LITORAL DE PUERTO MALABRIGO, 2003, SEGÚN
ESTACIÓN DE MUESTREO (EM), NÚMERO DE MUESTREO Y NIVEL

Estación
de muestreo
muestreo 1 2 3 4 5
Nivel Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo Superficie Fondo
EM 1 35.16 35.14 35.18 35.19 35.21 35.21 35.18 35.19 35.20 35.16
EM 2 35.18 35.21 35.20 35.19 35.20 35.21 35.20 35.19 35.20 35.19
EM 3 35.20 35.18 35.20 35.20 35.20 35.22 35.20 35.20 35.20 35.20
EM 4 35.22 35.18 35.20 35.19 35.21 35.22 35.19 35.19 35.20 35.18

CUADRO Nº 12: VALORES DE MEDIA Y DESVIACIÓN ESTÁNDAR DE VARIABLES DE CALIDAD DE AGUA DE MAR SEGÚN
ESTACIÓN DE MUESTREO, PUERTO MALABRIGO, 2003

Oxígeno Aceites y
Estación de DBO5 SST Temperatura Fosfatos Nitratos Nitritos Sulfuros Salinidad
Estadística disuelto grasas pH
Muestreo (ppm) (ppm) (ºC ) (ppm) (ppm) (ppm) (ppm) (0/00)
(ppm) (ppm)
Media 3.449 29.176 5.469 0.275 7.225 16.280 0.132 0.083 0.002 0.007 35.182
1
D. Estándar 2.321 13.68 9.805 0.297 0.052 0.339 0.015 0.032 0.002 0.010 0.023
Media 2.802 27.030 7.253 0.470 7.195 16.180 0.138 0.273 0.002 0.015 35.197
2
D. Estándar 1.719 10.159 10.514 0.552 0.031 0.266 0.029 0.377 0.002 0.021 0.009
Media 2.529 27.756 6.219 0.475 7.205 16.140 0.130 0.103 0.002 0.084 35.200
3
D. Estándar 1.778 11.985 7.950 0.541 0.036 0.566 0.035 0.016 0.002 0.211 0.009
Media 2.923 0.892 2.968 0.256 7.242 15.980 0.117 0.100 0.002 0.010 35.198
4
D. Estándar 2.168 1.949 1.889 0.340 0.052 0.329 0.030 0.020 0.002 0.012 0.015
Media 2.926 21.214 5.477 0.369 7.217 16.145 0.129 0.140 0.002 0.029 35.194
Total
D. Estándar 1.963 15.461 8.104 0.443 0.046 0.392 0.028 0.198 0.002 0.107 0.016
445

CUADRO Nº 13: VALORES DE MEDIA Y DESVIACIÓN ESTÁNDAR DE VARIABLES DE CALIDAD DE AGUA SEGÚN NIVEL DE LA
COLUMNA DE AGUA; PUERTO MALABRIGO, 2003
Oxígeno Aceites y
DBO5 SST Temperatura Fosfatos Nitratos Nitritos Sulfuros Salinidad
Nivel Estadística disuelto grasas pH
(ppm) (ppm) (ºC ) (ppm) (ppm) (ppm) (ppm) (0/00)
(ppm) (ppm)
Media 4.246 24.404 3.169 0.738 7.209 16.350 0.120 0.142 0.000 0.000 35.197
Superficie
D. Estándar 1.826 16.170 1.850 0.340 0.042 0.363 0.026 0.233 0.000 0.000 0.013
Media 1.606 18.023 7.786 0.000 7.225 15.940 0.138 0.138 0.004 0.058 35.192
Fondo
D. Estándar 0.952 14.414 10.961 0.000 0.050 0.308 0.028 0.162 0.001 0.147 0.019
Media 2.926 21.214 5.477 0.369 7.217 16.145 0.129 0.140 0.002 0.029 35.194
Total
D. Estándar 1.963 15.461 8.104 0.443 0.046 0.392 0.028 0.198 0.002 0.107 0.016
446

CUADRO Nº 14: ANÁLISIS DE VARIANZA DE LOS INDICADORES DE CALIDAD DE


AGUA DEL SISTEMA LITORAL DE PUERTO MALABRIGO,
2003

Fuente de Suma de Cuadrado


Indicador GL Test F p
Variación Cuadrados Medio
Modelo 76.604 7 10.943 4.754 0.001
Estación 4.465 3 1.488 0.647 0.591
Oxígeno
Nivel 69.722 1 69.722 30.285 0.000
disuelto
(ppm) Interacción 2.417 3 0.806 0.350 0.789
Error 73.670 32 2.302
Total 150.274 39
Modelo 6218.774 7 888.396 9.160 0.000
Estación 5530.007 3 1843.336 19.005 0.000
Nivel 407.172 1 407.172 4.198 0.049
DBO5 (ppm)
Interacción 281.594 3 93.865 0.968 0.420
Error 3103.708 32 96.991
Total 9322.482 39
Modelo 396.957 7 56.708 0.839 0.564
Estación 99.999 3 33.333 0.493 0.690
SST Nivel 213.121 1 213.121 3.151 0.085
(ppm) Interacción 83.837 3 27.946 0.413 0.745
Error 2164.086 32 67.628
Total 2561.043 39
Modelo 6.307 7 0.901 21.600 0.000
Estación 0.430 3 0.143 3.439 0.028
Aceites y
Nivel 5.446 1 5.446 130.563 0.000
grasas
(ppm) Interacción 0.430 3 0.143 3.439 0.028
Error 1.335 32 0.042
Total 7.642 39
Modelo 0.023 7 0.003 1.829 0.116
Estación 0.013 3 0.004 2.402 0.086
Nivel 0.002 1 0.002 1.315 0.260
pH
Interacción 0.008 3 0.003 1.428 0.253
Error 0.058 32 0.002
Total 0.082 39
Modelo 2.167 7 0.310 2.585 0.031
Estación 0.467 3 0.156 1.300 0.291
Temperatura Nivel 1.681 1 1.681 14.038 0.001
(ºC ) Interacción 0.019 3 0.006 0.053 0.984
Error 3.832 32 0.120
Total 5.999 39
447

CUADRO Nº 14: ANÁLISIS DE VARIANZA DE LOS INDICADORES DE CALIDAD DE


AGUA DEL SISTEMA LITORAL DE PUERTO MALABRIGO,
2003 (Continuación)

Fuente de Suma de Cuadrado


Indicador GL Test F p
Variación Cuadrados Medio
Modelo 0.008 7 0.001 1.595 0.173
Estación 0.002 3 0.001 1.032 0.391
Fosfatos Nivel 0.003 1 0.003 4.759 0.037
(ppm) Interacción 0.002 3 0.001 1.103 0.362
Error 0.023 32 0.001
Total 0.031 39
Modelo 0.257 7 0.037 0.925 0.500
Estación 0.238 3 0.079 1.993 0.135
Nitratos Nivel 0.000 1 0.000 0.004 0.951
(ppm) Interacción 0.020 3 0.007 0.165 0.919
Error 1.271 32 0.040
Total 1.529 39
Modelo 0.000 7 0.000 25.675 0.000
Estación 0.000 3 0.000 0.222 0.880
Nitritos Nivel 0.000 1 0.000 178.395 0.000
(ppm) Interacción 0.000 3 0.000 0.222 0.880
Error 0.000 32 0.000
Total 0.000 39
Modelo 0.115 7 0.016 1.583 0.176
Estación 0.040 3 0.013 1.302 0.291
Sulfuros Nivel 0.034 1 0.034 3.273 0.080
(ppm) Interacción 0.040 3 0.013 1.302 0.291
Error 0.331 32 0.010
Total 0.446 39
Modelo 0.003 7 0.000 1.511 0.199
Estación 0.002 3 0.001 2.800 0.056
Salinidad Nivel 0.000 1 0.000 0.831 0.369
(0/00) Interacción 0.000 3 0.000 0.448 0.721
Error 0.008 32 0.000
Total 0.010 39
448

Datos referenciales del zooplancton nos indican que en el período de estudio fueron
más abundantes copépodos, cirrípedos en julio; copépodos cirrípedos calanoideos larváceos
y ascidiaceos en setiembre y copépodos, cirrípedos y oikopleura en noviembre, en los otros
muestreos la tendencia fue similar

En lo relacionado con el fitoplancton marino se identificaron especies más frecuentes


del grupo Bacyllariophyta: Chaetocerus lorenzianus; Coscinodiscus centralis,
Thalassiosira rotula, Navícula sp Stephanodiscus sp; del grupo Chlorophyta se
identificaron Ulotrix zonata, Chloromidium sp, y Ereamoasphaera sp y del grupo
Pyrrophyta, Ceratium furca, Ceratium pentagonum, Protopteridium conicum y
Protopteridium pellicidium

Del grupo bacilariofitas en mayor número se reportan a Coscinodiscus centralis,


Stephanodiscus sp (780 org/ml) Coscinodiscus radiatus Coscinodiscus nodulifer y
Skeletonema sp como los más abundantes en el muestreo de noviembre en las estaciones de
muestreo 1, 2 y 4 (Cuadro Nº 15).

Mayores cantidades de materia orgánica en el sedimento, se determinaron en el


muestreo correspondiente a las épocas de mayor actividad pesquera (noviembre) en las
estaciones de muestreo 2 (21.04%), 3 (19.26%) y 4 (5.71%) y elevadas cifras en las
estaciones 2 y 3 (Grafico Nº 2).

Durante el período de estudio se pudo apreciar que el fondo marino, en todas las
estaciones de muestreo estuvo constituido en porcentaje superior al 83% por partículas de
tamaño mayor a 0.1 mm; sin embargo fue notoria la presencia de partículas con tamaño
menor a 0.75 mm en setiembre y en las estaciones de muestreo 2 y 3 (Gráfico Nº 3).
449

CUADRO Nº 15: ESPECIES DE ALGAS COMPONENTES DEL FITOPLANCTON DEL SISTEMA MARINO LITORAL SEGÚN ESTACIÓN DE
MUESTREO (EM) Y NÚMERO DE MUESTREO, PUERTO MALABRIGO, 2003

ESTACIÓN DE MUESTREO EM1 EM2 EM3 EM 4

NÚMERO DE MUESTREO
GRUPO Y ESPECIE 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
BACILLARIOPHYTA
Actynocyclus oclonarius 10
Amphipleura sp. 30 30 60 10 80
Chaetoceros curvisetus 40 20 30 30 80 20 120
Chaetoceros lorenzianus 20 10 30 10 0 10 35 40 20 60 50
Chaetoceros mitra 40 50 40 20 20 60
Coscinodiscus centralis 80 80 580 60 50 30 65
Coscinodiscus radiatus 80 65 950 20
71
Coscinodiscus nodulifer 70 380 0
61
Cylindrotheca closterium 10 90 10 0
Eucampia zoodiacus 10 10
Fragilaria sp. 20 40 40
Licmophora lingbuei 20 45
Navicula directa 40 60

CUADRO Nº 15: ESPECIES DE ALGAS COMPONENTES DEL FITOPLANCTON DEL SISTEMA MARINO LITORAL SEGÚN ESTACIÓN DE
MUESTREO (EM) Y NÚMERO DE MUESTREO, PUERTO MALABRIGO, 2003 (Continuación)

ESTACIÓN DE EM1 EM2 EM3 EM 4


MUESTREO
450

NÚMERO DE MUESTREO
GRUPO Y ESPECIE 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
BACILLARIOPHYTA
Skeletonema costatum 120 40
Stephanoduscus sp 760 670 690
Thalassionema sp. 20 20
Thalassiosira rotula 20 30 40 20 30 10 20 15
Thalassiothrix sp. 40 25 0
Navicula sp. 10 40 80 40 40 120 60 30
Pseudonitzschia seriata 20 60 10
Planctoniella sol 10
Thalassionema
nitzschioides 10 10
CHLOROPHYTA
Ulothrix zonata 80 10 80 60 110 80 80 60 40 30 60
Chlorhormidium sp. 50 60 20
Eremosphaera sp. 180 80 150 120 40
Tetraedron sp. 30 10 40

CUADRO Nº 15: ESPECIES DE ALGAS COMPONENTES DEL FITOPLANCTON DEL SISTEMA MARINO LITORAL SEGÚN ESTACIÓN DE
MUESTREO (EM) Y NÚMERO DE MUESTREO, PUERTO MALABRIGO, 2003 (Continuación)

ESTACIÓN DE MUESTREO EM1 EM2 EM3 EM 4

NÚMERO DE MUESTREO
GRUPO Y ESPECIE 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
PYRROPHYTA
Ceratium fusus 60 60 40 40
Ceratium furca 60 20 80 65 0 10 40 40 20 60 40 20 150
Ceratium inflatum 25 60 80 60
451

Ceratium horridum 60 30 20 40 30
Ceratium incisum 20 40
12
Ceratium pentagonum 40 40 50 0 20 70 80 60
Dissodinium sp. 60
Oxyphysis oxytoxoides 10 30 20
Pyrocistis lunula 30
Prorocentrum micans 40 60 20
Protoperidinium conicum 20 40 30 60 40 40 40 60 15
Protopteriruium depresum 60 30 20 40
Protopteridium pelucidum 60 20 80 60 40 20 50 20 20 15
452

)
(%
A 25.00
EM 1
C
NI 21.04
EM 2
A EM 3
19.26
G 20.00 EM 4
18.04
R
O
A
14.38
RI 15.00
E
AT
M
10.00

6.47
5.41 5.71
4.49 4.52 4.54
5.00 3.40 3.49 3.36
3.11 2.90
2.42 2.52 2.56
1.92
1.58

0.00
MUESTREO

453

GRÁFICO Nº 02. MATERIA ORGÁNICA EXPRESADA EN PORCENTAJE DE PESO SECO DE SEDIMENTO DEL SISTEMA MARINO
LITORAL DE PUERTO MALABRIGO, 2003
454
455

GRÁFICO Nº 03: TAMAÑO DE LAS PARTÍCULAS (mm) EN EL SEDIMENTO DEL SISTEMA MARINO LITORAL DE PUERTO MALABRIGO,
2003
456

En el muestreo de mayo, se registraron 144 especímenes de Mercenaria mercenaria


en la estación de muestreo 1, asimismo 15 y 114 especímenes en las estaciones 2 y 4
respectivamente; También se reportaron tres especímenes de Aulacomya sp y cuatro de
Semele sp. En la estación 3 se reportaron dos especímenes de Semele sp y tres de Thais sp
(Anexo 2). En julio, únicamente en la estación de muestreo 1 se registraron 19 especímenes
de Núcula sp (Anexo 3). En la época de veda se registró la presencia de cuatro especímenes
de Semele sp en la estación 1 y en la estación 2, se registraron: un espécimen de Semele sp;
tres de Thais sp y 22 de Pagurus sp; no habiéndose reportado organismos vivos en las otras
estaciones de muestreo (Anexo 4); sin embargo, en la época de mayor intensidad de pesca
(noviembre), se observó la presencia de organismos bentónicos en la estación de muestreo 1
con 15 especimenes de Nereis sp con biomasa relativa (de 0.80 g/0.05m2) y 3 especimenes
de Chaetopterus sp con biomasa relativa de 0,19 g/0.05m 2 (Anexo 5); en las otras estaciones
de muestreo no se encontraron organismos bentónicos. Finalmente en el muestreo de
diciembre en la estación de muestreo 3, se reportaron, ocho especimenes de Neresi sp; tres
de Diopatra sp y de Terebellides sp, y dos de Tharyx sp (Anexo 6)

Desde el punto de vista microbiológico en épocas de intensa actividad pesquera fue


notorio el NMP de coliformes totales y fecales en las cuatro estaciones de muestreo, en la
época de veda, las cantidades fueron bajas; sin embargo en todos los casos, éstas son
menores a los valores límites establecidos por la Ley General de Aguas (DL 17752) y su
reglamento D.S. No. 007-83-SA (Ministerio de la Producción, 2004) (Cuadro Nº 16).
457

CUADRO Nº 16: NÚMERO MÁS PROBABLE DE COLIFORMES TOTALES Y FECALES POR ESTACIÓN DE MUESTREO Y MES DE

MUESTREO EN AGUAS DEL SISTEMA MARINO LITORAL DE PUERTO MALABRIGO, 2003

Estación Coliformes totales x 100 mL (NMP) Coliformes fecales (Termotolerantes) x 100 mL (NMP)
de
meses de muestreo
muestreo
MAYO JULIO SETIEMBRE NOVIEMBRE DICIEMBRE MAYO JULIO SETIEMBRE NOVIEMBRE DICEIMBRE
EM 1 150 2300 3 2800 2000 200 28 <3 43 38
EM 2 160 1200 4 1500 1400 220 4 <3 7.3 16
EM 3 460 850 3 1100 1050 460 3 <3 7.2 220
EM 4 200 860 3 1100 1000 380 16 <3 23 22
Límite
Máximo 20000 4000
Permisible
458

Los impactos ambientales cualitativos se presentan en la matriz del Cuadro Nº 17


en el que se puede apreciar que: el suelo, el agua tanto dulce como marina; el aire, la
flora, la fauna, aspectos poblacionales de recreo, calidad de vida, seguridad y salud; así
como aspectos de clima, paisaje y recursos arqueológicos son impactados negativamente
por actividades como: i) transformación del suelo y construcción, ii) pesca, iii) extracción
de recursos (especialmente agua dulce subterránea); iv) algunas actividades del proceso;
v) algunos aspectos relacionados con generación y vertimiento de residuos industriales
líquidos y actividades conexas. Sin embargo, es necesario puntualizar que impactos
positivos de toda la industria pesquera se evidencian en aspectos poblacionales,
relaciones sociales e integración familiar; educacional y económica, tales como
generación de empleo, incremento de la renta personal, incremento de las rentas
municipales y de las actividades comerciales.

Desde el punto de vista cuantitativo (Cuadro Nº 18) se aprecia que tanto la


transformación del suelo como la construcción ejercen impactos negativos significativos
y muy significativos sobre el suelo, el agua dulce superficial y subterránea, la calidad y
nivel de polvo en aire; igualmente sobre herbáceas, animales terrestres incluyendo
reptiles, y en la calidad de vida, seguridad y salud de los seres humanos por efecto del
ruido. Asimismo se determinó impactos negativos sobre rasgos singulares del paisaje. La
pesca origina impactos ambientales negativos significativos en la remoción y calidad del
agua marina, sobre peces, crustáceos y cadenas tróficas.

Impactos ambientales negativos significativos y muy significativos se detectaron


igualmente por la excavación de pozos para extracción de agua dulce superficial y
subterránea y sobre el suelo, también en la calidad y nivel de polvo en el aire; sobre
plantas herbáceas, animales terrestres incluyendo reptiles y sobre seguridad y salud. Por
residuos sólidos, sobre estética e interés humano del paisaje y recursos arqueológicos. La
producción de harina y aceite de pescado origina impactos de similar magnitud sobre el
suelo, agua subterránea, calidad del agua marina, calidad del aire, aspectos de flora, fauna
y la salud de la población por residuos sólidos y líquidos.

Los mayores impactos ambientales negativos muy significativos los originó la


generación e inadecuada eliminación de residuos industriales líquidos sobre la calidad
física, química y biológica del agua de mar de la bahía, en donde igualmente se
presentaron alteraciones en el fitoplancton, zooplancton; cadenas tróficas con el
459

consecuente riesgo para la salud humana. Otras actividades conexas muestran la misma
tendencia resaltando el uso indiscriminado de soda cáustica para limpieza que afecta
principalmente a la calidad del agua de mar, la flora y fauna asociada.

Sin embargo, impactos ambientales positivos significativos se generaron por la


industria pesquera en algunos aspectos poblacionales, educacionales y económicos, tales
como la generación de empleo, el aumento del nivel de renta personal; el aumento de las
rentas municipales y de las actividades comerciales.
460

CUADRO Nº 17: MATRIZ DE IMPACTOS AMBIENTALES CUALITATIVOS DE


LA INDUSTRIA PESQUERA SOBRE EL SISTEMA
MARINO LITORAL DE PUERTO MALABRIGO,
2003
461

CUADRO Nº 18: MATRIZ DE IMPACTOS AMBIENTALES CUANTITATIVOS DE


LA INDUSTRIA PESQUERA SOBRE EL SISTEMA
MARIBNO LITORAL DE PUERTO MALABRIGO,
2003
462

IV. DISCUSIÓN

Concentraciones de oxígeno disuelto mayores a nivel de superficie, en las cuatro


estaciones de muestreo y en todo el período de estudio, se explica por el movimiento y la
turbulencia de las corrientes marinas, lo que permite un intercambio del oxígeno disuelto
en el agua de la superficie del mar con el que se encuentra en las capas próximas de la
atmósfera; es importante también considerar otros factores, tales como la actividad
fotosintetizadora de los fitoplanctontes, la temperatura y las propiedades oxidantes sobre
la materia orgánica en suspensión.

La ausencia total de oxígeno disuelto en agua (0 ppm.), que se apreció con mayor
frecuencia en las estaciones de muestreo ubicadas al norte del muelle, se debería a un
gran consumo de oxígeno disuelto por la oxidación de la materia orgánica presente en
estas áreas; sin embargo, las bajas concentraciones de oxígeno disuelto registrado a nivel
de superficie y fondo en algunos muestreos en la estación de muestreo ubicada 500 m al
sur del muelle se explica considerando el fundamento de la difusión, ya que, al disminuir
la concentración de esta sustancia en la parte norte de la bahía, se originaría una zona de
menor presión de difusión, lo que traería como consecuencia la difusión del oxígeno
desde la zona donde está en mayor concentración hasta aquella en la que la concentración
es menor. Al respecto Seoanez (2000), señala que la anoxia a nivel de fondo, se debe a la
descomposición de la materia orgánica por la intensa actividad bacteriana, y la baja
turbulencia de las corrientes, lo que no permite una mezcla adecuada.

Nuestro criterio es compatible con lo mencionado por Orozco et al., (2003),


quienes indican que las fuentes de oxígeno del agua son la disolución del oxígeno
atmosférico, la fotosíntesis y la reaireación por agitación. Mencionan además que
actividades de oxidación biológica y respiración de los seres vivos son las principales
causas de desoxigenación hasta llegar a la anoxia en el agua. El primer aspecto es el más
importante y está relacionado con la presencia en el agua de los llamados “residuos con
requerimiento de oxígeno”, que por un proceso de oxidación biológica van a consumirlo.
Los compuestos oxidables pueden ser sustancias inorgánicas tales como nitritos, cloruros,
sulfuros, hierro (II), etc., pero la mayor parte son compuestos orgánicos biodegradables.
Adicionalmente, mencionan que la concentración de oxígeno disuelto, es un indicador
importante de la calidad del agua, ya que es un elemento indispensable para la vida en el
463

seno de la misma; los peces necesitan los niveles de oxígeno disuelto más elevados y las
bacterias los más bajos. La ley de Henry indica que la solubilidad de un gas depende de la
presión y varía con la temperatura y para que un agua se considere poco contaminada la
concentración de oxígeno debe ser al menos superior al 50% del valor de saturación a esa
presión y temperatura.

Al considerar la relación entre oxígeno disuelto, materia orgánica y


biodegradabilidad, Orozco et al., (2003), señalan que hay dos tipos de materia orgánica:
la biodegradable y la no biodegradable, según sea susceptible o no de ser oxidada por
microorganismos presentes en el agua. En este contexto, diferencian, procesos aerobios,
aquellos que se realizan con intervención de oxígeno y procesos anaerobios, los que
ocurren en ausencia de oxígeno.

Explican que la biodegradabilidad de los compuestos orgánicos además de la


naturaleza de la materia orgánica, puede ser afectada por diversos factores, entre los que
destacaremos, i) existencia y naturaleza de los organismos presentes; ii) temperatura del
agua; iii) concentración de nutrientes (N, P) y oligoelementos (Ca, Mg, Fe); iv) rangos de
pH al que viven los diferentes microorganismos, v) salinidad, por variación de la presión
osmótica y finalmente por vi) presencia de agentes inhibidores y/o tóxicos.

Durante el período de estudio, resalta el hecho que en la época de veda, las


concentraciones de oxígeno disuelto fueron superiores que las determinadas cuando hay
intensa actividad pesquera; esto se explicaría considerando la opinión de Seoanez (2000),
quien señala que el incremento del oxígeno disuelto en la capa superficial del agua se
debe al intercambio con el oxígeno atmosférico y la actividad fotosintetizadora de los
componentes del fitoplancton; pero, la disminución de la concentración, la atribuye a la
abundante cantidad de materia orgánica generada en el fondo, la presencia de fosfatos,
nitritos y sulfuros, los que, para su oxidación consumen oxígeno libre de esa porción de la
columna de agua.

Esta consideración es significativamente importante, pues se presentan


dificultades cuando la concentración de oxígeno disuelto desciende por debajo del nivel
necesario para cubrir las necesidades de una biota normal en el agua marina, por ejemplo,
los peces requieren 5 ppm de oxígeno disuelto como mínimo, los invertebrados, requieren
niveles menores y las bacterias los más bajos. Por lo tanto, si los niveles de oxígeno son
464

menores a los requeridos, ello, origina la muerte y desaparición de toda forma de vida
(Seoanez, 2000, p: 45), asevera finalmente que, cuando la concentración del oxígeno
disuelto desciende por debajo del nivel necesario para mantener una biota normal, se
considera que el agua está contaminada. El tamaño grande de los organismos marinos, la
poca movilidad y el metabolismo más lento, son adaptaciones a bajas concentraciones de
oxígeno disuelto.

La Demanda Bioquímica de Oxígeno en cinco días (DBO 5), con valores de 7.20
ppm y 6.85 ppm permite catalogar el agua de esas zonas, como la de un tipo cercano a la
caracterización como agua contaminada, si consideramos los rangos referidos por
Orozco et al., (2003) en los términos siguientes:
1. Aguas muy puras, DBO5 < 3 ppm O2
2. Aguas de pureza intermedia, DBO5 3 – 5 ppm O2
3. Agua contaminada, DBO5 > 8 ppm O2
4. Aguas residuales urbanas, DBO 5 100 – 400 pm O2
5. Agua proveniente de Industrias alimentarias o semejantes, la DBO 5
puede llegar hasta 10 000 ppm O2

Los sólidos suspendidos totales, en concentraciones similares tanto a nivel de


superficie como de fondo en todas las estaciones de muestreo se explicaría por la poca
dilución debido a la circulación, turbulencia y desplazamiento de la masa de agua,
relacionada con la dirección y velocidad de las corrientes. Para Puerto Malabrigo,
Carbajal et al., (2004), reportan que el flujo fuera de la bahía es hacia el norte con
velocidad mayor a 30 cm/s y hacia el noreste y este con intensidades menores a 10 cm/s
en el interior de la bahía orientados hacia a la playa. Las concentraciones menores en la
estación de muestreo 4 (1000 m al norte de la chata de Hayduck SAC), se atribuye a la
sedimentación de sólidos suspendidos totales y al cambio de dirección (que en este lugar
es hacia el norte) y mayor velocidad. de las corrientes. Al respecto, Orozco et al., (2002),
señalan que la turbidez de un agua es causada por la materia insoluble, en suspensión o
dispersión coloidal y que las partículas insolubles responsables de ella, pueden ser
aportadas tanto por procesos de arrastre como de remoción de tierras y también por
vertidos urbanos e industriales. A la materia en suspensión se atribuye los efectos
siguientes: i) produce color aparente en el agua; ii) disminuye el paso de energía solar y
por lo tanto la actividad fotosintética; iii) origina deposición de partículas sobre plantas
acuáticas y las branquias de los peces; iv) ocasiona depósitos por sedimentación, con lo
465

que favorece la aparición de condiciones anaeróbicas y dificulta la alimentación de los


seres vivos.

Significativa, es igualmente la presencia de aceites y grasas en la superficie y


ausencia a nivel de fondo, y tratamos de explicarla señalando que en la época de intensa
actividad pesquera las embarcaciones tanto industriales como artesanales anclan en la
bahía al norte del muelle para descargar la masa de pescado que traen en sus bodegas y
luego proveerse de combustible y víveres; se estima que en estas actividades puede
generarse la presencia de materias grasa en forma de emulsiones provenientes del agua
de bombeo (sanguaza), lavado de bodega y otras actividades. La dificultad mayor es que
las grasas forman una película con elevada tensión superficial que dificulta la aireación
del agua de superficie, se convierte en una barrera física que impide el paso de la luz solar
y consecuentemente disminuye la fotosíntesis.

El rango de temperatura en la columna de agua determinado en el periodo de


estudio desde 15.50 hasta 17.30 ºC es considerado normal para esta zona; sin embargo, es
conveniente mencionar que la temperatura es una variable importante y a la vez un factor
limitante, pues, de ella dependen las reacciones químicas y bioquímicas. En las latitudes
medias y en las zonas templadas la temperatura promedio varía en el rango de 16 hasta 20
ºC y es mayor en la superficie que en el fondo.

El incremento de temperatura aumenta el metabolismo e intensifica la


respiración, aumenta la velocidad de bombeo de agua y la tasa de filtración en moluscos,
influye sobre la cantidad de oxígeno disuelto. El agua a temperatura de 15 ºC contiene
10ppm de oxígeno disuelto, mientras que si la temperatura es de 30 ºC sólo puede
contener 1 ppm. Además, la temperatura puede influir en la tasa de mortalidad de diversas
especies, y es determinante para la supervivencia de las fases juveniles de peces como la
anchoveta y la sardina, sin embargo es pertinente recalcar que cada especie vive en
ambientes con temperaturas adecuadas, las que pueden variar durante su ciclo vital.

La modificación de la temperatura del agua en la plataforma continental y en


especial en aguas interiores y en medios semicerrados como las bahías, puede realizarse
por vertidos de aguas residuales urbanas, por aguas provenientes de actividades
industriales como es el caso de la industria de producción de harina y aceites de pescado,
466

en la que pese a existir lineamientos y políticas ambientales nacionales no cumplen las


más elementales reglas de la gestión ambiental.

En el presente estudio se nota poca variación de la salinidad, sin embargo es


conveniente considerar que ésta, influye en la distribución de los organismos en el medio
marino, en la solubilidad del oxígeno disuelto, en la densidad y en el pH del agua de mar;
parámetros que repercuten biológica y fisiológicamente en los seres vivos. Los cambios
de salinidad tienen importancia en fenómenos de contaminación, pues al bajar la
salinidad aumenta la toxicidad de algunos metales pesados como el mercurio, el cobre, el
cadmio, etc. Las aguas marinas tienen un valor medio del orden de 35 g/kg de cloruro de
sodio. Los problemas ocasionados en la vida acuática están relacionados con procesos
osmóticos y la tendencia del agua a salir de las células y pasar al medio circundante,
cuando éstas se encuentran en el seno de una disolución con una presión osmótica
superior a la suya.

Las concentraciones de fosfatos mayores en el fondo que en la superficie, se


relacionan con la presencia de materia orgánica y de oxígeno disuelto. Al respecto
Hárrison (2003, p: 175), señala que estos compuestos se encuentran como fósforo
inorgánico (en forma de ortofosfato), como fósforo orgánico en partículas (en suspensión
en el protoplasma vivo o muerto) y como fósforo orgánico disuelto o soluble (derivado de
los sólidos o de los residuos por descomposición o por excreción). Menciona además que
el fósforo es un factor limitante principal, del cual depende la vida del fitoplancton
marino. La liberación de fosfatos a partir de la materia orgánica muerta (fosfolípidos,
ácidos nucleicos, etc.) es muy rápida y tienden a fijarse en los sedimentos en presencia de
oxígeno y a desprenderse en condiciones anóxicas, las zonas de gran fertilidad son
aquellas que a nivel de superficie alcanzan las 200 mg/P/m 2/día. En aguas pobres, la
concentración de fosfatos puede bajar hasta niveles no detectables.

Otro aspecto importante es la ausencia de nitritos y sulfuros a nivel de superficie;


pero presentes en todas las estaciones y en todos los muestreos a nivel de fondo; este
hecho se explicaría por la presencia de nitritos y nitratos procedentes de la materia
orgánica en degradación, de modo tal que su incremento puede limitar posteriormente la
fijación fotosintética del carbono causando serias dificultades a los organismos vivos; por
otra parte en los lodos reducidos, el azufre recircula gracias a las bacterias reductoras del
azufre que actúan sobre sulfatos y otros compuestos similares, y a las bacterias
467

desnitrificantes que oxidan sulfuros. El pH es ligeramente alcalino y la salinidad


permanece casi constante en cifras cercanas a 35 0/00 en todos los casos.

Analizando estos resultados desde la perspectiva de las variaciones según


estaciones de muestreo, se aprecia que las cifras de cada parámetro son similares. Los
datos obtenidos coinciden parcialmente con los reportados por Carbajal et al., (2004),
quienes trabajaron en dos muestreos en marzo y junio del 2003 en la misma bahía pero en
una mayor extensión.

Concuerdan igualmente con las consideraciones de Seoanez (2000), quien al


referirse a la dinámica de las aguas marinas y la circulación en las bahías, explica que, en
función de la profundidad, las condiciones tienden a ser más o menos uniformes; sin
embargo, la presencia de elevada cantidad de sólidos suspendidos totales se debería a la
remoción de las sustancias en toda la extensión tanto en la columna de agua como en las
estaciones de muestreo.

Las partículas del sedimento con tamaño mayor a 0.1 mm en cantidades


superiores al 80.00 % en las estaciones de muestreo 2, 3 y 4, indican que se generarían
partículas de naturaleza limosa propias de procesos de erosión en el piso marino o
provenientes de los efluentes que llegan hasta esa zona. La elevada concentración de
materia orgánica en estas estaciones de muestreo se atribuye a los vertidos directos,
sobretodo de los emisores de la industria pesquera en las épocas en que es más intensa,
ello concuerda con lo expuesto por Oficina Nacional de Evaluación de Recursos
Naturales (ONERN, 1986) que considera que una de las acciones de mayor impacto de la
industria pesquera es la emisión de efluentes líquidos, como el agua de bombeo, agua de
cola y sanguaza, generados como resultado de sus operaciones y que perjudican el
desarrollo de la vida marina, por su alto contenido de materia orgánica.

Se atribuyen además, estos resultados, al hecho de que en setiembre del 2003, la


planta, en ese entonces denominada Harinas Especiales SA, selló las pozas de tratamiento
de aguas residuales urbanas de Puerto Malabrigo administradas por SEDALIB SA,
obligando que las aguas residuales no tratadas se vertieran directamente al mar con el
consecuente incremento de materia orgánica, mayor aporte de partículas de tamaño
menor a 0.075 mm, los que asociados a la circulación del agua de la bahía posiblemente
468

los transportó hasta otras zonas de muestreo (este problema aún se encuentra en el ámbito
judicial, por lo que solamente lo referimos como un acontecimiento).

Todo ecosistema marino puede verse gravemente afectado por los efluentes
líquidos que emiten las plantas productoras de harina y aceite de pescado de pescado.
Entre los efectos negativos se señalan: i) bloqueo de la penetración de la luz en la
columna de agua, debido a su alto contenido de materia orgánica y sólidos suspendidos,
lo que es muy perjudicial para la productividad marina; ii) desoxigenación del cuerpo
receptor, con la consecuente pérdida de la biodiversidad debido al elevado volumen de
nutrientes y materia orgánica, iii) alteraciones geomorfológicas del litoral y fondo marino
por la sedimentación de partículas con la consecuencia desaparición de la vida y
alteración del sistema.

Se ha determinado que en la época de intensa actividad pesquera sólo se


presentaron algunos organismos en la estación de muestreo 1 ubicada a 500 m al sur del
muelle, mientras que en las otras estaciones de muestreo no se registraron especímenes en
el sedimento, posiblemente, debido a que la descomposición de la materia orgánica, con
la consecuente generación de sulfuros transformó a estas áreas en zonas sin vida en
proceso al deterioro ambiental. En época de veda, fue posible registrar presencia de
organismos vivos en abundancia significativa en la estación de muestreo 3 frente a la
planta de pesquera Hayduck S.A. y en menor número en la estación 1. Este resultado es
compatible con lo reportado por Jacinto et al., (1996), quienes en julio de 1994 realizaron
la evaluación de la contaminación marina en la bahía Ferrol, Chimbote, en una época de
intensa actividad industrial pesquera habiendo reportado signos de deterioro ambiental,
con desarrollo de procesos eutróficos que conducen a pérdidas de condiciones
ambientales apropiadas, afectando recursos hidrobiológicos costeros; determinaron
igualmente que la configuración de la bahía y las condiciones mínimas de flujo son
factores que agudizan los problemas de contaminación. Asimismo, Orozco et al., (1997)
al referirse a los efectos de la contaminación marina en los recursos hidrobiológicos,
explica que las aguas adyacentes a las fábricas de harina de pescado adquieren
propiedades corrosivas; produciendo en algunos casos, gases sulfurosos y en otros
causando mortandad de peces en zonas de bahías, degradación de las arenas y de las
aguas de las playas vecinas.
469

Los mismos autores refieren que estudios realizados en el programa del Plan de
Acción (Programa de Inventario y caracterización, 1987), calificaron a la bahía Ferrol,
Chimbote como un área crítica por contaminación y que a la fecha del reporte, la
situación se había agudizado. Los autores concluyeron que: i) la configuración de la bahía
y la mínima circulación de sus aguas, asociados a vientos de poca intensidad originan
continua acumulación de las descargas de origen terrestre; ii) la actividad pesquera
industrial y la industria siderúrgica constituyeron las principales fuentes de
contaminación.

La diversidad especifica reportada en este estudio orienta a considerar a los


poliquetos de los géneros Nereis sp; Diopatra sp y Chaethopterus sp como organismos
indicadores de impacto, pues por las características variables de las zonas de vida en las
que se desarrollan, generan la capacidad de vivir en áreas con gran cantidad de materia
orgánica, formando cienos y lodos, otros, son muy resistentes a la contaminación
constituyéndose en buenos indicadores de procesos de deterioro ambiental.

Los poliquetos constituyen especies que conforman un grupo ecológicamente


importante en los ecosistemas marinos, Chaethopterus sp, es un gusano especializado
que vive en un tubo en forma de U de hasta 2 cm de diámetro, dispuesto de modo que sus
dos aberturas queden justo por encima del nivel del barro o de la arena a profundidades
de hasta 30 m. La presencia de Diopatra sp en la estación 4 en el muestreo de mayo y en
la estación 3 en el muestreo de diciembre contribuye a sustentar la afirmación de que los
poliquetos son indicadores de deterioro de la región bentónica submareal tal como lo
sugieren Matsui et al., (2004), quienes afirman además que esta especie tendría asociadas
bacterias sulforreductoras. Esta especie está incluida en el reporte que Carbajal et al.,
(2004) emiten para la composición del bentos submareal de Puerto Malabrigo.

Los resultados obtenidos son compatibles con los criterios de Carrasco y Carbajal
(1998), quienes mencionan que los poliquetos representan uno de los grupos más
importantes en el macrobentos sub litoral y proveen excelente indicación de las
condiciones del estado de salubridad del ambiente bentónico, constituyéndose en
bioindicadores de impacto ambiental. Igualmente, coinciden con lo reportado por Solís-
Weiss (1981), quien realizó una evaluación en sedimento de la playa de Marsella en
Francia, reportando que las especies mixtícolas (con varios grupos taxonómicos) también
presentan la tendencia a constituirse en bioindicadores; así, en las estaciones más lodosas,
sobre todo si se observan varios grupos taxonómicos, los primeros en ser eliminados son
470

los crustáceos y en menor grado los moluscos; los Poliquetos son los que soportan mejor
las condiciones de aumento de lodo. En este grupo la autora reportó varias especies que
se registraron por primera vez en el Mediterráneo lo que permitió ampliar su distribución
conocida. Se reportan a: Ninoe armoricana, Caulleriella gracilis, Eupanthalis sp; Pista
cristata.

El problema más apremiante de las poblaciones bentónicas, debido a su situación


estática, es su ubicación en el fondo marino; de modo tal que, si aparece contaminación,
las comunidades sufren efectos diversos según la dinámica de cada especie, provocando
daños temporales como: disminución de la tasa de crecimiento, descenso de la
reproducción, intoxicación, daños más o menos permanentes y hasta muerte de
individuos, desaparición de especies, pérdidas de sustratos naturales y alteración general
del ecosistema.

Capó (2000), señala que cuando se habla de bioindicadores en sentido amplio,


siempre hay que tener ciertas precauciones. Se debe considerar que los bioindicadores, lo
son en principio localmente, pues sus requisitos pueden ser diferentes en distintos puntos
geográficos; por lo que, es necesario tener cuidados básicos o realizar estudios piloto para
establecer qué especies son las más adecuadas y cuál sería la extensión de la zona en que
podrían ser útiles como bioindicadoras.

También hay que tener precaución con los indicadores negativos, o sea, por
ausencias, pues los motivos por los que una especie no está en un lugar pueden ser muy
variados, incluso múltiples, y no porque le esté afectando alguna perturbación. Por
ejemplo, puede ocurrir que las condiciones del medio no sean adecuadas (sería inútil
buscar especies basófilas en medios ácidos), o que las condiciones del medio, así sean
adecuadas, la especie, no vive en ese lugar por razones biogeográficas o históricas.
También puede ocurrir que: i) las condiciones y el área de distribución sean adecuadas;
pero si hay una competencia muy fuerte entre especies, alguna, se puede ver excluida; ii)
que los individuos de la especie estén realmente en un reducido número y, al ser pequeños
e insignificantes no se distingan (error de muestreo); iii) no se localicen porque los
métodos de muestreo hayan sido inadecuados (falta el diseño de muestreo); iv) puede ser
que la especie, sí estuvo allí antes, pero que ha desaparecido a causa de la contaminación
o por los cambios ambientales.
471

Las especies bioindicadoras, en sentido amplio, deben cumplir los siguientes


requisitos o, al menos, debieran cumplirlos, sobre todo aquellos que son detectores,
explotadores o acumuladores: i) dar respuestas de interés para el ecosistema que se esté
estudiando y que sean relativamente fáciles de observar y/o medir; ii) tener límites de
tolerancia estrechos respecto a variables ambientales, es decir, ser estenoicos; iii) sólo
deben tener aquello que proceda del foco de perturbación como fuente de lo que se desea
estudiar; iv) deberían ser sedentarios o tener una capacidad de dispersión limitada; v) ser
fáciles de muestrear (en este aspecto, si las especies son raras no son fáciles de muestrear,
por tanto, ser común es una ventaja); vi) deben ser resistentes a la acumulación de
contaminantes (especialmente si se trata de bioindicadores acumuladores),
permaneciendo vivos para poder observar sus respuestas, a menos que la mortalidad sea
una de las variables a estudiar.

Aún cuando se ha mencionado que los mejores bioindicadores son las especies
estenoicas, por sus relaciones más sensibles, hay casos en que especies eurioicas pueden
ser también buenas bioindicadoras; precisamente, por ser muy comunes y abundantes en
zonas amplias, por lo que su ausencia en algunos lugares concretos puede indicar algunos
impactos ambientales.
Los bioindicadores presentan ventajas, pues como indicadores de las condiciones
del medio en que viven, en general: i) reflejan el efecto completo de todos los factores
ambientales en dicho medio; ii) evitan la tarea de hacer medidas físicas o análisis
químicos que, a menudo, requieren tiempo, técnicas, aparatos y personal calificado, que
no suelen estar disponibles por la dificultad que representa trasladarlos al lugar que se
quiere estudiar; iii) ayudan a visualizar la velocidad y la dirección de los cambios
ambientales; iv) muestran los efectos sobre los seres vivos y su potencial peligrosidad; v)
localizan las zonas de los ecosistemas donde se acumulan las materias tóxicas y
contaminantes.

En relación con la tolerancia frente a los cambios ambientales, los invertebrados


bioindicadores se pueden clasificar en tres grandes grupos (con algunas excepciones). El
primer grupo formado por insectos acuáticos de los géneros Ephemeroptera; Trichoptera
y Plecopthera, que son organismos que no tienen muchas necesidades de oxígeno
disuelto en agua. El segundo grupo constituido por insectos acuáticos y otros animales
incluyendo moluscos bivalvos. El tercer grupo está formado por organismos
extremadamente tolerantes, llamados por ello resistentes, entre los que se incluyen a
472

oligoquetos y poliquetos, que son capaces de vivir en condiciones de anoxia (ausencia


total de oxígeno disuelto) y que, además de ser detritívoros, se alimentan de materia
orgánica depositada en el sedimento, lo que favorece su adaptación a los ambientes mas
diversos (Goulart y Calisto, 2003).

En otros términos, los bioindicadores dan una imagen bastante exacta de la extensión
de la contaminación que está afectando a los seres vivos de un área determinada y de sus
efectos. También proporcionan una medida de la intensidad del impacto ambiental y de su
peligro potencial para otros organismos vivos como, por ejemplo, el hombre.

La presencia de algunas especies de fitoplanctontes y zooplanctontes en mayor


número en algunas estaciones de muestreo y épocas de muestreo se toma como datos
indicadores de presencia, más no como indicadores de impactos ambientales debido a que
generalmente se desplazan arrastrados por las corrientes superficiales; sin embargo, en la
mayoría de los casos se relacionan con las variables ambientales como concentración de
oxígeno disuelto, que en mayores concentraciones se encuentra en la superficie; se asocia
a ello la temperatura que en Puerto Malabrigo, a partir del mes de setiembre, es
ligeramente mayor.

Los impactos ambientales cualitativos que se presentan en la matriz del Cuadro


Nº 17 permiten diferenciar los factores ambientales impactados negativamente por
actividades como: i) transformación del suelo y construcción, al respecto Cánter (1999),
menciona que la “siembra de cemento” en las construcciones es muy dañina, tanto que en
la mayoría de las oportunidades se deteriora el suelo, la flora y fauna endémica. ii) la
pesca, como actividad genera impactos negativos sobretodo en la calidad del agua
marina, pues desde el aprovisionamiento de alimentos y combustibles hasta su retorno a
la bahía las embarcaciones utilizadas en la captura, originan impactos ambientales que
van desde la remoción del agua, hasta la alteración de las cadenas tróficas por pesca
incidental de especies presa que sustentan pesquerías industriales de importancia.

En las condiciones actuales las empresas pesqueras durante sus operaciones y


procesos requieren grandes volúmenes de agua dulce, por lo que realizan extracción de
este compuesto desde el subsuelo o se proveen desde pozos tubulares de zonas cercanas
lo que constituye un riesgo ambiental significativo, si se considera que el agua del
subsuelo no es una fuente inagotable. Durante el proceso, algunas operaciones generan
emisiones de material particulado y gases tales como amoniaco, ácido sulfhídrico y
473

trimetilamina que son las sustancias que originan los malos olores cuando se procesa
harina del tipo estándar o tradicional en aquellas fábricas que realizan el secado a fuego
directo. Finalmente, un problema que se debe considerar de modo especial es la
generación y tratamiento de residuos industriales líquidos como el agua de bombeo, la
sanguaza, los mismos que tienen alta concentración de proteínas hidrosolubles y
sustancias que si se tratan de manera inadecuada, al ser evacuadas al mar y luego al
degradarse originan olores putrefactos similares al huevo podrido, ello indica la
desnaturalización de proteínas con la consecuente generación de acido sulfhídrico. Sin
embargo, es necesario puntualizar que impactos positivos de toda la industria pesquera se
manifiestan en aspectos poblacionales, relaciones sociales e integración familiar;
educacional y económica, tales como generación de empleo, incremento de la renta
personal, incremento de las rentas municipales y de las actividades comerciales.

Cuantitativamente los impactos negativos de los rangos significativos (060 a 200)


y muy significativos (desde 200 hasta 400), sobre el suelo, el agua dulce, la calidad del
aire, así como la flora, la fauna, la población y los rasgos singulares del paisaje, implica
considerar desde la perspectiva de De Torres (1999) que es conveniente diferenciar
claramente las causas (u orígenes) de la acción, de los efectos previstos, que es lo que
valoramos a la hora de estimar la importancia del impacto. Se describe una metodología
basada en la diferenciación de la magnitud o cantidad de bien afectado, la magnitud del
efecto y la fragilidad - capacidad de acogida del bien medioambiental afectado.

El mismo autor, menciona que los métodos de valoración de impactos


ambientales, se han agrupado por similitud, dando algunas clasificaciones como: i)
métodos de cuantificación global (como el de Batelle - Columbus basado en funciones de
transformación); ii) métodos de base cartográfica, iii) análisis general de sistemas; iv) los
basados en indicadores; v) los sistemas de redes y matriciales. En el último grupo se
incluye el Método de Leopold (1971) citado por Cánter (1999), que podríamos calificar
de origen-destino de efectos (mejor que de causa - efecto) el cual permite aplicar un
procedimiento sistemático para la identificación y valoración de los impactos puntuales
que puede ocasionar una determinada acción humana sobre el ambiente.

Teniendo en cuenta que, los impactos de la industria pesquera se tipifican como


puntuales consideramos que las acciones de mitigación deben ser concretas y efectivas a
fin de mantener la salud del ecosistema de la bahía de Puerto Malabrigo, allí donde la ola
mas grande del planeta hace tornar la mirada a los turistas de varios países del orbe.
474

De la valoración de los impactos de la industria pesquera, resaltan los impactos


ambientales positivos con calificación de significativos sobre todo en algunos aspectos
poblacionales, educacionales y económicos, como son la generación de empleo, el
aumento del nivel de renta personal; el aumento de las rentas municipales y de las
actividades comerciales; pero que serían muy significativos, si las empresas por lo menos
cumplieran con los lineamientos genéricos de las políticas ambientales globales, las
normas especificas como, la Ley General de Pesca, DL 25977, su reglamento DS Nº 012-
2001-PE (del 14 de marzo del 2001 y toda la normatividad vigente asociada a la industria
de producción de harina y aceite de pescado (Ministerio de la Producción, 2004).
475

V. PROPUESTA

En el sector pesquero y en la industria de producción de industria y aceite de


pescado en particular, actores principales son:
1. Los armadores pesqueros, dueños de las embarcaciones, quienes se encargan
de gestionar los documentos ante las autoridades pertinentes para obtener la licencia a fin
de que la embarcación ejecute faenas de pesca de recursos hidrobiológicos, provisión de
artes de pesca, mantenimiento de las embarcaciones, provisión de ropa de trabajo y
víveres para los pescadores.
2. Los pescadores, personas que se encargan de desplazar la embarcación hasta la
zona de pesca; realizar la faena y posteriormente retornar hasta puerto trasladando la
captura y finalmente controlar el peso en la descarga.
3. Los dueños de las plantas de procesamiento de harina y aceite de pescado,
quienes invierten capital en cantidades tales que permitan implementar sus empresas con
maquinaria de tecnologías de última generación, adecuadas para un correcto
funcionamiento; asimismo deben proveer buenas condiciones de trabajo acordes con los
lineamientos previstos en las Buenas Prácticas Pesqueras y los citados en el DS 040-
2001-PE. Actualmente, los dueños o titulares de las empresas se han organizado en la
Asociación de Productores de Harina y Aceite de Pescado de Puerto Malabrigo
(APROCHICAMA).
4. La Alcaldesa de Puerto Malabrigo.
5. Autoridades y delegaciones gubernamentales y civiles tales como: el
gobernador, el comisario, el sacerdote; el juez de paz, el jefe de la posta médica.
6. Los directores de los centros educativos de los niveles inicial, primario y
secundario.
7. Representantes de la sociedad civil organizada, tales como el secretario general
de los pescadores artesanales, asociaciones de estudiantes universitarios, etc.
8. El Director Regional de Pesquería como representante del Gobierno Regional.
9. La Directora Nacional de Medio Ambiente del Viceministerio de Pesquería.
10. Autoridades Responsables de implementar políticas ambientales, por ejemplo
la Comisión Nacional de Medio Ambiente (CONAM) y los representantes de la
Comisión Ambiental Regional (CAR La Libertad)
11. La población de Puerto Malabrigo en general

Todos ellos tienen funciones que cumplir, su propia forma de actuar y su propia
idiosincrasia; sin embargo, es particularmente importante resaltar el hecho que la mayoría
476

de empresas pesqueras funciona aparentemente al margen del entorno; por cuanto, el


acceso a sus instalaciones, sólo es posible con especial autorización, siendo reticentes aún
al cambio de concepción de la empresa en el sentido que ésta, es un sistema que toma del
medio recursos naturales que luego de procesarlos industrialmente genera: a) productos
terminados (harina y aceite de pescado) que comercializa generando divisas y b) residuos
que van al entorno. Más aún, en la mayoría de ellas una enorme puerta metálica, grandes
muros y paredes encierran en su interior maquinarias que no “deben ser observados por
los otros miembros del entorno”. Por lo que propongo la implementación de una mesa de
concertación con la intervención decidida de todos los actores mencionados para
concretar las siguientes acciones:

1. Desarrollaré acciones de sensibilización educativa a empresarios,


armadores, autoridades locales y regionales, trabajadores, estudiantes; así como a
representantes de la sociedad civil organizada y la población en general a través de
una intensiva y eficaz educación ambiental a todo nivel; el fin es, generar el cambio de
percepción, desde aquel que considera a la empresa pesquera como la que depreda los
recursos, daña el ambiente, genera impactos negativos en los factores ambientales del
ecosistema y, específicamente al entorno en el que se ubica; por otra que, en adecuadas
condiciones de procesamiento, no genera contaminación, no daña el ambiente y más bien
contribuye a su cuidado. El objetivo, es lograr que los participantes en estas actividades,
instruidos en los aspectos tecnológicos de la producción de harina y aceite de pescado, y
educados en el cuidado del medio ambiente, comprendieran mejor la forma como
contribuir a hacer más eficiente esta labor. Para lograrlo se implementarán las siguientes
actividades:
a. La edición mensual de medios informativos, tales como boletines, informes,
revistas u otros que de manera didáctica expliquen los procesos tecnológicos de la
producción de harina y aceite de pescado y el beneficio que para la comunidad local, la
región y el país, genera esta actividad industrial.
b. Quincenalmente, durante el período de estudios escolares, profesionales
designados por las empresas y profesionales especializados en Medio Ambiente
desarrollarán conferencias, seminarios, talleres y exposiciones sobre aspectos de la pesca,
el procesamiento, la comercialización y la compatibilidad legal del funcionamiento de la
empresas pesqueras ubicadas en Puerto Malabrigo, de modo tal que en los estudiantes se
genere la convicción de convertirse en gestores ambientales ejerciendo un efecto
multiplicador en el hogar, la familia y la población.
477

c. Que mensualmente, tanto en épocas de producción y de veda, se realicen


visitas guiadas de estudiantes de los diferentes niveles y centros educativos de la
localidad a las instalaciones de las plantas productoras de harina y aceite de pescado para
que obtengan conocimientos necesarios sobre las diferentes operaciones que involucra el
procesamiento.
d. Que todas estas acciones se hagan extensivas a la sociedad civil organizada y a
la población en general con el objetivo de instruirlos sobre los aspectos productivos y de
contribución al cuidado de la salud ambiental de la bahía y de todo el entorno.

2. Realizaré coordinaciones con los responsables de las empresas pesqueras


para la Implementación de los sistemas de tratamiento de Residuos Industriales
Líquidos con características compatibles con las denominadas tecnologías limpias.
Todas las empresas productoras de harina y aceite de pescado ubicadas en Puerto
Malabrigo tienen chata y tuberías de descarga, o absorbentes; el tratamiento de agua de
bombeo y la sanguaza es por el método de celdas de flotación (Sistema Krofta; sistema de
flotación inducida con microburbujas de aire para recuperar aceites y sólidos
suspendidos). Para la evacuación de los Residuos Industriales Líquidos tienen emisores
submarinos de 16 pulgadas de diámetro, de acero o plástico y desde 1700 hasta 2400
metros de longitud (Cuadro Nº 19).

CUADRO Nº 19: MATERIAL Y LONGITUD DE LOS EMISORES SUBMARINOS


DE LAS EMPRESAS PRODUCTORAS DE HARINA Y
ACEITE DE PESCADO

Empresa Material del Longitud


emisor (m)
TECNOLOGICA DE ALIMENTOS S.A. Acero 1750
PIANGESA Acero 1800
SINDICATO PESQUERO S.A. Acero 2400
PESQUERA LIBERTAD Plástico 1700
CIA PESQUERA PACIFICO CENTRO S.A. Plástico 1850
PESQUERA EXALMAR SAC Acero 2000
COPEINCA S.A. Plástico 2200
PESQUERA ALEXANDRA S.A. Acero 2000
PESQUERA HAYDUCK SAC Acero 2400

Las empresas pesqueras realizan inversiones cuantiosas en la adquisición de


equipos de producción con tecnología de punta, como es el caso de las líneas de
producción para obtener harina Prime y Super Prime; por lo que, es lógico suponer que
deben conjuntamente con ello, adquirir también equipos de última generación para el
tratamiento de sus Residuos Industriales Líquidos y que además funcionen con una alta
478

eficiencia de modo tal que los residuos industriales líquidos evacuados no contaminen el
agua de la bahía de Puerto Malabrigo y de esta manera se posibilite el desarrollo de la
capacidad de resiliencia de las aguas marinas. Ello posibilitaría también la recuperación
de la calidad del agua del sistema marino litoral propiciando así la recuperación de la
ictiofauna endémica y con ello la disponibilidad de especies como corvina, robalo, suco,
misho, etc

Realizaré coordinaciones con los directivos de la Asociación de Productores de


Harina y Aceite de Pescado de Puerto Malabrigo (APROCHICAMA), para generar entre
sus socios la idea de que las aguas residuales industriales, se evacuen adecuadamente a
través de emisores submarinos cuya ubicación y distancia de las costa deben ser
determinados previamente a fin de evitar los impactos ambientales negativos
significativos.

Una alternativa viable, es la construcción de un colector de los RILs (Gráfico Nº


04) paralelo a la línea de costa, construido de acero de dos pulgadas de grosor, 3000 m
longitud y 20 pulgadas de diámetro; que reciba los RILs impulsados por las bombas
impelentes ubicadas en el interior de cada planta, desde TASA hasta 50 m al norte de la
planta ubicada inmediatamente después de Hayduck SAC y que en un gran tanque de
flotación y sedimentación de 100x50x5 m pueda almacenarse para recuperar solubles en
suspensión, aceites y grasas. Posteriormente, vía un emisor submarino de 16” de diámetro
y de 2400 m de longitud desde este punto, con una bomba impelente en dirección
noroeste, se haga llegar los efluentes hasta un área de mezcla ubicada en el lugar en que
la velocidad de la corriente es de 30 m/s y 10 m de profundidad que es lo
reglamentariamente establecido. Los requerimientos de esta área de mezcla son:
1. Ubicación, profundidad, corrientes, calidad de aguas, entre otras, adecuados
que permitan obtener una alta dilución.
2. Para bahías cerradas, la ubicación debe estar fuera de ellas.
3. Diluciones mínimas: inicial: 1/100; Final: 1/500
4. Para efluentes pesqueros: se deben medir la concentración de aceites y
grasas, DBO5 y sólidos suspendidos totales.
Para la concreción de este proyecto se planifica lo siguiente:
1. Conformación de un Grupo de Trabajo para analizar y viabilizar técnica y
económicamente la construcción de este ducto y el uso de agua de mar para
la disposición final de los residuos industriales líquidos.
479

2. Determinar en la zona marina, las áreas de mezcla destinadas al uso antes


propuesto.
3. Asignar estándares de calidad Ambiental para estas áreas de mezcla.

Criterios adicionales pertinentes son los que consideran que las áreas de mezcla
son:
a Aplicables a desagües consolidados y tratados de poblaciones.
b. Aplicables a efluentes combinados y tratados de agrupaciones de plantas de
harina de pescado (extensivo a otras actividades 100% orgánicas).
c. En las bahías o zonas costeras abiertas se preseleccionarán áreas marinas de
hasta 1 Km2 para estos vertimientos, estableciéndose Estándares de calidad ambiental
especiales de valor elevado, a ser monitoreados después de un radio de 0,5 km del punto
de descarga del emisor proyectado (post zona de mezcla).
d. La ubicación de las áreas de mezcla, será el resultado de un proceso a iniciarse
luego de la decisión tomada por la Asociación de Productores de Harina y Aceite de
Pescado de Puerto Malabrigo.
e. Todos los estudios técnicos que se requieran serán desarrollados por los
proponentes, conforme a los lineamientos que establezca el “Comité Permanente de
Áreas de Mezcla” - COPAM – que se crearía para tal efecto, con la aprobación previa del
CAR La Libertad. La Secretaría Técnica del COPAM estará a cargo de DIRECCION DE
CAPITANÍAS (DICAPI) y sus miembros serían representantes de: IMARPE, DICAPI-
DIRECCIÓN DE HIDROGRAFÍA, DIGESA, CONAM, INRENA, DIRECCIÓN
REGIONAL DE PESQUERÍA, SOCIEDAD NACIONAL DE PESQUERÍA,
APROCHICAMA y SUNASS. Los estudios posibilitarán establecer también la carga
admisible de contaminantes al medio marino preseleccionado, es decir, los límites
máximos permisibles, de acuerdo a criterios de calidad del agua.

De concretarse ello, se habría dado un paso muy grande en la mitigación de los


impactos ambientales negativos y garantizaría la buena calidad física, química y biológica
del agua de la bahía, lo que otorgaría ventajas para los pobladores, los pescadores, turistas
y los mismos industriales. Ello minimizaría los riesgos para la salud de la población y del
ecosistema marino litoral de Puerto Malabrigo.
480

Tanque de
almacenamiento y
Emisor sedimentación
submarino

Area
de
Mezcl
a

Muelle
Colector

GRAFICO Nº 04: ESQUEMA DE LA INSTALACIÓN DE UN COLECTOR DE RILs DE LAS EMPRESAS PESQUERAS PROPUESTO
PARA PUERTO MALABRIGO
481

3. Con los miembros de la mesa de concertación, desarrollaré acciones tendientes a


mitigar los impactos ambientales negativos significativos y muy significativos que la industria
pesquera origina sobre el sistema marino litoral de Puerto Malabrigo, basado en la
consideración del adecuado ordenamiento territorial y que se debe limitar la construcción o
instalación de nuevas plantas pesqueras; con ello se evitaría impactos negativos sobre el suelo,
por cuanto la cubierta con cemento modifica la morfología y características edafológicas de
modo casi irreversible alterando con ello la flora y fauna asociadas. Se evitaría igualmente
impactos sobre la calidad y cantidad del agua dulce superficial y subterránea, en este caso, la
obtención de agua dulce desde los cursos de agua superficiales y del acuífero para ser utilizada
en las diversas fases de construcción e implementación llevarían a un agotamiento de este
valioso recurso.

Aparentemente este efecto ya se está observando, por cuanto, algunas empresas tienen
pozo tubular propio (TASA; PESQUERA ALEXANDRA SAC, PESQUERA HAYDUK SAC) y
otras para su fase de producción, adquieren el agua dulce en lugares aledaños como Macabí,
Paiján, Chocope, Casa Grande y Trujillo. Además, se evitaría la alteración de la calidad de vida
del poblador de Puerto Malabrigo al disminuir los ruidos originados por las máquinas utilizadas
en la adecuación del terreno y la construcción. Finalmente, se lograría mantener la calidad del
paisaje con la consecuente posibilidad de generar otro tipo de actividades tales como el turismo,
comercio, pesca deportiva, etc.

En este contexto y de acuerdo a la Ley Orgánica de Municipalidades DL 27972 del seis


de mayo del 2003 (Ministerio de Educación, 2004), la Municipalidad Distrital de Rázuri; tiene
las competencias de: a) planificar integralmente el desarrollo local y el ordenamiento territorial,
recogiendo las prioridades propuestas en los procesos de planeación de desarrollo local de
carácter distrital; b) promover, permanentemente la coordinación estratégica de los planes
integrales de desarrollo distrital, sobretodo los planes referidos a la organización del espacio
físico y uso del suelo; c) emitir las normas técnicas generales, en materia de organización del
espacio físico y uso del suelo así como sobre protección y conservación del ambiente.

En concordancia con el artículo 79, referido a la organización del espacio físico y uso
del suelo, la Municipalidad de Rázuri tiene las atribuciones de autorizar y fiscalizar la ejecución
del plan de obras de servicios públicos o privados que afecten o utilicen la vía pública o zonas
aéreas, así como sus modificaciones; previo cumplimiento de las normas sobre impacto
ambiental. En el artículo 80 al referirse al saneamiento, salubridad y salud, se estipula que las
municipalidades ejercen las siguientes funciones de: a) difundir programas de saneamiento
ambiental en coordinación con las municipalidades y los organismos regionales y nacionales
482

pertinentes; b) proveer del servicio de limpieza pública determinando las áreas de acumulación
de desechos, rellenos sanitarios y el aprovechamiento industrial de residuos sólidos; c) regular y
controlar el aseo, higiene y salubridad en los establecimientos comerciales, industriales,
viviendas, escuelas, piscinas, playas y otros lugares públicos locales y d) fiscalizar y realizar
labores de control respecto de la emisión de humos, gases, ruidos y demás elementos
contaminantes de la atmósfera y el ambiente.

Además, esta propuesta se sustenta en la R.M .N° 047-2004-PRODUCE del 04.02.04,


mediante la cual, se prohíbe el traslado físico o cambio de ubicación de establecimientos
industriales pesqueros, para el desarrollo de la actividad de Consumo Humano Indirecto, al
puerto de Malabrigo, distrito de Razurí, Provincia de Ascope, departamento La Libertad;
Contenido en el Marco Jurídico Ambiental de la Actividad Pesquera (1,990 – 2,004) citado por
Ministerio de la Producción (2004) (www.produce.gob.pe)

La pesca origina impactos ambientales negativos significativos sobre la calidad


del agua marina, los peces, crustáceos, moluscos y otros componentes de flora y fauna,
alterando las cadenas tróficas; sin embargo desde la perspectiva científica se ha
determinado condiciones en las que deben operar las embarcaciones mencionadas en el
DS 040-2001 PE. Ellas van desde el tamaño de malla, autorizaciones de zarpe y zonas
de pesca según la capacidad de bodega, para todas las embarcaciones en el litoral
peruano. En este ámbito, el gobierno, con la finalidad de preservar los recursos
hidrobiológicos y asegurar su explotación racional, especialmente dentro de la zona de
las cinco millas marinas, reservada sólo para la pesca artesanal, consideró de interés
nacional contar con el Sistema de Seguimiento Satelital instalado en la totalidad de la
flota industrial pesquera nacional habiendo emitido el DS Nº 018-2004-PRODUCE del
09 de setiembre del 2004, que establece que los titulares de las embarcaciones pesqueras
industriales que obtuvieron sus permisos de pesca al amparo de la Ley Nº 26920, deben
instalar en sus respectivas embarcaciones los equipos de seguimiento satelital,
(www.produce.gob.pe).

La guía para la elaboración de estudios de impacto ambiental para la producción


de harina y aceite de pescado elaborado por la Dirección Nacional de Medio Ambiente
Pesquería (Ministerio de la Producción, DINAMA PESQUERIA, 2004), explica que la
política ambiental del Ministerio de la Producción Viceministerio de Pesquería, se rige
por las disposiciones contenidas en el Decreto Legislativo 613, Código del Medio
Ambiente y los Recursos Naturales; Ley N° 25977, Ley General de Pesca y su
483

Reglamento D.S. 012-2001-PE; Ley N° 27779 Ley Orgánica que modifica la


Organización y Funciones de los Ministerios; Ley N° 27789, Ley de Organización y
Funciones del Ministerio de la Producción; y por principios y lineamientos, tales como:
i) la incorporación del principio de prevención de la contaminación en las actividades
pesqueras, con el objetivo de eliminar o reducir prioritariamente la cantidad de
sustancias contaminantes, que se viertan o emitan al ambiente; ii) la implementación de
instrumentos económicos para promover la prevención de la contaminación, el reciclaje
y la reutilización, las tecnologías limpias y la conservación de los recursos
hidrobiológicos y el desarrollo sostenible de las actividades pesqueras y fomentar la
internalización de los costos ambientales, bajo el criterio de que el que contamina debe
asumir los costos de la contaminación; iii) el establecimiento de mecanismos de
participación y concertación entre el sector productivo privado y la sociedad civil; iv)
difusión de la información técnica ambiental, como instrumento destinado a generar
conocimiento, con la finalidad de reducir los niveles de contaminación y deterioro
ambiental y v) puntualiza que el marco legal de los estudios de impacto ambiental lo
constituyen:

1. La Constitución Política del Estado

2. El Código del Medio Ambiente y los Recursos Naturales (Decreto Legislativo


N°613)
3. La Ley Marco para el Crecimiento de la Inversión Privada (Decreto Legislativo N°
757) modificada por la Ley N° 26734
4. La Ley General de Aguas (Decreto Ley 17752, sus Reglamentos y modificaciones
D.S. 007-83-SA)
5. La Ley General de Pesca (Decreto Ley N° 25977)
6. El Reglamento de la Ley General de Pesca (Decreto Supremo N° 012-2001-PE
7. La Ley General de Residuos Sólidos (Ley N° 27314)
8. El Reglamento de Capitanías (Decreto Supremo N°002-87-MA)
9. La Ley de Control y Vigilancia de Actividades Marítimas (Ley N° 26620)
10. El Reglamento Nacional para la Aprobación de Estándares de Calidad
Ambiental y Límites Máximos Permisibles (Decreto Supremo 044-98-PCM)
11. La Resolución Ministerial N° 003-2002-PE Protocolo para el Monitoreo de
Efluentes y Cuerpo Marino Receptor.
12. Las Resoluciones Directorales 069-98/DCG, 0510-99/DCG, 0766-003/DCG
484

13. La Resolución Directoral Nº 283-96-DCG. Lineamientos para el Desarrollo de


estudios de Impacto Ambiental relacionados con Proyectos de Construcción de
muelles, embarcaderos y otros similares
14. La Guías para el Desarrollo de EIA relacionados a la Evacuación de Desechos por
Tuberías (Resolución Directoral N° 0052-96/DCG)
15. La Resolución Ministerial N° 218-2001-PE. Establecen disposiciones aplicables a la
actividad de procesamiento de harina de pescado.

Como se puede apreciar, existe una base científica y legal para la actividad pesquera, la
misma que debe orientar a los involucrados en esta actividad a conseguir la explotación racional
de los recursos hidrobiológicos y el desarrollo sostenible de las empresas pesqueras.

4. En coordinación con las organizaciones representativas, ejecutaré monitoreos


ambientales sistemáticos de las condiciones del agua de mar, propiciando la intervención de
las empresas pesqueras, la Municipalidad Distrital de Rázuri y los entes responsables del
Gobierno Regional La Libertad y del Viceministerio de Pesquería del Ministerio de Producción,
con la imparcial participación de empresas consultoras ambientales que apliquen correctamente
la Resolución Ministerial No. 003-2002-PE (Protocolo para el Monitoreo de efluentes y
cuerpo marino receptor del 13 de abril de 2002) y las normas asociadas descritas en el Marco
Jurídico Ambiental De La Actividad Pesquera (2004).

El Artículo 78° del Reglamento de la Ley General de Pesca establece que los titulares de
las actividades pesqueras son responsables, de los efluentes, emisiones, ruidos y disposición
final de desechos que generen o que se produzcan como resultado de los procesos efectuados en
sus instalaciones, de los daños a la salud o seguridad de las personas, efectos adversos sobre los
ecosistemas y de los efectos o impactos resultantes de sus actividades; por lo tanto están
obligados a ejecutar de manera permanente planes de manejo ambiental y en consecuencia
realizar las acciones necesarias para prevenir o revertir en forma progresiva la generación y el
impacto negativo de las mismas, a través de la implementación de prácticas de prevención de la
contaminación y procesos con tecnologías limpias, prácticas de reuso, como reciclaje,
tratamiento y disposición final.

El Artículo 88° del Reglamento en mención establece que los consultores serán
responsables de la veracidad e idoneidad de la información contenida en los documentos que
suscriban. Por lo tanto, cabe deducir que en el supuesto de que se produzcan actividades
contaminadoras sancionables derivadas de un estudio de impacto ambiental incompleto, la
responsabilidad sería compartida entre el titular y el consultor.
485

5. Propiciaré acciones de modo tal que las empresas productoras de harina y aceite
de pescado realicen una adecuada proyección a la comunidad de Puerto Malabrigo a fin de
explicarles que las empresas, no sólo invierten dinero, extraen recursos, generan ingresos; sino
que también desarrollan acciones tendientes a cuidar la salud de sus trabajadores, de la
población y del medio ambiente. Considerando que la empresa es un sistema que extrae
recursos naturales del medio, los procesa y obtiene productos para generar ingresos y residuos
que podrían alterar las condiciones del entorno, se desarrollarán acciones orientadas a
internalizar la idea de que las empresas cumplen con el elemental principio de la gestión
ambiental de generar ingresos, sin dañar el ambiente. De este modo se involucraría a todos los
actores en el paradigma del Desarrollo Sostenible, cuya filosofía orienta al aprovechamiento de
los recursos naturales de modo tal que las generaciones futuras tengan la misma posibilidad de
explotarlos y lógicamente, como lo harían en condiciones adecuadas, las empresas
tecnológicamente adaptadas a la dinámica de lo que es el trabajo empresarial con el definido
criterio de que la empresa es el hombre.

6. Propiciaré la internalización del cambio en la Gestión Ambiental integral pues, el


principio más importante explica que, si una actividad productiva deviene en un potencial
deterioro ambiental o de la salud humana, ésta (la actividad), no debe ser objeto de represión, o
supresión; debe constituirse, en cambio, en punto de unificación de criterios entre los sectores
involucrados, para minimizar los impactos ambientales negativos significativos y estimular los
positivos. Considero que los datos expuestos en la tesis respecto a las condiciones de trabajo de
las empresas ubicadas en Puerto Malabrigo en el período de estudio (2003), aparentemente, han
variado de manera significativa respecto a los que se aprecian en la actualidad; sin embargo
marcan una pauta para que estudios posteriores contribuyan a la disminución o eliminación de
las causas generadoras de impactos y que se realice valoraciones con otros métodos desde una
perspectiva cualitativa y cuantitativa resaltando aquellos que involucran directamente al ser
humano.

Considero además que la gestión ambiental desarrollada con un enfoque sistémico,


permite evitar la contaminación y el deterioro en forma global y con carácter proactivo; ella,
involucra actividades de los sectores públicos y privados de un país. En el sector público, la
gestión ambiental es desarrollada por los gobiernos centrales, regionales y locales y en el sector
privado, esta labor la realizan empresas industriales, en este caso las empresas productoras de
harina y aceite de pescado de Puerto Malabrigo, las que generan ingresos de divisas para el
gobierno. Un trabajo desarrollado con esta perspectiva orientaría a conocer concretamente la
486

realidad actual en un contexto netamente científico y tecnológico orientando a la comprensión


que la inversión en gestión ambiental, es rentable.
487

VI. CONCLUSIONES

1. La actividad industrial pesquera genera impactos ambientales negativos en el


sistema marino litoral de Puerto Malabrigo, sobretodo en la calidad del agua por la inadecuada
gestión de sus residuos industriales líquidos.

2. Los impactos ambientales negativos de la industria pesquera sobre el sistema


marino litoral de Puerto Malabrigo fueron valorados como significativos y muy significativos.

3. Impactos positivos significativos se generaron por la industria pesquera en Puerto


Malabrigo en aspectos poblacionales de educación y economía por la generación de empleo y el
incremento del nivel de remuneración personal y de recursos económicas para la Municipalidad
Distrital de Rázuri.

4. Poliquetos de los géneros Nereis, Diopatra y Chaethopterus, son indicadores de


impacto ambiental de la industria pesquera sobre el sistema marino litoral de Puerto Malabrigo.
488

VII. REFERENCIAS BIBLIOGRÁFICAS

AMERICAN PUBLIC HEALTH ASSOCIATION, AMERICAN WATER WORS


ASSOCIATION. WATER POLLUTION CONTROL FEDERATION. 1989. Métodos
normalizados para el análisis de aguas potables y residuales, Madrid. Ediciones Diaz
de Santos,S.A. p:2-67, 2-68,4-77, 4-149, 4-220.

BRACK, A. y E. MENDIOLA. 2000. Ecología del Perú, Lima. Bruño. p: 102.

CÁNTER, L. 1999. Manual de evaluación de Impacto ambiental, Santa Fe de Bogota.


McGraw Hill.

CAPÓ, M. 2002. Principios de Ecotoxicología, Madrid. McGraw-Hill/Interamericana. p:128-


133.

CARRASCO, F. y W. CARBAJAL. 1998. The Distribution of Polychaete Feeding Guilds in


Organic Enrieched sediments of San Vicente Bay, Central Chile. Internat.rRev.
Hidrobiol. 83(3):233-249.

CARRASCO, F. y V. GALLARDO. 1989. La contaminación marina y el valor de la


macroinfauna en su evaluación y vigilancia: caso de estudio en el litoral de Concepción,
Chile. Biología Pesquera 18: 15-27.

CARBAJAL, W., F. CARRASCO., P. CURO y J. ZAMORA. 1995. Cambios en la


infraestructura comunitaria de la macroinfauna de playas arenosa. Después del
fenómeno El Niño 1986-1987. En Lambayeque. Perú. Gayana Oceanol. 3(1): 29-40.

CARBAJAL, W., J. CASTRO., J. De La CRUZ y G. FLOREZ. 2004. Calidad del ambiente


Marino en Puerto Malabrigo (La Libertad), Marzo y Junio 2003.
http://www.imarpe.gob.pe. Accesado 20 abril 2005.

CONEZA, V. 1997. Guía metodológica para la evaluación del impacto ambiental, 3ª. ed.,
Madrid. Mundi-Prensa.

DE TORRES, D. 1999. Nuevo método para la evaluación de impactos puntuales, Medio


Ambiente CANARIAS. Revista 12.

GLYNN, H. y G. HEINKE 1999. Ingeniería ambiental; 2a. ed., México. Prentice Hall. p: 64-
78.

GOULART, M. y M. CALISTO. Bioindicadores de qualidade de Água como ferramenta Em


Estudos de Impacto Ambiental Revista da FAPAM. Año 2 N0.1: www.icb.ufmg.br.
Accesado 10 abril 2005.

HARRISON, R. 2003. El medio Ambiente. Introducción a la química medioambiental y a la


contaminación., Zaragoza. Acribia. p: 145-178.

INSTITUTO NACIONAL DE ESTADÍSTICA E INFORMÁTICA 2004. Indicadores


económicos; captura de anchoveta. http://www.inei.gob.pe, accesado 12 junio 2004.

INSTITUTO DEL MAR DEL PERU, 2004. Reporte de la pesquería pelágica.


www.imarpe.gob.pe, accesado 20 julio 2005.
489

INSTITUTO TECNOLOGICO PESQUERO DEL PERU. 2004. La anchoveta peruana:


oportunidad para la industria conservera nacional, Callao. Grafica Biblos S.A. p:1-5

JACINTO, M, R. CABALLERO y M. GUZMAN. 1996. Evaluación de la contaminación


marina en la bahía Ferrol, Chimbote. 14-18 de julio 1994. Inf. Prog. Inst. Mar Perú-
Callao Mimeo No 48. Diciembre 1996.

MATSUI, G., D. RINGELBERG AND C. LOVELL. 2004. Sulfate-Reducing Bacteria in Tubes


Constructed by the Marine Infaunal Polychaete Diopatra cuprea. Applied and
Environmental Microbiology, December 2004, p. 7053-7065, Vol. 70, No. 12
http://aem.asm.org/cgi/content/full/70/12/7053, accesado 02 agosto 2005

MILLER, T. 1994. Ecología y Medio Ambiente, México. Grupo Editorial iberoamericana S.A.
de C.V. p: 666-687.

MINISTERIO DE EDUCACION. S/F Ley Orgánica De Municipalidades, Ley 27972.


http://www.minedu.gob.pe/el-
ministerio/descentralizadión/ley_prg_munic-pdf, accesado 20 agosto 2005

MINISTERIO DE PESQUERÍA. 2001. DS. 040-2001-PE, Norma Sanitaria Para Las


Actividades Pesqueras y Acuícolas del 14-12-2001.
http://www.rlc.fao.org/prior/comagric/codex/rla2904/pdf/actualper.pdf, accesado
20 agosto 2005.

MINISTERIO DE PESQUERÍA. 2002. Resolución Ministerial No. 003-2002-PE Protocolo


para el Monitoreo de efluentes y cuerpo marino receptor.
http://www.produce.gob.pe/mipe/dinama/docs/marco.pdf, accesado 20 abril 2003.

MINISTERIO DE LA PRODUCCIÓN. 2004. Marco Jurídico Ambiental De La Actividad


Pesquera (1,990–2,004). http://www.produce.gob.pe/mipe/dinama/docs/marco.pdf,
accesado 20 agosto 2005.

MINISTERIO DE LA PRODUCCIÓN - DIRECCIÓN NACIONAL DE MEDIO AMBIENTE


DE PESQUERÍA. 2004. Guía para la elaboración de estudios de impacto ambiental
para la industria de Harina y aceite de pescado www.produce.gob.pe accesado 20 abril
2005.

OFICINA NACIONAL DE EVALUACIÓN DE RECURSOS NATURALES.1986. Perfil


Ambiental del Perú, Lima ONERN p: 70-72.

OROZCO, S. CASTILLO, E. ENRIQUEZ, E. FERNANDEZ, O. MORON Y J. CORDOVA.


1997. Evaluación de la contaminación y calidad microbiológica del agua de mar en las
bahías de Ferrol y Samanco- 12-15 febrero 1996. Inf. Prog. Inst. Mar Perú-No 56. Abril
1997 Callao. Mimeo

OROZCO, C., A. PEREZ ., M. GONZÁLEZ., F. RODRIGUEZ y J. ALFAYAN. 2003.


Contaminación ambiental una visión desde la química, Madrid. Thompson. p: 63-76.

SEOANEZ, M. 1996. El gran diccionario del medio ambiente y de la contaminación, Madrid.


Coediciones Mundi-Prensa. p: 456-487.

SEOANEZ, M. 2000. Manual de contaminación marina y restauración del litoral, Madrid.


MundiPrensa. p: 36-46
490

SOLÍS-WEISS, V. 1981. Aspectos Ecológicos De La Contaminación Orgánica Sobre El


Macrobentos De Las Cuencas De Sedimentación En La Bahía De Marsella (Francia).
Universidad Nacional Autónoma de México, Instituto de Ciencias del Mar y
Limnología. http://www.biblioweb.dgsca.unam.mx. Accesado 11/04/05

TRESIERRA, A. y Z. CULQUICHICÓN. 1993. Biología Pesquera, Trujillo. Libertad. p: 168.


491

I. INTRODUCCION

En la producción de conservas de pescado, la esterilización comercial, es una de las


operaciones mas importantes, por cuanto, mediante la acción combinada de la temperatura y la
presión se pretende lograr la destrucción de formas viables de bacterias patógenas y las esporas
de Clostridium botulinum, una bacteria anaerobia muy peligrosa para la salud humana; por lo
que en la búsqueda de medios para mejorar la calidad del pescado enlatado mediante el
adecuado procesamiento, nunca se debe comprometer la inocuidad del producto. El enlatado es
el proceso más antiguo e importante de preparar alimentos estables a condiciones ambientales y
de larga vida útil; las conservas son por tanto un aspecto importante del comercio mundial y
proporcionan sustanciales ingresos a muchos países en vías de desarrollo.

Existen tres reglas fundamentales de la seguridad del producto enlatado: i) integridad


del sellado del envase; el mismo que, logrado de manera óptima, posibilitaría la hermeticidad
del cierre; ii) proceso térmico de letalidad adecuada, determinado por el valor Fo, definido
como el tiempo en minutos necesario para que a una temperatura de 121.1ºC en el centro del
producto se logre la destrucción de las esporas del Clostridium botulinum; iii) higiene
escrupulosa posterior al proceso; pues tras la esterilización, la lata es mas vulnerable a las
fugas o ingresos hacia el interior a través del cierre. Hall (2001), al referirse a este proceso
enfatiza lo anteriormente expresado y menciona que el enlatado como una forma de
conservación de los productos pesqueros, es una tecnología donde los errores pueden costar la
vida.
Fellows (1994), señala que la esterilización por calor es la operación unitaria en
la cual los alimentos son calentados a una temperatura suficientemente elevada y
durante un tiempo suficientemente largo, como para destruir en los mismos la actividad
microbiana y enzimática. La intensidad del tratamiento térmico que recibe un alimento
depende de la composición y de las características físicas del producto y es el resultado
de una combinación de tiempo y de temperatura. Desde esta perspectiva, un alimento
esterilizado tendría una indefinida vida útil del producto, siempre que se mantenga la
integridad del envase; sin embargo en condiciones pragmáticas, ésta se estima en 4
años.

Sikorski (1994), menciona que la esterilización por el calor se orienta a reducir las
probabilidades de supervivencia de las formas vegetativas de las bacterias o esporas bacterianas
492

correspondientes especialmente los gérmenes esporulados de los géneros Bacillus (B.


Coagulans, B. Sterothermophilus) y Clostridium; los que son microorganismos que
normalmente causan la descomposición como consecuencia de tratamientos insuficientes. El
peligro para el público consumidor obedece a la capacidad del Clostridium botulinum para
crecer en condiciones anaerobias y generar una toxina cuya ingestión es con frecuencia mortal;
por ello, es aspiración primordial de la industria del enlatado, alcanzar en los productos un
número cero de gérmenes botulínicos.

Cheftel y Cheftel (1983), señalan que el pescado, con un pH promedio de 6,5, se incluye
en el grupo de alimentos de baja acidez; con pH mayor que 4,5; pues este valor, se considera
generalmente como línea que separa los alimentos ácidos de los de baja acidez y que por lo
tanto, requieren tratamientos térmicos por encima de los 100 ºC.

Con estas consideraciones se asume que un tratamiento térmico adecuado es importante


tanto para lograr la inocuidad del alimento como para mantener su valor nutritivo por lo tanto se
debe orientar a buscar las condiciones en las que, con un debido proceso, se logre alcanzar tanto
un adecuado Valor F0, como un adecuado tiempo de cocción (Valor C0); sin embargo a pesar de
lo avanzado de los conocimientos científicos sobre este aspecto en nuestro país hay cierta
reticencia a trabajar con tecnologías que involucren estos aspectos manteniéndose en la
industria conservera parámetros que han sido fijados desde hace mucho tiempo; los mismos que
originan en el pescado enlatado algunas deficiencias de calidad organoléptica tanto en olor y
sabor como en apariencia, llegando en alguna ocasiones a evidenciar olor a humo, tostado y
sobrecocido.

Por estas razones, se ha desarrollado el presente trabajo de investigación con los


objetivos siguientes:
1. Determinar las condiciones de esterilización de conservas de desmenuzado de jurel al
natural en envases tipo tuna media libra, para optimizar los parámetros de trabajo a nivel
industrial en este importante rubro de la industria pesquera nacional
2. Determinar la composición química proximal y el valor nutritivo de la conserva de
desmenuzado de jurel al natural.

II. MATERIALES Y METODOS


2.1. Lugar de ejecución.
493

Las experiencias, se realizaron en las instalaciones de las fábricas de conservas


TUCCHISA SAC. (Trabajadores Unidos Chimbote S.A.C.) y Estrella de David SRL;
ubicadas en la ciudad de Chimbote, desde el mes de mayo hasta diciembre del 2003

2.2 Muestras

Se utilizaron conservas de desmenuzado de jurel al natural en envases tipo tuna


media libra formato 309x 100,5 con carne de Jurel (Trachurus picturatus murphy).

2.3 Equipos

Los equipos de planta se muestran en las Fotos 1 a 6 en las que se puede


identificar algunos de ellos; los mismos que se listan en la relación siguiente:

Equipos de planta:

1. Cocinadotes estáticos con carros y canastillas de alambrón


2. Mesas de fileteado revestidas con acero inoxidable
3. Molinos de martillos de acero inoxidable
4. Marmitas para la preparación de liquido de gobierno
5. Exhaustor de acero inoxidable.
6. Selladora de lata, Marca ÁNGELUS; modelo 75 P, capacidad 60 latas /minuto.
7. Autoclave horizontal.

Equipos de Medición y Control

1. Balanza digital marca Sohenle


2. Vacuómetro, Marca ITEC (0-30 pulg. Hg)
3. Micrómetro, Marca STARRETT.
4. Equipo para fractura de cierres
5. Abrelatas magnético
6. Abridor de latas de acero inoxidable.
7. Termorregistrador con cuatro sensores integrados modelo LM 335. Rango 2 a 150 ºC.
cuyos componente se muestran en la Foto 2
8. Computadora Pentium III.

2.4 Procedimiento:
494

Se trabajo de acuerdo con el diagrama de flujo que se muestra en la figura 1

TUNA

Figura 1 Diagrama de flujo de la producción de conservas de desmenuzado de jurel (TUCCHISA


SAC – CHIMBOTE 2003)
495

Foto 1. Recepción de la materia prima; nótese los especimenes de jurel (Trachyurus


symetricus murphy)

Foto 2. Fase de limpieza y fileteado, en la que se elimina la pie cabeza, escamas y esqueleto.
496

Foto 3. Exhaustor ( 1) y maquina selladora (2) de la Planta de TUCCHISA S.A.C.


497

Foto 4. Detalle de la maquina selladora de la Planta de TUCCHISA S.A.C.; nótese los mandriles de
primera y segunda operación

Foto 5 Autoclave horizontal a vapor de agua en pleno funcionamiento; la flecha señala el punto de
ingreso de los cables de los sensores para medir la penetración del calor

b c

a
498

Foto 6. Componentes del equipo de termorregistro utilizado para la medición y registro del proceso de
esterilización en conservas de desmenuzado de Jurel (a) cables con los sensores electrónicos;
b) Interfase digital; c) computadora personal.

La esterilización; se realizó en un autoclave estático horizontal, la temperatura de

proceso fue de 116 ºC y el tiempo de 70 minutos. Para evaluar el tratamiento térmico se utilizó

un equipo de termorregistro con una interfase entre los sensores y la computadora; en la

interfase hubo un multiplexor que recibe las señales analógicas que dan los sensores modelo

LM335. Se utilizó el software LabView versión 5,0 de la National Instruments con

equipamiento completo, los datos recibidos son enviados al computador y almacenados en una

hoja de cálculo cada minuto (Excel–2000),

2.5 Análisis Bromatológico

Para la determinación de la composición química proximal se utilizaron los métodos

descritos por la AOAC (1997).

- Humedad: Método de la estufa a 105°C, por la AOAC (1997).


- Proteínas Totales: Método micro Kjeldahl, por la AOAC (1997).
- Grasa Total: Método Soxhlet, recomendado por AOAC (1977).
- Cenizas Totales: Método recomendados por AOAC (1997)
- Carbohidratos: Por diferencia.

La determinación del valor nutritivo se hizo utilizando la formula de


Atwater descrita por Vásquez y Reupo (1999)

VN = ((2.4*L) + G) / P

Donde:

VN: Valor nutritivo

L: Porcentaje de Lípidos
499

G: Porcentaje de Carbohidratos

P: porcentaje de Proteínas

2.6 Prueba de esterilidad de la conserva:

Se realizó en el laboratorio de Microbiología de COLECBI SAC,


Chimbote.

El análisis Bacteriológico se realizo en 2 fases:


a. Preincubación de latas con:

a.1 Incubación a 30ºC por 15 días

a.2 Incubación a 55ºC por 10 días

b. Cultivos

b.1 La investigación de Microorganismos aerobios viables a 30 ºC, se


realizó en medio BHI (Brain Heart Infution).

b.2 La investigación de Microorganismos Anaerobios Viables a 30 ºC, se


determinó utilizando el medio de cultivo BHI con cisterna y parafina.

b.3 La investigación de Microorganismos Aerobios Viables a 55 ºC se


realizó con medio de cultivo BHI y almidón soluble al 1%.

b.4 La investigación de Microorganismos Anaerobios Viables a 55 ºC se


realizó con Medio BHI con cisterna y parafina

En todos los casos la incubación duro 48 horas luego de lo cual se


evaluó el crecimiento microbiano. Los procedimientos relatados se ajustaron a
lo prescrito por la Norma Técnica Peruana 204.009 de Marzo de 1986.
500

2.7 Evaluación del tratamiento térmico

Con el registro de datos de tiempo en minutos y temperatura en grados


Celsius, se determinó el valor de F 0 por los métodos de Patashnik, Bigelow et al
y el de la Fórmula de Ball de acuerdo a lo pautado por Mafart (1994), Sikorski
(1994). Los valores de E0 y C0 se determinaron según las ecuaciones
respectivas descritas en Sielaff (2000) y siguiendo a Arteaga (2003).

T 100
C  10 Z
...................................

T
LE  10 100  Z
..........................

2.7.1 Determinación del Valor F0 según el método de Patashnik

En este método para calcular el valor ce Fo, se tomaron los datos de


temperatura superiores a 100°C, hallándose sus respectivas letalidades con la
siguiente fórmula:

LT  10(T 121.1 / 10)

Donde:

T: Temperatura en el punto más frío del alimento

T*: Temperatura de referencia, 121.1°C.

Z: 10°C: Constante de resistencia térmica para Clostridium Botulinum.

La sumatoria de los valores de letalidad (LT) dan el valor de Fo del proceso (Figura 2).
501

120 tem peratura de


referencia para el
100
Temperatura ( °C ) m etodo de Patashnik

80

60 tem peratura en el
punto critico
40

20
tem peratura en
el autoclave
0 el autoclave
0 10 20 30 40 50 60 70 80 90 100 110 120

Tiempo ( min )

Figura 2. Gráfico de las curvas de penetración de calor utilizada para calcular el F o por
el método de Patashnik.

2.7.2 Determinación del Valor F0 por el método de Bigelow et al

Este método gráfico, consiste en transformar la temperatura en tasas


letales estableciendo la curva de letalidad se graficaron en función al tiempo en
papel milimetrado, calculándose posteriormente el área del gráfico.

El área situada por debajo de la curva representa el valor de


esterilización Fo. Para determinarlo se tomó el valor Fo = 1 minuto (5 minutos x
0.2 min-1) de un área conocida.

Teniendo estos datos y el área de la curva, por regla de tres simple se


calculó el valor de Fo.
1. Con los datos de temperatura y tiempo de proceso se determinó las letalidades
para luego graficar la curva de letalidad en función al tiempo.
502

Letalidad (min-1) Tiempo (min)

2. Se determino un área conocida en la gráfica Letalidad y tiempo, de modo tal que el


valor nos pueda dar la unidad, siendo esta igual Fo = 1, y se contó los cm² en el área
conocida.

0.350

0.300

0.250
Letalidad (min-1)

0.200

0.150
Area conocida = 5x0.2 = 1
Fo =1
0.100

0.050

0.000
0 10 20 30 40 50 60 70 80 90 100 110 120 130

Tiempo (min)

3. Se contó los cm² debajo del área problema, es decir el área debajo del gráfico
503

Letalidad (min-1)

Tiempo (min)

4. Por regla de tres simple se determino el valor de Fo del proceso.

2.7.3 Determinación del Valor F0 por el método de Ball

Con los valores de tiempo y temperatura de proceso, se definieron los datos


y con ellos se graficaron en papel semilogarítmico las curvas de calentamiento.

Se determinaron los valores de Fh y Ta.

Con estos valores y los obtenidos del proceso (T 1, T0, Te, Z, tp, tc) se realizaron
los cálculos según el algoritmo (Anexo 1) para determinar el valor de Fo.

1. Con los datos obtenidos durante el proceso se construyo la siguiente tabla.

Temperatura en el Temperatura en el punto


TIEMPO Autoclave critico del contenido T1 - T
( min ) ( °c ) ( °c ) ( °C )

Donde:
T1 = Temperatura del autoclave
T = Temperatura en el punto más frió del alimento

2. En hojas de papel semilogarítmico, se consideró el tiempo en abscisas, y las


temperaturas en la escala logarítmica (ordenada), tal como se muestra en la gráfica
siguiente
504

Tiempo ( min )
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
1

10
Temperatura (°C )

100

1000

3. Se plotearon las temperaturas obtenidas a partir de la diferencia de la temperatura de la


retorta menos la temperatura en el punto más frió del alimento, obteniéndose la curva de
calentamiento.

4. Se trazó una recta con la finalidad de coger la mayoría de puntos, la cual sirvió para
determinar la pendiente y por lo tanto el valor de fh para 1 ciclo logarítmico,
obteniéndose también Ta, y ta (0,58 x cut)

Tiempo ( min )
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
1

10
Temperatura (°C )

100

1000
505

Con los valores obtenidos de la gráfica anterior y con los valores de proceso (T 1, T0, Z;
tp, tc) se realizaron los cálculos según el algoritmo (Anexo 1) para determinar el valor de F 0

2.8 Determinación de los Valores C0 y E0

Para el cálculo del valor C 0, se tomaron los datos de temperatura superiores a 67°C,
registrándose para cada temperatura los valores de Lc, la sumatoria de éstos permitió determinar
el valor de C0 del proceso. Para el cálculo de valor E 0 se consideraron temperaturas superiores a
60 ºC y se aplicaron las fórmulas escritas en el item 2.7. Los resultados fueron ordenados en
cuadros, los mismos que generaron gráficos en la hoja de cálculo Excel para Windows 2000.
506

III. RESULTADOS

3.1 EVALUACION DEL TRATAMIENTO TERMICO


3.1.1 DETERMINACION DEL VALOR F0

Los valores del F0 para las conservas de desmenuzado de jurel al natural tipo tuna media
libra a base de Trachurus picturatus murphy (jurel), variaron desde 13.28 min hasta 16.82 min
determinado por el método de Ball en la planta de TUCCHISA SAC: y desde 18.96 min
calculado según el método de Ball hasta 19.87 min calculado por el método de Bigelow, et al
en la planta de Estrella de David. Los datos se resumen en el cuadro 1 y gráficamente se
muestran en las figuras 3 a 8. La base de datos se adjunta en los anexos 2 y 3.

Cuadro 1. Valores de F0 determinados por los métodos de Patashnik, Bigelow et al y


Ball; para conservas de pescado desmenuzado tipo tuna media libra
esterilizado a 116ºC durante 70 minutos.

PLANTAO MUESTRA F0 (Promedio) según método


Patashnik Bigelow et al Ball

TUCCHISA 1 14.27 14.98 16.82

2 13.28 14.03 15.14

Estrella de David 1 19.70 19.87 19.13

2 18.96 19.23 18.96


507

Figura 3. Curvas de penetración del calor en la esterilización de conservas de


desmenuzado jurel al natural en envases tipo tuna ½ Lb. Fabrica TUCCHISA
SAC

Figura 4. Curvas de letalidad obtenidas de la esterilización de conservas desmenuzado


de jurel al natural en envases tipo tuna ½ Lb. Fabrica TUCCHISA SAC
508

fh = 23.4
PARAMETRO SIMPLE (S-1) SIMPLE (S-2)
fh = 29.4 Z 10 10
tp 70 70
tc 16 16
ta 9.28 9.28
T1 115.82 115.82
fh 23.40 29.40
To 41.15 42.36
Te 20.00 20.00
Ta 95.00 94.00
J 0.28 0.30
Fi 3.38 3.38
B 76.72 76.72
I 74.67 73.46
m+g 95.82 95.82
log(g) -1.960152 -1.270669
f/U
Fo
t0.1 54.25 68.76
ta = 9.28
tu 22.47 7.96
f/U0.1 0.68 0.68
Fo 16.82 15.14

Figura 5. Gráfico de Ball para el calculo del valor F0 de conservas de desmenuzad de jurel al natural en la planta de TUCCHISA SAC, 2003
509

Figura 6. Curvas de penetración del calor en la esterilización de conservas de


desmenuzado jurel al natural en envases tipo tuna ½ Lb. Fabrica Estrella de
David – Chimbote.

Figura 7. Curvas de letalidad obtenidas de la esterilización de conservas desmenuzado de jurel


al natural en envases tipo tuna ½ Lb. Fabrica Estrella de David Chimbote, 2003
510

fh = 22.3 PARAMETRO SIMPLE (S-1) SIMPLE (S-2)


Z 10 10
tp 70 70
fh = 21.5 tc 15 15
ta 8.7 8.7
T1 116.27 116.27
fh 21.50 22.30
To 50.51 40.85
Te 20.00 20.00
Ta 96.00 96.30
J 0.31 0.26
Fi 3.05 3.05
B 76.3 76.3
I 65.76 75.42
m+g 96.27 96.27
log(g) -2.241983 -2.121147
f/U
Fo
t0.1 49.60 51.30
tu 26.70 25.00
ta
f/U0.1 0.68 0.68
Fo 19.13 18.96

Figura 8. Gráfico de Ball para el cálculo del Valor Fo en conservas de desmenuzado de jurel al natural en Estrella de David, Chimbote- 2003
511

3.1.2 Determinación del Valor C0

Los valores C0 para conservas desmenuzado tipo tuna media libra a base de
Trachurus picturatus murphy (jurel), variaron desde 192.92 min hasta 204.44 min en la
planta de TUCCHISA SAC: y desde 231.15 hasta 235.46 min, en la planta de Estrella de
David. Los datos se resumen en el cuadro 2.

Cuadro 2. Valores de C0 determinados por el método aditivo en Sielaff( 2000)


para conservas de pescado desmenuzado tipo tuna media libra
esterilizado a 116ºC durante 70 minutos.

Co

PLANTA MUESTRA (Promedio)

TUCCHISA SAC 1 204.44

2 192.92

Estrella de David 1 235.46

2 231.15

3.1.3 Determinación del Valor E0

Los valores E0 para las conservas de pescado desmenuzado tipo tuna media libra,
variaron desde 216.89 min hasta 228.06 min en la planta de TUCCHISA SAC: y desde
263.74 hasta 269.74 min, en la planta de Estrella de David. Los datos se resumen en el
cuadro 3.

La base de datos para el cálculo de Valor C0 y E0 se adjunta en los anexo 4 y 5

Cuadro 3. Valores de E0 determinados por el método


aditivo en Sielaff (2000) para conservas de
512

pescado desmenuzado tipo tuna media libra


esterilizado a 116ºC durante 70 minutos
Eo
PLANTA MUESTRA (Promedio)

TUCCHISA 1 228.06

2 216.89

Estrella de David 1 269.02

2 263.74

Evaluación de la esterilidad de las conservas


Desde el punto de vista microbiológico, todos los productos fueron
considerados comercialmente estériles pues en las dos fases del ensayo no hubo
desarrollo ni presencia de microorganismos aerobios o anaerobios viables tanto
mesófilos como termófilos;

3.3 Determinación de la composición química proximal y el valor nutritivo


La composición química proximal promedio de las conservas de desmenuzado
de jurel al natural esterilizado a 116 ºC por 70 minutos en envases tuna media libra
así como el valor nutritivo se muestran en el cuadro 4.
Cuadro 4. Composición química proximal y valor nutritivo de conservas de
desmenuzado de jurel esterilizadas a 116 ºC por 70 minutos en dos
empresas conserveras de Chimbote- 2003.

EMPRES TUCCHISA SAC ESTRELLA DE


A (PROMEDIO) DAVID
COMPONENTES (PROMEDIO)

Humedad % 67.94 69.18


Proteínas % 22.86 23.32
Grasas % 5.52 4.54
513

Sales minerales % 3.68 2.96


TOTAL % 100 100
VALOR NUTRITIVO 0.58 0.47

IV. DISCUSION

Los valores F0 con cifras mayores a 13.28 min hasta 19.87 minutos para las
conservas de pescado desmenuzado de jurel al natural tipo tuna media libra, nos
aseguraría una esterilidad comercial para este producto; sin embargo, consideramos
que es muy elevado el dispendio en tiempo lo que incidiría en la disminución de la
calidad del producto, y elevarían los costos en proceso, por excesivo gasto en
combustible, mano de obra y ottras sustancias tales como el agua para el proceso
industrial.

Las diferencias entre ambas plantas, las atribuimos a la eficiencia en el


procesamiento térmico, lo que incidió en la determinación final del valor F0. Es el
caso de la Planta de Estrella de David que en la época de ejecución del presente
estudio estaba equipado con autoclaves con mejores equipos de trabajo y control. Los
valores determinados en ambos casos; se ajustan a las consideraciones pragmáticas
propias de los industriales conserveros peruanos; quienes anteponen la seguridad para
lograr la inocuidad de los productos en desmedro de la calidad organoléptica.

Los valores determinados, se enmarcan en los criterios de Footit y Lewis


(1999); quienes mencionan que, por convención entre las autoridades mundiales en el
campo del tratamiento térmico, es costumbre procesar los alimentos de bajo nivel
ácido hasta un Valor F0 para Clostridium botulinum igual o mayor que 3 referidos
con un valor D121.1 de 0.25; sin embargo, los elevados valores calculados se deberían a
parámetros que asegurarían una adecuada calidad microbiológica. Sobre este
aspecto, Hall (2001) indica que los valores de F 0 deberían estar en el rango desde 6
hasta 14, pues, éstos son mas frecuentemente usados por los conserveros para dar un
514

margen de seguridad adicional con el fin de compensar la poca precisión en la


medición de la temperatura. Al respecto, Sikorski (1994) menciona que en la elección
del proceso de esterilización por calor, la industria conservera emplea Valor F0 = 3
minutos para evitar riesgos de salud pública y F0 = 5 a 7 minutos para la prevención
del deterioro por esporas mesófilas. En la prevención contra esporas termófilas se
utiliza un F0 = 5 a 7 minutos cuando los artículos enlatados se almacenan por debajo
de 30ºC o un F0 = desde 15 hasta 21 minutos, si los productos enlatados se depositan
a temperatura mas altas.

Casp y Abril (1999) mencionan que el factor más importante de los que condicionan
la penetración del calor en los productos, es su naturaleza, que es la que en última instancia
va a determinar el mecanismo de transmisión de calor que va a producir el calentamiento.
Desde esta perspectiva, el pescado demenuzado envasado en conserva se podría enmarcar en
el tipo de productos: “líquidos que contengan en su seno sólidos de pequeño tamaño”, de
forma que la penetración de calor viene determinada en gran medida por la movilidad del
líquido. La temperatura de los sólidos puede considerarse la misma que la del líquido que los
rodea. Los mismos autores, indican que la intensidad del tiempo de tratamiento es uno de los
factores que incrementan el valor de F 0. Para la explicación de los resultados de valores F o
elevados; desde nuestra perspectiva, es que por la naturaleza y características del
desmenuzado de pescado con el líquido de gobierno constituido básicamente por salmuera,
implicaría un proceso de calentamiento en dos fases; primero por convección en la parte
líquida y posteriormente por conducción en los componentes sólidos.

Consideramos pertinente mencionar aquí los criterios de Footit y Lewis


(1999) quienes señalan que la eficacia relativa de un determinado tratamiento
térmico, con el fin de alcanzar la esterilidad comercial, depende de factores tales
como: la población microbiana inicial en el alimento; el tiempo y la temperatura del
proceso de esterilización y otros relacionados con la naturaleza del producto que
determinan realmente el proceso de calentamiento que ocurre dentro de la lata.
Indican, asimismo que para productos cuyo pH es mayor a 4.5, los de la categoría de
515

baja acidez, por la posibilidad de potencial crecimiento de microorganismos


patógenos termorresistentes esporulados, se requiere un tratamiento térmico severo
que asegure la destrucción microbiana con una temperatura de proceso que debe estar
en el rango de 115 a 130 ºC. Por otra parte, Rees y Bettison (1994) señalan que la
esterilidad absoluta es inalcanzable; que el tratamiento térmico consiste simplemente
en reducir la probabilidad de supervivencia.

En términos prácticos, sin embargo, es posible reducir la probabilidad de


supervivencia hasta un grado en el que el producto pueda ser considerado como
“estéril” y que la intensidad del tratamiento térmico que recibe un alimento depende
de la composición y de las características físicas del producto y es el resultado de una
combinación de tiempo y temperatura.

En relación con los valores C0 determinados, en todos los casos, son elevados
y superan los considerados por Hahn y Eisner (1981) quienes definieron un valor C 0
= 200 para la esterilización en autoclaves estáticos; posiblemente se haya originado
deterioro en la calidad de los componentes, tal como lo sugieren Rees y Bettison
(1994), quienes indican que el tratamiento térmico provoca por sí mismo un efecto
importante sobre la calidad de un alimento y es responsable de diversos cambios que
se generan en las proteínas estructurales. Al respecto, Sielaff (2000), señala que el
efecto adverso del tratamiento térmico, se puede manifestar en la destrucción de
vitaminas (B1; y C) y/o pérdida de color, alteraciones por fermentación térmica y/o
variaciones organolépticas. Como todo esto involucra procesos de cocción, conlleva
toda una serie de cambios físicos y bioquímicas; los que van desde cambios químicos
concretos, como la inactivación de un enzima o la destrucción de la tiamina, hasta
cambios perceptibles subjetivamente de color, aroma y textura (Hall, 2001).

En todos los casos, los valores E0 son mayores a los mínimos requeridos; E0=
144 para el tipo de esterilización estática, reportado por Reichert (1981), para
516

productos similares. Con ello se lograría la total inactivación de enzimas


termoresistentes causantes de deterioro en los alimentos tal como lo considera Sielaff
(2000). Es conveniente resaltar y relacionar en este punto la opinión de Fellows
(1994), quien indica que los alimentos deben ser esterilizados a temperaturas y
tiempos suficientes para lograr destruir en los mismos, tanto la actividad la actividad
microbiana como enzimática a fin de alargar el tiempo de vida útil del producto.

La composición química proximal promedio de las conservas de desmenuzado


de jurel al natural en lo relacionado con la variación en su contenido humedad; desde
67.94% hasta 69.18 %; de las proteínas desde 22.86% hasta 23.32 %; grasas desde
4.54 % hasta 5.52% y sales minerales desde 2.96% hasta 3.68% muestran que en
ambos casos no hay diferencia significativa (p< 0.05) entre productos obtenidos de
las dos empresas en las que se evaluó el tratamiento térmico, sin embargo no hay
datos que reporten la influencia de estos parámetros en la composición cuantitativa de
las biomoléculas presentes en el alimento; sin embargo los resultados son similares a
los reportados por el IMARPE-ITP (1996) y los referidos por González y Guevara
(2002).

A juzgar por los resultados de las cantidades de proteínas y lípidos así como
por la ausencia de carbohidratos, podemos afirmar que son productos con un elevado
valor nutritivo pues son menores a 3,80 lo que indica que son alimentos ricos en
elementos plásticos como las proteínas; por lo que su ingesta por el ser humano debe
ser estimulada., ello concuerdo con lo sugerido tanto por Vásquez y Reupo (1999)
como por lo reportado por Silva (1997).
517

V. CONCLUSIONES

1. Los valores del F0 para las conservas de desmenuzado de jurel tipo tuna media
libra, variaron desde 13.28 hasta 16.82 determinado por el método de Ball en la planta de
TUCCHISA SAC y desde 18.96 calculado según el método de Ball hasta 19.87 calculado por
el método de Bigelow et al, en la planta de Estrella de David. En ambos casos los valores
son superiores al mínimo Valor F0 de 3 requerido para productos pesqueros esterilizados.

2. Los valores Co (192.92) y Eo (216.89), son significativamente mayores a los


requeridos para este tipo de productos expuestos al tipo de esterilización estática

3. La composición química proximal de las conservas de desmenuzado de


jurel al natural en envases tipo tuna media libra producidas por la empresas
518

TUCCHISA SAC y ESTRELLA DE DAVID ubicadas en Chimbote por su contenido


proteico de 22.86% permite catalogarlos como alimentos con un elevado valor
nutritivo

VI. REFERENCIAS BIBLIOGRAFICAS

ASSOCIATION OF ANALYTICAL CHEMISTS, 1997. Official Methods of Analysis of the


Association of the official Agricultural Chemists. 16th. Edition. USA.

ARTEAGA, F. 2003. Evaluación del tratamiento térmico del enlatado de trucha arco iris
(Oncorhynchus mykiss) ahumada, utilizando tres líquidos de gobierno. Tesis
Ingeniero en Industrias Alimentarias. UPAO, Trujillo. Mimeo vs. pgs.

CASP, A. y J. ABRIL. 1999. Procesos de conservación de alimentos. Mundi Prensa. Madrid,


España.

CHEFTEL, J. y H. CHEFTEL. 1983. Introducción a la bioquímica y tecnología de


los alimentos. Vol I,. Zaragoza. Acribia.

FELLOWS, P. 1994. Tecnología del procesado de los alimentos. Editorial Acribia. Zaragoza
– España.

FOOTITT, R. y A. LEWIS. 1999. Enlatado de pescado y carne. Editorial Acribia. Zaragoza–


España. p: 147-190.

GONZALEZ, M. y M. GUEVARA. 2002. Análisis Bromatológico y Recuento Bacteriano de


Anaerobios Mesófilos Viables en conservas de grated de sardina. Tesis Lic. Microbiología y
Parasitología. FCCBB. UNPRG, Lambayeque. Mimeo vs. pgs.

HALL, G. 2001. Tecnología del procesado del pescado. Zaragoza. Acribia.

HAHN, G. y M. EISNER. 1981. Koordinierte Technologie zur Erhaltung der Qualitat. Stock
GMBH. Neumuenster, mimeo. vs. pgs.

INSTITUTO DEL MAR DEL PERU - INSTITUTO TECNOLOGICO PESQUERO. 1996.


Compendio biológico tecnológico de las principales especies hidrobiológicas
comerciales del Perú, Stella, Lima.

MAFART P. 1994. Ingeniería Alimentaria Vol. I. Procesos físicos de conservación. Editorial


Acribia Zaragoza. España.
519

REES A. y J. BETTISON. 1994. Procesado térmico y envasado de alimentos. Editorial


Acribia. Zaragoza – España.

SIELAFF, H. 2000. Tecnología de la fabricación de conservas, Zaragoza. Acribia.

SIKORSKI, Z. 1994. Tecnología de Los Productos del Mar. Recursos Composición y


Conservación, Zaragoza. Acribia.

SILVA. L, J. 1979. Bromatología Analítica, Especialidad Pesquera. Departamento de


Bromatología Facultad de farmacia y Bioquímica. Universidad Nacional de Trujillo.
Mimeo Vs pgs.

VASQUEZ, A. y J, REUPO. 1999. Bromatología Analítica, Manual de Prácticas, Lambayeque,


UNPRG. Mimeo. vs. Pgs.
520

ANEXO No.1

OBTENCIÓN DE LA MUESTRA

Fórmula: no = (z2.p.q) / d2

reajustándo si : no / N > 0.10, con no = no / (1 + no/N) Donde :

no = Primera aproximación del tamaño muestral

z= valor tabular de acuerdo al nivel de confianza

p= proporción o tasa de prevalencia

q= 1-p

d= Nivel de precisión

N= Tamaño del universo muestral.

Para un 95% de confianza, 10% de precisión y 22% de proporción,

obtenemos:

no = (1.96)2 x (0.22)(0.78) / (0.1)2 = 65.92

Reajustándo a:

no = 66/ (1 + 66.1 /366) =56


521

UNIVERSIDAD PRIVADA ANTENOR ORREGO


FACULTAD DE CIENCIAS AGRARIAS

ESCUELA PROFESIONAL DE INGENIERIA EN INDUSTRIAS ALIMENTARIAS

INFLUENCIA DE TRES PROPORCIONES TRIGO


(Triticum aestivum, var. estaquilla) - TOCINO Y TRES
TIEMPOS DE ESTERILIZACION EN LA COMPOSICION
QUIMICA PROXIMAL Y ACEPTABILIDAD GENERAL DE
SHAMBAR ENLATADO

TESIS
PARA OPTAR ÉL TITULO DE

INGENIERO EN INDUSTRIAS ALIMENTARIAS


522

SILVANA MARIVEL VILLANUEVA CATALAN


TRUJILLO - PERU

2004
523

La presente tesis ha sido aprobada por el siguiente Jurado:

Dr. ANTONIO RICARDO RODRÍGUEZ ZEVALLOS

PRESIDENTE

Ing. MSc. VICTOR VASQUEZ VILLALOBOS

SECRETARIO

Ing. MARIA ELENA LEON MARROU


VOCAL

M.Sc. ANTERO CELSO VÁSQUEZ GARCÍA


ASESOR
524

DEDICATORIA

CON CARIÑO Y ETERNA GRATITUD A MI


QUERIDA MADRE MARIA FLOR POR SU
INVALORABLE APOYO Y ESTIMULO
CONSTANTE A LO LARGO DE MI VIDA .

A MIS HERMANOS:
PABLO y GIANINA
COMO MUESTRA DE AFECTO
Y SINCERO CARIÑO
525
AGRADECIMIENTO

A DIOS POR SU INMENSA BONDAD QUE GUIO MIS PASOS HACIA LA


CULMINACION DE MI CARRERA

AGRADEZCO DE FORMA MUY ESPECIAL A MI ASESOR MSc. ANTERO


CELSO VÁSQUEZ GARCÍA, POR SU APOYO CONSTANTE; ORIENTACION
OPORTUNA, Y SUGERENCIAS PARA EL DESARROLLO DE LA PRESENTE
TESIS.

ASÍ MISMO AGRADEZCO A MIS PROFESORES DE LA ESCUELA


PROFESIONAL DE INGENIERIA EN INDUSTRIAS ALIMENTARIAS, POR SUS
ENSEÑANZAS Y CONSEJOS PROPORCIONADOS DURANTE MI
FORMACIÓN ACADÉMICA A LO LARGO DE NUESTRA CARRERA
UNIVERSITARIA.

DE IGUAL FORMA AGRADEZCO AL ING. SEGUNDO RUIZ BENITES,


DECANO DE LA FACULTAD DE INGENIERÍA QUÍMICA DE LA
UNIVERSIDAD NACIONAL DE TRUJILLO.

GRATITUD SINGULAR A LA ING. YANETT SUAREZ MONTALVO Y AL


SEÑOR MARTÍN ALDANA DE LA EPIIA UPAO POR SU APOYO EN LOS
ANÁLISIS FÍSICOS QUÍMICOS; AL ING. FERNANDO ARTEAGA REYES Y AL
BR. CARLOS ALVARADO ALCÁNTARA POR SU APOYO EN LAS
MEDICIONES EN EL TRATAMIENTO TÉRMICO.

A MI AMIGA CAROLL PONCE CARRANZA Y A LOS DEMÁS COMPAÑEROS


DE ESTUDIOS DE LA ESCUELA DE INGENIERÍA EN INDUSTRIAS

A LOS SEÑORES MIEMBROS DEL JURADO: DR. ANTORNIO RODRÍGUEZ


ZEVALLOS; ING. MSC VICTOR VASQUEZ VILLALOLOBOS E ING. MARIA
LEON MARROU POR SUS VALIOSAS SUGERENCIAS PARA LA REDACCIÓN
FINAL DEL INFORME
A TODOS ELLOS MUCHAS GRACIAS
527

RESUMEN
En latas tipo Tall 1Lb, se envasaron trigo:tocino en
proporciones 2:1; 3:1; 4:1; posteriormente
esterilizados a 117ºC durante 70, 80 y 90 minutos,
manteniendo constantes las cantidades de habas, arveja,
garbanzo, ingredientes, saborizantes y salmuera al 3%.
La medición de la temperatura en el autoclave y en el
punto más frío del contenido se realizó con sensores
modelo LM 335 utilizando el programa computacional
LabVIEW 5,0 de la National Instruments.
El menor valor F0: 25.25 minutos para el shambar
enlatado determinado en este estudio y los estimados en
los otros tratamientos; superan al mínimo requerido
(F0=3 min) y microbiológicamente el producto resulto
comercialmente estéril.
Como producto terminado, el shambar enlatado en
proporción 2:1 trigo-tocino; esterilizado a 117 ºC por
70 minutos, tuvo mayor aceptabilidad general y su
composición química proximal fue: 19.65% de humedad;
23.25% de proteínas; 12.72 % de grasas; 1.78 % de
cenizas y 42.60% de carbohidratos.

ABSTRACT
In cans type Tall 1Lb, they were packed wheat-bacon in
proportions: 2:1; 3:1; 4:1; later sterilized at 117ºC
during 70, 80 and 90 minutes, maintaining constant the
quantities of beans, pea, chickpea, ingredients,
saborizantes and brine to 3%. The mensuration of the
temperature in the autoclave and in the coldest point
in the content was carried out with model sensors LM
335 using the software LabVIEW 5,0 of the National
Instruments.
The smallest value F0: 25.25 minutes for the canned
shambar determined in this study and the dear ones in
the other treatments; they overcome to the required
minimum (F0=3 min) and microbiologically the product
were commercially sterile.
As finished product, the shambar canned in proportion
2:1 wheat-bacon; sterilized to 117 ºC by 70 minutes,
had bigger general acceptability and their chemical
proximal composition was: 19.65% of humidity; 23.25% of
proteins; 12.72% of fatty; 1.78% of ashy and 42.60% of
carbohydrates.
528

I. INTRODUCCIÓN
Los cereales y legumbres son valiosos alimentos que nos
proveen de proteínas, carbohidratos, fibra, vitaminas y
minerales, por lo que es indispensable incorporarlos en la
dieta diaria. La combinación de cereales y legumbres
favorece un mayor aprovechamiento de las proteínas y además
garantiza la presencia de aminoácidos esenciales.
La carne de cerdo es excelente fuente de lípidos, los que
desempeñan un papel importante en la alimentación; su
función nutricional básica se debe a su aporte energético,
ácidos grasos esenciales y vitaminas liposolubles, unidas a
características organolépticas tales como textura, sabor de
los alimentos y aplicaciones culinarias.
El trigo es el más importante de los cereales, constituye la
mayor cosecha del mundo; se refiere que en 1999, constituyó
el 31 % de la producción cerealista (Callejo, 2002). En el
Perú el cultivo es mas abundante en la sierra; en el
departamento de La Libertad, las zonas de producción son:
Santiago de Chuco, Otuzco, Julcan, Pataz, Gran Chimú,
Sánchez Carrión; entre las principales variedades se citan
el florencio, nariño, amapola, imperial, elmiro, estaquilla,
ollantay, montano, zapata, bayo, azul, verti, niño. El de
variedad estaquilla procede mayormente de la provincia de
Santiago de Chuco, una planta que se adapta a todo tipo de
terreno y a diferentes climas (Ministerio de Agricultura,
2002).
Para el poblador de la sierra, es un alimento indispensable
consumido en diferentes formas, tales como molido, tostado,
cocinado tipo “mote” y pelado o resbalado para shambar; en
la ciudad de Trujillo constituye un plato típico que se
consume con otros componentes en forma de shambar,
especialmente los días Lunes.
529

Bailón (1994), reportó las condiciones de procesamiento del


enlatado de olluco con charqui, plato tradicional de la
zonas centro y sur de la sierra peruana.
Ello motivo a realizar estudios para el procesamiento de
shambar como plato tradicional en forma de enlatado, listo
para su consumo y de esta manera alargar el tiempo de vida
de almacenaje de este alimento como fuente de nutrientes. La
conservación de shambar enlatado, abre la posibilidad de
presentar un alimento energético, con un mayor
aprovechamiento de las proteínas animales y vegetales, con
presencia de aminoácidos esenciales y vitaminas
liposolubles.
Frente a esta situación problemática se plantea el problema
científico en los términos siguientes:¿Cuál será la
influencia de tres proporciones trigo - tocino
y tres tiempos de esterilización en la composición química
proximal y aceptabilidad general de shambar enlatado?.
El presente trabajo de investigación tiene los siguientes
objetivos.
- Determinar los valores de F0 utilizando los métodos
de Bigelow (1920); Patashnik(1953) y el de la fórmula
de Ball(1923) que permitan definir la esterilización
comercial en el producto
- Evaluar la influencia de tres proporciones trigo–
tocino y tres tiempos de esterilización en la
aceptabilidad general de shambar enlatado
- Determinar la composición química proximal del
Shambar enlatado obtenido con el mejor tratamiento
térmico.
530

II. REVISIÓN DE LITERATURA

MATERIA PRIMA
LOS CEREALES Y LEGUMBRES
Los cereales son especies vegetales pertenecientes a la
familia de las gramíneas; genera frutos secos con una sola
semilla.
Se designa con el nombre de trigo a especies del género
Triticum aestivum L., el de la variedad estaquilla, se
caracteriza por tener grano largo; forma cilíndrica de 6 a 9
mm de largo y 3 a 5 mm de ancho; su color característico es
amarillo bajo y pesa 1.64 gramos
El trigo constituye la mayor cosecha del mundo; crece en
todas partes, con excepción de las regiones créticas. El 33%
de todos los cereales cosechados es de trigo, el 26% es de
maíz y el 13% corresponde a la cebada y el arroz, según
Manley (1983), citado por Chang (1995).
Las leguminosas son plantas con flores que al fructificar
producen vainas que contienen semillas, pertenecen a la
familia de las leguminoseae, tienen un contenido de
proteínas considerablemente mayor que los granos de cereales
(Potter, 1999).
2.1.2. CARACTERISTICAS DEL TRIGO
El grano de trigo o cariópside, tiene una forma de nuez
alargada, que contiene en su interior una semilla de 6 a 8
mm de largo y 3 a 4 mm de ancho. Su examen revela; una cara
dorsal mas o menos convexa; una cara ventral con un surco
profundo; en su parte superior, cortos pelos que forman el
cepillo; en su parte inferior, visible sobre la cara dorsal
del germen.
El color de los trigos varia del rubio al blanco; el peso
de 1 000 granos varía de 35 a 55 gramos según Calvel 1975,
citado por Chang (1995).
Algunos trigos son de color rojo (aunque también pueden
ser púrpura), dependiendo del pigmento presente en la
cubierta de la semilla.
Cariópside del trigo, la cubierta del grano del trigo
está compuesta por 5 capas; las 3 primeras constituyen el
salvado que se separa del resto durante la molturación.
La cubierta o pericarpio rodea toda la semilla, esta
constituida por varias capas de células que reciben el
nombre de intermedia, cruzada y tubular, situadas debajo del
epicarpio, es decir, que mientras este último es el mas
externo, la capa de células tubulares es la mas interna del
pericarpio.
El epicarpio o epidermis esta compuesto de células que
recubren toda la superficie del grano; mientras que el
endocarpio o células cruzadas están dispuestos en forma
transversal.
531

Las células intermedias son muy similares a las células


del pericarpio; pero están más ocultas y dispuestas en una o
dos filas estrechamente adheridas al epicarpio.

Las células tubulares forman la última capa del pericarpio,


están dispuestos en capas discontinuas, es decir, que entre
dos células, existe espacios vacíos (Chang, 1995).

Hoseney (1991), sostiene que la cubierta, está unida


firmemente a las células tubulares por su lado exterior y a
la epidermis nuclear por el interior.

La cubierta está compuesta por tres capas: una cutícula


exterior gruesa, una capa pigmentada y una cutícula interior
fina.

La semilla está constituida por el embrión o germen y el


endospermo, encerrados dentro de una epidermis nuclear. El
espermodermo o testa de estructura muy fina, constituye la
verdadera envoltura del grano; sirve de protección a la
propia semilla. Esta constituido por dos capas de células
alargadas, la primera y la segunda se encuentran formando un
ángulo recto. En esta capa se encuentra el pigmento que da
color al trigo, que es el Betacaroteno o provitamina A
(Chang, 1995).

El endospermo es la parte más importante del grano, está


constituido por dos partes, la capa de aleurona y el
endospermo amiláceo.

Las células que constituyen la capa de aleurona son


monoestratificadas, están dispuestas como losas de un
pavimento; vistas desde la parte superior, tienen apariencia
rectangular, vistas en sección transversal son cuadradas.
Las células de aleurona tiene la pared celular gruesa, su
forma es esencialmente cúbica y carecen de almidón. El
grosor medio de las células es de unas 50, micras y las
paredes celulares de 3 a 4 micras de espesor (Hoseney,
1991).

El endospermo amiláceo esta constituido por células


poliédricas alargadas cuyas dimensiones son diferentes en
relación a la variedad del granulo.

El germen o embrión, se sitúa en la base de la semilla, en


la parte opuesta a la barbilla y constituye el aparato
germinativo del grano. Esta compuesto por dos partes
principales: el eje embrionario (raíz y tallo rudimentarios)
y el escutelo que tiene el papel de almacén. El escutelo
532

esta constituido por una capa epitelial, formada por células


cilíndricas (Chang, 1995).

Fuente: Instituto de la Harina, Chicago, en Callejo


(2002)

Figura 1. Cortes longitudinal y transversal de un grano


de trigo

2.1.3. CARACTERISTICAS DE LA CARNE DE CERDO

La carne de cerdo es excelente fuente de lípidos; sustancias


alimenticias con un elevado valor energético (8,5 cal/g)
(Desrosier, 1999).
533

Nutricionalmente, la carne de cerdo, aporta de 18 a 20


gramos de proteína por 100 gramos de producto, contiene
ácidos grasos esenciales y vitaminas liposolubles, unidas a
características organolépticas tales como textura y sabor de
los alimentos.

El tocino, producto a base de carne de cerdo; es la carne de


cerdo que conserva su piel y grasa, sometida a curado,
secado y ahumado (DL 17505 del 18 de marzo de 1969).

2.1.4 DEFINICION DE SHAMBAR

Se define como una sopa espesa de legumbres, cereal y carne


de cerdo. Es una sopa elaborada a base de trigo pelado,
mezclado con habas, garbanzos, arvejas y otras menestras.
Cuando todo esta cocido se incorpora carne de chancho; se
mezcla luego con un aderezo en base a cebollas picadas con
ají colorado frito en aceite. Al servir se le agrega el
culantro picado (INEI, 2002).

Collazos, et al (1993) reporta la composición química de los


ingredientes del shambar, como se muestra en el cuadro 1.
534

Cuadro 1: Composición química de los ingredientes del shambar

ALIMENTO COMPOSICIÓN POR 100 GRAMOS DE PORCIÓN COMESTIBLE


NOMBRE Energí Agua Proteín Grasas Carbohid Ceniz Fibra Calcio Fósforo Hierr Tiamin Riboflavi Niacina Ácido
a (Cal) (g) as (g) (g) ratos (g) a (g) (g) (mg) (mg) o a (mg) na (mg) (mg) Ascórbi
(mg) co (mg)
336.00 14.50 8.60 1.50 73.70 1.70 3.00 36.00 224.00 4.60 0.30 0.08 2.85 4.80
Trigo
Tocino 490.00 32.80 13.50 47.90 --- 5.00 --- 26.00 70.00 1.20 0.24 0.12 2.00 1.90

Arvejas secas 351.00 11.50 21.70 3.20 61.10 2.50 4.50 65.00 289.00 2.60 0.25 0.15 3.43 3.50

Habas secas con 340.00 11.50 23.80 1.50 60.20 3.10 6.40 197.00 143.00 12.80 0.39 0.30 4.00 8.60
cáscara cruda

Garbanzo crudo 362.00 11.40 19.20 6.10 60.10 3.20 2.60 120.00 370.00 8.30 0.38 0.38 2.80 5.40

Fuente: Collazos, et. al (1993)


535

2.2 METODOS DE EVALUACION DE TRATAMIENTO TERMICO


2.2.1 METODOS GENERALES:
Son métodos más exactos para estimar los valores de
esterilización dado que las temperaturas de los alimentos,
(las cuales son normalmente determinadas experimentalmente).
Son usadas directamente para calcular estos valores sin
ninguna asunción sobre el tiempo de esterilización del
alimento. El valor F del tratamiento por el calor se obtiene
utilizando métodos gráficos o números de integración para
resolver la siguiente ecuación:
F   L * dt.....................(15)
Dentro de los métodos generales se incluyen tanto al método
de Bigelow como el de Patashnik.

2.2.1.1 METODO DE BIGELOW (1920)


Primer método reportado por Bigelow et al (1920), es un
método gráfico de cálculo del valor de esterilización, F; se
transforma la temperatura en tasas letales, estableciendo la
curva de letalidad. El área situada por debajo de la curva
representa el valor de esterilización, con una temperatura de
referencia. El área puede medirse utilizando el planímetro y
convertirse en el valor F empleando el área del diagrama
(Mafart, 1994).

2.2.1.2 METODO DE PATASHNIK (1953)


Describe un método numérico de medida del área ubicada
debajo de la curva de letalidad aplicando la regla
trapezoidal. El área se divide mediante líneas paralelas
separadas por espacios iguales, con un intervalo de tiempo de
1 minuto (T) entre cada dos cuerdas, se toma en cuenta las
temperaturas mayores a 100°C.
La tasa de destrucción del Clostridium botulinum se puede
calcular en la siguiente formula:
LT = 10((T-T*)/Z) (16)
Donde:
T* = 121.1°C
T = Temperatura en el punto mas frío
Z = 10°C
Las sumatorias parciales de los valores de L T dará el valor
F0 del proceso, como se aprecia en la fórmula siguiente
(Sikorski, 1994).
Fo  TLT

2.2.2 METODO MATEMATICO

2.2.2.1 METODO DE BALL (1923)


El método matemático de Ball o de la fórmula puede emplearse
eficazmente tanto en proyectar como en evaluar procesos de
esterilización. También resulta de mucha utilidad para
calcular el tiempo de procesado o el valor de la
esterilización, F0, cuando varían algunos parámetros del
proceso, tales como la temperatura del autoclave, la
temperatura inicial del producto o las dimensiones del
recipiente.
536

El método de fórmula de Ball, fue el primer modelo


matemático desarrollado, siendo todavía en la actualidad el
método mas utilizado.
Con posterioridad, Ball perfecciono el método introduciendo
la tasa letal teórica igual a 1 minuto con una temperatura de
referencia de 121.1°C y propuso calcular la tasa letal
utilizando esta temperatura de referencia (Sielaff, 2000).
Los datos tiempo – temperatura se incluyen como un parámetro
de respuesta térmica, F y factor lag, j, que se obtiene
mediante el análisis de curvas de calentamiento y
enfriamiento. La ecuación de la curva de calentamiento
semilogaritmica recta puede expresarse así:
B  Fhx log Jh(TR  Ti )  log g 
Donde:
B = Tiempo Ball o tiempo obtenido de procesado que
incluye la contribución del 42% del CUT.
Fh = El tiempo en minutos para que la curva semilogaritmica
del calentamiento atraviese un ciclo logarítmico.
T1  Ta
Jh = factor de retraso del calentamiento.
T1  To
To = Temperatura inicial del producto.
T1 = Temperatura del autoclave (caldera).
Ta = Temperatura seudoinicial: intersección en B = O de la
prolongación de la porción lineal de la curva de semilog de
calentamiento.
El valor de esterilización del proceso Fo, se calcula
utilizando la siguiente fórmula:
fh
Fo 
fh
* Fi
U
Tal como lo describe Sikorski (1994)

Los métodos de la fórmula están basados en valores de


letalidad tabulados expresados como fh/U como se muestra en el
algoritmo del anexo 1. Estos valores fueron previamente
calculados para varias condiciones de calentamiento y
enfriamiento cuando la diferencia de temperatura alcanzada al
final del proceso es expresada como el parámetro G (Toledo,
1999 citado por Obregón 2001).

En el anexo 1 se muestra el algoritmo para determinar el


valor de Fo para curvas de calentamiento simple.
La aplicación del tratamiento térmico para la destrucción de
microorganismos y la conservación de alimentos es un principio
bien establecido. La intensidad del tratamiento térmico que
recibe un alimento depende de la composición y de las
características físicas del producto es una combinación de
tiempo y temperatura.
Los cambios físico – químicos que tienen lugar durante el
procesado y el almacenamiento son, por consiguiente, los
factores que determinan la calidad del producto en términos,
tanto de propiedades sensoriales como de aporte de nutrientes
al consumidor. Las reacciones se producen durante el propio
537

proceso y en el almacenamiento posterior. En los alimentos


conservados mediante el calor se producen reacciones tanto
físicas como químicas, que influyen sobre el valor nutritivo.
Factores físicos como pérdidas de nutrientes solubles, o
lixiviación, pueden ser importantes en productos en los que
existe un líquido que debe ser eliminado antes del consumo.
Las reacciones químicas influyen la alteración química de
nutrientes hábiles tales como las vitaminas.
La optimización de las técnicas de esterilización orienta a
conseguir la máxima retención posible de los componentes
nutritivos del alimento. Así lo esta exigiendo el mayor nivel
de vida y mejor información de los consumidores.
En el cuadro 2 se muestra el efecto del calor sobre las
características nutritivas y sensoriales (Rees y Bettison
1994).

CUADRO 2: EFECTO DEL TRATAMIENTO TERMICO SOBRE LOS NUTRIENTES Y


LA CALIDAD SENSORIAL DE LOS ALIMENTOS
Materia seca Pérdida de sólidos totales en el liquido
Dilución
Deshidratación
Proteína Inactivación enzimática
Pérdida de algunos aminoácidos esenciales
Pérdida de digestibilidad
Mejora de digestibilidad
Gelatinización del almidón y aumento de
Carbohidratos la digestibilidad
sin cambio aparente en el contenido de
carbohidratos
Generalmente sin pérdida de valor
Fibra de la dieta fisiológico
Conversión de ácidos grasos cis en trans
Lípidos por oxidación
pérdida de actividad de ácidos grasos
esenciales
Vitaminas Elevadas perdidas de vitamina C y B1 por
Hidrosolubles lixiviación y
degradación por el calor
Aumento de la biodisponibilidad de
biotina y niacina por inactivación
enzimas
Vitaminas
Liposolubles Principalmente termoestables
Pérdidas por oxidación de lípidos
Minerales Pérdidas por lixiviación
Posible aumento de los niveles de sodio y
calcio por
Captación de los contenidos en el líquido
enlatado.
Textura
Lesión de las
membranas celulares Pérdida de consistencia
538

Separación celular Pérdida de firmeza


Desnaturalización
de la proteína Solidez, gelificación
Gelatinización del
almidón
Color
Rotura de pigmentos
naturales Decoloración
Pérdida de color
Reacción de
Maillard Oscurecimiento
Otras, por ejemplo
vitamina C Decoloración
Sabor
Sabor ácido Estable
Pérdidas de
compuestos
volátiles Pérdidas de color
(oxidación)
Formación de
compuestos
volátiles
(Maillard) Olor a quemado, amargo
(oxidación) Olor a rancio
(pirocainas) Olor a quemado.
Fuente: (Rees y Bettison 1994).
2.3 ANTECEDENTES DE ALGUNOS TRABAJOS DE INVESTIGACION
CIENTIFICA REALIZADOS EN TRATAMIENTO TERMICO DE
ALIMENTOS PERUANOS ENLATADOS
Bailón (1994) al evaluar las condiciones de procesamiento
térmico para el enlatado de olluco (Ullucus tuberosus) con
charqui, determinó la proporción óptima de olluco, aderezo mas
charqui y salmuera utilizando para ello tres proporciones
diferentes: 1:1; 2:1; 3:1. La proporción óptima obtenida fue
de 3:1
Estableció igualmente las condiciones de procesamiento térmico
óptimos considerando un valor F0 = 6 minutos estipuló los
tiempos óptimos de procesamiento a 240 ºF en 37.35 minutos por
el método general, 47.40 minutos y 52.42 minutos por el método
de Ball y 56.51 minutos por el método de Shiga.
Microbiológicamente obtuvo un alimento libre de
microorganismos patógenos apto para el consumo.
Para el análisis sensorial, utilizó el método de Ranking u
ordenamiento, los resultantes fueron evaluados
estadísticamente con un análisis de varianza (ANVA)
considerando un nivel de significación (5%).
Estadísticamente las conservas de olluco con charqui fueron
aceptados con un nivel de seguridad del 83.3% por parte de los
panelistas.
Giannoni (1977), trabajo en conservas de atún usando envases
de hojalata ½ lb. “TUNA”, donde evaluó simultáneamente el
tiempo de procesamiento térmico por el método de Stumbo (1973)
y la consecuente degradación de nutrientes por el método de
539

Jen et al (1971). Obtuvo máxima retención de tiamina (54.78%),


con un tiempo de proceso de 55.26 minutos y a una temperatura
de retorta de 250 ºF.
Mendoza (1993), trabajó en un proceso de optimización del
tratamiento térmico de una crema base de olluco enlatada,
determinó las características cinéticas de destrucción térmica
en el ácido ascórbico puro de pH 2.9 y 5.4, con fines de
comparación; encontró que a la crema de olluco le corresponde
un tiempo de reducción decimal a 250 ºF (valor D r) igual a
89.04 minutos, una constante cinética de destrucción térmica
(valor K) a la misma temperatura igual a 2.59 x 10 -2 minutos-1
y un valor Z igual a 20.2ºF, valores que difieren ampliamente
de los correspondientes a las muestras de ácido ascórbico
puro.
El proceso de optimización dio como resultado un tratamiento
térmico óptimo a 230ºF x 107 minutos, al comparar los
resultados de retención de ácido ascórbico calculados
matemáticamente y experimentalmente, estos, presentaban una
diferencia del orden del 7.69% valor no significativo y que
por lo tanto el método de optimización puede ser empleado
eficientemente.
Huapaya (1995), estudió la cinética de pérdidas del ácido
ascórbico durante la pasteurización de camu-camu (Myrciaria
paraensis) a 80, 90 y 100 ºC.
La degradación del ácido ascórbico en la pulpa de camu – camu
siguió un modelo de cinética de primer orden; al ácido
ascórbico le corresponde un tiempo de reducción decimal a 212
ºF – 100 ºC (valor Dn) igual a 117.53 minutos; una constante
cinética de destrucción térmica a la misma temperatura (valor
k) igual a 1.96 x 10 -2 minutos-1 y un valor Z igual a 86.24 ºF
(47.91ºC).
Los parámetros óptimos determinados a partir de las curvas de
calentamiento y enfriamiento para pulpa de camu-camu en
envases Tall de capacidad 430 ml (Formato 301 x 408) fueron:
un valor de fh = 26.34 minutos, fc = 28.95 minutos, jh = 0.85
y jc = 1.18.
La pulpa de Camu – Camu enlatada y pasteurizada bajo las
condiciones de proceso a 212 ºF y un tiempo de proceso de
23.85 minutos, reportaron un productos libre de carga
microbiana, con una retención óptima de ácido ascórbico del
80.157%.
El contenido de ácido ascórbico retenido en pulpa de camu-camu
al final de los dos meses de almacenamiento fue de 95.87% para
el almacenamiento de temperatura de refrigeración y 90.7% para
el almacenaje a temperatura ambiente.
El tiempo de vida útil determinado para la pulpa de camu– camu
enlatada en función a la ecuación cinética de primer orden
para la predicción de pérdida de calidad en el almacenamiento.
Obteniendo una retención de ácido ascórbico de 68% a los 20
meses de almacenada la pulpa a la temperatura de refrigeración
(4ºC) y 7.6 meses a la temperatura ambiente (23ºC)
Obregón (2001), estudió el efecto de la temperatura sobre la
textura de gajos de mandarina satsuma (Citrus unshiu) en
almíbar. Reporta que las mejores condiciones de procesamiento
para obtener conservas de mandarina se obtiene cuando la fruta
540

alcanza una concentración de 8ºBrix y un pH de 3.7; los


parámetros más apropiados del almíbar fueron: 20ºBrix y pH
3.7.
El logaritmo de las calificaciones de la textura del gajo en
función al tiempo de calentamiento a las temperaturas
estudiadas se ajustó a una línea recta siguiendo una cinética
de primer orden. Las constantes cinéticas de degradación de la
textura del gajo fueron: a 60 ºC: K = 0.01198 min -1 y un D =
192.31 min.; a 80 ºC: K = 0.02533 min -1 y un D = 90.91 min.; a
100 ºC: K = 0.09120 min-1 y un D = 25.28 min. El valor de Z
hallado fue de 45.455 ºC (81.81 ºF) y la energía de activación
de 12.447 Kcal/mol; los parámetros de optimización, asumiendo
un calentamiento y enfriamiento instantáneo de 115.853 ºC por
3.874 segundos
Los valores de penetración de calor que caracterizan el
tratamiento térmico fueron: fh = 19.417 minutos, fc = 16.051
minutos, jh = 1.10, jc = 1.40, tpsih = 66.272ºF y tpsic =
269.413 ºF.
El porcentaje de retención de textura según la fórmula de
Stumbo para las conservas procesadas a: 105ºC por 12.94 min,
95ºC por 20.84 min y 85°C por 52.97 min fueron de 44.1%,
30.04%, y 0.82% respectivamente.
Se encontró diferencias significativas en la textura de los
gajos de mandarina en almíbar procesadas a 105, 95 y 85ºC. Las
mejores calificaciones presentaron los productos tratados a
105 ºC por 12.94 minutos.
El producto final obtenido indicó estabilidad en almacenaje,
con óptimas características sensoriales, sin mostrar
variaciones significativas en su composición físico–química.
Los reportes microbiológicos lo encuadran dentro de las
normas, como un producto seguro e inocuo.

2.4 EFECTO DEL TRATAMIENTO TERMICO SOBRE LAS CARACTERISTICAS


SENSORIALES
Los efectos del tratamiento térmico sobre las características
sensoriales se ponen de manifiesto en el color, textura, sabor
y aroma y pueden tener lugar a lo largo del tratamiento
térmico, del pH, del contenido de iones metálicos o de otros
factores (temperatura, luz, tiempo, oxigeno).El efecto térmico
provoca por si mismo un efecto importante sobre la calidad de
un alimento y es responsable de los diversos cambios que
experimenta (Rees y Bettison, 1994).

2.5 EVALUACION SENSORIAL


La evaluación sensorial de los alimentos se constituye en la
actualidad como una de las más importantes herramientas para
el logro del mejor desenvolvimiento de las actividades de la
industria alimentaria. Así pues, por su aplicación en el
control de calidad y de proceso, en el diseño y desarrollo de
nuevos productos y en la estrategia del lanzamiento de los
mismos al comercio, la hace, sin duda alguna, copartícipe del
desarrollo y avance mundial de la alimentación.
El análisis sensorial de los alimentos se lleva a cabo con
diferentes pruebas, según sea la finalidad para la que se
541

efectúe. Existen tres tipos principales de pruebas: las


pruebas afectivas, las discriminativas y las descriptivas
(Anzaldúa, 1994).

2.5.1 PRUEBAS AFECTIVAS


Estas pruebas están orientadas al consumidor, sirven para
conocer la aceptabilidad así como para medir el grado de
satisfacción de los consumidores en respuesta a sus
requerimientos o expectativas.
Las pruebas orientadas al consumidor incluyen las pruebas de
preferencia, aceptabilidad y pruebas hedónicas (grado en que
gusta un producto).
Las pruebas hedónicas están destinadas a medir cuanto agrada
o desagrada un producto para estas pruebas se utilizan.
Escalas categorizadas. Los panelistas indican el grado en
que les agrada cada muestra, escogiendo la categoría
apropiada. Esta prueba tiene sus ventajas: requiere menos
tiempo para evaluar, presenta procedimientos más interesantes
para el juez, su poder de aplicación es amplio, puede ser
utilizado por jueces no entrenados y puede ser utilizada con
un elevado número de estímulos.

2.5.2 ANALISIS ESTADISTICO


El análisis estadístico; esta dado por la formulación de
supuestos teóricos (hipótesis), con los que se podrá hacer
inferencias o conclusiones sobre una población de alimentos o
personas, y que serán comprobados a partir de los resultados
del tratamiento estadístico de los datos obtenidos del
análisis de la muestra que se represente; tratamiento aplicado
en base a un adecuado diseño experimental que asegure la
confiabilidad de los datos y sus resultados (Ureña y D´Arrigo,
1999).
Los resultados de las pruebas estadísticas se expresan
indicando la probabilidad de que un resultado especifico pueda
ocurrir por casualidad y no sea una diferencia real, si un
resultado ocurre por casualidad 5 de cada 100 veces, se dice
que la probalidad de 0.05. Por lo general, un resultado
estadístico se considera significativo solamente si tiene una
probalidad de 0.05 o menos. Con este nivel de probabilidad, la
hipótesis nula se rechazaría 5 de cada 100 veces, cuando en
realidad debería ser aceptada. Cuando se afirma que una
diferencia es significativa al nivel de 5% (probabilidad de
0.05), lo que se quiere decir es que en 95 de cada 100 casos,
existe una diferencia real.
Si en las pruebas orientadas al consumidor se toma una
muestra aleatoria del grupo o población para formar el panel
de consumidores, entonces si, se podrán hacer inferencias
relacionadas con ese grupo, que pueden ser los posibles
usuarios de un producto.
En la etapa inicial se debe obtener un lote de muestra
suficientemente grande, para utilizarse en todas las fases de
estudio. De este lote inicial, submuestras deberán asignarse
al azar, para cada tratamiento experimental, repetición o
bloque. En cada etapa del proceso, las submuestras o porciones
deberán ser escogidas al azar.
542

2.5.3. PRUEBAS ESTADISTICAS PARA DATOS SENSORIALES


Por lo general, los datos sensoriales nominales se analizan
mediante pruebas binomiales o de Ji cuadrado. Los datos
sensoriales de tipo ordinal o de posiciones, generalmente se
analizan con las pruebas de Kramer o de Friedman; sin embargo,
recientemente se ha visto que la prueba de Kramer no resulta
apropiada por lo que no es recomendable. La prueba paramétrica
mas frecuente para los datos sensoriales expresados en escala
de intervalos o escalas racionales es el análisis de varianza
(ANOVA); y las pruebas de Duncan y Tukey son utilizadas
frecuentemente para datos sensoriales ya que no son
consideradas ni muy liberales ni muy conservadoras (Watts et
al, 1992).

III. MATERIALES Y MÉTODOS

3.1 LUGAR DE EJECUCIÓN

Las pruebas experimentales se desarrollaron en la Empresa


TUCCHISA – CHIMBOTE y en el Laboratorio de Ingeniería de
Alimentos de la Escuela de Industrias Alimentarias desde el 1
de setiembre hasta el de 20 de diciembre del 2003.

La aceptabilidad general y los análisis físico-químicos, se


realizaron en el laboratorio de análisis de alimentos de la
Escuela profesional de Ingeniería en Industrias Alimentarias
de la FCA - UPAO. Los análisis microbiológicos se realizaron
en la Empresa CORPORACION DE LABORATORIOS DE ENSAYOS CLINICOS,
BIOLOGICOS E INDUSTRIALES “COLECBI” S.A.C. de la ciudad de
Chimbote.

3.2 MATERIA PRIMA

Para el procesamiento se utilizó cantidades adecuadas de trigo


de la variedad estaquilla previamente descascarado
543

(resbalado); habas, garbanzos, arvejas, procedentes de la


provincia de Sánchez Carrión, departamento de la Libertad. El
tocino de cerdo, fue adquirido en el mercado zonal central de
la ciudad de Trujillo. Las cantidades adicionadas se muestran
en el Cuadro 3.

Cuadro 3. Cantidad de materias primas; ingredientes y


saborizantes utilizados en la producción de
Shambar enlatado.

Ingredientes Líquido de
Proporción Trigo Tocino Haba Garbanzo Arveja y gobierno
(g) (g) (g) (g) (g) saborizantes Salmuera al
Trigo -Tocino (g) 3%
(g)
2:1 66.70 33.30 15 15 15 10 245
R1
R2 3:1 75 25 15 15 15 10 245
R3 4:1 80 20 15 15 15 10 245

3.3 INSUMOS
- Sal común 8 g
- Aceite 2 g
- Cebolla 2 g
- Ajos 1 g
- Ají panca 3.5 g
- Pimienta 0.5 g
- Comino 0.5 g
- Culantro 0.5

- Envases de hojalata tipo Tall 1 lb; formato 301 x


408.

3.4 EQUIPOS

3.4.1 EQUIPOS DE PLANTA:


- Exhaustor de acero inoxidable.
- Selladora de latas, marca ÁNGELUS; modelo 75p, capacidad
50 latas / min.
- Autoclave de vapor horizontal.
- Vacuómetro, marca ITEC (0-30plg Hg)
- Termorregistrador con cuatro sensores integrados modelo
LM 335, Rango 2 – 125°C.
- Computadora Pentium III.
- Balanza digital, marca SOEHNLE. Rango 1 – 2000 g,
SUITZERLAND.
- Balanza de platillos, marca DHAUS. Rango 0.1 – 2000 g.
- Micrómetro, marca STARRETT.
544

- Caldero, marca POWER HASTER 6000 BHP, presión 150


lb/pulg2.

3.4.2 EQUIPOS DE LABORATORIO


- pHmetro, marca METTLER TOLEDO modelo MP220, Switzerland,
rango = 0 a 14 sensibilidad 0.01.
- Estufa, marca MEMMERT. Rango 30 – 225°, Alemania.
- Balanza analítica, marca SARTORIUS BL3100, 3100 g,
capacidad 3 kg; sensibilidad al 0.0001 g
- Mufla, marca ELICO S.A. Rango 50 – 1200°C,
aproximadamente 1°C.
- Equipo KJEDHAL, marca FORTUNA DPTIFIT, Alemania.
- Equipo SOXHLET
- Campana de desecación, marca SIMAS
- Material de vidrio diverso.

3.5 Reactivos:
- Ácido sulfúrico, químicamente puro.
- Hidróxido de sodio 0.1N.
- Ácido clorhídrico 0.1N.
- Hexano.
- Agua destilada.

3.6 DIAGRAMA EXPERIMENTAL

En la figura 2 se presenta el diagrama experimental para


shambar enlatado.

T
545

R1 R2 R3

tp1 tp2 tp3 tp1 tp2 tp3 tp1 tp2 tp3

Tratamiento térmico
F0 = métodos (Bigelow, Patashnik; Ball)
EVALUACIONES Evaluación de Aceptabilidad General
Escala de apreciación hedónica
Análisis Químico Proximal
Humedad, proteínas, lípidos, CHO,
Cenizas
Leyenda
T: Trigo (estaquilla), con tocino.
R1: Proporción, trigo: tocino 2:1
R2: Proporción, trigo: tocino 3:1
R3: Proporción, trigo: tocino 4:1
tp1: Tiempo de proceso a 70 min
tp2: Tiempo de proceso a 80 min
tp3: Tiempo de proceso a 90 min
Figura 2 Diagrama experimental de la producción de Shambar
enlatado

3.7 DIAGRAMA DE FLUJO PARA LA ELABORACION DE SHAMBAR ENLATADO

El proceso seguido para la producción de shambar


enlatado se muestra en la figura 3

Trigo,
Haba
Arveja
Garbanzo Materias primas
Tocino

Selección y Clasificación
546

Cortado

Lavado
Infusión en
salmuera al 3%

Remojo 10 horas

Pesado

Envasado

Aderezo

Adición de líquido de
Gobierno

Exhausting T: 90 ºC
t:10 seg

Sellado

Esterilizado T: 117 ºC
t: 70, 80 y 90 min

Enfriado

Almacenamiento

Figura 3. Diagrama de flujo para el enlatado de shambar en


envases tipo Tall 1 Lb (301*408)

3.7.1 RECEPCIÓN DE LA MATERIA PRIMA:


547

Se realizó en envases de plástico. La recepción incluyó las


operaciones de lavado con agua potable e higiene.

3.7.2 SELECCIÓN, CLASIFICACIÓN Y LAVADO:

Se separaron los vegetales chancados, malogrados y en general


todas aquellas que disminuyen la calidad del producto
aplicando el principio del negro blanco (Felhaber y
Janetschke, 1993).

El lavado se realizó con agua potable con el fin de eliminar


el polvo y las partículas presentes en la superficie del
producto.

3.7.3 REMOJO E HIDRATACIÓN

Se colocó la materia prima en recipientes con agua potable por


un tiempo de diez horas a temperatura ambiente, antes del
envasado.

3.7.4 ENVASADO

Los cereales y legumbres ya hidratados fueron llenados


conjuntamente con el tocino (previamente expuesto a infusión
en salmuera al 3%); se adiciono posteriormente el aderezo.
Como recipientes se utilizaron envases de hojalata tipo Tall 1
lb, cuyo formato fue 301 x 408.

3.7.5 ADICION DEL LÍQUIDO DE GOBIERNO

El líquido de gobierno, llamado también solución de cubierta,


líquido de cobertura o líquido de relleno fue una solución de
salmuera al 3% a 95 ºC con la que se llenó el envase una vez
completada su carga del producto, y que se adicionó al
contenido tratando de dejar un espacio de cabeza de 6 mm.
Tiene por finalidad llenar los espacios que deja el producto y
desalojar el aire que podrían producir alteraciones en el
alimento y corrosión en la lata.

3.7.5 EXHAUSTING
548

Esta operación consistió en eliminar el aire del espacio


superior del envase así como el disuelto en el producto
creando un vacío parcial dentro del envase; se realizó con
vapor de agua a 90°C.

3.7.6 SELLADO

Para este proceso se empleó una máquina selladora


semiautomática para latas tipo Tall marca Angellus modelo 75
P, evaluando visualmente tanto la primera como la segunda
operación en la formación del doble cierre con adecuada
hermeticidad.

3.7.7 ESTERILIZACION Y EVALUACION DEL TRATAMIENTO TERMICO

Esta operación se realizó en un autoclave estático, horizontal


alimentado con vapor de agua. En las pruebas de penetración de
calor se trabajó a una temperatura de esterilización de 117°C,
por tiempos previamente establecidos de 70, 80 y 90 minutos.
Para medir la temperatura en el autoclave y en el punto mas
frío del contenido se utilizaron sensores de temperaturas
(modelo LM 335). Los datos se registraron en un computador a
través de una interfase entre los sensores y la computadora.
Se utilizó el programa computacional Labview, versión 5.0 de
la National Instruments.

Los datos fueron almacenados en la hoja de cálculo EXCEL 2000.

3.7.8 ENFRIADO

El producto esterilizado fue enfriado con agua potable hasta


una temperatura interna de 60°C.

3.7.9 ALMACENAMIENTO

Los envases conteniendo el producto terminado, se almacenaron


en cajas de cartón a temperatura ambiente, y posteriormente se
realizaron análisis microbiológicos, físico-químico y
evaluación sensorial.
549

3.8. EVALUACIÓN DE LA PROPORCIÓN ÓPTIMA TRIGO-TOCINO

Se determinó la proporción óptima de trigo-tocino para lo cual


se utilizaron 3 proporciones diferentes (proporciones: R).

R1 R2 R3

Trigo: 2 3 4

Tocino 1 1 1

3.9 MÉTODOS DE ANÁLISIS

3.9.1 EVALUACIÓN DEL TRATAMIENTO TÉRMICO

Con el registro de datos de tiempo en minutos y temperatura en


grados Celsius, se determinó el valor de F 0 por los métodos de
Bigelow (1920); Patashnik (1953), y Ball (1923) de acuerdo a
Mafart (1994), Sikorski (1994) y siguiendo a Arteaga (2003).

3.9.1.1 DETERMINACIÓN DEL VALOR F0 SEGÚN EL MÉTODO DE BIGELOW


(1920).

Este método gráfico, consiste en transformar la temperatura en


tasas letales estableciendo la curva de letalidad se
graficaron en función al tiempo en papel milimetrado,
calculándose posteriormente el área del gráfico. El área
situada por debajo de la curva representa el valor de
esterilización F0. Para determinarlo se tomó el valor F0 = 1
minuto (5 minutos x 0.2 min-1) de un área conocida. Teniendo
estos datos y el área de la curva, por regla de tres simple se
calculó el valor de Fo. Se determinó un área conocida en la
gráfica Letalidad y tiempo, de modo tal que el valor nos pueda
dar la unidad, siendo esta igual F0=1, y se contó los cm² en
el área conocida. Para determinar el Valor F0, se contaron los
cm² del área debajo del gráfico (figura 4)
550

Letalidad (min-1)

Tiempo (min)

Figura 4. Gráfico de la curva de letalidad para el cálculo del


F0 por el método de Bigelow (1920).
Por regla de tres simple se determino el valor F0 del proceso.

3.9.1.2 DETERMINACIÓN DEL VALOR F0 SEGÚN EL MÉTODO DE


PATASHNIK (1953)

En este método para calcular el valor de F0, se tomaron los


datos de temperatura superiores a 100°C, hallándose sus
respectivas letalidades con la siguiente fórmula:

LT = 10((T-121.1)/10)

Donde:

T: Temperatura en el punto más frío del alimento

T*: Temperatura de referencia, 121.1°C.

Z: 10°C Constante de resistencia térmica para Clostridium


Botulinum.

La sumatoria de los valores de letalidad (L T) dan el valor de


F0 del proceso (Figura 5).
551

120
tem peratura de
referencia para
100
el m etodo

80
Temperatura ( °C )

60
tem peratura en el
puno critico
40

tem peratura en
20
el autoclave

0
0 10 20 30 40 50 60 70 80 90 100 110 120

Tiempo ( min )

Figura 5. Gráfico de las curvas de penetración de calor


utilizada para calcular el F0 por el método de Patashnik.

3.9.1.3 DETERMINACIÓN DEL VALOR F0 SEGUN EL MÉTODO DE BALL


(1923)

Con los valores de tiempo y temperatura de proceso, se


definieron los datos y con ellos se graficaron en papel
semilogarítmico las curvas de calentamiento.

Se determinaron los valores de Fh y Ta.

Con estos valores y los obtenidos del proceso (T 1, T0, Te, Z,


tp, tc) se realizaron los cálculos según el algoritmo (Anexo 1)
para determinar el valor de F0.

Con los datos obtenidos durante el proceso se construyo la siguiente tabla.


Temperatura en Temperatura en el
ΔT
el punto critico del
TIEMPO Autoclave(T1) contenido(T) T1 - T
(min ) (°c ) (°c ) (°C )

Donde:
T1: Temperatura del autoclave
T: Temperatura en el punto más frío del contenido
ΔT: Diferencia de la temperatura de la retorta menos la
temperatura en el punto más frío del alimento,
obteniéndose la curva de calentamiento
En papel semilogarítmico, se plotearon los datos de tiempo (en
abscisas), y las temperaturas (ordenadas) y con los valores de
ΔT se marcaron los puntos de la curva de calentamiento.
Posteriormente se trazó una recta que llegó a unir la mayor
cantidad de puntos, la que se utilizó para determinar la
pendiente es decir, el valor de fh) para 1 ciclo logarítmico,
552

obteniéndose también Ta, y ta (la expresión de ta = 0,58 x


cut)

Tiempo ( min )
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
1

Temperatura (°C ) 10

100

1000

Figura 6. Gráfico de la recta en papel semilogarÍtmico para el


cálculo del valor F0 por el método de Ball (1923)

Para determinar el valor de F0, se utilizaron los valores de la


gráfica y los valores del proceso (T1, T0, Z; tp, tc) se
realizaron los cálculos según el algoritmo (Anexo 1) y
siguiendo los criterios de Alvarado 2004(com. pers.)

3.9.1.4 PRUEBA DE ESTERILIDAD DE LA CONSERVA:

El análisis Bacteriológico se realizó en 2 fases:

c. Preincubación de latas con:

a.1 Incubación a 30ºC por 15 días

a.2 Incubación a 55ºC por 10 días

d. Cultivos

b.1 La investigación de Microorganismos aerobios viables


a 30 ºC, se realizó en medio BHI (Brain Herat
Infusión).

b.2 La investigación de Microorganismos Anaerobios


Viables a 30 ºC, se determinó utilizando el medio de
cultivo BHI con cisteína y parafina.
553

b.3 La investigación de Microorganismos Aerobios Viables


a 55 ºC se realizó con medio de cultivo BHI y almidón
soluble al 1%.

b.4 La investigación de Microorganismos Anaerobios


Viables a 55 ºC se realizó con Medio BHI con cisteína
y parafina

En todos los casos la incubación duro 48 horas luego de


lo cual se evaluó el crecimiento microbiano.

Los procedimientos relatados se ajustaron a lo prescrito por


la Norma Técnica Peruana 204.0009 de Marzo de 1986.

3.9.2 EVALUACIÓN DE LA ACEPTABILIDAD GENERAL DEL SHAMBAR

ENLATADO

Se aplicó una prueba de apreciación hedónica, empleando una


cartilla de calificación con escalas de intervalo de cuatro
puntos, siguiendo los criterios de Ureña y D’Arrigo (1999),
adaptada por la autora, como se muestra en el cuadro 4.

3.9.2.1 MATERIALES PARA LA EVALUACIÓN


- Producto a evaluar: conservas de shambar, esterilizada a
117°C por 70, 80 y 90 minutos.
- Cartilla de evaluación
- Platos, vasos, cucharas, tenedores de plástico
descartables.
- Agua de mesa.
- Servilletas.

3.9.2.2 METODOLOGÍA

La aceptabilidad general se realizó con un total de 10


panelistas semientrenados cuyas edades fluctuaron desde 20
hasta 40 años, con tres repeticiones por cada muestra.

El enlatado de shambar fue calentada previamente en baño maría


hasta una temperatura de 60°C; posteriormente se abrieron las
latas y el contenido se vertió en platos para la degustación;
a cada panelista se sirvió el contenido de una conserva.
554

En primera instancia se trabajó con las conservas de


proporción 2:1 y posteriormente aquellas de proporción 3:1 y
4:1 procesadas durante 70, 80 y 90 minutos a 117°C.

CUADRO 4. CARTILLA DE ACEPTABILIDAD GENERAL DE SHAMBAR


ENLATADO

ESCALA DE CLASIFICACIÓN DE APRECIACIÓN HEDÓNICA PARA MEDIR ACTITUDES


FRENTE A ALIMENTOS
Producto: ................................................
Nombre del panelista: ....................................
Fecha: ...................................................
Por favor pruebe las proporciones y evalúe, usando la
siguiente escala:

EXPRESION PUNTOS
Me agrada mucho 4
Me agrada poco 3
Me desagrada poco 2
Me desagrada mucho 1

Escriba el número de la clave de las proporciones según


corresponda.

Proporciones tp Calificación
R1 (2:1) 70
80
90
R2 (3:1) 70
80
90
R3 (4:1) 70
555

80
90

Comentario: ......................................................................................................
..........................................................................................................................
Trujillo, de del 2003

3.9.3. DETERMINACION DE LA COMPOSICION QUIMICA PROXIMAL

ANÁLISIS FISICOQUÍMICOS
- Humedad: Método de la estufa a 105°C, por la AOAC
(1997).
- Proteínas Totales: Método micro Kjeldahl, por la
AOAC (1997).
- Grasa Total: Método Soxhlet, recomendado por AOAC
(1977).
- Cenizas Totales: Método recomendados por AOAC
(1997).
- Carbohidratos: por diferencia.

3.10. ANALISIS ESTADISTICO DE LOS DATOS


Para el análisis estadístico de la evaluación de la
aceptabilidad general, se utilizó las pruebas de Kruskall
Wallis incorporada en el paquete computacional SPSS (The
Package Statistical for the Social Sciences), versión 11.0
para Windows.

IV RESULTADOS Y DISCUSION

4.1 EVALUACION DEL TRATAMIENTO TERMICO


4.1.1 DETERMINACION DEL VALOR F0
Los valores del F0 para las conservas de Shambar enlatado
en la proporción 2:1 variaron desde 27.72 a los 70 minutos del
proceso hasta 38.90 a los 90 minutos. En el caso de las
conservas de la proporción 3:1, los valores oscilaron desde
26.72 a 70 minutos de proceso hasta 39.22 a los 90 minutos y
para la proporción 4:1 el valor F0 mínimo fue de 25.25 min a
los 70 minutos y el valor F0 máximo alcanzó 38.77 min a los 90
minutos Como se muestra en el cuadro 5; en las figuras desde
556

la 7 hasta la 15. La base de datos se adjunta en los anexos 2,


3 y 4.

Cuadro 5.Valores de F0 determinados por los métodos de Bigelow, Patashnik, y Ball


para Shambar enlatado esterilizado a 117ºC por 70, 80, y 90 minutos.

Proporción F0
Trigo-Tocino Tiempo (Promedio)
(min ) Bigelow Patashnik Ball

2:1 70 28.12 27.96 27.72

2:1 80 34.02 33.41 33.20

2:1 90 38.90 38.27 36.57

3:1 70 27.40 27.32 26.72

3:1 80 34.10 33.35 33.36

3:1 90 39.22 38.02 37.21

4:1 70 27.15 25.25 27.52

4:1 80 34.28 33.79 32.29

4:1 90 38.77 37.37 37.14


557
558
559
560
561

La determinación del F0 con cifras mayores a 25.25 minutos


en el caso del shambar enlatado, aseguraría una esterilidad
562

comercial para este producto; lo que coincide con el criterio


de Footit y Lewis (1999); quienes mencionan que por convención
entre las autoridades mundiales en el campo del tratamiento
térmico, es costumbre procesar los alimentos de bajo nivel
ácido hasta un valor F0 igual o mayor que 3; refiriéndonos a el
valor D121.1 para Clostridium botulinum; este tratamiento sería
suficiente para causar 14 reducciones decimales en la
población de este microorganismo. Asumiendo una población
inicial de 100 esporas por lata, este tratamiento reduciría la
posibilidad de una espora en 1012 latas (realmente cero).
Hall (2001) indica que los valores de F0 deberían estar en
el rango desde 6 hasta 14, pues, éstos son mas frecuentemente
usados por los conserveros para dar un margen de seguridad
adicional con el fin de compensar la poca precisión en la
medición de la temperatura. Al respecto, Sikorski (1994)
señala que en la elección del proceso de esterilización por
calor la industria conservera emplea F0 = 3 minutos para
evitar riesgos de salud pública y F0 = 5-7 minutos para la
prevención del deterioro por esporas mesófilas. En la
prevención contra esporas termófilas se utiliza un F0 = 5-7
minutos cuando los artículos enlatados se almacenan por debajo
de 30ºC o un F0 = 15-21 minutos, si los productos enlatados se
depositan a temperatura mas altas.
Como se puede apreciar, en el shambar enlatado, el valor F 0 se
incrementa a medida que aumenta el tiempo de proceso, lo que
es compatible con lo expuesto por Casp y Abril (1999), quienes
indican que la intensidad del tiempo de tratamiento es uno de
los factores que incrementan el valor F0. Para la explicación
de los resultados de valores F0. elevados; desde nuestra
perspectiva, es que por la naturaleza y características del
shambar, una sopa, resultante de la mezcla de sólidos (trigo,
habas, garbanzo, arvejas y tocino) con el líquido de gobierno
constituido básicamente por salmuera, implicaría un proceso de
calentamiento en dos fases; primero por convección en la parte
líquida y posteriormente por conducción en los componentes
sólidos.
Nuestro criterio coincide con lo expuesto por Hersom y Hulland
(1974), quienes indican que cuando se enlatan sustancias
sólidas en el seno de líquidos, la penetración del calor se ve
afectada tanto por la proporción sólido-liquido como por la
disposición de los sólidos en el interior de los líquidos.
Igualmente respaldan nuestra opinión los criterios de Casp y
Abril (1999) quienes señalan que el factor más importante de
los que condicionan la penetración del calor en los productos,
es su naturaleza, que es la que en última instancia va a
determinar el mecanismo de transmisión de calor que produciría
el calentamiento.
Por la naturaleza del producto, ya descrita, se podría
enmarcar en el tipo de productos: “líquidos que contengan en
su seno sólidos de pequeño tamaño”, de forma que la
penetración de calor viene determinada en gran medida por la
movilidad del líquido (proporcional a la relación
líquido/sólido existente). La temperatura de los sólidos puede
considerarse la misma que la del líquido que los rodea.
563

Es pertinente considerar aquí los criterios de Footit y


Lewis (1999) quienes aseveran que la eficacia relativa de un
determinado tratamiento térmico, con el fin de alcanzar la
esterilidad comercial, depende de factores tales como: i) la
población microbiana inicial en el alimento; ii) el tiempo y
la temperatura del proceso de esterilización y iii) otros
relacionados con la naturaleza del producto que determinan
realmente el proceso de calentamiento que ocurre dentro de la
lata. Indican, asimismo que para productos cuyo pH es mayor a
4.5, los de la categoría de baja acidez, por la posibilidad de
potencial crecimiento de microorganismos patógenos termo
resistentes esporulados, se requiere un tratamiento térmico
severo que asegure la destrucción microbiana con una
temperatura de proceso que debe estar en el rango de 115 a
130ºC.
Por otra parte, Rees y Bettison (1994) señalan que la
esterilidad absoluta es inalcanzable; que el tratamiento
térmico consiste simplemente en reducir la probabilidad de
supervivencia. En términos prácticos, sin embargo, es posible
reducir la probabilidad de supervivencia hasta un grado en el
que el producto pueda ser considerado como “estéril”, y que la
intensidad del tratamiento térmico que recibe un alimento
depende de la composición y de las características físicas del
producto y es el resultado de una combinación de tiempo y
temperatura.

4.2 EVALUACIÓN DE LA ESTERILIDAD DEL PRODUCTO


Desde el punto de vista microbiológico, todos los productos
son estériles comercialmente pues en las dos fases del ensayo
no hubo desarrollo ni presencia de microorganismos aerobios o
anaerobios viables tanto mesófilos como termófilos; tal como
se muestra en el certificado emitido por COLECBI SRL -
CHIMBOTE (anexo 5)

4.3 EVALUACIÓN DE LA ACEPTABILIDAD GENERAL


Con los resultados de la opinión de los panelistas se elaboró el cuadro 6 en el se observa
la frecuencia de la manifestación de preferencias
Cuadro 6. Aceptabilidad general de shambar enlatado en tres proporciones
Trigo-tocino y tiempos de esterilización de 70, 80 y 90 minutos
Proporción: 2:1 Proporción: 3:1 Proporción: 4:1
Tiempo de
Proceso ( mn)

PANELISTAS 70 80 90 70 80 90 70 80 90
1 4 2 2 2 2 2 3 2 2
2 3 2 2 2 2 3 3 2 2
3 4 3 3 3 4 2 3 2 2
4 4 4 3 3 3 2 3 3 2
5 4 3 3 2 2 3 3 3 3
6 4 4 3 3 2 3 2 2 2
7 4 3 3 3 3 3 2 2 2
564

8 4 3 3 3 4 3 3 3 3
9 4 3 3 4 3 3 3 3 2
10 3 2 3 3 2 4 4 3 2
PuntajeTotal 38 29 28 28 27 28 29 25 22

Como se aprecia la incidencia de la aseveración me


agrada mucho (4 puntos) es mayor en el producto cuya
proporción trigo/ tocino inicial fue 2:1 con 70 minutos
de tiempo de proceso.
En cuanto a la apariencia en este tratamiento, todos
los ingredientes se mostraron íntegros; el olor era
característico y no a humo y además el sabor fue
agradable y típico del producto tal como se consume en
fresco. En los otros tratamientos la apariencia y sabor
no eran los adecuados.
Estadísticamente el Test de Kruskall-Wallis mostró
resultados favorables a la proporción 2:1 trigo/tocino
con moda y mediana de valor 4 con un rango de 77.10 y
valor de p: 0.0036 que es altamente significativo)
(p<0.05) (anexo6).
Al comparar la aceptabilidad general mostrada en el
cuadro 6 con los valores de F0 determinados por los
método de Bigelow (1920) citados en el cuadro 5 se
determinó que para la proporción 2:1 con tiempo de
proceso de 70 minutos, el nivel de aceptabilidad general
fue mayor para todos los panelistas. El valor F0 fue
mayor al mínimo requerido (F0 = 3), por lo tanto es un
producto estéril comercialmente y según su apariencia,
olor y sabor característicos tuvo mayor aceptabilidad
general.
Tratamos de explicar esta relación invocando los
criterios de Rees y Bettison (1994) quienes sobre este
aspecto señalan que, la intensidad del tratamiento
térmico que recibe un alimento depende de la composición
565

y de las características físicas del producto. Al


referirse a la relación de la conservación por el calor y
la calidad sensorial señalan que el tratamiento térmico
provoca por sí mismo un efecto importante sobre la
calidad de un alimento y es responsable de diversos
cambios que experimenta. La gelatinización del almidón y
la desnaturalización de las proteínas estructurales
tienen una influencia directa sobre la textura de un
alimento. Sobre este aspecto (la textura), explican que
la lesión tisular que experimenta la materia vegetal
durante el tratamiento térmico es de dos tipos: i) la
destrucción o alteración de las membranas celulares
semipermeables, y ii) la rotura de las estructuras
intercelulares con el resultado de una separación
celular. Los efectos de estos tipos de lesión tisular son
una pérdida de turgencia y adhesión celular que provoca
una falta de consistencia y reblandecimiento de los
productos tratados mediante calor.
Al relacionar el procesamiento térmico con el color, señalan
que el color de un alimento viene determinado por el estado y
la estabilidad de algunos pigmentos naturales o añadidos y por
el desarrollo de algún tipo de coloración durante el procesado
y almacenamiento.
En relación con el sabor, la conservación mediante el calor no
altera significativamente los sabores básicos dulces, amargos,
ácidos o salados; sin embargo, la oxidación de los lípidos
puede producirse tanto durante el tratamiento como durante el
almacenamiento cuando existe oxígeno disponible y supone un
problema especial en alimentos grasos y en algunas hortalizas
fundamentalmente en cereales, leguminosas y legumbres secas.
Finalmente, expresan un criterio que resume la relación del
tratamiento térmico con la valoración de la calidad sensorial:
“La valoración sensorial puede servir para determinar los
efectos del tratamiento térmico sobre los alimentos, o sobre
su aceptabilidad (gustan - no gustan)”.
566

Son pertinentes las consideraciones de Witting de Penna,


(1981) quien señala que hay que destacar que la textura es
quizá el parámetro mas importante para la evaluación de la
calidad de cocción y que en el cambio de textura influye más,
el tiempo que la temperatura del tratamiento. Las reacciones
inducidas por el calor, tales como la reacción de Maillard,
influye sobre el color y el sabor así como las cualidades
nutritivas de los alimentos durante el tratamiento térmico
pueden aparecer olores extraños debido a compuestos volátiles
y una de las fuentes mas importantes de compuestos volátiles
es la oxidación de los lípidos o enranciamiento oxidativo que
influye significativamente en el sabor.
4.4 DETERMINACIÓN DE LA COMPOSICION QUIMICA PROXIMAL

En el Cuadro 7, se puede observar que el contenido de


Humedad varía desde 18.06 para tiempo de proceso de 80
minutos en la proporción trigo-tocino 3:1 hasta 19.65
para la proporción 2:1 y tiempo de proceso de 70 minutos
La cantidad de proteínas variaron desde 19.86% para la
proporción 4:1 esterilizado a 90 minutos hasta 23.25 % en
la proporción 2:1 esterilizado durante 70 minutos; las
grasas variaron desde 7.97 % en la proporción 4:1
esterilizadas durante 90 minutos hasta 12.72 % en la
proporción 2:1 a 70 minutos; las cenizas variaron desde
1.53% en la proporción 4:1 esterilizada a 90 minutos
hasta 1.78 % en la proporción 2:1 esterilizada a 70
minutos. Finalmente los Carbohidratos variaron desde
42.60 % en la proporción 2:1 esterilizada a 70 minutos
hasta 52.25 % en la proporción 4:1 esterilizada a 90
minutos; tal como se muestra en el cuadro 7. Como
producto que combina ingredientes de origen vegetal y
animal se aprecia que tiene una mayor proporción de
componentes nutricionales que los reportados
567

individualmente por Collazos et al (1993) mostrados en el


cuadro 1.
Como se puede apreciar, para el shambar enlatado en proporción
2:1 trigo-tocino esterilizado a 117 ºC por 70 minutos, la
composición química proximal: 19.65% de humedad; 23.25% de
proteínas; 12.72 % de grasas; 1.78 % de cenizas y 42.60% de
carbohidratos muestra mayores valores en los componentes que
en los demás tratamientos y proporciones.
568

Cuadro 7. Composición química proximal promedio de Shambar enlatado con tres proporciones Trigo-tocino y esterilizado a 117ºC,
durante tres tiempos de esterilización expresados en porcentaje según proporciones trigo-tocino

COMPONENTES PROPORCIONES TRIGO - TOCINO

(%) 2:1 3:1 4:1

Tiempo de proceso ( minutos) Tiempo de proceso( minutos) Tiempo de proceso ( minutos)

70 80 90 70 80 90 70 80 90

HUMEDAD 19.65 19.54 18.42 19.62 18.06 19.07 19.02 18.95 18.39

PROTEINAS 23.25 22.81 22.27 22.29 20.08 20.13 21.97 19.97 19.86

GRASAS 12.72 11.45 11.11 10.97 9.52 9.09 8.43 8.58 7.97

CENIZAS 1.78 1.76 1.61 1.76 1.76 1.59 1.76 1.75 1.53

CARBOHIDRATOS 42.60 44.44 46.59 45.36 50.58 50.12 48.82 50.75 52.25

TOTAL 100 100 100 100 100 100 100 100 100
Al analizar la concentración de los componentes en función del
tiempo de proceso se observa que los tenores de humedad,
proteínas, grasas y cenizas, son mayores cuando los tiempos de
proceso son menores; mientras que los carbohidratos aumentan,
al incrementarse el tiempo de proceso.
Al analizar la composición química proximal en relación a las
proporciones trigo-tocino; se aprecia que los contenidos de
proteínas y grasas son menores en la proporción 4:1 en
comparación con las proporciones 3:1 y 2:1 posiblemente debido
a la cantidad de trigo y tocino utilizada como materia prima.
La humedad muestra una tendencia homogénea en las tres
proporciones; sin embargo los Carbohidratos son
significativamente mayores en la proporción 4:1; en la que hay
4 partes de trigo por 1 de tocino.
Una explicación de estos resultados, se esboza en el hecho de
que la proporción 2:1 contiene mayor cantidad de tocino que
posiblemente contribuye de manera significativa a la
determinación tanto de lípidos como de proteínas de los
productos con un tiempo de proceso de 70 minutos; sin embargo
el mayor contenido de glúcidos, se debe a la elevada
proporción de trigo en la mezcla inicial

V. CONCLUSIONES

1. El menor valor determinado de F0 para conserva de shambar


enlatado fue de 25.25 minutos (Método de Patashnik),
supera el valor F0 mínimo requerido (F0=3 min) y desde el
570

punto de vista microbiológico el producto fue catalogado


como comercialmente estéril.

2. El shambar enlatado en proporción 2:1 trigo-tocino;


esterilizado a 117 ºC y 70 minutos de tiempo de proceso,
tuvo mayor aceptabilidad general como producto terminado
con un valor de p: 0.00036, lo que indica que
estadísticamente existe diferencia altamente significativa
con respecto a las proporciones 3:1 y 4:1; tiempo de
proceso de 80 y 90 minutos.

3. Para el shambar enlatado en proporción 2:1 trigo-tocino


esterilizado a 117ºC por 70 minutos, la composición
química proximal fue: 19.65% de humedad; 23.25% de
proteínas; 12.72 % de grasas; 1.78 % de cenizas y 42.60%
de carbohidratos.

VI. RECOMENDACIONES

1. Realizar ensayos con menores tiempos de proceso y


evaluar las características físico organolépticas.

2. Utilizar otros tipos de envases y otros métodos de


conservación
571

3. Realizar ensayos con otras proporciones trigo/tocino


572

BIBLIOGRAFÍA

ANZALDÚA A. 1994. La evaluación sensorial de los


alimentos en la teoría y la práctica. Editorial Acribia.
España.

ASSOCIATION OF ANALYTICAL CHEMISTS, 1997. Official methods of


analysis. 17a. ed. Editorial Board. U.S.A.

ARTEAGA, F. 2003. Evaluación del tratamiento térmico del


enlatado de trucha arco iris (Oncorhynchus mykiss) ahumada,
utilizando tres líquidos de gobierno. Tesis Ingeniero en
Industrias Alimentarias. UPAO, Trujillo.

BAILÓN R. 1994. Evaluación de las condiciones de proceso para


el enlatado de olluco (Ullucus tuberosus loz) con charqui.
Tesis Ingeniero en Industrias Alimentarias. UNALM. Lima –
Perú.

CALLEJO, M. 2002 Industrias de cereales y derivados AMV


Ediciones- Mundi Prensa Madrid-España.

COLLAZOS, E; et al. 1993. La composición de alimentos de mayor


consumo en el Perú. 6a. Ed. Instituto de Nutrición Ministerio
de Salud, Lima. Perú

CHEFTEL, J y H. CHEFTEL. 1983. Introducción a la Bioquímica y


tecnología de los alimentos. Vol. I Editorial Acribia. España.

CASP A y J. ABRIL 1999. Procesos de conservación de alimentos.


Ediciones Mundi-Prensa. España.

CHANG L. 1995. Efectos de la temperatura y el tiempo de


exposición sobre las características farinográficas de harina
573

especial de trigo (Triticum vulgare). Tesis Ingeniero en


Industrias Alimentarias. UNALM. Lima – Perú.

DESROSIER N. 1999. Elementos de tecnología de Alimentos


Editorial continental. México.

FELHABER, K. y P. JANETSCHKE, 1993. Higiene veterinaria de los


alimentos; Zaragoza, Acribia.

FELLOWS, P. 1994. Tecnología del procesado de los alimentos.


Editorial Acribia. Zaragoza – España.

FOOTITT, R. y A. LEWIS. 1999. Enlatado de pescado y carne.


Editorial Acribia. Zaragoza–España. p: 147-190.

GIANNONI E. 1997. Evaluación y optimización del tratamiento


térmico de alimentos enlatados. Tesis Ingeniería en Industrias
Alimentarias. UNALM. Lima – Perú.

HALL G. 2001. Tecnología del procesado del pescado. Editorial


Acribia. Zaragoza. España.

HERSOM, A y E. HULLAND. 1974. Conservas alimenticias. Acribia.


Zaragoza, España.

HUAPAYA E. 1995. Evaluación de la pérdida de vitamina C


durante el procesamiento y alimento de pulpa de camu-camu
(Myrciaria paraensis), Tesis. Ingeniería e Industrias
Alimentarias. UNALM. Lima – Perú.

HOSENEY, R. 1991. Principios de ciencia y Tecnología de los


cereales, Zaragoza. Acribia

MAFART P. 1994. Ingeniería Alimentaria Vol. I. Procesos


físicos de conservación. Editorial Acribia Zaragoza. España.
574

MINISTERIO DE AGRICULTURA 2002. Expositor: Agencias Agrarias,


Provincias de La Libertad. Trujillo- Perú.

MENDOZA F. 1993. Evaluación y Optimización del Tratamiento


térmico en una crema base de olluco (Ullucus tuberossus loz)
enlatado. Tesis. Ingeniería en Industrias Alimentarias. UNALM.
Lima – Perú.
REES A. y J. BETTISON. 1994. Procesado térmico y envasado de
alimentos. Editorial Acribia. Zaragoza – España.
SIKORSKI, Z. 1994. Tecnología de los productos del mar.
Recursos composición y conservación. Editorial. Acribia.
Zaragoza – España.
SIELAFF, H. 2000. Tecnología de la fabricación de conservas.
Primera edición. Editorial Acribia, Zaragoza – España.
INSTITUTO NACIONAL DE ESTADISTICA E INFORMATICA. 2002.
Almanaque de La Libertad, 2001 – 2002. Editorial El Comercio.
Trujillo – Perú.
OBREGÓN, A. 2001. Efecto de la temperatura sobre la textura de
gajos de mandarina satsuma (Citrus unshiu) en almíbar. Tesis
de post grado. UNALM. Lima – Perú.
POTTER, N. 1999. Ciencia de los alimentos. Editorial Acribia,
S.A. Zaragoza. España.
UREÑA, M. y D’ ARRIGO M. 1999. Evaluación sensorial de los
alimentos primavera edición. Editorial. Agraria
WITTING DE PENNA, E. 1981. Evaluación sensorial, una metódica
que mide calidad. Rev. Alimentos. 6(1) Chile.
WATTS, B., YLIMAKI G. y L. JEFFERY 1992. Métodos sensoriales
básicos para la evaluación de alimentos. Editada Internacional
Developmet Research Centre. Canadá.
575

1. TITULO EN CASTELLANO:
EFECTO DE LA ADICIÓN DE TRES PROPORCIONES DE ANCHOVETA
(Engraulis ringens) Y DEL TIEMPO DE ESTERILIZACION EN LA
COMPOSICION QUIMICA Y ACEPTABILIDAD GENERAL DE CONSERVAS
DE FRIJOL (Phaseolus vulgaris)

2. TITULO EN INGLES
EFFECT OF THE ADDITION OF THREE PROPORTIONS OF ANCHOVETA
(Engraulis ringens) AND THE TIME OF STERILIZATION IN THE CHEMICAL
COMPOSITION AND GENERAL ACCEPTABILITY OF PRESERVES OF
BEAN (Phaseolus vulgaris)

3. AUTORES: Antero Celso Vásquez García1, José Teodoro Reupo Periche2,


Wilmer Vásquez Diaz3, Fernando Rodríguez Avalos4
1) Doctor en Medio Ambiente. Profesor Principal del Departamento de Biología
de la Universidad Pedro Ruiz Gallo de Lambayeque
2) Master of Science en Microbiología. Profesor Asociado del Departamento de
Biología de la Universidad Nacional Pedro Ruiz Gallo de Lambayeque.
3) Ingeniero de Materiales
4) Master of Science en Química, Doctor en Educación. Profesor Principal de
la Universidad Privada Antenor Orrego de Trujillo.
4. INSTITUCIONES EN LAS QUE SE REALIZO EL TRABAJO:
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO LAMBAYEQUE
UNIVERSIDAD NACIONALD E TRUJILLO

05. RESUMEN CON PALABRAS CLAVE

Esta investigación se realizó para determinar el efecto de la adición de tres


proporciones de filete de anchoveta (Engraulis ringens J.) en la aceptabilidad
general, los Valores F0, C0 y E0 y en la composición química de conservas tipo Tall 1
Lb de fríjol bayo (Phaseolus vulgaris). El estudio se realizó en el laboratorio de
Alimentos de la Facultad de Ingeniería Química de la Universidad Nacional de
Trujillo, desde marzo hasta diciembre del 2006. Se utilizó fríjol bayo previamente
remojado, escaldado y envasados en latas tipo Tall 1 Lb. El registro de la
temperatura en el autoclave y en el punto mas frío del contenido se hizo con
sensores electrónicos LM 335 conectados a un equipo de termorregistro; con el
programa computacional Lab View 5,0 de la Nacional Instruments. Se determinaron
valores F0, C0 y E0 de acuerdo a Sielaff y Arteaga. Se determinó la aceptabilidad
general usando una escala hedónica de nueve puntos y la composición química de
acuerdo la AOAC y Vásquez y Reupo. La adición de 75 gramos de filete de
anchoveta a 175 gramos de frijol bayo permitió obtener conservas esterilizadas
durante 70 minutos con la mejor aceptabilidad general. El valor de F 0 varió desde
19,41 en latas con la proporción 1 esterilizada durante 70 minutos hasta 35,39 en
aquellas de la proporción 2 esterilizadas durante 80 minutos. Para las mismas
condiciones de esterilización, C0 varió desde 217,73 hasta 322,56 y E 0 desde 249,45
hasta 375,86. La adición de una proporción de 75 gramos de filete de anchoveta
mejoró la composición química de conservas tipo Tall 1 Lb de fríjol bayo al elevar
significativamente la concentración de proteínas hasta 18,06%.

Palabras claves: Conservas, anchoveta, frijol, esterilización

06. ABSTRACT WITH KEY WORD


576

This research was carried out to determine the effect of the addition of three
portions of anchovy (Engraulis ringens J.) fillet on the general acceptability, F 0, C0,
and E0 values, chemical composition of canned bay bean (Phaseolus vulgaris) of
Tall 1 Pound type. The experimental was made in the Laboratory of Foods of the
Chemical Engineering Faculty of the National University of Trujillo from march to
December, 2006. Bay bean, previously soaked and scalded, was used, which was
packed in cans of 1 Pound Tall type. The temperature recording, in the sterilizing
machine and the coldest point of the content, was made by LM 335 electronic
sensors connected to a termorregister with Lab View 5,0 computational program of
National Instruments. F0, C0, and E0 values were determined according to Sielaff and
Arteaga; for general acceptability, a hedonic scale with nine items was used; and the
chemical composition was determined by AOAC and Vásquez and Reupo methods.
The canned bay bean with 75 g of anchovy fillet and 175 g of bay bean, sterilized for
70 min, gave the best general acceptability. F 0 value varied from 19,41 (cans with
175 g of bay bean and 76 g of anchovy fillet, and 70 minutes of sterilizing) to 35,39
(cans with 125 g of bay bean and 125 g of anchovy fillet, and 80 min of sterilizing).
Under the same sterilizing conditions, Co varied from 217,73 to 322,56, and Eo from
249,45 to 375,86. The canned bay bean with 75 g of anchovy fillet and 175 g of bay
bean improved the chemical composition of canned bay bean of 1 Pound Tall type,
since protein concentration was increases up to 18,06%.

Key words: Canned bay bean, anchovy, bay bean, sterilizing

07. INTRODUCCION

La esterilización de alimentos envasados origina cambios sustanciales en su valor


nutritivo y sus características organolépticas. Las mejoras en los procesos
tecnológicos de esterilización están encaminadas, por tanto, a reducir los efectos no
deseados sobre los componentes nutritivos y las características organolépticas de
los alimentos, disminuyendo el tiempo de tratamiento de los productos envasados o
esterilizándolos hasta lograr valores que impliquen esterilización comercial referidos
al valor F0, con un grado de cocimiento adecuado (valor C0) y la destrucción efectiva
de enzimas termoresistentes (valor E0). En este contexto, el valor F0, es el valor
letal integrado del calor recibido por todos los puntos del contenido de un envase
durante el tratamiento; representa una medida de la capacidad de un determinado
tratamiento térmico para reducir el número de esporas o de células vegetativas de
un determinado microorganismo por envase. Es decir, F 0 es el tiempo (en minutos)
necesario para que se logre la destrucción de las esporas y formas viables del
Clostridium botulinum a la temperatura de 121, ºC1

En los últimos años se ha aumentado el consumo de pescado en todo el planeta en


función de dos perspectivas: i) la tendencia cuantitativa, con estado fresco (creció
36,6% en 1998), seguida del congelado, el curado, el enlatado tradicional y el
desarrollo de nuevas tecnologías que implican incremento y diversificación de
conservas en envases de distintas capacidades y materiales (hojalata, aluminio, y
sintéticos); ii) La tendencia cualitativa, por las preferencias de los consumidores,
que, entre otras, incluyen: cambios en la dieta por motivos de salud (el pescado
tiene beneficios en el tratamiento de enfermedades como el Parkinson y Alzheimer,
disminución de los niveles de colesterol malo y otros aspectos nutricionales),
mejoramiento en los procesos de empaque y canales de distribución, incremento en
los niveles de vida por el crecimiento económico en los países desarrollados y
cambios en los factores sociales. En años recientes, se ha desarrollado
577

significativamente la tecnología de los platos preparados listos compatibles con


cambios en estilos de vida y hábitos de consumo en los seres humanos2.
El Perú es uno de los principales productores de harina de pescado en el
planeta, basado sólo en la anchoveta (Engraulis ringens J.), pequeño
pelágico que en un año alcanza su desarrollo biológico. La historia de la
pesquería peruana se liga a la disponibilidad de anchoveta. Datos
significativos reportan que en 1970 se capturó y desembarcó oficialmente 12
millones de toneladas; posteriormente, esta cifra disminuyó ostensiblemente
y en años recientes, con la implementación de adecuadas políticas
pesqueras, se ha llegado a capturar ocho millones de toneladas anuales en
promedio. Otros países que capturan especies similares a la anchoveta
peruana orientan su aprovechamiento hacia el consumo humano directo, en
conservas tipo sardina, congelado, salado, ahumado, surimi y seco salado.
La anchoveta es de utilidad comercial e industrial, y de gran importancia
desde el punto de vista alimenticio, por su contenido de proteínas y
aminoácidos esenciales, ácidos grasos de la serie omega 3: EPA y DHA; y
por la concentración importantes de fósforo y vitamina B 12 3

El frijol bayo (Phaseolus vulgaris) es una planta herbácea anual, de gran variación
en costumbres, caracteres vegetativos, color de las flores, tamaño, forma y color de
las vainas y semillas. Las vainas de las semillas son finas, rectas o ligeramente
curvadas, de bordes redondeados o convexos y extremo prominente. El número de
semillas puede oscilar entre 1 y 12 y muestran variación importante en su color,
tamaño y medida. Su elevado contenido proteico (22,00%) y bajo contenido de
grasa (1,60 %) así como su significativa concentración de aminoácidos esenciales y
su común uso en la dieta del poblador costeño lo constituye en un alimento
indispensable4.

Para una óptima alimentación humana, se necesita de diversos tipos de alimentos,


sobre todo en países mas desarrollados y en los que se encuentran en vías de
desarrollo, por lo que es necesario considerar la complementación de sustancias
nutritivas en la dieta diaria. Además es necesario resaltar que la proteína de origen
animal no podrá sustituir a la de origen vegetal ni en corto ni mediano plazo, por lo
que será necesario complementar estos tipos de alimentos 5. Por lo que se pretende
producir un alimento de mejor valor nutritivo combinando las concentraciones de las
biomoléculas provenientes del fríjol y de la anchoveta.

El problema científico se formuló en los términos siguientes: ¿Cual es el efecto de


la adición de tres proporciones de anchoveta (Engraulis ringens) y del tiempo de
esterilizacion en la composición química y aceptabilidad general de conservas de
frijol (Phaseolus vulgaris)?

La Hipótesis científica se formuló del modo siguiente: La proporción de 75 g de


anchoveta y 175 g de frijol bayo en conserva esterilizada a 117 ºC x 70 minutos
permite obtener un producto con mejor composición química proximal y la mejor
aceptabilidad general

El presente estudio tuvo como objetivos:


578

1. Determinar el efecto de la adición de tres proporciones de filete de anchoveta


(Engraulis ringens J.) en la aceptabilidad general de conservas tipo Tall 1 Lb de fríjol
bayo (Phaseolus vulgaris).

2. Determinar los valores F0, C0 y E0 como indicadores de tratamiento térmico en


conservas de fríjol bayo con adición de tres proporciones de filete de anchoveta
(Engraulis ringens J.).

3. Determinar el efecto de la adición de tres proporciones de filete de anchoveta


(Engraulis ringens J.) en la composición química de conservas tipo Tall 1 Lb de
fríjol bayo (Phaseolus vulgaris).

MATERIAL Y MÉTODOS

Lugar de ejecución
Laboratorio de Alimentos de la Facultad de Ingeniería Química de la Universidad
Nacional de Trujillo (UNT
Laboratorio de Bromatología de la Facultad de Ciencias Biológicas de la
Universidad Nacional Pedro Ruiz Gallo (UNPRG) de Lambayeque.

Materia prima
Para la producción experimental de las conservas se utilizó fríjol bayo, previamente
remojado durante 10 horas, que posteriormente fue envasado en latas tipo Tall 1
Lb, con adición de anchoveta en corte HG en las proporciones que se indican en la
Tabla 1, con 45 mL de líquido de gobierno tipo “aderezo de cabrito”.

Tabla 1. Cantidades de frijol bayo y filete de anchoveta en las conservas


Proporción Frijol bayo (g) Filete de anchoveta (g)
P1 175 75
P2 125 125
P3 85 165

Procedimiento experimental
El procedimiento, desde la recepción de la materia prima hasta la esterilización, se
muestra en la Figura 1. La codificación de los envases de conservas se realizó de
acuerdo a lo especificado en la Tabla 2.
579

Tabla 2. Codificación de envases de conservas de frijol con anchoveta según


proporción y tiempo de esterilización
Tiempo de Descripción
Código Proporción esterilización
Conserva con proporción 1
P1TI P1 70 frijol:anchoveta esterilizada a 117 ºC
x 70 minutos
Conserva con proporción 1
P1T2 P1 80 frijol:anchoveta esterilizada a 117 ºC
x 80 minutos
Conserva con proporción 1
P1T3 P1 90 frijol:anchoveta esterilizada a 117 ºC
x 90 minutos
Conserva con proporción 2
P2TI P2 70 frijol:anchoveta esterilizada a 117 ºC
x 70 minutos
Conserva con proporción 2
P2T2 P2 80 frijol:anchoveta esterilizada a 117 ºC
x 80 minutos
Conserva con proporción 2
P2T3 P2 90 frijol:anchoveta esterilizada a 117 ºC
x 90 minutos
Conserva con proporción 3
P3TI P3 70 frijol:anchoveta esterilizada a 117 ºC
x 70 minutos
Conserva con proporción 3
P3T2 P3 80 frijol:anchoveta esterilizada a 117 ºC
x 80 minutos
Conserva con proporción 3
P3T3 P3 90 frijol:anchoveta esterilizada a 117 ºC
x 90 minutos

La composición química fue determinada con la conserva de mayor aceptabilidad


580

Recepción de anchoveta Recepción de frijol bayo

Lavado
Lavado
Selección y Clasificación
Selección y clasificación

Encanastillado Remojo
(10 horas)

Pre-cocinado Escaldado
(90 ºC x 20 min) (1min a 95 ºC)
Adición de trozos
HG de anchoveta
en 3 proporciones
Enfriado
Envasado

Adición de líquido de gobierno


Fileteado

Obtención de vacío

Codificado y Sellado

Lavado

Esterilización
Prueba de (117 ºC x 70, 80 y 90
aceptabilidad general minutos)

Determinación de la composición
química de la conserva con mayor
aceptabilidad

Figura 1. Flujo cualitativo de la producción de conservas de frijol bayo


con de trozos HG de anchoveta
581

La evaluación de la aceptabilidad general fue realizada por un panel de 30 jueces


no entrenados (profesores y alumnos de la Facultad de Ciencias Biológicas de la
UNPRG) utilizando una escala hedónica de 9 puntos (Tabla 3); su participación fue
voluntaria.

Tabla 3. Cartilla de aceptabilidad general para conservas de frijol bayo


con trozos de anchoveta
PRUEBA ORIENTADA AL CONSUMIDOR
ESCALA HEDONICA DE NUEVE PUNTOS
Código de la muestra: ...............................................
Nombre del panelista: ....................................
Fecha: ...................................................
Por favor, pruebe las muestras y evalúe, encerrando con un círculo el número
correspondiente de la siguiente escala.

1. Me gusta muchísimo
2. Me gusta mucho
3. Me gusta bastante
4. Me gusta ligeramente
5. Ni me gusta ni me disgusta
6. Me disgusta ligeramente
7. Me disgusta bastante
8. Me disgusta mucho
9. Me disgusta muchisimo
Comentario:..................................................................................................................
.............................................................................................................
Lambayeque, de del 200

El valor asignado a cada Item (Descripción) fue el siguiente


1. Me gusta muchísimo +4
2. Me gusta mucho +3
3. Me gusta bastante +2
4. Me gusta ligeramente +1
5. Ni me gusta ni me disgusta 0
6. Me disgusta ligeramente -1
7. Me disgusta bastante -2
8. Me disgusta mucho -3
9. Me disgusta muchísimo -4

La composición química fue determinada con los procedimientos sugeridos por la


A.O.A.C 6 y a lo descrito por Vásquez y Reupo7.
Humedad : Por el método de la estufa.
Proteínas : Según el método de Kjeldahl
Grasas : Según el método de Soxhlet.
Cenizas : Por incineración directa.
Carbohidratos : Por diferencia.
Los datos obtenidos fueron ordenados y tabulados utilizando la hoja de cálculo
Excel del programa computacional Office 2003 pata Windows.

08. RESULTADOS
582

Características físico organolépticas de las conservas

La conserva de frijol bayo con anchoveta presentó buenas características


físico organolépticas (Tabla 4 y Figura 3).

Tabla 4. Características físico organolépticas de la conserva de frijol


con anchoveta envasada en Lata Tall 1 Lb

Característica Dimensión
Color Sui generis
Olor A frijol y pescado
Sabor A pescado y cabrito
Textura Firme
Apariencia Buena

Figura 3. Plato con la conserva de frijol bayo con anchoveta; se aprecia el color y
apariencia de contenido.

Los Valores F0, C0 y E0 determinados experimentalmente se presentan


en la Tabla 5
583

Tabla 5. Valores F0, C0 y E0 determinados en la esterilización de conservas de frijol


bayo con anchoveta en envases de hojalata tipo Tall 1 Lb según proporción y
tiempo de esterilización.
Tiempo de
Código esterilización Parámetros de esterilización
(min) Valor F0 Valor C0 Valor E0

P1T1 70 19,41 217,73 249,45

P1T2 80 25,41 244,68 282,84

P1T3 90 33,54 320,78 372,63

P2T1 70 23,14 238,73 275,76

P2T2 80 27,91 259,46 301,00

P2T3 90 35,39 322,56 375,86

P3T1 70 24,86 250,36 289,66

P3T2 80 27,90 258,08 299,40

P3T3 90 34,20 321,70 374,03

La conserva de frijol bayo con anchoveta que tuvo mayor aceptabilidad fue la
signada con el código P1T1 (175 g de frijol bayo y 75 gamos de anchoveta,
esterilizada a 117 ºC durante 70 minutos) que alcanzó 82 puntos; seguida de la
P2T1 (125 g de frijol bayo y 125 de anchoveta, esterilizada a 117º C durante 80
minutos) con 76 puntos. La conserva P3T3 alcanzo un puntaje de 69 puntos y las
demás conservas obtuvieron puntajes menores.

La composición química de la conserva de frijol bayo con anchoveta que tuvo


mayor aceptabilidad general fue: 48,85% de humedad; 18,06% de proteínas, 7,20%
de grasas, 22,43% de carbohidratos y 3,46% de cenizas.

09. DISCUSIÓN
El valor F0 mayor que 19,41 minutos, para la conserva de frijol bayo
(Phaseolus vulgaris) con anchoveta (Engraulis ringens J.) en diferentes
proporciones, asegura su esterilidad comercial; lo que coincide con el criterio
de Footit y Lewis8, quienes mencionan que por convención entre las
autoridades del planeta en el rubro del tratamiento térmico, es costumbre
procesar los alimentos de bajo nivel ácido hasta un valor F 0 igual o mayor
que 3. Con referencia al D 121.1 para Clostridium botulinum, el tratamiento es
suficiente para conseguir 14 reducciones decimales en la población de este
microorganismo. Asumiendo una población inicial de 100 esporas por lata,
este tratamiento reduciría la posibilidad de una espora en 10 12 latas.
584

Hall9 indica que los valores de F 0 deben estar en el rango de 6 a 14,


pues, que es el más frecuentemente usado por los conserveros para dar un
margen de seguridad adicional, con el fin de compensar la poca precisión en
la medición de la temperatura. Al respecto, Sikorski 10 señala que en la
elección del proceso de esterilización por calor, la industria conservera
emplea F0 = 3 minutos, para evitar riesgos de salud pública; y F 0 = 5 - 7
minutos, para la prevención del deterioro por esporas de mesófilos. En la
prevención contra esporas termófilas, se utiliza F 0 = 5 - 7 minutos, cuando
los artículos enlatados se almacenan por debajo de 30 ºC, o F 0 = 15 - 21
minutos, si los productos enlatados se depositan a temperatura más altas.

Se aprecia que en la conserva de frijol bayo con anchoveta en tres proporciones y


expuestos a tres tiempo de esterilización, el valor F 0 aumenta a medida que se
incrementa el tiempo de proceso, con una ligera diferencia entre los valores
determinados en las conservas de las proporciones 2 y 3, esterilizados a 80 y 90
minutos, respectivamente. Los mayores valores F 0 en la proporción 2 y 80 minutos
de tiempo de esterilización, se explican considerando que en la proporción 2 hay
una mayor masa sólida, pero, al mismo tiempo, más permeable a la transferencia
de calor por la consistencia del músculo de la anchoveta y el ablandamiento de la
cubierta y pared celular de las semillas de fríjol bayo, los que al encontrase en
similares proporciones permiten que la transferencia de calor se realice en mejores
condiciones. Esta consideración es compatible con lo expuesto por Casp y Abril 11,
quienes indican que la intensidad del tiempo de tratamiento es uno de los factores
que incrementan el valor F0. Además, Rees y Bettison12 mencionan que la
esterilidad absoluta es inalcanzable y que el tratamiento térmico consiste
simplemente en reducir la probabilidad de supervivencia de microorganismos
formadores de esporas termorresistentes. Al respecto, Sielaff 13 señala que el efecto
adverso del tratamiento térmico puede manifestarse en la destrucción de vitaminas
B1 y C, pérdida de color, alteraciones por fermentación térmica y variaciones
organolépticas.

Los valores C0 estimados en la conserva de frijol bayo con anchoveta, en todos


los caos, fueron elevados y posiblemente originan deterioro en la calidad de los
componentes: proteínas, ácidos grasos, vitaminas, y otros, tal como lo afirma
Sielaff13. Hall9, al respecto, señala que como el tratamiento térmico involucra
procesos de cocción, conlleva toda una serie de cambios físicos y bioquímicos, que
incluyen cambios químicos concretos, inactivación de un enzima, destrucción de la
tiamina, y también cambios perceptibles subjetivos: color, aroma y textura.

El valor E0 supera significativamente el mínimo requerido de E 0 = 42 minutos,


para guisantes en esterilización rotatoria y de 144 para el tipo de esterilización
estática (Reichert14; Hahn y Eisner15), para productos que contienen alimentos de
origen vegetal. Con esto se asegura completamente la inactivación de enzimas
termorresistentes, como las peroxidasas y polifenoloxidasas, causantes de
deterioro de los alimentos (Mafart16; Sielaff13, 2000). Fellows17 señala que los
alimentos deben ser esterilizados a una temperatura suficientemente elevada y
durante un tiempo suficientemente largo como para destruir las actividades
microbiana y enzimática; y de esta manera alargar su tiempo de vida útil.

Las consideraciones tecnológicas permiten afirmar que la conserva de frijol con


anchoveta que obtuvo la mayor aceptabilidad general fue el esterilizado durante 70
minutos; tiempo de cocimiento adecuado que mantuvo la textura, el color, olor y
585

sabor del frijol bayo y la integridad del trozo de anchoveta en corte HG, debido al
menor tiempo de exposición al calor. Anzaldúa citado por Alcántara18 , menciona
que en el análisis sensorial de los alimentos, las pruebas afectivas están orientadas
al consumidor, sirven para conocer la aceptabilidad y medir el grado de satisfacción
de los consumidores en respuesta a sus requerimientos o expectativas; en ellas se
incluyen las pruebas de preferencia, aceptabilidad y pruebas hedónicas (grado en
que gusta un producto), destinadas a medir cuanto agrada o desagrada un
producto. Esta prueba tiene las ventajas siguientes: i) requiere menos tiempo para
evaluar, ii) presenta procedimientos más interesantes para el juez, iii) su posibilidad
de aplicación es amplia, iv) puede ser utilizado por jueces no entrenados, y v)
puede ser utilizada con un elevado número de estímulos.
La composición química de las conservas indica un buen valor nutritivo por las
concentraciones de proteínas (18.06%) y grasas (7,20%). Estas concentraciones
difieren ligeramente de productos similares producidos por el Instituto Tecnológico
Pesquero del Perú19, que refiere cantidades de proteínas de 20,0 a 22,5 % y de
grasas de 5 a 13 %.

CONCLUSIONES

1) La conserva con la proporción de 75 gramos de filete de anchoveta (Engraulis


ringens J.) y 175 gramos de frijol bayo (Phaseolus vulgaris) tipo Tall 1 Lb
esterilizadas durante 70 minutos fue la de mejor aceptabilidad general.

2. Para las conservas de frijol bayo (Phaseolus vulgaris) con anchoveta (Engraulis
ringens J.), los valores F0 fueron de 19,41, en la proporción 1, esterilizada durante
70 minutos, a 35.39 en la proporción 2, esterilizada durante 80 minutos. En las
mismas condiciones de esterilización, el valor C0 varió de 217,73 a 322,56 y el de
E0, desde 249,45 a 375,86. Con ello se asegura la obtención de un producto
comercialmente estéril comercial, con sobrecocimiento ligero e inactivación total de
enzimas termo resistentes.

3. La adición de una proporción de 75 gramos de filete de anchoveta (Engraulis


ringens J.) mejoró la composición química de conservas de frijo bayo (Phaseolus
vulgaris) tipo Tall 1 Lb, al elevar significativamente la concentración de proteínas
hasta 18.06%.
RECOMENDACIONES

1. Realizar mayores estudios en la utilización de anchoveta (Engraulis


ringens J.) para el consumo humano directo, sobretodo en conservas, las que
por su procesamiento tienen mayor tiempo de vida útil.

2. Ensayar la elaboración de productos similares a las conservas de frijol


bayo y anchoveta, utilizando alimentos vegetales de la Región Lambayeque.

3. Ensayar y producir a escala piloto conservas de anchoveta (Engraulis


ringens J.), como materia prima, y empaques retortables.

4. Realizar una difusión adecuada a nivel de los estudiantes universitarios


sobre las bondades de la anchoveta (Engraulis ringens J.) como alimento.

REFERENCIAS BIBLIOGRAFICAS
586

1. Jay. J. Microbiología Moderna de los alimentos. JAY, J. 2002. 6a. ed.,


Zaragoza. Acribia. 2002.

2. BBVA Banco Continental. Perspectiva Mundial del Consumo Humano Directo de


Pescado. En: Perú: País en Marcha, Analysts View on Peruvian Fisheries.
Promperú - Ministerio de Pesquería, Lima. 2000.

3. Instituto Tecnológico Pesquero del Perú. La anchoveta peruana: oportunidad para


la industria conservera nacional, Callao. Grafica Biblos S.A. 2004:1-5

4. Instituto Nacional De Salud/Centro Nacional de Alimentación y Nutrición. La


composición de alimentos de mayor consumo en el Perú”, 6ª Ed. Lima –
Perú. Ministerio de Salud. 1996.

5. Cabero, T. y J, Moreno. Leguminosas de grano., Madrid. Mundi Prensa. 1995.

6. Association of Oficial Analytical Chemists. Oficial Methods of Análisis of the


Association of Oficial Analytical Chemists. 17th Ed. Kenneth Helrich. USA. (1996).

7. Vásquez, A. y J. Reupo. (1999). Bromatología analítica, Lambayeque. UPSA-


UNPRG. mimeo, vs.pgs.

8. Footitt, R. y A. Lewis. Enlatado de pescado y carne. Editorial Acribia. Zaragoza–


España. 1999: 147-190.

9. Hall, G. Tecnología del procesado del pescado. Zaragoza. Acribia. 2001:.


129-135.

10. Sikoski, Z. (1994). Tecnología de los productos del mar. Recursos, composición y
conservación. Acribia. Zaragoza, España.

11. Casp, A. y J. Abril. Procesos de conservación de alimentos. Ediciones Mundi-


Prensa. España. (1999)

12. Rees, J. y J. Bettison. Procesado térmico y envasado de alimentos. Editorial


Acribia S.A. Zaragoza – España. 1994:57-129

13. Sielaff, H. Tecnología de la fabricación de conservas. Zaragoza. Edit.


Acribia. 2000:41-47

14. Reichert, J. Optimale sterilizations temperaturen fur fertiggerichte. Kinmitteilungen


Nr. 81+82 Kin - Neumuenster. Alemania. 1981Mimeo vs. pgs.

15. Hann, G. y M. Eisner. Koordinierte tecnologie zur erhaltung der qualitat, Stock.
Alemania. 1981. Mimeo vs.pgs

16. Mafart, P. Ingeniería Alimentaria Vol. I. Procesos físicos de conservación.


Editorial Acribia Zaragoza. España.1994: 134-138.

17. Fellows, P.). Tecnología de Procesado de Alimentos, Zaragoza. Edit. Acribia.


1994: 221-251.
587

18. Alcántara, C.) Evaluación de la Calidad nutritiva, sensorial y sanitaria de sopa


de caballa (Scomber japonicus peruanus) en conserva, sometida a
diferentes tratamientos de esterilización. Tesis Ingeniero en Industrias
Alimentarias. EPIIA –UPAO, Trujillo. 2004. Mimeo . vs pgs.

Artega, F. (2003). Evaluación del tratamiento térmico del enlatado de trucha


arco iris (Oncorhynchus mykiss) ahumada, utilizando tres líquidos de
gobierno. Tesis Ingeniero en Industrias Alimentarias. EPIIA –UPAO,
Trujillo. Mimeo . vs pgs.
Frazzier, W. y D. Westhoff. (1993). Microbiología de los alimentos. 4ª. ed.,
Zaragoza. Acribia.

Hersom, A. y E. Hulland. (1974). Conservas alimenticias. Acribia. Zaragoza, España.


p: 56-67.

Instituto Tecnológico Pesquero del Perú. (1996). Compendio biológico


tecnológico de las principales especies hidrobiológicas del Perú., Lima.
Stella. p: 39-42;67-70.

Instituto Tecnológico Pesquero del Perú. (2003). Investigación y desarrollo de


productos pesqueros; Fichas técnicas. Pdf. www.itp.org.pe.
588

EFICIENCIA DE MATERIALES CERAMICOS POROSOS SINTETIZADOS A


PARTIR DE RESIDUOS URBANOS E INDUSTRIALES EN LA ADSORCIÓN DE
PLOMO, CADMIO Y CROMO EN EL TRATAMIENTO DE AGUAS RESIDUALES
URBANAS
Wilmer Vásquez Díaza, Harold Deza Guzmána, Antero Vásquez Garcíab,
Abel Gutarra Espinozac, Hernán Alvarado Quintanad, Justiniano Quispe Marcatomae

RESUMEN
Se determinó la eficiencia de filtros cerámicos porosos en la adsorción de plomo,
cadmio y cromo, presentes en aguas residuales urbanas y en disoluciones
preparadas en laboratorio. Los filtros fueron elaborados a partir de residuos urbanos
e industriales, empleando el método de la esponja polimérica para obtener una
estructura porosa. La molienda y homogenización de las suspensiones se realizó
por media hora en un molino de atrición (diseñado y fabricado por el equipo de
investigación), impregnándose las esponjas poliméricas con dichas suspensiones.
El tratamiento térmico se realizó en dos etapas, la primera a 500 °C, para asegurar
la eliminación total del sustrato polimérico, así como de los aditivos orgánicos, y
luego a 1200 °C, punto de sinterización de la mezcla. Al filtro cerámico poroso
sinterizado se realizaron pruebas de caracterización determinándose una porosidad
entre 48 - 54%, mediante DRX se detectaron fases de sílice, fluorapatita e
hidroxiapatita. Finalmente se realizó el ensayo de retención de metales pesados
plomo, cadmio y cromo para concentraciones iniciales conocidas tanto en las aguas
residuales urbanas (crudas y tratadas) como en las disoluciones preparadas en
laboratorio; se midió la concentración final después de la aplicación por 24 horas
del filtro cerámico, determinándose un porcentaje de retención del 98,37% para el
plomo en el caso de las aguas residuales tratadas, y de 99,56% para el plomo,
93,22% para el cadmio y 17,97%.para el cromo en el caso de las disoluciones de
laboratorio .
Palabras clave: Cerámicos, adsorción, metales pesados.

ABSTRACT
Efficiency of porous ceramics filters was determined in the adsorption of heavy
metals, lead, cadmium and chromium, present in urban residuals waters and
dissolutions prepared in laboratory. Filters were elaborated from urban and industrial
wastes, using the method of the polymeric sponge to obtain porous structure. Milling
and homogenization of the suspensions were carried in an attritor mill, being
impregnated the polymeric sponges with these suspensions. The thermal treatment
was carried out in two stages, the first one at 500°C, to ensure elimination of
polymeric substrate and organic additives, and then at 1200°C, mixture sinterization
point. Test of characterization has been carried out to the sinterized porous ceramic
filter, porosity was determinated between a range of 48% - 54%; silica, fluorapatite
and hydroxyapatite phases were detected by XRD test. Retention test of heavy
metals lead, cadmium and chromium were realized for known initial concentrations
in the urban residual waters (raw and treated) and in the dissolutions prepared in
laboratory; it was determined a percentage of retention of 98,37% for the lead in
treated residual waters, and of 99,56% for the lead, 93,22% for the cadmium and
17,97% for the chromium in the laboratory solutions.
Key words: ceramics, adsorption, heavy metals.
a
Ingeniero de Materiales, Universidad Nacional de Trujillo.
b
Doctor en Medio Ambiente, Decano de la Facultad de Biología, Universidad Pedro Ruíz Gallo.
c
Doctor en Física, Facultad de Ciencias, Universidad Nacional de Ingeniería.
d
Doctor en Ciencias de los Materiales. Escuela de Ingeniería de Materiales, Universidad Nacional de Trujillo.
e
Mg. Licenciado en Física, Facultad de Ciencias Físicas, Universidad Nacional Mayor de San Marcos.
589

I. INTRODUCCIÓN

Los principales ecosistemas y biotas terrestres, así como los seres humanos,
dependen del agua dulce que, en el planeta alcanza el 2,8%, del cual el hombre
solo puede acceder al 0,6 %. De esta manera, el agua se constituye en sustancia
fundamental para todas las formas de vida1. Disponer de agua limpia es cada vez
más difícil debido a la contaminación y a la superpoblación, por lo que es de suma
urgencia internalizar y poner en práctica el paradigma del desarrollo sostenible.

Se han desarrollado diversas tecnologías para el tratamiento de aguas


contaminadas. El tratamiento primario elimina materiales de mayor tamaño que
flotan o están en suspensión; el más sofisticado emplea procedimientos
fisicoquímicos y biológicos para tratar de conseguir agua de composición similar a
la natural, pero por sus costos muy elevados es poco utilizado2.

Tradicionalmente, para la purificación de aguas residuales se han utilizado, arenas,


arcillas, zeolitas, bentonitas, etc., todas ellas materias primas utilizadas en el campo
de la cerámica. En años recientes, se han desarrollado biofiltros de arcillas
expandidas, alúminas sinterizadas y vidrios sinterizados. Los fosfatos insolubles,
tales como las apatitas, están considerados como materiales promisorios para la
inmovilización de metales pesados en aguas y suelos contaminados3. Los
materiales vitrocerámicos de fosfosilicatocálcico se utilizan como inmovilizadores de
metales pesados en aguas contaminadas, sirven como soporte microbiano en
procesos de biorremediación y constituyen filtros biológicos ideales capaces de
retener metales pesados por sí mismos2.

En el grupo de los cerámicos avanzados se incluyen materiales cerámicos


totalmente densos y materiales cerámicos porosos. El término cerámicos
porosos, refiere a los cuerpos de cerámica fabricados con técnicas que permiten
aumentar su porosidad, de modo que la superficie por unidad de volumen es muy
grande; el tamaño de poro varía desde 40 nm hasta 1mm. No hay una clasificación
generalmente aceptada de cerámicos porosos, cada sector de aplicación
(construcción, metalurgia, etc.) tiene su propios criterios y normas para este fin 4. En
la presente investigación, en función del tipo de estructura de poros cerrados o
abiertos, se los agrupó en dos categorías: i) espumas cerámicas y ii) cerámicos
reticulados o esponjas cerámicas, los cerámicos reticulados tienen poros
interconectados, mientras que las espumas cerámicas tienen poros aislados5.

Se han desarrollado varios métodos para incrementar la porosidad de los


cerámicos. Entre ellos que se mencionan: 1) introducción en la suspensión
cerámica de granos de relleno (fillers) naturales o sintéticos con porosidad, 2)
introducción de aditivos produciendo poros dentro de una mezcla inicial con
subsiguiente remoción por evaporación, sublimación, disolución), 3) introducción de
gas dentro de un fundido o formación y retención de burbujas gaseosas, 4) fijación
de burbujas gaseosas originadas como una consecuencia de reacción química en
la suspensión cerámica o descomposición de aditivos formadores de gas
introducidos en la mezcla, 5) impregnación de una matriz polimérica celular con una
suspensión cerámica y el subsiguiente secado y tratamiento térmico para remover
los componentes orgánicos, 6) extrusión de mezclas cerámicas plastificadas
usando equipos de moldeo, que asegura la inmediata formación de una estructura
porosa4.
590

Los filtros cerámicos para aguas deben propiciar la formación de la fase


hidroxiapatita, ya que ésta, en principio, parece ser la responsable de la
inmovilización de los metales pesados, aunque pueden actuar otros mecanismos
aún no esclarecidos en su totalidad. Estos materiales también deben poseer
características morfológicas que los hagan idóneos para su uso; particularmente,
deben proveer gran superficie por unidad de volumen, elevada porosidad
interconectada, alta durabilidad, y no colapsar fácilmente. Los materiales
vitrocerámicos, además de reunir todas estas características, deben presentar
elevada estabilidad química y termodinámica3, 6, 7.

En la actualidad, numerosas industrias generan efluentes con cantidades


significativas de metales pesados, los que según la ley no pueden ser directamente
vertidos a los cauces de aguas receptoras o ser reutilizados. Se debe lograr una
depuración eficiente mediante un proceso adecuado y de bajo costo, por lo que se
justificó la ejecución de la presente investigación, por cuanto se trató de: i) elaborar
un material cerámico poroso, a partir de: huesos de equinos, lodos residuales de la
industria cervecera, y piedra caliza muy abundante en la región La Libertad. Se
empleó la técnica de colado en esponja polimérica para lograr sintetizar un filtro
cerámico eficiente en la retención de plomo y cadmio, contribuyendo de esta
manera a disminuir la contaminación en aguas residuales urbanas; ii) generar la
reutilización de residuos urbanos e industriales dándoles un valor agregado y uso
en nuevas aplicaciones; iii) iniciar nueva línea de investigación en cerámica
avanzada en el Perú.

El Problema científico se enuncia en los términos siguientes:


¿Cuál es la eficiencia de materiales cerámicos porosos, sintetizados a partir de
residuos urbanos e industriales, en la adsorción de plomo, cadmio y cromo en el
tratamiento de aguas residuales urbanas?

Hipótesis:
Los materiales cerámicos porosos sintetizados a partir de residuos urbanos e
industriales presentan una eficiencia mayor de 70% en la adsorción de plomo,
cadmio y cromo en el tratamiento de aguas residuales urbanas, disminuyendo la
concentración de dichos metales hasta valores menores a los límites máximos
permisibles en el agua tipo III destinada a riego de vegetales comestibles y agua de
consumo animal según el D.S. Nº 007-83-SA del Reglamento de la Ley General de
Aguas, D.L. 177528.

Se pretendió lograr los siguientes objetivos:


1. Determinar la eficiencia de los materiales cerámicos porosos sintetizados a
partir de residuos urbanos e industriales en la adsorción de plomo, cadmio y cromo
en el tratamiento de aguas residuales urbanas mediante espectrofotometría de
absorción atómica.
2. Sintetizar materiales cerámicos porosos a partir de residuos urbanos e
industriales, aplicando el método de colado en esponja polimérica para la
fabricación de los filtros.
3. Realizar la caracterización físico-química de los materiales cerámicos porosos
sintetizados a partir de residuos urbanos e industriales.

II. MATERIALES Y MÉTODOS


591

2.1. MATERIAL
Las materias primas se emplearon en las
siguientes proporciones: 50% de tierra de
diatomeas, 33% de harina de huesos de equino y
17% de piedra caliza. Los aditivos utilizados fueron
Poliacrilato de sodio (SOKALAN® AS 5), de la firma
BASF PERUANA S.A. y Carboximetil celulosa de
sodio (AQUALON® CMC 7MF).
Para el proceso de conformado se emplearon esponjas de poliuretano de 14 y 20
kg/m3 de densidad de la marca comercial ESPUMA ZEBRA ®. Obteniéndose
materiales cerámicos de morfología porosa, considerados dentro del sistema SiO 2
-P2O5 - CaO – (alcalino) 2 O, con un contenido en peso de SiO 2> 50% y una relación
CaO/P2O5 ≥ 2.

2.2. MÉTODO

2.2.1. Diseño de Experiencia: Se utilizó el diseño descriptivo causal comparativo,


orientado a determinar la eficiencia del filtro cerámico poroso y establecer la
relación causal entre la composición química de la muestra, el comportamiento
reológico y las características del filtro.

Se realizaron pruebas pre-experimentales para fijar los parámetros de porcentaje


de defloculante, y aglomerante; de la misma manera, se determinó la densidad de
espuma adecuada para el proceso de conformado.

Para establecer cualitativamente el efecto del tamaño de partícula de la suspensión


cerámica en el comportamiento mecánico de los filtros, se diseñó y construyó un
molino de atrición, con un contenedor plástico de 300 mL de capacidad, y álabes de
teflón para evitar la contaminación de las suspensiones; como carga se utilizó bolas
de alúmina de diámetro promedio de 2mm.

2.2.2. Procedimiento Experimental

Huesos (Hidroxiapatatita)
PREPARACIÓN DE LAS Tierra de Diatomeas (SiO2)
MATERIAS PRIMAS Piedra Caliza (CaCO3)

MOLIENDA Molino cerámico de bolas


de alúmina
592

CALCINACIÓN 700 ºC,16 h

ADITIVOS

Poliacrilato de sodio ≈ 0.,2 % Molino de atrición (30min )


Carboximetil Celulosa ≈ 2 %
MOLIENDA Y
HOMOGENIZACIÓN
Estudios Reológicos.

Inmersión de esponja de CONFORMADO DE


poliuretano FILTROS CERÁMICOS

Eliminación de sustrato polimérico


TRATAMIENTO (500ºC, 1h)
TÉRMICO Sinterización (1200 ºC, 1h)

Caracterización del filtro


OBTENCIÓN DEL FILTRO cerámico
CERÁMICO Porosidad
Fases (DRX)

ENSAYOS DE
Espectrofotometría de RETENCIÓN DE
Absorción Atómica
METALES PESADOS (Pb2+,
Cd2+ , Cr3+)

Figura 1. Diagrama de flujo del procedimiento experimental.

III. RESULTADOS

3.1. Obtención de la Suspensión Cerámica


3.1.1.
Estudios reológicos de las suspensiones cerámicas
Se evaluó cualitativamente el comportamiento reológico de las suspensiones
preparadas a distintas relaciones sólido/líquido: 40/60, 50/50 y 60/40. La mejor
suspensión cerámica fue la que tuvo una relación sólido/líquido de 50/50 la cual
presentaba un comportamiento de líquido medianamente fluido, en los otros casos
no se obtuvieron mezclas adecuadas. La suspensión de relación sólido/líquido
40/60 mostró un comportamiento demasiado fluido; contrariamente, la suspensión
de relación 60/40 fue muy viscosa.

Curva de defloculación:
Partiendo de la relación sólido/líquido: 50/50 y variando la cantidad de defloculante
en la suspensión, se construyo la curva de defloculación, la misma que se muestra
en la Figura 2. Se aprecia que al agregarse el aditivo SOKALAN ® AS 5, la
viscosidad de la suspensión, disminuye hasta un punto mínimo al adicionarse un
0,2% en peso de la suspensión; lo que indica que este es el punto óptimo para
hacer la mezcla.
593

Figura 2. Curva de defloculación que muestra indicando la variación de la


viscosidad (cp) de la suspensión en función del porcentaje en peso
del Sokalan AS 5.

La cantidad de aditivo aglomerante a emplear en las suspensiones se determinó de


manera cualitativa, adicionando CMC a razón de 0.25% en peso de la suspensión
con la cantidad óptima de aditivo defloculante, hasta completar un 3% en peso final.
Se observó que la suspensión con un 2% en peso de CMC no cambió
significativamente su viscosidad; pero al continuar con la adición de CMC, la
suspensión incrementaba rápidamente su viscosidad lo que la hacía inadecuada
para el método de colaje en esponja polimérica. Se fijó la cantidad del aditivo
aglomerante CMC en un 2% en peso de la suspensión cerámica.

En la determinación del comportamiento reológico del aditivo carboximetil celulosa,


CMC al 2%, se obtuvo la curva que se muestra en la Figura 3, en la que se aprecia
que la viscosidad disminuye hasta un punto mínimo de viscosidad de 3950 cp a
medida que se aumenta la velocidad de cizalla (60rpm).
594

Figura 3. Curva que representa la variación de la viscosidad (cp) del CMC al


2% en relación con la velocidad de cizalla (rpm).

3.2.
Pruebas de sinterización y eliminación de la esponja polimérica

Pruebas preliminares de sinterización y eliminación de la esponja


polimérica
Se prepararon suspensiones con relación (en peso) sólido/líquido de 40/60, sin
añadir ningún aditivo en las cuales se sumergió una esponja de poliuretano.

Para eliminar la esponja de poliuretano se hizo un tratamiento térmico a 500ºC por


una hora. Se observó la eliminación total de la esponja polimérica (Figura 4a);
Luego se procedió a sinterizar a 1200 ºC por una hora, observándose que la
esponja cerámica obtenida terminó fracturada (Figura 4b).
595

(a)
(b)

Figura 4. Esponjas cerámicas obtenidas de la suspensión cerámica de relación


sólido/líquido: 40/60. (a) Nótese que la replica cerámica se muestra integra; (b)
réplica cerámica fracturada.

Para la elección de la esponja polimérica a emplear se impregnaron con la


suspensión cerámica con relación sólido/líquido de 50/50 –con los aditivos en
cantidades fijadas en las pruebas reológicas– ESPUMAS ZEBRA ® con las
dimensiones del filtro a fabricar, de diferentes espesores (3 y 6mm) y densidades
(14 y 20 kg/m3).

En la Figura 5 se muestran filtros cerámicos fabricados con distintos tipos de


sustratos poliméricos, donde A, B y C corresponden a los filtros fabricados con
esponjas poliméricas de 14 kg/m3 de densidad; mientras que D, E y F corresponden
a los fabricados con esponjas poliméricas de 20 kg/m3 de densidad Además C y F
se fabricaron con esponjas poliméricas de 6 mm de espesor; mientras que el resto
corresponden a esponjas de 3 mm de espesor.

A B C D E F

Figura 5. Esponjas cerámicas fabricadas con diferentes tipos de sustratos


poliméricos.

Después de la aplicación del tratamiento térmico, los filtros que mostraron la mejor
apariencia y resistencia fueron los que se fabricaron con el sustrato polimérico de
20 kg/m3 de densidad y 6 mm de espesor (Figura 5 - F). Una menor densidad y
espesor significaban una disminución en la apariencia y resistencia del filtro
fabricado.

A partir de estos resultados se decidió fabricar todos los filtros cerámicos


empleando como sustrato polimérico la ESPUMA ZEBRA ® con mayor densidad y
espesor.

3.4. Obtención de los cerámicos porosos:


596

El filtro cerámico tuvo una apariencia blanquecina. Sus dimensiones obtenidas


fueron de 3,3 cm de largo, 1,3 de ancho y 0,5 cm de espesor.

Se calculó el perímetro del filtro cerámico en 20,40 cm y el área en 4,29 cm 2;


además, en ellos se apreció buena consistencia y porosidad homogénea, con poros
interconectados (Figura 6).

Figura 6. Filtro cerámico poroso sinterizado a 1200 °C durante una 1 hora a


velocidad de calentamiento de 6 °C/min.

3.3
Caracterización del filtro cerámico
Medidas de difracción de rayos X
La Figura 7 muestra el difractograma correspondiente a los filtros cerámicos
INTENSIDAD (u.a)

porosos, después del tratamiento térmico de calcinación y sinterización, indicando


la presencia de las fases sílice, fluorapatita e hidroxiapatita.

2
597

Figura 7. Difractograma de los filtros cerámicos sinterizados a 1200 ºC durante 1h.


3.2. Ensayos de retención de plomo, cadmio y cromo en disoluciones de
laboratorio

Figura 8. Retención de metales pesados: plomo, cadmio y cromo en relación con el tiempo
de exposición en filtros cerámicos porosos. C0: 7,985 ppm Pb2+, 5,645 ppm Cd2+, 7,757 ppm
Cr3+. Espesor del filtro: 0.5 cm.

3.3. Ensayos de retención de metales pesados en aguas residuales.

Los ensayos de retención de plomo en aguas residuales posibilitaron determinar los


resultados mostrados en la Tabla 1. En las aguas crudas se verificó una eficiencia
de 36,825 % en la retención de plomo; mientras que en las aguas residuales
tratadas fue 98,374 %. En estas aguas no se verificó la presencia de otros metales
pesados.

Tabla 1. Concentración de plomo, cromo y cadmio en aguas residuales crudas y tratadas de


la planta de tratamiento de aguas. (Junio, 2005).
Metales Agua residual cruda Agua residual tratada
598

Concentración Concentración Retención Concentración Concentración


Retención
inicial final (%) inicial final
(%)
(ppm) (ppm) (ppm) (ppm)
Plomo
5,518 3,486 36,825 2,767 0,045 98,374
(Pb 2+)

IV. DISCUSIÓN

La mezcla de las materias primas en el molino de atrición para reducir el tamaño de


partícula hasta niveles cercanos al orden de los 20 µm fue muy importante porque
se logró obtener una mejor suspensión cerámica y unos filtros con mayor
resistencia; con ello se comprobó que, la disminución del tamaño de partícula
influye tanto en la reología de las suspensiones –facilitando la impregnación de la
esponja polimérica-, como en el tratamiento térmico de sinterizado –propiciando
una mejor resistencia debido a la presencia de un mayor número de puntos de
contacto-, esto concuerda con lo reportado por Coles y Yong 9, Villora, Callejas y
Barba6, quienes obtuvieron un tamaño medio de partículas de 6 µm.

Se puede apreciar que la relación sólido/líquido: 40/60 no fue adecuada, ya que la


suspensión resultó demasiada fluida que hacía difícil su impregnación en la esponja
cerámica; la suspensión no se mantenía mucho tiempo en la esponja pues fluía
rápidamente por acción de la gravedad. La relación sólido/líquido 50/50, fue la
mejor proporción de mezcla, pues se obtuvo una suspensión cerámica pastosa
medianamente fluida, adecuada para la impregnación, que permitió mantener la
suspensión adherida a la estructura de la esponja. En la relación sólido/líquido
60/40, la suspensión cerámica resultó demasiado viscosa; esto no permitió una
adecuada impregnación en la esponja polimérica pues no penetraba la suspensión
en todos los poros de la esponja cerámica. Nuestros resultados difieren de lo
reportado por García, Villora, Moreno, Ranninger, Callejas y Barba7 quienes
manifiestan que la mejor relación sólido/líquido es de 40/60; se atribuye este hecho
a que ellos trabajaron con lodos de la industria papelera; restos de huesos de
vacuno y tierra de diatomeas lo que hace diferentes las características de la
suspensión cerámica; además, las diferencias en las condiciones de proceso en las
que desarrollaron su experiencia puede ser un factor muy importante.

La adición del poliacrilato de sodio (SOKALAN AS 5) en un 0,2 % en peso


disminuyó la viscosidad de la suspensión pues este aditivo tiene la propiedad de
dispersar las partículas. El carboximetil celulosa (CMC) en un 2% en peso aumentó
la aglomeración de partículas sin alterar significativamente la viscosidad de las
suspensiones. Estas cantidades de aditivos, se consideraron adecuadas ya que se
logró obtener una suspensión cerámica de consistencia pastosa medianamente
fluida, apropiada para la impregnación en la esponja polimérica; ello es compatible
con lo recomendado por Díaz5, Villora, Callejas y Barba6. Después de 30 minutos
en reposo, aumentó la viscosidad de la suspensiones cambiando su estado
semifluido debido a la propiedad de tixotropía lograda por adición del aglomerante,
concordando con lo reportado por Moreno10, quien al respecto señala que por
acción mecánica los materiales sólidos cambian su estado a semifluidos y luego
recuperan su estado original no alterándose sus propiedades físicas y químicas.
Esto permitió que inmediatamente después de la molienda, la suspensión sea lo
suficientemente fluida para el colado en esponja polimérica; pero durante el
599

tratamiento térmico, permitió que la esponja retenga la suspensión cerámica en su


estructura.

La elección de la esponja polimérica fue una prueba muy valiosa, ya que permitió
escoger adecuadamente el tipo de esponja a utilizar, lo que nos llevó a obtener
filtros cerámicos porosos de mejor comportamiento mecánico (Figura 5),
concordando con Salvini, Innocentini y Pandolfelli11, quienes señalan que las
propiedades estructurales del filtro cerámico producido por el método empleado son
controladas por las características de la esponja polimérica. Estas propiedades
incluyen la porosidad, el tamaño de poros y el número de poros por pulgada lineal.

El buen comportamiento mecánico de los filtros cerámicos porosos se debe también


a la presencia de SiO2 estimada mayor al 50%, lo que mejora la resistencia
mecánica del material y además aporta porosidad intragranular. En la Figura 6, se
observa la presencia de porosidad abierta interconectada en la estructura del filtro,
esto se debe a que durante el tratamiento térmico el carbonato de calcio se
descompone y desprende gas CO2, el mismo que al difundirse formaría canales en
el material produciendo porosidad interconectada tal como lo manifiestan Villora,
Callejas y Barba6,12. En la figura 6, también se puede notar que los bordes
puntiagudos de los poros sugieren una salida del gas en forma de erupción;
además, algunos poros aparecen tapados, esto se puede deber
fundamentalmente a las condiciones del tratamiento térmico aplicado en la
fabricación de los filtros cerámicos.

El difractograma de los filtros cerámicos sinterizados (Figura 7) muestra la


presencia mayoritaria de la fases sílice y fluorapatita, y en menor proporción la fase
hidroxiapatita. Esto se debe, posiblemente, a la naturaleza de los huesos de
equinos empleados, los cuales presentaban fluorapatita en mayor cantidad a la
hidroxiapatita. La sílice es la fase mayoritaria debido a la dosificación de las
materias primas, el carbonato de calcio desaparece completamente durante el
tratamiento térmico al descomponerse y liberar CO 2, concordando con lo reportado
por Villora, Callejas y Barba12.

En la curva de retención de metales pesados (Figura 8) se determinó que la


eficiencia de los filtros sintetizados a partir de residuos urbanos e industriales en la
adsorción de metales pesados en disoluciones preparadas en laboratorio fue
99,56% en el plomo, 93,22% en el cadmio y 17,97% en el cromo. Además, durante
las dos primeras horas de ensayo se observó una mayor afinidad con la adsorción
de Plomo, equiparándose al cabo de 24 horas de ensayo. El filtro cerámico adsorbe
el metal hasta saturarse, conforme transcurre el tiempo de retención, coincidiendo
con lo reportado por Villora, Callejas y Barba 6, quienes obtuvieron un porcentaje de
retención en plomo cercano al 70% después de 10 horas de retención; sin
embargo, para el caso del cadmio se difiere con Villora, Callejas y Barba 12, quienes
reportaron un porcentaje de retención de casi el 30% después de 10 horas de
retención. La curva de retención del cromo muestra que durante las 10 primeras
horas, el filtro había adsorbido 14,34% de cromo. A partir de este momento hasta
las 24 horas se observa un ligero aumento con tendencia a estabilizarse en el rango
de 15 a 20 horas, observándose una baja captación de cromo comparado con los
otros metales.
600

En los ensayos de retención de metales pesados en aguas residuales urbanas


crudas y tratadas, se observó una menor eficiencia de retención del plomo para el
caso de las aguas residuales crudas (Tabla 1), siendo mucho mayor cuando el filtro
se aplicó en aguas residuales tratadas. Esto indicó que el filtro es eficaz cuando es
aplicado en un tratamiento terciario de aguas residuales; sin embargo, no lo es
cuando se aplica como tratamiento primario, esto en concordancia con Villora,
Callejas y Barba6. Esto podría deberse a las diferentes condiciones en las que se
encuentra el agua residual cruda y a la interacción de múltiples factores: pH,
alcalinidad, dureza, temperatura, DBO.

V. CONCLUSIONES
Se sintetizó materiales cerámicos porosos a partir de residuos sólidos urbanos e
industriales, aplicando el método de colado en esponja polimérica para la
fabricación de los filtros.

En el caso del filtro cerámico, se observó una mayor proporción de la fase sílice,
seguida de fluorapatita y en menor proporción hidroxiapatita.

La eficiencia de los materiales cerámicos porosos sintetizados a partir de residuos


urbanos e industriales en la adsorción de metales pesados en disoluciones
preparadas en laboratorio fue 99,56 % en el plomo, 93,22 % en el cadmio y 17,97
% en el cromo. En las aguas residuales tratadas, la eficiencia de adsorción de
plomo fue de 98,37%, lográndose una concentración final de plomo de 0,045 ppm.
Este valor está por debajo de los límites máximos permisibles de plomo para aguas
tipo III (0,1 ppm) según el D.S. Nº 007-83-SA del Reglamento de la Ley General de
Aguas, D.L. 177528.

VII. REFERENCIAS BIBLIOGRAFICAS

1. GLYNN, H. y G. HEINCKE. (1999) Ingeniería Ambiental. Segunda Edición.


Editorial Prentice – Hall Hispanoamericana S:A. México. p: 343-346.

2. INFOAMBIENTE. (2000). Materiales Vitrocerámicos obtenidos a partir de


residuos. Artículo. [Consulta: 15 – 05 – 2004].
<http://www.infoambiente.com/cgi-bin/ambiente.cgi?MSITE=&item=10028>

3. PELD, M.; TÕNSUAADU, K. y V. BENDER. (2004). Natural and Synthetic


apatites as sorbents for Cd2+ and Cr3+ ions from aqueous solutions. Proc.
Estonian Acad. Sci. Chem, 2004, 53, 2, 75 – 90.

4. GUZMAN, Y. (2003). Certain Principles of Formation of Porous Ceramic


Structures. Properties and Applications (A Review). Glass and Ceramics. Vol.
60. Nov. 9-10, 2003.

5. DÍAZ, S. (2003). Fabricación de Esponjas Cerámicas de Alúmina. Tesis para


obtener el Título de Ingeniero Industrial. Centro de Investigaciones en
Materiales y Metalurgia. Instituto de Ciencias Básicas e Ingeniería. Universidad
Autónoma del Estado de Hidalgo. Pachuca, México.
601

6. VILLORA, J.; CALLEJAS, P. y M. BARBA. (2004). Influencia del procesamiento


de materiales cerámicos en su comportamiento como adsorbente de iones en
aguas industriales. Bol. Soc. Esp. Ceram. V., 43[1] 75 - 79.

7. GARCÍA, A.; VILLORA, J.; MORENO, D.; RANNINGER, C.; CALLEJAS, P. y M.


BARBA (2004). Aplicación de un material vitrocerámico a la biorremedación de
metales pesados. Bol. Soc. Esp. Ceram. V., 43[1] 59 – 62.

8. MINISTERIO DE ENERGÍA Y MINAS. (2005). Marco Legal del Organismo


Supervisor de la Inversión en Energía-OSINERG. [Consulta: 24 – 07 – 08]. p:
24.
<http://www.minem.gob.pe/archivos/dgaae/publicaciones/estudios_impacto/chilca/ANEXOS-
OSINERG.pdf>

9. COLES, C y R. YONG. (2002). Aspects of Kaolinite characterization and


retention of Pb and Cd. Elsevier Science B.V.

10. MORENO, R. (2003). Conformado Coloidal de materiales cerámicos: métodos


avanzados para materiales tradicionales. Instituto de Cerámica y Vidrio, CSIC.
Madrid, España.

11. SALVINI, V; INNOCENTINI, M. y V. PANDOLFELLI (2003). Influencia de las


condiciones de procesamiento cerámico en la resistencia mecánica y
permeabilidad de filtros de Al2O3-SiC. Cerámica V.48n307 Sao Paulo jul/set
2002. [Consulta: 25 – 09 – 2004].
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S0366-
69132002000300003&lng=pt&nrm=iso>

12. VILLORA, J.; CALLEJAS, P. y M. BARBA (2002). Métodos de Síntesis y


comportamiento térmico del Hidroxiapatito. Bol. Soc. Esp. Ceram. Vidrio,
41[5]443 – 445.
602

Guía breve para la presentación de


referencias y citas bibliográficas

Esta guía presenta los modelos para elaborar referencias y citas


bibliográficas de acuerdo a las normas de la American Psychological
Association (APA). Estos esquemas se ilustran mediante ejemplos de
documentos publicados en forma tradicional o en medios electrónicos.

I. Referencias bibliográficas II. Citas de referencias en el texto


Libros Cita textual
Publicaciones periódicas Cita contextual
Medios electrónicos Cita de cita
Otras referencias Otras citas de referencia

I. Referencias bibliográficas
A continuación se presenta una serie de esquemas de referencias con
ejemplos de su aplicación.
603

Libros
Elementos de referencia de un libro completo
Autor/editor (año de publicación). Título del libro (edición) (volumen). Lugar
de publicación: editor o casa publicadora.
Para un artículo o capítulo dentro de un libro editado
Autor/editor (año de publicación). Título del artículo o capítulo. En Título de
la obra (números de páginas) (edición) (volumen). Lugar de publicación:
editor o casa publicadora.

Ejemplos de referencias a libros


Un autor
Luenberger, D. (1989). Programación lineal y no lineal. México: Addison-
Wesley.
Dos autores
Padrini, F. y Lucheroni, M. T. (1996). El gran libro de los aceites esenciales.
Barcelona: De Vecchi.
Cuatro autores, octava edición
Selltiz, C., Jahoda, M., Deutsch, M. y Cook, S. W. (1976). Métodos de
investigación en las relaciones sociales (8a. ed.). Madrid: Rialp.
Sin autor
The bluebook: a uniform system of citation (15a. ed.) (1991). Cambridge:
Harvard Law Review Association.
Capítulo en un libro
Hernández, R., Fernández, C. y Baptista, P. (1998). Recolección de los
datos. En Metodología de la investigación (pp. 233-339). México: McGraw-
Hill.
Traducción
Malhotra, N. K. (1997). Investigación de Mercados. Un enfoque práctico.
(Trad. V. de Parres). México: Prentice-Hall (Original en inglés, 1996).
Autor corporativo
FUNDACIÓN MEXICANA PARA LA CALIDAD TOTAL, A. C. (1988). Primer
inventario mexicano: esfuerzos y procesos para la calidad total. México:
FUNDAMECA.
El autor es el mismo editor
604

American Psychological Association (1983). Publication manual of the


American Psychological Association (3a. ed.). Washington, DC: Autor.
SPSS, Inc. (1988). SPSS-X User’s Guide (3a. ed.). Chicago: Autor.
Autor que reúne varios trabajos de diferentes autores
Schwartzman, S. (Comp.) (1977). Técnicas avanzadas en ciencias sociales.
Buenos Aires: Nueva Visión.
Artículo en un libro de congreso
Marsh, S. (1994). Optimism and pesimism in trust. En Iberamia 94. IV
Congreso de Inteligencia Artificial (Comp.)(pp. 286-297). Caracas: McGraw-
Hill.
Obras del mismo autor en el mismo año
Mora y Araujo, M. (1971a). El análisis de relaciones entre variables, la
puesta a prueba de hipótesis sociológica. Buenos Aires: Nueva Visión.
Mora y Araujo, M. (1971b). Medición y construcción de índices. Buenos
Aires: Nueva Visión.
Serie, el mismo autor en el mismo año
Kim, J.O. y Mueller, Ch. (1978 a). Introduction to factor analysis. Sage
University Paper. Serie: Quantitative Applications in the Social Sciences, no.
13. Beverly Hills y Londres: Sage Publications.
Kim, J.O. y Mueller, Ch. (1978 b). Factor analysis: statistical methods and
practical issues. Sage University Paper. Serie: Quantitative Applications in
the Social Sciences, no. 14. Beverly Hills y Londres: Sage Publications.
Colección
Roth, I. (1972). Guía para la redacción de trabajos científicos. Caracas:
Universidad Central de Venezuela. (Colección Avance 42. Ediciones de la
Biblioteca).
Guerra, R. (1985). Matemáticas modernas. Barcelona: Latina. (Colección
Omega No. 3).
Diccionario
Pequeño Larousse Ilustrado (1978). México: Larousse.
Real Academia Española (1992). Diccionario de la lengua española (21a.
ed.). Madrid: Espasa-Calpe.
Enciclopedia, todos los volúmenes
605

Cabanne, P. (1993). Hombre, Creación y Arte (Vols. 1-5). Barcelona: Argos-


Vergara.
Término definido en una enciclopedia
Antropología (1992). En Enciclopedia Hispánica (Vol. 1, pp. 378-383).
Kentucky: Encyclopedia Britannica.

Publicaciones periódicas
Artículo de revista científica

Autor (año de publicación). Título del artículo. Título de la revista, volumen


(número de la edición), números de páginas.

Ejemplos de referencias a revistas


Artículo de revista, volumen 4
Stefan, D. (1997). Sociedades postcomunistas. Transición económica en los
países de Europa central y Oriental. Anales de la Universidad Metropolitana,
4, 19-27.
Artículo de revista, páginas discontinuas
Boston, B. O. (1992, noviembre). Portraying people with disabilities: toward a
new vocabulary. The Editorial Eye, 15, 1-3, 6-7.
Artículo de revista, volumen 3, número de la edición 2
Parra, R. E. y González, A. (1994). Magnetismo en aleaciones metálicas
diluidas. CIENCIA, 3(2), 67-74.
Ejemplar completo de una revista, con editor
Gauthier-Villars (Ed.). (1973). Opinions et scrutins: analyse mathématique
[Número especial]. Mathématiques et Sciences Humaines, 43.
Artículo de revista en imprenta
Landeau, R. (En imprenta). Análisis de datos ordinales. II Congreso de
Investigación y Creación Intelectual en la Unimet.

Artículo de periódico

Autor (fecha mostrada en la publicación). Título del artículo. Nombre del


periódico, pp. números de páginas.

Ejemplos de referencias a periódicos


606

Artículo de diario
Acosta, J. (2000, 19 de marzo). Otra vez los antioxidantes. El UNIVERSAL,
pp. 3-10.
Artículo de diario, sin autor
Productores de papel rechazan declaraciones de la industria gráfica (2000,
24 de mayo). El NACIONAL, pp. E/8.

Medios electrónicos
Como medio electrónico se contemplan los documentos en formato
electrónico, bases de datos y programas de computadoras, tanto accesibles
en línea como si están en un soporte informático tal como discos, cintas
magnéticas, DVD y CD-ROM.

Documentos electrónicos, bases de datos y programas de


computadoras

Autor/responsable (fecha de publicación). Título (edición), [tipo de medio].


Lugar de publicación: editor. Disponible en: especifique la vía [fecha de
acceso].

Ejemplos de referencias a documentos electrónicos


Documento en línea
Hernández, M. E. (1998). Parque Nacional Canaima, [en línea]. Caracas:
Universidad Central de Venezuela. Disponible en:
http://cenamb.rect.ucv.ve/siamaz/dicciona/canaima/canaima2.htm [2000, 3
de junio].
Documento en línea, con responsable
Organismo Autónomo de Museos y Centros (1999, julio). Museo de la
Ciencia y el Cosmos, [en línea]. Tenerife: Trujillo, W. M. Disponible en:
http://www.mcc.rcanaria.es [1999, 22 de diciembre].
Documento en línea, sin autor
Electronic reference formats recommended by the American Psychological
Association (1999, 19 de noviembre), [en línea]. Washington, DC: American
Psychological Association. Disponible en:
http://www.apa.org/journals/webref.html [2000, 20 de mayo].
Neuroscience & Olfaction (1999, 21 de diciembre) [en línea]. Lyon: CNRS-
UPRESA 5020. Disponible en: http://olfac.univ-
lyon1.fr/olfac/servolf/servolf.htm [2000, 18 de mayo].
607

Documento en CD-ROM, sin autor


Biblioteca Médica Digital (2000, abril) [CD-ROM]. Buenos Aires: TeleSalud
[2000, 1 de junio].
Parte de un documento en CD-ROM, con responsable
Enciclopedia Temática Multimedia (1997). El porvenir a merced del azar. En
Ciencias adivinatorias, [CD-ROM]. Madrid: F&G Editores [2000, 4 de
febrero].
Base de datos, sin autor
Centro de Investigación y Documentación Científica (1999, 19 de enero),
[base de datos]. Madrid: Consejo Superior de Investigaciones Científicas.
Disponible en:
http://www.cindoc.csic.es/prod/psedisoc.htm [2000, 22 de febrero].
Software en disco
Norusis, M. J. (1988). SPSS/PC advanced statistics, v2.0, [software de
computadora en disco]. Chicago: SPSS Inc.
Software en CD-ROM, sin autor. Con localización y nombre de la
organización
STATISTICA (1992), [software de computadora en CD-ROM]. Tulsa:
StatSoft .
TM

Artículo en publicaciones periódicas electrónicas

Autor (fecha mostrada en la publicación). Título del artículo. Nombre de la


publicación [tipo de soporte], volumen, números de páginas o localización
del artículo. Disponible en: especifique la vía [fecha de acceso].

Ejemplos de referencias a publicaciones periódicas


electrónicas
Artículo de revista
Pereira, J. E. (2000, mayo). Apostando al futuro. RELI [en línea], N° 85.
Disponible en: http: //www.reli.org [2000, 5 de junio].
Artículo de periódico mensual
Cámara Oficial de Comercio e Industria de Madrid (2000, junio). Seminario
sobre Croacia y encuentro empresarial. Comercio Industria [en línea].
Disponible en:
608

http://www.camaramadrid/es [2000, 3 de junio].


Artículo de diario
De Benito, E. (2000, 5 de junio). Soria es la primera región del mundo que
planifica un desarrollo ecológico y sostenible. El país digital [en línea], N°
1494. Disponible en: http://www.elpais.es/p/d/20000605/sociedad/soria.htm
[2000, 5 de junio].
Ley en línea
Poder Legislativo de Venezuela (2000, 15 de febrero). Ley Orgánica del
Trabajo. En Gaceta Oficial N° 5152 Extraordinario [en línea]. Disponible en:
http://www.analitica.com/bitblioteca/congreso_venezuela/ley_del_trabajo.asp
[2000, 1 de marzo].

Otras referencias
Trabajo de grado
Dávila, A. (1999). Cortos del cine venezolano. Trabajo de grado, Ingeniería
de Sistemas, Universidad Metropolitana, Caracas.
Gómez, C. y Velásquez, M. E. (2000). Contrastación empírica de los
modelos de selección de óptimos de cartera versus las restricciones de la
Ley de Pensiones en Venezuela. Trabajo de grado, Maestría en Finanzas,
Universidad Metropolitana, Caracas.
Manuscrito no publicado
Paniagua, M. (1988). Análisis del comportamiento del comprador y vendedor
industrial. Manuscrito no publicado, Escuela Superior de Comercio y
Administración, Instituto Politécnico Nacional, México.
Ley
Ley Orgánica del Trabajo (1997). En Gaceta Oficial No. 5152 Extraordinario.
Poder Legislativo de Venezuela.
Reglamento
Reglamento de ejecución y evaluación del Trabajo Final. Consejo Superior,
N° 143, Universidad Metropolitana, Caracas (1999).
Comunicaciones personales: cartas, memorandos, mensajes:
M. Linares (comunicación personal) (2001, 16 de julio).
Correo electrónico
609

Emisor (dirección electrónica del emisor) (fecha del mensaje). Título del
mensaje. Correo electrónico enviado a: destinatario (dirección electrónica del
destinatario).
M. Vargas (mvargas@cantv.net) (2001, 15 junio). Reservación hotel. Correo
electrónico enviado a: Hotel Kea (kea2000@cantv.net).
Trabajo no publicado y presentado en un evento
Brito, S. (2001, febrero). Aplicaciones educativas de las Teorías de Piaget y
Vigotsky. Trabajo presentado en el Colegio de Profesores, Caracas,
Venezuela.

II. Citas de referencias en el texto


Una cita es la presentación del material citado del trabajo de otros autores
que se ha tomado para apoyar y sustentar el trabajo elaborado. Se
distinguen varios tipos de citas, entre ellas:
Cita textual: Cuando se transcribe un texto literalmente.
Si la cita tiene menos de 40 palabras, ésta se coloca entre comillas a
continuación del párrafo que se está exponiendo.
Si la cita tiene 40 o más palabras (cita larga), ésta se escribe en una nueva
línea, como una nueva división; escriba todo el párrafo con una sangría de
cinco espacios desde el margen izquierdo.
Cita contextual: Cuando se resume una parte específica de un
documento o del contenido del mismo.
Cita de cita: Cuando se hace referencia a citas mencionadas por otros
autores.
Las citas se colocan a medida que se van mencionando en el informe y cada
vez que se ratifica un dato se debe presentar una nota que reseña la fuente
de información. Cuando cite, incluya siempre el autor, el año y la página
concreta del texto citado. La cita se puede redactar de tres maneras:
 Con énfasis en el autor: apellido del autor, el año entre paréntesis, el
texto citado y la página entre paréntesis.
 Con énfasis en el contenido del texto: el texto citado y, entre
paréntesis, el apellido del autor, el año y la página.
 Con énfasis en la fecha de publicación: es una narración que
comienza con el año, luego el apellido del autor, el texto citado y la
página entre paréntesis.
610

Cuando sean tres o más autores, cite al primero y a los subsecuentes como
"et al."; en la lista de referencias se mencionan todos los autores.
A continuación se presentan algunos modelos de citas de referencia que se
pueden insertar dentro de un texto.

Cita textual
Textual corta, énfasis en el contenido, un autor
"Deseaba morirse para alejarse de sí mismo, para no ser él, para encontrar
la tranquilidad en el corazón vacío, para permanecer abierto al milagro a
través del pensamiento puro" (Hesse, 1990, p.12).
Textual corta, énfasis en el contenido, más de tres autores
"En todos los niveles, la familia es la institución más importante por medio de
la cual el sistema de clases se reproduce" (Worsley et al., 1979, p. 147).
Textual corta, énfasis en el autor
Rivas (1985) dijo: "Cuando el hombre razona sobre el principio de libertad y
ve que su persona está sujeta a normas de conducta no tolerables es
cuando empieza a rebelarse" (p. 175).
Textual larga, énfasis en el contenido
La coherencia y lógica sobre las cuales se apoya el conocimiento científico
es el resultado de identificar los elementos básicos que conforman su objeto
específico de conocimiento; encontrar explicaciones interconectadas al
comportamiento de los elementos que conforman, y formular respuestas a la
situación descrita por alternativas de acción coherentes con las situaciones
explicativas que las provocan. (Méndez, 1988, p.3)
Textual larga, énfasis en el contenido, más de tres autores
Una vez redactado el esquema, es una buena idea volver sobre el mismo,
para ver si se ha omitido algo importante y si las ideas que han sido
agrupadas verdaderamente pertenecen a ese grupo. Será una idea útil tener
a alguna persona que lo lea y lo comente. Entonces, si parecen necesarios
cambios en la estructura básica del informe, pueden ser introducidos antes
de que comience la redacción definitiva. (Selltiz et al., 1965, p. 503).
Textual corta, de un libro traducido (fecha original de la
publicación/fecha de la traducción)
"El objetivo principal de la investigación causal es obtener evidencias
respecto a las relaciones de causa y efecto". (Malhotra, 1996/1997, p. 97).

Cita contextual
611

Contextual específica
Eco (1982) explicó qué es una tesis y para qué sirve (18-22).
Contextual específica
Sobre los problemas básicos a los que debe enfrentarse toda economía
Samuelson (1984) expone tres: qué se va a producir de la gran variedad de
bienes y servicios posibles, cómo va a combinar la sociedad sus factores
productivos para producir cada bien, y para quién se van a producir los
bienes (16-57).
Contextual específica, diferentes autores
Kolman (1981) y Perry (1990) explicaron la importancia de introducir las
ideas abstractas del álgebra lineal en forma gradual.
Contextual específica, dos obras del mismo autor en el mismo año
Mora y Araujo (1971a y 1971b) realizó importantes investigaciones sobre el
proceso de vincular conceptos abstractos con indicadores empíricos.
Contextual general
La teoría revolucionaria sobre la inteligencia emocional ha hecho tambalear
muchos conceptos de la psicología (Goleman, 1995).
Contextual específica, manuscrito inédito
La información relativa a diversos modelos cuantitativos servirá para que el
administrador general obtenga más conocimiento en lo que se refiere a las
relaciones entre el modelo y los problemas del mundo real (Theoktisto, 1988,
inédito).
Contextual general, cita del título de un libro
Con el libro de Samuelson (1984), titulado ECONOMÍA, muchos lectores han
aprendido los elementos básicos de la moderna ciencia de la economía
política.

Cita de cita
Cita de cita, énfasis en el autor
Germani, 1971, citado por Briones (1996), escribió:
Un índice socioeconómico es un instrumento de medición que permite
asignar medidas a las personas con base en la posesión, precisamente, de
indicadores sociales y económicos. Este número, como sucede en otras
escalas, permite la jerarquización de las personas y su clasificación en cierto
número de categorías. No está por demás expresar que estos
procedimientos no son adecuados, ni aun desde el punto de vista
612

cuantitativo, para el estudio de las clases sociales, como es frecuente en los


llamados estudios de estratificación social. (p. 159)
Cita de cita, énfasis en la fecha
En 1975, Korionov, citado por Rivas (1985), sobre la crisis de un sistema
dijo:
Para abril de 1971, según cálculos estimados, había en los Estados Unidos
65.000 científicos e ingenieros desocupados. Decenas e incluso centenas de
ingenieros formaban filas ofreciendo sus servicios en cuanto se enteraban
de que en alguna parte había trabajo. Otros miles abandonan la búsqueda y
se dedican a vender zapatos, parcelas en el cementerio o conducen taxis.
Uno de cada cuatro químicos del país está desocupado o hace de barman
en una cervecería. (p. 78)

Otras citas de referencia


Comunicaciones personales: cartas, correo electrónico, mensajes,
entrevistas
J. Hendric (comunicación personal, 1 de marzo, 1982)
(M. Linares, comunicación personal, 16 de julio, 2001)
Cita interrumpida
"... no existe una sola forma correcta de presentar un trabajo. ... Resulta
difícil, al respecto, tratar de formular procedimientos o técnicas que
resuelvan esta tarea, pues no se trata de una actividad mecánica sino
esencialmente creadora" (Sabino, 1986, 179-180).
Cita dentro de una cita o cualquier texto entrecomillado (se encierra
entre comillas simples)
Worsley Worsley (1979, p. 313) examinó la conservación de la identidad:
La primera generación se asoció, todos juntos, para protegerse y compartir
sus valores y medios familiares de vida. La segunda generación se socializó
en los modos de vida americanos, particularmente por vía de la escuela y
por contacto con miembros de otros grupos étnicos en el trabajo y en la vida
social general, aunque su vida de hogar era diferente … A menudo estaban
avergonzados de estas culturas 'del viejo continente' y querían ser
'modernos' … La tercera generación, sin embargo, era abiertamente
americana, y por tanto no se avergonzaba; comenzaron a aprender la lengua
ancestral y a visitar la tierra natal … Sobre ello expuso Gellner (1964): 'Los
nietos intentan recordar lo que los hijos intentan olvidar'. (p. 163)
Explicación de otra persona diferente del autor (se encierra entre
corchetes)
613

Taha (1991) escribió:


Pese a los adelantos impresionantes en la representación por modelos
matemáticos, un número apreciable de situaciones reales siguen estando
fuera del alcance de las técnicas matemáticas de que se dispone en el
presente. Por un motivo, el sistema real puede tener demasiadas relaciones,
variables, para hacer posible una representación matemática 'adecuada' [o
puede suceder que se dificulte la identificación de las variables y las
restricciones dominantes que sean indispensables para la toma de decisión].
En otro sentido, aun cuando se pueda formular un modelo matemático, éste
puede ser demasiado complejo para resolverse a través de métodos de
solución disponibles. (p. 9)
Cita de un lugar en la red, pero no un documento específico
Altavista.com es un sitio que facilita el acceso al tema o información que
usted necesite en internet (http:www.altavista.com)
Cita de programas de computadora
Los principales paquetes estadísticos conocidos hoy en día son el SPSS y el
Minitab, ambos disponibles en Window, Macintosh y UNIX.

Bibliografía
American Psychological Association (1998). Manual de estilo de
publicaciones de la American Psychological Association. México: El Manual
Moderno.
Electronic reference formats recommended by the American Psychological
Association (1999, 19 de noviembre), [en línea]. Washington, DC: American
Psychological Association. Disponible en:
http://www.apa.org/journals/webref.html [2001, 20 de junio].
614

INVESTIGACION CUALITATIVA

La investigacion cualitativa es un tipo de investigacion que ofrece tecnicas


especializadas para obtener respuestas a fondo acerca de lo que las personas
piensan y sienten. Este tipo de investigacion es de indole interpretativa y se realiza
con grupos pequeños de personas cuya participacion es activa durante todo el
proceso investigativo y tienen como meta la transformacion de la realidad .
Algunas de las investigaciones cualitativas de mayor uso son: la
investigacion participativa , la investigacion accion y la investigacion etnografica .
La investigacion participativa , es una forma de actividad que combina ,
interrelacionadamente , la investigacion y las acciones en un determinado campo
seleccionado por el investigador . Con la participacion de los sujetos investigados.El
fin ultimo de este tipo de investigacion es la busqueda de cambios en la comunidad
o poblacion para mejorar las condiciones de vida .
La investigacion accion, tiene semejanzas con la participativa , de alli que
actualmente se hable con bastante frecuencia de investigacion accion
participativa . Es uno de los intentos de resumir la relacion de identidad necesaria
para construir una teoria que sea efectiva como guia para la accion y la produccion
cientifica , que esta estrechamente ligada a la ciencia para la transformacion y la
liberacion social. A traves de la investigacion accion se logran transformaciones a
fondo ideologico politicos .
La investigacion etnografica, estudia los hechos tal como ocurren en el
contexto, los procesos historicos y educativos, los cambios socioculturales, las
funciones y papeles de los miembros de una comunidad. Se caracteriza por el uso
de la observacion, sea esta participante o no. En cualquiera de estas opciones la
observacion trata de registrar, dentro de lo posible, lo que sucede en el lugar que
esta estudiando, haciendo uso de instrumentos para completar la informacion que
se obtiene por la observacion.

OBJETIVOS DE LA INVESTIGACION CUALITATIVA

Con los objetivos de la investigacion cualitativa el investigador, busca


profundizar en el conocimiento, comprension e interpretacion de situaciones y
fenomenos sociales, asi como señalar el significado de la conducta de los actores
participantes. Ademas, ayudar a definir mejor el problema principal y a desarrollar
acciones de intervencion sobre el mismo, o a transformar situaciones o fenomenos
que han sido identificados.
Para la construccion de este tipo se utilizan, ademas de los verbos indicados
en la investigacion cuantitativa o clasica, otros de significado mas amplio, por
ejemplo: analizar, conocer, reconocer, socializar resultados, diseñar un plan de
accion, monitorear, evaluar.
615

A continuacion tratamos sobre el proceso de construccion de los objetivos


de una investigacion participativa sobre la cultura popular de una comunidad [9- .
El planteamiento del problema y el diseño de los objetivos fueron surgiendo
a medida que el grupo investigador discutia y analizaba la situacion, expresando
sus percepciones y representaciones .
En busca de concrecion se plantea en un primer plano, conocer las formas
de transmision de la cultura popular en un medio especifico{ lenguaje , satisfaccion
de necesidades en las religion , en los habitos en las creencias.
En un segundo plano de especificidad, se propone analizar la educacion
de los hijos en edad preescolar, en especial los niveles de socializacion de los
niños.
Posteriormente el grupo identifica la necesidad de crear una escuela
alternativa pre-primaria, para recoger los elementos mas importantes de la
socializacion del niño, lo cual implica capacitar a las madres para ejercer el papel
de madre-maestra. En este momento del proyecto, se considera importante conocer
las caracteristicas estructurales de la realidad economica y social de la familia de la
comunidad.
El grupo de base decidio dejar hasta este momento los objetivos del estudio
y continuar con las siguientes fases del mismo.

RECUERDE QUE LA DEFINICION DEL PROBLEMA Y LA


FORMULACION DE LOS OBJETIVOS SON LA BASE , EL EJE Y EL PUNTO DE
PARTIDA FUNDAMENTAL PARA CUALQUIER INVESTIGACION Y, QUE EN LA
MEDIDA EN LA QUE LOS OBJETIVOS ESTEN BIEN FORMULADOS, SERA
MAS FACIL LA PLANIFICACION Y LA

EL METODO ETNOGRAFICO

*LA ETNOGRAFIA ES LA RAMA DE LA ANTROPOLOGIA REFERIDA A LAS


DESCRIPCIONES CIENTIFICAS DE GRUPOS CULTURALES.

*APUNTA A DESCUBRIR UN ORDEN EN LOS DATOS REUNIDOS A TRAVES DE


LA OBSERVACION PARTICIPANTE Y DE OBTENER INFORMACION DIRECTA
.
*EL INVESTIGADOR ENTRA EN EL MUNDO DE LOS PARTICIPANTES Y
EXAMINA CON ELLOS LOS SIMBOLOS, RITUALES Y COSTUMBRES DE SU
MUNDO.

*EL INVESTIGADOR AMPLIA EL CONOCIMIENTO PERSONAL DE LA CULTURA


PARTICULAR Y REGISTRA EL MUNDO DE OTROS COMO ELLOS LO
CONCEPTUALIZAN.
616

METODO ETNOGRAFICO

EMIC ETIC

REFERIDO A LA REFERIDA A LA
SEMANTICA O OCURRENCIA DE
SIGNIFICADO EVENTOS VERIFICADO
INHERENTE A LAS CON OBSERVADOR
ORGANIZACIÓN INDEPENDIENTE
CULTURAL DEL BUSCANDO
CONOCIMIENTO SIMILITUDES CON
EL EVENTO DADO

PROPOSITO

*COMPRENDER EL SIGNIFICADO CULTURAL QUE LAS PERSONAS USAN


PARA ORGANIZAR E INTERPRETAR SUS EXPERIENCIAS.

*ES CARACTERISTICA QUE EL PROPOSITO PUEDE CAMBIAR SEGÚN COMO


SE DESARROLLA EL ESTUDIO.
.
*TOMA OTROS METODOS CUALITATIVOS Y CUANTITATIVOS, EN TORNO A
CINCO ELEMENTOS BASICOS:

 IDENTIFICACION DEL FENOMENO



 ESTRUCTURA DEL ESTUDIO

 RECOLECCION DE DATOS

 ANALISIS DE LOS DATOS


DESCRIPCION DE LOS HALLAZGOS

IDENTIFICACION DEL FENOMENO

ES UNA INTERROGANTE INVESTIGABLE, A TRAVES DEL CUAL SE LLEGA A


ENTENDER EL SIGNIFICADO DE PATRONES SIMBOLICOS REVELADO EN LA
ESTRUCTURA DEL LENGUAJE.
UN FENOMENO DIGNO DE ESTUDIO PODRIA SER LA EXPERIENCIA DE
JUEGO DE PRE-ESCOLARES.
EXPERIENCIA DE LAEDUCACION AMBIENTAL
617

ESTRUCTURACION DEL ESTUDIO

LA INTERROGANTE DE LA INVESTIGACION

CUAL ES EL SIGNIFICADO DE JUEGO EN EL LENGUAJE DE LOS NIÑOS DE


JARDIN

COMO LAS PERSONAS CON CANCER EXPRESAN EL SIGNIFICADO DE SU


DOLOR

LA PERSPECTIVA DEL INVESTIGADOR

*SE EXPLICITAN LAS CREENCIAS DEL INVESTIGADOR ACERCA DEL


FENOMENO.

*LA PERSPECTIVA ES UN MARCO DE REFERENCIA QUE ES IDENTIFICADO


CON ANTERIORIDAD.

*LA ETNOGRAFIA SOPORTA EL PREJUICIO PERSONAL ASI COMO SE LLEGA A


CONOCER LA VIDA DIARIA DE LOS INDIVIDUOS COMO ELLOS LA VIVEN

MUESTRA DE ESTUDIO

*ES UN GRUPO CULTURAL QUE ESTA VIVIENDO EL FENOMENO BAJO


ESTUDIO.

*UN GRUPO DE PERSONAS QUE COMPARTE CONOCIMIENTOS


COSTUMBRES, OBJETOS, EVENTOS Y ACTIVIDADES ES CONSIDERADO
CULTURA.

*UN GRUPO DE PERSONAS SE PUEDE SELECCIONAR PARA EL ESTUDIO


DEPENDIENDO DE LOS INTERESES DEL INVESTIGADOR.

*EL NUMERO DE SUJETOS NO ES PARTICULARMENTE RELEVANTE EN EL


METODO ETNOGRAFICO.

PROTECCION DE LOS DERECHOS HUMANOS

*DEBIDO A LA NATURALEZA DE LOS ESTUDIOS ES POSIBLE ESTUDIAR SIN


PERMISO
.
*SE IDENTIFICAN TRES TIPOS DE SITUACIONES SOCIALES CON RESPECTO
AL PERMISO:

- ENTRADA LIBRE LUGAR PÚBLICO, DONDE SE PUEDE HACER LA


INVESTIGACION SIN PERMISO
618

 ENTRADA LIMITADA {OFICINAS, COLEGIOS HOSPITAL, DONDE ES


NECESARIO EL PERMISO DE UNA O MAS PERSONAS.
-ENTRADA RESTRINGIDA {REUNIONES CERRADAS Y SOCIEDADES
SECRETAS DONDE SE GARANTIZAN LOS DERECHOS Y ANONIMATO DE
LOS RESULTADOS.

S-ar putea să vă placă și