Documente Academic
Documente Profesional
Documente Cultură
1
investigación
evaluativa
Métodos para determinar
la· eficiencia de los
programas de acción
Caro! H. Weiss
11
Impreso en México
Printed in Mexico
1
inlroduccion
· para con los criterios que se habían establecido. Luego saca conclusio-
nes acerca de la eficacia, el valor, el éxito del fenómeno que se está
estudiando.
El proceso de investigación consume más tiempo y cuesta más dine-
ro que las evaluaciones que confían simplemente en la intuición, la opi-
nión o la sensibilidad entrenada, pero permite alcanzar un rigor que
resulta especialmente importante cuando: a) los resultados que quieren
evaluarse son complejos, difíciles de observar y constar de muchos ele-
mentos que reaccionan de diversas maneras; b) las decisiones que serán
su consecuencia son importantes y caras, y e) se necesitan pruebas para
convencer a otra~ personas acerca de la validez de las conclusiones.
En la última década, los programas sociales, a todos los niveles, han
aumentado enormemente. Algunos son prolongaciones lógicas de es-
fuerzos anteriores, otros representan rompimientos radicales con el pa- '
sado y se aventuran por caminos no trillados. Quienes toman decisiones
quieren (y necesitan) saber: ¿con qué grado de acierto está cumplien-
do el programa los objetivos para los que se estableció? ¿Se le debería 1
virán gran cosa para estimar su eficacia. Las decisiones en torno a las
operaciones futuras afectarán el destino de muchas personas y requerí·
rán el empleo de considerables cantidades de dinero, a¡>art~ de que
quienes toman las decisiones suelen ser personas (legisladores, juntas i
de directores), que están lo suficientemente apartadas del programa
como para desear que se les presenten hechos bien establecidos sobre
los cuales basar sus decisiones. En tales circunstancias, la investigación
evaluativa parece adaptarse bien a la tarea de proporcionar la informa-
ción requerida, y en años recientes se ha convertido en una creciente
empresa.
Es cada vez más claro que gran parte de nuestra inversión en campos
como los de la educación, la salud pública, la pobreza, los empleos, la
vivienda, el desarrollo urbano, los transportes y demás, no nos está rin-
diendo los dividendos esperados, Pn función de los resultados. Sin que
mengüe, ni por un momento nuestra voluntad de atender satisfactoria-
mente estas apremiantes necesidades humanas, una de las tareas primor-
diales, aunque a menudo demoradas, del Congreso, consiste en reexami-
nar nuestra multitud de programas sociales, y concentrar los recursos (en
verdad, aumentarlos) sobre programas que den resultado, alli donde las
necesidades sean las más grandes, y reducir o eliminar el resto. Ya no
tenemos ni tiempo ni dinero que desperdiciar en cosas no esenciales, que
L 1 no producirán la necesaria influencia visible en los problemas. 1
1 Dip. Florence P. Dwyer, Report to the Peoplg, 12Q Distrito de Nueva Jersey,
XIV, núm. 1, 22 enero de 1970.
16 Cap. 1 Introducdón
FINES DE LA INVESTIGACióN
Diferencias
Uso vara la toma de d.ecisiones. La evaluación está destinada al uso.
MientraS que la investigación fundamental hace hincapié en la produc-
ción de conocimientos y confía su uso a los procesos naturales de la di-
seminación y la aplicación, la evaluación parte del uso. En su forma
Comparación entre la evaluación y otru investigaciones 19
ideal, la evaluación se realiza para un cliente que tiene que tomar deci-
siones y que recurre a ella para encontrar respuestas en las cuales basar
sus decisiones. A menudo, el uso es menos directo e inmediato de lo
que acabamos de decir, pero proporciona siempre el fundamento racio-
nal de la evaluación.
Interrogantes derivados del proe,rama. Los puntos que tiene en cuen-
ta la evaluación son los del que tiene que tomar decisiones y no la del
evaluador. A diferencia del investigador fundamental que formula sus
propias hipótesis, el evaluador se ocupa de lo que preocupa a los progra-
mas mismos. Puede decir mucho acerca de la forma del estudio, y lo
aborda con las pers¡ectivas de sus propios conocimientos y de su dis-
ciplina. Por lo comun está en libertad de entrelazarlo con investigacio-
nes que le interesen particularmente a él; pero el meollo del estudio
está constituido por asuntos de interés administrativo y programático.
La hipótesis común de la evaluación es la de que el programa está efec-
tuando lo que se propuso hacer.
Calidad del juicio. La evaluación compara "lo que es" con "lo que
debería ser". Aunque el mismo investigador carezca de prejuicios y se
mantenga objetivo, se ocupa de fenómenos que demuestran que el pro-
grama está al<'anzando o no las metas propuestas. Sea como quiera que
se formulen los interrogantes o problemas que se estudiarán, en alguna
parte de la formulación anarecerá la preocupación por estar a la altura
de los criterios establecidos. Este elemento del juicio por comparación
con criterios es fundamental para la evaluación y la distingue de otras
clases de investigación. Por consiguiente, el enunciado de las metas del
programa, por parte del personal del mismo, tiene un valor esencial para
la evaluación. Constituyen un inconveniente grande descubrir que los
programas, por lo general, no tienen enunciados claramente sus obje-
tivos. En el capítulo 3 estudiaremos los problemas que esto encierra.
Marco de acoi6n. La evaluación se realiza en un marco de acción,
en el que lo más imnortante de lo que está ocurriendo es el programa,
el cual está prestando servicios a la gente. Si existen conflictos de ne-
cesidades entre el programa y la evaluación, lo más probable es que se
e le conceda prioridad al programa. A menudo, el personal del programa
controla el acceso a las personas a quienes se da servicio en el mismo.
También puede controlar el acceso a los expedientes y archivos. Tiene a
su cargo la asignación de los participantes a las actividades y localida-
des del programa. Frecuentemente, las necesidades de la investigación
(de datos anteriores a la iniciación del mismo, de grupos de control)
chocan con procedimientos establecidos del programa, los cuales tien-
den a prevalecer.
), Conflictos entre papeles. Son frecuentes las fricciones interperso-
nales entre evaluadores y ejecutantes del programa. Los papeles que
i- desempeñan los ejecutantes y las normas de sus profesiones encaminadas
a al servicio tienden a hacerlos insensibles a las necesidades y promesas de
20 Cap. 1 Introducción
Semejanzas
EN ESTE CAPÍTuW veremos los fines, reconocidos o no, que hacen que
las personas decidan emprender la evaluación de un programa. Sugeri-
mos que el evaluador trate de descubrir qué es lo que quieren obtener
realmente del estudio los que toman las decisiones y c6mo esperan
utilizar los resultados. Con este conocimiento, podrá ajustar más eficaz-
mente el estudio y diseñarlo de manera que proporcione información
para tomar decisiones. La localización de la unidad de evaluación -el
sitio en que encaja en la estructura de la organización- determinará de
alguna manera si el estudio posee la latitud suficiente para ser útil.
Antes de entrar a tratar estas materias, formularemos una pregunta
previa. ¿Está justificada siempre la evaluación? ¿Siendo buenos pro-
gramitas, deberían todos los programas someterse a la evaluación? La
respuesta, por herética que pueda parecer, es no. La evaluación, en su
calidad de investigación aplicada, está consagrada al principio de la
utilidad. Si no tiene ninguna influencia en las decisiones resultará una
tarea en vano. La evaluación, probablemente, no valdrá la pena de
hacerse en cuatro clases de circunstancias:
l. Cuando no hay nada que preguntar acerca del programa. Se está rea-
lizando y las decisiones sobre su futuro o no se van a tornar o ya se
han tomado.
2. Cuando el programa carece de clara orientación. El personal del pro-
grama improvisa sus actividades de un día para otro, basándose en
pocas reflexiones y menos principios y el programa cambia y se va
transformando, vagabundea y se orienta como puede. Hay poca razón
para llamar a esto "programa".
!l. Cuando las personas que deberían saberlo no pueden ponerse de acuer-
do en qué es lo que está tratando de realizar el programa. Si existen
. _ 24. . Cap. 2 Objetivos de la evaluación
\\ ~,,.rJ
.¡-,,~)~)-' grandes discrepancias en las metas pensadas, la evaluación carece de
,r;;-_ 1 ,)~ fundamento sobre el cual levantarse.
· ~Jc/"~.:{~-~ 4.! Cuando 1_10 hay suficie~~e dinero, ni personal lo_ bastante calificado
. ()'1 \.j para realizar la eva1U<1Cl0TI. Esta es una tarea ex.1gente, que requiere
tiempo, dinero, imaginación, tenacidad y destreza.
p~ro también subraya que los clientes necesitan con frecuó'ncia una redefinici6n d.-.1
problema y que se 'tes propongan otros enfoques posibles. Anthony Downs, "Sorne
Thoughts on Giving People Economic Advice", American Behavioral Scientist, IX,.
núm. 1 (1965), 30-32. Por supuesto, es mucho más común que el gastar demasiado
dinero, tratar de hacer una evaluación con fondos por demás insuficientes para el
grado y la precisión de los resultados deseados.
4. Una útil discusión aparece en Louis Ferman, "Sorne Perspectives on Ewluating
Social Welfare Programs" _.<\.nnals of the AmerícGn Academy of Political and Social
Science, vol. 385 (septiembre, 1969), 143-156.
28 Cap. 2 Objetivos de la evaluación
Compatibilidad de fines
¿QUIÉNÉS LA UTILIZARÁN?
ESTRUCTURA DE LA EVALUACióN
Nivel en la estructura
Usuario Decisión
El que establece las políticas Ampliar, reducir o cambiar el pro-
grama
Administrador del programa Cuáles métodos, estructuras, técnicas,
organizaci6n del personal -
14 Esta regla práctica vale tanto si la evaluación fuese ejecutada por personal de
la casa o por un organismo de fuera. Cualquiera de ellos tendría que rendir infor-
mes a nivel·de decisión a que se dirige su trabajo: probablemente los de fuera tengan
mayor latitud para saltarse la cadena de mando de la organización y encontrar acceso
a un oído conveniente, pero hásta ellos se verán circunscritos por una mala locali~
zaci6n.
Hi Este punto 1Ja. sido tratado en Likert y Lippitt, obra citada.
Estructura de la evaluación 37
Las más de las veces, a quienes formulan las políticas se les pide que
elijan entre programas nacionales; en muchas ocasiones a los administrado-
res se les pide que elijan el ·grado de énfasis que deben poner en sus pro-
granias, o decisfones sobre el futuro de proyectos individuales dentro de
programas naciOnales. En la medida de lo posible, las evaluaciones en tor~
no al impacto de un programa, cuyo objeto es descubrir el valor de todo
un programa nacional deberían ser dirigidas por personas que no partid~
pasen inmediatamente en la administración y operación del programa. La
evaluación de la estrategia del programa debería estar dirigida por personas
vinculadas lo suficientemente al programa como para introducir variaciones
en el mismo.17
l. Formular las inetas del programa que la evaluación utilizará como cri-
terios.
2. Elegir entre metas múltiples.
3. Investigar consecuencias imprevistas.
4. Medir resultados.
5. Especificar qué es el programa.
6. Medir los insumos del programa y los procesos intercurrentes.
7. Reunir los ~a tos necesarios~
FORiV!ULACióN DE METAS DEL PROGRAMA
permite tener lugar sin estUdio, Sin análisiS y sin pena ni gloria. Las
evaluaciones fundadas en.metas e indicadores del éxito demasiado espe-
cíficos, probablemente resulten prematuras en un campo en el cual exis-
te poco acuerdo acerca de lo que constituye éxito. 4.
Importancia relativa
Nos resta todavía un factor, el de la importincia relativa de las di-
versas metas. Esto requiere juicio de valor y las propias prioridades del
programa tienen importancia crítica. El evaluador tendrá que insistir
en que se le permita descubrir las prioridades a fin de saber cuáles me-
tas son, según el personal, fundamentales para su misión y cuáles tienen
carácter subsidiario; pero, como el evaluador no es un simple técnico
para la traducción de ]os fines enunciados de un programa en instru-
mentos de medición, está obligado _a expresar su propia interpretación
de la importancia relativa de las metas. No quiere realizar un estudio ·
completo sobre cómo alcanzar metas inocuas y de poca monta, mientras
se dejan sin estudiar metas fundamentales. 8
Incompatibilidades
En algunos casOS hay incompatibilidades entre metas declaradas;
por ejemplo, un pro'grama de ciudades modelos trata de aumentar la
coordinación entre los organismos públicos y los privados que dan ser-
vicio a un barrio muy venido a me-nos. También desea innovaciones, que
se ideen nuevas maneras de enfocar el problema de cómo prestar ser-
vicios a los Tesidentes pobres. Evidentemente, la coordinación entre
organismos será niás fácil de conseguir en_ torno a las pautas de servicio
viejas, establecidas ·y aceptadas que en tomo a las nuevas. La innqva-
ción, probablemente, debilitará la coordinación y ésta, quizá ahogará el
espíritu de innovación. ¿.Cuál de las dos metas es- más "real"? La evalua-
ción no puede enterrar la cabeza en la arena y tratarlas como si fuesen
iguales e independientes.
V ARAS DE MEDIR
9 Esto no zanja la cuesti6n, sino que la limita. ¿Hasta qué punto deberá mejorar
el programa a fin de que se le considere un éxito? Diferencias significativas estadís- ·
ticamente no indican necesariamente una significación sustantiva. Quizá el análisis
de costo-beneficios plantea la pregunta más prudente: ¿cuánto cuesta por cada can-
tidad dada de mejoramiento? Carol H. Weiss, "Planning an Action Project Evalua-
tion'', en la obra Lea.ming in Action, June L. Shtp.elzer, (dir.) (WashingtGn, D. C.:
Government Printing Office, 1966), págs. 15-16.
48 Cap. 3 Formulación de la pregunta y medición de la respuesta
CONSECUENCIAS IMPREVISTAS
El programa tiene metas deseadas. Existe también la posibilidad de
que tenga consecuencias que no quiso conseguir. La discusi6n de los
resultados imprevistos, por lo común, trae consigo la melanc6lica con-
notación de resultados indeseables, pero también pueden existir buenos
resultados inesperados y otros que son una mezcla de bueno y de malo.
Los efectos indeseables pueden producirse por toda una serie de
razones. A veces el programa no está bien pensado y exacerba los ma-
les que precisamente trata de mitigar. Un programa de empréstitos a
ineficientes hombres de negocios en pequeño, tal vez lo único que con-
siga sea sumirlos más en deudas; o ·un pr-ograma puede tener reper-
~usiones negativas al sacar a luz infortunios· que durante mucho tiempo
se habían aceptado. Algunos programas elevan las expectativas de la
gente. Si el progreso es demasiado lento, o si s6lo se benefician unas
cuantas. personas, los resultados probablemente s_ean frustraciones y
amarguras muy difundidas. De cuando en cuando, el programa que in-
vade el- territorio de organismos· existentes es causa de cólera,. de com-
petencia y de un forcejeo burocrático que mengua la eficacia de los
servicios.
No son tan comunes las consecuencias imprevistas buenas, porque
los reformadores que han tratado de convencer de las virtudes d~ un
programa nuevo, con toda prob?-bilidad habrán enumerado todos los
posibles resultados positivos; no obstante, hay veces en ·que un programa
prodnce resultados concomitantes felices, como cuando el programa apli-
cado en un diferente campo adopta algunos de sus rasgos buenos. Tam-
bién los resultados de un buen programa pueden "derramarse" sobre
otros aspectos de la vida de un participante en el programa; por ejem-
plo, los alumnos que aprenden a leer bien, tal vez se vuelvan más coope-
rad-ores y menos revoltosos y agresivos en la escuela y en el hogar. Tam-
bién aparecen efectos de contagio. Las personas que nunca asistieron
al programa aprenden las ideas o las conductas nuevas mediante con-
tacto con las que sí lo hicieron.
lO Stake, obra citada, págs. 527, 536-538, sugiere comparaciones con normas
absolutas, con otros .programas y con las opiniones de expertos para juzgar el éxito.
Consecuendas imprevistas 49
Búsqueda de medidas
La búsqueda de medidas, a la que a veces se la llama también "ins:
trumentaci6n.. es una exigente fase de la evaluación. Si el evaluador ~
tiene suerte, y si eshtdios anteriores ya se han realizado en el carripo o
si se han ideado medidas que pueden utilizarse para el tema que le in-
teresa, la tarea se reduce a tratar de encontrar las medidas existentes.
Vale la pena dediC"arse a buscar las medidas que ya han demostrado
su utilidad en vez de ponerse a crear nuevas. Ya se habrá hecho gran
parte del trabajo de ensayo y error. Así también, por lo general; es po-
s~ble· encontrar las ~espuestas que investigadores anteriores obtuvieron
mediante el empleo' de e-stas medidas y. de tal manera, contar ya con
algunas clases de datos comparativos procedentes de otra población.
La comparación ayuda a establecer con precisión las características
"especiales" del grupo que se está evaluando. y .el grado en que difieren
de los otros grupos.
El uso repetido de medidas comunes ayuda a ir formando un cúmulo
de conocimientos·. Como los diversos estudios de evaluación utilizan in·
dicadores comunes de res-ultados (por ejemplo, puntuaciones del mismo
test), resulta posible comenzar a hacer comparaciones acerca -de la efi-
cacia relativa de un programa cotejado con Otro.~ (La reserva importante
que hay que expresar es la de que tendrán que considerarse otros facto-
res, y que de preferencia sean constantes, l?ara que ·los juicios resulten
justos.) En años recientes se han nublicado como guías para Jos inves-
tigadores varios manuales de medidas ensayadas y probadas. A menudo
traen la distribución de respuestas de la investigación anterior. Véase,
por ejemplo:
1
>.-.-
das. Encontrar medidas nuevas puede ser algo difícil y que emplee
mucho tiempo, pero las medic;Ias que no casan con el problema funda-
mental, no obstante ]a fama que tengan y lo rhuy consagradas que estén
por el tiempo, probablemente tendrán muy poca utilidad.
Idear preguntas, reactivos de tests y formas parece ser algo tan fá-
.cil, que con frecuencia es toda una sorpresa descubrir cuántas personas
no logran comprender o interpretan mal, hasta reactivos muy simples.
Antes de lanzarse a idear medidas nuevas, el investigador debería·
estar familiarizado con los principios de validez y de confiabilidad.
( Consúltese la última sección de la bibliografía, en la que se encuen-
tran varias obras sobre medición.) Se requiere de cuidadosas concep-
tualizaciones y definiciones, y las preguntas tienen que preensayarse y
revisarse (a menudo repetidas veces) hasta que se vea con claridad que
aportan la información deseada.
Medidas múltiples
Los buenos indicadores del éxito en la evaluación, al igual que las
buenas medidas de conceptos en toda la investigación social, por lo co-
l
mún presuponen múltiples medi~iones. Cada medición específica es una
aproximación al resultado que ·verdaderament~ nos interesa. Digamos,
t
1
por ejemplo, que nos interesa conocer si las buenas prácticas de con-
ducción de automóviles son resultado de un curso de educación para
choferes; Una medida puede ser el conocimiento de las reglas de trán-
sito; otra. puede ser las e,stimaciones de la habilidad para conducir que
efectúe un observador; uña tercera, los registros de violaciones al regla-
mento de tránsito. En el mejor de los casos, cada una es uria medida
parcial que abarca una fr.acci6n del concepto más general.1 2 A veces, su
conexión ·con el resultado real es problemática y tenue. Además, ·cada
medida contiene cierto número de cosas superfluas, que no vienen a1
caso, «equipaje extra" que nada tiene que ver con los resultados que se
quieren estudiar. Mediante el uso de cierto número de medidas, cada
una· de las cuales aportará una faceta diferel).te de información, pode-
mos limitar el efecto de todo lo que no viene a cuento y dibujar un cua-
dro más veraz y completo de los resultados~del programa. 13
Así, por ejemplo, las múltiples medidas podrían ser útiles para la eva.
luación de los programas educativos. Por lo común, los evaluadores han
confiado en el uso de tests formales de aprovechamiento de los alum-
nos; pero en las puntuaciones de los tests influyen muchas cosas apar-
te de la idoneidad del currículo, y éste pretende dar lugar a entendí·
12 Amitai Etzioni y Edward Lehman, "Some Dangers in ~Valid• Social Measure.
ment'', Annal8 of the American Academy of Political and Social Science, vol. 373
(septiembre, 1967), 1-!5.
13 Donald T. Campbell y Julian C. Stanley, "Experimental and Quasiexperimen-
tal Designs for Research on Teaching", en la obra Handbook of Research on Teach.
ing, N. L. Gage. com~. (Chicago: Rand McNally & Co., 1963), págs. 203·204.
Medición: Indicadores de resultados 53
Medidas aproximadas
A veces, los cambios reales que un programa desea producir se en-
cuentran en el futuro .remoto y no son tanto "metas" como piadosas es-
peranzas que no han sido analizadas. Un programa. de incentivos para
los gerentes pretende amnentar los atractivos que ofrece la organización
para los mismos con objeto de mejorar la eficiencia a largo plazo de la ge-
rencia; 1,:m programa educativo para niños de los b,arrios modestos de la
ciudad se propone mejorar su actuación en la escuela con objeto de
realzar su posición social y económica cuand-o lleguen a adultos. Se ne-
cesitarán años, y aun décadas, para estimar la eficacia con que el pro-
grama logró alcanzar estas metas. En el entretanto, tienen que utili-
zarse medidas aproximadas capace..s de apreciar metas más inmediatas
y presuntamente vinculadas con los resultados finales· deseados; por
ejemplo, antigüedad de los ejecutivos en sus puestos, o puntuaciones
obtenidas por los niños en las pruebas de aprovechamiento. Por des-
gracia, a menudo existen pocas pruebas de investigación de que se sos-
tienen las presuntas relaciones, por ejemplo, que la antigüedad en el
cargo está ligada con la eficacia en la gerencia o que el aprovechamien-
to escolar está relacionado directamente con los progresos económicos
y sociales de los pobres_lií Así también, el conocimiento existente no nos
sugiere siempre cuáles son las mejo.res medidas aproximadas.
H Lee J. Cronbach, "Evaluation for Course Improvement'', Teachers College
Record, LXIV, núm. 8 (1963), 672-683.
15 David K. Cohen, "Politics and Research: Evaluatíon of Social Action Pro-
grams in Education'', Review of Educational Research, XL, núm. 2 (1970), 218-219.
54 Cap. ·3 "·Formu1ación de la pregunta y medición de la respuesta
¡
tal también para el diseño del programa. Los programas tienen que di-
señarse para- producir_ algunos cambios a corto plazo, puesto que se pre-
sume que son cqndici-ones necesarias para alcanzar los objetivos a largo
plazo. Como en muchos otros- aspectos, la evaluación hereda las falibili-
.' dades del programa. A menudo, lo mejor que puede hacer la evaluación,
al menos dentro de las comunes limitaciones de tiempo y a falta de un
mejor conocimiento, es aceptar los supuestos del programa y tratar de
descubrir hasta qué punto se están alcanzando las metas cercanas. Se
deja a una investigación ulterior estudiar las relaciones entre las métas
1
. a corto plazo y las consecuencias a largo plaz'o. Esta solución mediante
\ retirada, carece de grandeza heroica, pero en muchos casos constituye
\ la única manera factible de realizar el trabajo evaluativo.
Programo de
exito
Folla en lo
teorio
Falla en el No puso en
programa movimiento
Pero cuando las consecuencias deseadas no son tan remotas que ten-
gan mayor duración· que la evaluación, decididamente es conveniente
medir tanto los efectos a corto plazo como los resultados a plazo más
largo. Los programas pretenden poner en movimiento una serie de acon-
tecimient-os con_ los que se esperan alcanzar metas deseadas. Como ha
señalado Suchman 1 ~ si el programa no tiene éxito, la razón de e1lo
cae en una de dos categorías generales; o bien, no activó el "proceso
causal" que habría culminado de las metas deseadas (es ésta una falla
del programa); o bien, tal vez haya puesto en movimiento el presunto
"proceso causar~. pero el proceso no "causó" los efectos deseados (es
ésta una falla de la teoría) (véase la fig. 3.1).
Dicho de otra manera, la falla del programa consiste en que no se
alcanzan las próximas metas; la falla de la teoría consiste en que haber
alcanzado las metas próximas no dio lugar a los resultados finales de-
seadoS.
Cuando la investigación previa ha demostrado _cuál es el vínculo
que existe entre las metas inmediatas 4el programa y los resultados de~
seados a largo plazo, no existe mayor necesidad de que la evaluación
esté en busca de resultados más allá de la primera etapa. Para la eva-
luación de una "clínica de fumadores", probablemente baste con des-
cubrir si el programa consiguió que quienes participaban en él dejaran
de fumar. No tiene valor esencial investigar la incidencia final del cán-
cer del pulmón, pero en campos en que el conocimiento está menos des-
arrollado es por demás deseable seguir la investigación.
Saber tan solo que no se han alcanzado los efectos que se querían
obtener no resulta instn1ctivo para la futura planeación de un p~ograma.
Poder contar con medidas a corto y a largo plazo nos ayudaría a indicar
si esto fue resultado de una falla del programa o de la teoría.U Me-
diante el examen de la asociación entre los efectos inmediatos y las con-
secuencias a largo plazo, la· evaluación puede ~ontribuir a la ejecución
y ·a la planeación del programa, así como al desarrollo de la teoría
social.
Tipos de medidas
Cu~les medidas resultan útiles para estn1ar los resultados de la in-
vestigación evaluativa· es algo que depende de las intenciones del pro- .
grama. Pueden referirse a actitudes, valores, conocimientos, conducta,
asignaciones presupuestarias, normas de servicio de organismos, produc-
tividad y muchas otrá.s cosas. Pueden tener que ver con las personas a
quienes se da servicio, con los organismos que ofrecen los. servicios o
con quienes resultan afectados por el cambio en las normas de servicios,
el barrio o la comunidad, o el público en general.
Medición de los efectos sobre las pers= a quienes se les da ser-J
vic-io. La mayoría de las evaluaciones tienden a concentrar la atenci6n 4-
en los cambios efectuados en los participantes de los programas. Co-
r---,:---:--, Y esto
Condujo a Cambio a las condujo a Conseguir un
¿El e~lrenamienlo ------.... actitudes hacia el
trabajo
----+-
empleo?
Í
--{> de organismos (aumento de la comunicación y de los traslados entre
todos los .organismos que se dediquen a problemas de los jóvenes en
/ una comunidad) o cambiar una comunidad o incluso todo un sistem:.1
i., nacional de servicios. (educación, salud mental, entrenamiento para el
l
trabajo). En tales casos, es preciso idear mediciones novedosas. Los da-
tos podrán provenir de entrevistas con dirigentes; de observaciones den·
tro de los departamentos o en las reuniones;_ de estadísticas sobre clien-
tela, presupuestos o viviendas construidas; de registros llevados por el
dfa tras dfa y según los diversos miembros del personal. Cuando se pone
uno a considerar un programa tap. amplio y amorfo como el de lucha
contra la pobreza, o el de las ciudades modelo, se necesita hacer gran
esfuerzo sólo para describir y analizar los insumas del programa.
¿Por qné deberla ocuparse el evaluador de los insumes del progra-
. ma? ¿No hemos dicho anteriormente que su tarea consiste en descu~
brir si el programa (cualquiera que sea) está alcanzando sus metas?
¿Cambia de alguna manera su trabajo el hecho de que el programa esté
utilizando el aprendizaje de memoria, el psicoanálisis o la magia negra?
Hay evaluadores que ven con simpatía tal modo de considerar las cosas.
Para ellos, el programa es una "caja negra" cuyos contenidos no les in~
teresan; lo que deben hacer es descubrir sus efectos; pero si el evalua-
dor no tiene idea de lo que es realmente el programa, tal vez no logre
forrnular las preguntas convenientes. Quizá porque crea en todo lo que
dice la inflada propaganda del programa espere resultados capaces de
mover montañas de lo que realmente son minúsculos esfuerzos. Más
probablemente, se pondrá a buscar un orden de efectos qu_e no viene
al caso. Tratará de establecer si se han alcanzado los tipos de metas que
se han expresado verbalmente, siendo que los principales recursos del
programa en acción se han ínyertido en cosas distintas. (¿Si se tuvo
como objetivo enseñar a los negros y se terminó dirigiendo la atención:
sobre los blancos, habrá sido éste un curso de diferente- color?).
Además, a menos que exista algUna definición riledíanamente pre-
cisa y coherente del programa, el evaluador ·no sabrá a qué ambuir los
resultados que observa. 23 Recordemos que la evaluación tiene como ob-
jeto ayudar a tornar decisiones. Los encargados de tomarlas tienen que
saber qu~ fue lo que dio resultados y qué es lo que no sirvió para nada,
qué es lo que debería adoptarse en todo el sistema o, de lo contrario,
modificarse. A menos que la evaluación pueda presentar pruebas de la
naturaleza del programa tal como existió (y no sólo del programa se-
gún lo describieron sus ejecutantes), no habrá mucho en que basar una
decisión. 24 En el caso extremo, cuando un programa es un éxito treme~
hundo y cuarenta comunidades desean adoptarlo imnediatamente, ¿qué
es lo que les diremos que adopten?
El evaluador tiene que descubrir la realidad del programa y dejar
a un lado ·su ilusión. Si acepta la descripción ofrecida en la solicitud
tados mejores que otros. Si las personas -que reciben .una clase de ser-
vicio se desempeñan mejor que las que no lo reciben, entonces n9s he-
mos enterado de algo acerca de la eficacia relativa de las diferentes
estrategias y descubrimos una clave acerca de por qué el programa está
funcionando bien. Si unas clases de personas se benefician, en tanto que
ptras no, entonces tenemos nuevas nociones acerca del proceso de cam-
bio. El análisis de las variables del programa comienza a explicamos
por qué produce los efecto~ que ocasiona. Cuando sa~emos cuáles son
los aspectos del programa asociados a un éxito mayor o menor, conta-
mos con algo en qué fundar recomendaciones para modificaciones fu-
turas.
Varia~les de insumo
1) finalidades;
2) princh?ios;
3) mÉt'1dos;
4) p-ersonal;
5) personas servidfls;
6) clU:radón del servicio;
7) lugar;
8) tamaño del programa;
9) auspicios;
1O) administración.
1) edad;
2) sexo;
3) status socioeconómico;
4) raza;
5) tiempo de residencia en la comunidad;
6) actitudes respecto del programa (o respecto de la salud, de los empleos,
el matrimonio, de las películas, del ocio o de cualquier otra cosa que
venga al caso) ;
7) motivaciones para la participación;
8) aspiraciones;
9) expectativas respecto del programa;
10) actitudes de otros miembros de la familia con relación al programa
(respecto de la salud, los empleos, el matrimonio y así sucesivamente);
64 Cap. 3 Formulación de la pregunta y medición de la respuesta
Variables intercurrentes
Durante los trabajos de medición puede presentarse otra fase más:
la de la especificación y medición de las condiciones entre los insumes
ael programa y los resultados." La razón mediante la cual se ha de
27 Véase Samuel A. Stouffer, "Sorne Observations on Shldy Design", American
]ournal of Sodology, LV, núm. 4 (1950), 355-361.
2 8 Véase Stake,. obra citada, donde se encuentra una conceptualización algo
Mt!dición: Variables de insumo y \'ariables intercurrentes 65
~ Opi~
tpo< pod<e>r mee>l<e>.--------------.
~
Simpotio del maeSira
t
Apoyo y estimulo de los padres
t
por los niños por parte del niño, Apoyo de los podres Remisión o quienes pueden
y su manera de poto el cumplimiento, paro mejorar la ayudarlo en la escuela o
entender al mundo de las toreas en el \ e>i>lencie e {e e>coele loem de le mi>m¡
} hogar y en la escuela
t
Enseñanza de manero
cómoda y comprensible Trabajo cOncienzudo Asistencia de los alumnos Recepción de .
para !Os alumnos de porte de Jos alumnos ~ ayudo especial
. ~de pa<le del oiño
Aprovecharñiento en lectura
'"•-..,-,·'-:....,.,...~~~,...,..~~....,...,.-~.=<">"'·':'!
Medición: Variable! de insum(i y variables intercunentes 69
sitas a los hogares, podría resultar que los maestros mostrasen, en ver-
dad, una mayor comprensión de la cultura de los-hogares de los alum-
nos, que sintiesen mayor simpatía por los niños, no obstante lo cual
siguiesen enseñando a la vieja manera tradicional, sin hacer ningún es-
fuerzo por adaptar la enseñanza a la subcultura de los alumnos. Si no
mejora la lectura de los niños, contamos con alguna clave que nos per-
mita comprender el porqué. Podiemos señalar en qué parte se rompi6
la cadena proyectada. De manera semejante, si algunos padres se e_nte-
ran de las expectativaS de conducta y ejecución que para los niños es-
tablece la escuela y entonces tratan de alentarlos. para que trabajen me-
jor ta:nto en la escuela como en el hogar y, sin· embargo, el trabajo de
suS niños no es mejor que el de otros, habremos· descubierto un lugar
en el .cual buscar nuevos conocimientos acerca de la ruptura de la es-
perada cadena de acontecimientos. 34 ·
dP] grnpo. Esta cuesti6n tiene interés teórico y programático, po•nn~ si hay efectos
diferenciales, pueden hlearse pro'!ramas especiales p:ua grup'"~.~ Psp~ciales. John A.
Sonquist y .lames N. Margan. The Detection of-Interaction Effects: A Report on a
Computer Pmf!.ram -for the Selection of Optimal Combinations of Explanatory Varia-
blr:s (Ann Arhor, Mich.: University of Michi<tan Institute for Social Research. mo-
nografía núm. ·.'35, 1964).: John A- Sonquist, Multivariate Model Building: The Va~
lidation of a Search Strategy (Ann Arbor, Mich.: University of Michigan Institute
for Social" Research, 1970).
3-1 Una analogía interesante con el razonamiento en que se funda 1~ concepci6n
de modelos de procesos de programa es la que ofrf'ce Myron Tribus. "Physical View
of.Cloud Seedin¡;;", Science, CUGII, núm. 3928 {1970). 201-210. En el complicado
negocio de- producir lluvia "sembrando" nubes, sugiere .que en vez de valerse de
m..-diciones estadísticas de la precipitación fluvial para investigar el éxito, los in-
vestigadores traten de comprender y medir la cadena de acontecimientos físicos
que vienen después del sembrado de nubes- y que dan o no lttgar a lluvia.
70 Cap~--~~: Fonnulación de la p1·egunta y medición de la respuesta
RECOPILACióN DE DATOS
l. Entrevistás.
2. Cuestionarios.
3. Observación.
4. ·Clasificaciones (por parte de compañeros, de miembros del perso~al,
de expertos) .
S. Tests psicométricos de aptitudes, valores, personalidad, preferencias,
normas y creencias.
6. Registros institucionales.
í 7. Estadísticas del gobierno.
8. Tests de infonnación, interpretación, destrezas y aplicación de los co-
nocimientos.
9. Tests proyectivos.
10. Tests situacionales que le presentan al sujeto situaciones vitales simu-
ladas.
11. Registros diarios.
12. Testimonios físicos.
13. Exámenes clínicos.
14. Registros financieros.
15. Documentos (actas de las reuniones de juntas de comités, informaciones
periodísticas acerca de determinadas acciones. políticas, copias de jui-
cios).
Entrevistas
· Observación
Registros de P~'-ogram~
Los registros de los programas y los expedientes de los organismos
son una fuente ..natural" de datos para la evaluación. Los pr?gramas
suelen reunir buena cantidad de información acerca de las personas que
participan en ellos. Tanto Si son alumnos de una escuela, como si son
residentes en viviendas del estado, beneficiarios de subsidios o pacien-
tes en hospitales, los participantes habrán llenado esqueletos de muchas
páginas, en los que habrán suminish·ado información de toda clase acer-
ca de sí mismos y de su situación. Por desgracia, la experiencia nos ha
mostrado que los expedientes de las organi~aciones no poseen ni remo-
tamente, toda la utilidad que podrían tener. La organización lleva sus
registros a_ la buena de Dios, y lo mismo ocurre con el traslado de las
jnformaciones de enh·ada y de servicio a expedientes o registros perma-
nentes. Los registros suelen ser inexactos, estar atrasados, etc.· Además,
Jas definiciones y categorías utilizadas por la organización. tal vez no
sirvan para los fines de evaluación. Quizá nunca se hayan. solicita9-o
importantísimas categorías de información o los registros se lleven en
forma (como la del registro narrativo de caso) enormemente difícil de
rcdudr a renglones que puedan utilizarse en la investigación.
r~
. 1
'
1
i
'
\1
6
utilización de les
resultados de
la· evaluación
EL EVALUADOR QUE ha sobrevivido a las crisis recurrentes de su estudio,
finalmente reúne y a~aliZa sus datos y escribe un infonne. Lo entrega
a: los adminiStradores del programa, así como a los patrocinadores del
estudio y deja que los hechos hablen por sí mismos; pero, a menudo, no
ocurre nada. ¿Por qué? Ha prestado atención a todas las recomendacio-
nes de los capítulos anteriores: ha logrado interesar profundamente a
los administradores, ha ajustado el estudio a las finalidades de la organi-
zación, ha hecho que los ejecutantes del programa se sientan consagra-
dos también a la evaluación. Ha realizado un estudio metodológicamente
competente y ha terminado a tiempo para que se tomen decisiones
y, no .obstante todo- esto, no se hace el menor caso de los resultádbs.
Cierto número de restricciones limita con frecuencia el uso de los re-
sultadoS de la evaluación. Examinaremos cinco de ellas: a) la idea
qúe el evaluador se forma del papel que le corresponde desempeñar
en el p~oceso de utilización; b) la resistencia al cambio que ofrece la
organización; e) la diseminación inadecuada de los resultados;- d) el
hueco que queda entre ]os descubrimientos de la evaluación y los cur-
sos claros de acción futura, y e) la tendencia de gran parte de las eva-
luaciones a mostrar pocos o ningunos· efectos positivos. En cada caso,
comentaremos diversas maneras de mejorar la utilización.
.,¡
¡
'
,¡
T
'J·
~!-:··
RESISTENCIAS EN LA ORGANIZACióN
~actibilidad
Aceptabilidad
Otro conjunto de problemas tiene que ver con la aceptabilidad que
tengan las nuevas prácticas para grupos de fuera. Las revisiones del pro-
grama tal vez sean causa de cambios en las relaciones con los que do-
nan el dinero, con los clientes o con otras organizaciones de la comuni-
dad. Es posible que no les parezcan aceptables los cambios. Si entran
140 U.p. 6 Utilización de lOs resulta~os de la evaluación
en cOnflicto con las expectativas del momento y" no logran atender a los
intereses de estos grupos, la' organización podrá caer en un periodo de
luchas y ajuste ca6tico.
Además, las prácticas nuevas quizá nO armonicen con los valores so-
ciales prevalecientes; por ejemplo, una recomendación para concentrar
recursos en las. escuelaS de los barrios miserables tal vez tropiece con la
resistencia de los contribuyentes de la clas~ media. Aun si los cambios
propuestos llegasen a ayudar a realizar mejor las metas del programa,
sería perfectamente posible que tuviesen efectos colaterales masivos y
diesen origen a nuevas clases de problemas. La falta de certidumbre
acerca de la riceptaci~n de las recomendaciones fuera del organismo
puede ser un efectivo inhibidor del cambio. Es problema recurrente el
de conseguir y mantener el apoyo del Congreso para los programas sO-
ciales federales en los Estados Unidos.
Ideología
~as organizaciones tienen compromisos ideológicos. Se inclinan a
creer én un conjunto de valores e incluso en determinados métodos de
· trabajo. Probablemente rechazarán cualesquier conclusiones que ame-
nacen a sus finalidades esenciales. Así, por ejemplo, los estudios que no
creen en la eficacia de la universidad abierta, o de las becas para hacer
estudios de pos¡;rado, o que proponen tratamientos distintos de la psi-
coterapia individual, tro?iezan con la resistencia de los organismqs que
creen en estos Valores y procedimientos. Cuando una evaluación mostró
que un programa de trabajo colectivo para muchachas de secundaria
potencialmente delincuentes resultaba inefic~ para prevenir la conducta
delictuosa, la reacCión de la organización encargada del programa con-
sistió en sugerir que se aumentase el número de sesiones de grupo por
semana. Cada vez que están en juego fuertes compromisos ideológicos
(sobre todo, creencias fundamentales en la igualdad y la justicia), ni
siquiera la obtención de resultados totalmente negativos conducirá a
que se abandonen ciertos programas; la evaluación tiene que ofrecer
guía y orientación que permitan mejorar la forma en que los programas
pueden alcanzar sus metas.
Aun cuando se ven con simpatía todas estas consideraciones, algu-
nas organizaciones ofrecen exceSiva resistencia al cambio. A diferencia
de las empresas de negados cuyo destino está decidido por el balance,
las organizaciones de servicio no sufren castigos graves cuando no lo- .
gran alcanzar sus metas. Les siguen llegando contribuciones privadas o
partidas del presupuesto. La clientela descontenta no tiene mayor voz
ni votO en la dirección de los- asuntos. No sabiendo a veces que se les
está -engañando, se sienten contentos con sólo que alguien les preste
atención. Indudablemente, los administradores concienzudos no sólo
desean que les 'va{a bien, sino olJrar bien, pero pueden encontrar ?le-
--->~
·-··:':.··.-
Resistencias en la organización 141
18 Aun sin una base institucional permanente, algunos individuos. Cf'<nitP.s. pro~
yectos y centros han traído los descubrimientos de la investigación ante la atención
de los usuarios. Ralph Nader ha desempeñado un papel esencialmente evaluativo
en la educación del consumidor. Comités transitorios. corno el Phvsical Science
Study Commitee, han sido muy eficaces para< promover la adopción· de planes de
estudio y otras formas de conocimiento. B. R. Clark, "Interorganizational Pattf\ms
in Education", Administrative Science Quarterly, X, núm. 20 (1965). 224~237. Las
comisiones nacionales pueden contratar una investigación y comunicar sus resulta-
do.s a un amplio auditorio, por ejemplo, los estudios de la Comisión de Motines.
National Advisory Commission on Civil Disorders, Supplemental Studies ( Wash-
ington, D. C.: Government Printing Office, 1968). Los profesores universitarios
pueden difundir los resultados de la investigación a través de sus actívidades do-
centes y cb c::msultorrs.
Mejor diseminación de los res~¿dos 147
Lo que hemos dicho hasta ahora ha dado, por supuesto, que existen
dos principales personajes (con unos cuantos personajes secundarios)
en nue~tro elenco: un evaluador que aporta resultados de la investiga-
ción, que en algún grado vienen al caso, y un encargado de trazar la
política del organismo que se dedica a no tenerlos en cuenta. Afortu-
nadamente, hay otros actores en el drama. En algunos casos, tienen
importancia capital los encargados de trazar la política a superiores ni-
veles (funcionarios de organismos federales, representantes ante el Con-
greso). Como señalamos en el capítulo 2, son los encargados de tomar
las decisiones políticas supremas quienes, p·or lo general, deciden cómo
se realizará la asignación ele recursos y si los programas deben proSe-
guir o interrumpirse. Es estéril presentar los resultados de la evaluación
al organismo ejecutante de un programa -sobre todo resultados nega-
tivos, cuya implicación es que deberían dedicarse a otra cosa- pero
los encargados de trazar la po1ítica a nivel superior a menudo se mos-
trarán dispuestos a prestarles oídos. COmo se ven menos obligados a
148 Cap. 6 Utilización de los resultados de la evaluación
-dejar las cosas como están, suelen tener menos prejuicios en pro y en
contra y estar más dispuesto~ a examinar las pruebas que se aporten
en torno a la eficiencia de un programa. No sólo en esto basarán sus
decisiones; también ellos tienen que pensar ell: el ..saboru político de la
cosa, en su factibilidad, en la ideología y en los costos; pero cuentan
. con la autoridad, y a veces con los motivos, para tomar decisiones ade-
cuadas.
Otros usuarios potenciales son los encargados de trazar la política
en organismos semejantes (otras juntas de educación,· otros directores
de departamentos estatales de conservación de recursos, directores de
otros hospitales). Aun cuando los encargados de tomar las decisiones
de organismos cuyo programa está siendo evaluado no se atreven a usar
los resultados, o los utilizan sólo para llevar a cabo pequeños arreglos
en las operaciones, estos otros actores tienen que interesarse en lo que
está ocurriendo. También ellos proponen, consiguen presupuestos, ad-
rrúnistran y supervisan programas, y tienen que interesarse en propor-
cionar servicios sociales más efectivos. Cuando estalla una crisis en sus
dominios, o surgen engorrosos problemas, necesitan información súbre
otros programas y sobre el grado en que hayan alcanzado éxito, o hayan
fracasado en las circunstancias dadas. Algo les podrán enseñar los es-
fuerzos evaluativos que hayan realizado sus semejantes. Por tener me-
nos intereses creados y menos sensibilidad que el organismo que es ob-
jeto directo de estudio, quizá muesh"en también menos resistencia a los
descubrimientos. Por otra parte, como es pro~able que su situación no
sea idéntica, la aplicación de los descubrimientos tal vez suponga una
adaptación y no una pura y simple adopción. Gran parte del uso que
se le da a la investigación social lo llevan a cargo organizaciones que no
son el "cliente" local del estudio. La evaluación efectuada en relación
con programas especiales de demostración, por ejemplo, ·quizá ejerza
poca influencia en los sucesos locales porque la vida de la demostración
termina cuando se agota el presupuesto federal (o de la fundación).
Luego se detiene también "la evaluación y rara vez se le ofrece la opor-
tunidad de afectar a las decisiones en torno· a la continuación del pro-
grama en el lugar; pero los resultados de la evaluación de un proyecto
de demosh"ación son útiles para otros. Los organismos federales y esta-
tales, las fundaciones y las organizaciones nacionales que fijan normas,
diseminan información, proponen nuevas soluciones a probJernas locales
y dan dinero para esfuerzos locales necesitan saber qué es lo que da
buenos resultados y· qué es lo que no los da en diversas circunstancias,
a fin de que puedan dar su apoyo a los modelos más eficientes y pro-
pagarlos. Los legisladores que están reflexionando sobre una nueva
legislación social y sobre la .ampliación de antiguos programas pueden
utilizar las evaluaciones de demostración como clave para una atinada
asignación de recursos. Constituyen otro auditorio· más los clientes del
programa y los g7upos de la comunidad en general. Tal vez tengan un
Mejor diseminación de los rcsultadru 149
tura de recomendaciones. Puesto que tiene que tratar con personas rea-
les y que prever graves consecuencias para la organización, tonto sería
el evaluador_ que se pusiese a levantar grandes· esquemas utópicos· a
partir de un conjunto de pequeñas diferencias en porcentaje. (Podrá
verse tentado a levantarlos con los materiales de su propia ideología;
· es ésta una cuestión que consideraremos más- adelante.) Así pues, una
evaluación ncis ·muestra debilidades, pero a menudo ofrece sólo muy
leves indicios de solución. Existe un hueco entre los datos y la acción
que tendrá que llenarse con intuición, experiencia, ideas que se tomen
de las bibliografías de la investigación, suposiciones adquiridas de la
teoría, de la ideología y con una determinada cantidad de pura y sim-
ple adivinanza. Avanzar a través Pe este hueco hasta Ilegar a la exne-
rimeritación de un programa nuevo, ·requiere, de quienes toman las de-
cisiones, que estén c~nvencidos de que -un nuevo ensayo es mejor que
la preservación de un error confirmado.
La evaluación nunca proporcionará todas las respuestas. L9- que sí
puede hacer -y nó es ésta una aportación de poca monta- es poner al
descubierto las deficiencias de los programas existentes y seña-lar la ne-
cesidad de cambio. A veces podrá conseguir publicidad para los fraca-
sos (y éxitos) de los programas, ayudar y despertar interés en la efi-
cacia del programa fuera de los estrictos límites de la organización y
proporcionar apoyo a los reformadores que ·tratan de mejorar las ejecu-
ciones de los programas. Tal vez el uso de mayor valor práctico·que se le
puede dar a los descubrimientos de la evaluación consiste en proporcio-
nar pruebas contundentes a fin de apoyar a quienes proponen cambios
dentro del sistema de toma de decisiones, a las personas de dentro y de
fuera del organismo que han querido cambiar los modos usuales de pro-
gramación. Los datos del estudio legitiman su causa y les dan material
abundante que citar. Otra aportación de _e;ran importancia es que plan-
.tea ·nuevas cuestiones y carribia la naturaleza y hl atmósfera de la dis-
cusión. En el transcurso del liempo. una pauta recurrente de descubri-
mientos de la evaluación podrá ir producienP.o poco a poco- cam_bios en
la opinión pública y profesional.
Con diversos grados de seguridad, la evaluación puede ofrecer tam-
bién opciones a la manera actual de ejecutar un programa. Algunas pro-
posiciones optativas podrán acorazarse con datos contundentes y un
franco apoyo; por ejemplo, los programas de rehabilitación de los cen-
tros A y D evidentemen.te están funcionando mejor que los de los centros
B y C. A veces los testimonios son menos sustanciales. De cuando en
cuando, no se encuentra ninguna prueba y el evaluador echa mano
de su conocimiento profesional a fin de ofrecer otros cursos p-osibles de
acción. No existe una regla práctica que le indique hasta dóride deberá
llegar, cuánto puede apartarse de los datos para ponerse a especular
sobre posibilidades diferentes de acción. Las circunstancias del progra-
ma y de la organización, y sus propias inclinaciones, determinarán la
Efecto que tiene el ~'efecto pequeño" 153
latihld que a sí mismo se dé. Si está muy enterado del campo de acción,
ha tenido experiencia previa en actividades de organización semejantes
y es persona grata al patrocinador del estudio., podrá espaciarse a su an-
tojo y, tal vez el. programa saldrá muy beneficiado. Por lo común ofre-
cerá un puñado de_ sugerencias, y no una sola, para realizar los fines
(
que encuentre que no se han realizado.
Pero cuando el evaluador esté haciendo uso de conocimientos y va-
lores que quedan fuera del estudio de evaluación, tendrá el deber de
decirlo. Le corresponde indicar de manera explícita el grado en que
las recomendaciones que ofrece tienen como fundamento datos del es-
tudio, hásta qué punto son ampliaciones 16gicas de los datos y cuándo
y dónde habla sólo como un individuo. Cuando esté haciendo suposi-
ciones que se derivan de posturas ideológicas, prestará servicios a la
causa de la claridad si hace explícita su suposición y el fundamento de
la misma,_ De esta manera se ayuda a quienes toman las decisiones a
separar la opinión del evaluador de los resultados de la investigación.
Si aquellos están de' acuerdo con las recomendaciones, no por ello que-
da!án exentos de la obligación de prestar atención seria a los datos .
. Incluso se puede ir un paso más allá del simple sugerir otras posi-
bles maneras de acción. El evaluador concienzudo puede pasar a efec-
tuar un análisis de las consecuencias probables, buenas y malas, de los
cursos de acción opcionales qUe está recomendando. Sobre todo, si las
sugerenciaS que hace difieren notablemente de los modos acostumbra-
dos, será útil ·contar con una ponderación ilustrada de las consecuencias
l?OSibles; pero al llegar a este punto en nuestra exposición, vemos que
hemos pasado más allá de sus contribuciones como evaluador, y hemos
llegado al reino de sus conh·ibuciones como analista de la política· y
participante en el proceso d~ toma de decisiones.
23 David A. Ward y Gene G. Kassebaum, "On Biting the Hand That Feeds:
Sorne Implications of Sociological Evaluations of Correctional Effcctiveness", en
Evaluating Action Programs: Readings in Social Action and Education, Caro! H.
Weiss (dir.) (Bastan: Allyn & Bacon, Inc., 1972), págs. 300-310.
2-t Ibídem, págs, 308-310.
25 Charles H. St€imber, "Evaluating Effects of the Integrated Ciassroom", Urban
Reoíew, II, núm. 7 (_1968 ), 3-4, 30-31.
11
1
Efecto que tiene el "efecto pequeño" 155
27 Daniel P. Moynihan, "Policy vs. Program in the 70's", The Public Interest,
núm. 20 (1970), 90-!00.
28 Carol H. Weiss, "The Politicization of Evaluation Research", .Tournal of So- :!
cial Issues, XXVI, núm. 4 (1970), 57-68.