Sunteți pe pagina 1din 4

TEMA 16.

PROGRAMAS DE REFORZAMIENTO Y CONDUCTAS DE


ELECCION
PROGRAMA DE REFORZAMIENTO: pauta o regla que determina la forma y el momento en que
la aparicin de una R va a ir seguida de un Er+.
El programa ms simple es el programa de reforzamiento continuo en el que cada
aparicin de la R da lugar a la aparicin del Er+. Rara vez ocurre fuera del laboratorio porque
el mundo no es perfecto.
Cuando la R instrumental es reforzada intermitentemente, programa de reforzamiento
intermitente o parcial.

PROGRAMAS SIMPLES DE REFORZAMIENTO INTERMITENTE


PROGRAMAS DE RAZON: el reforzamiento depende solo del n de R que da el
sujeto.
PROGRAMA DE RAZN FIJA: Se da el Er+ cada vez que se da un n de respuestas
determinado.
Ej.: el trabajo a destajo en las fbricas.
Estrictamente hablando, el programa de reforzamiento continuo es un programa de razn
fija porque posee una razn fija de 1: un Er+ por cada R.
Pausa post-reforzamiento: tasa de respuestas 0 que ocurre justo despus del
reforzamiento. El animal deja de responder despus de cada reforzamiento. Es el
resultado del n predeciblemente alto de Rs que se necesitan para la siguiente
presentacin del Er+. Carrera de la razn: cuando reanuda las Rs, lo hace con una
tasa alta y estable.

Si el requisito de la razn se aumenta un poco (por ejemplo, de RF15 a RF30), la


tasa de respuesta durante la carrera de razn no cambia.

Con requisitos de razn ms altos, la pausa post-reforzamiento es ms larga.

Si el requisito de razn se aumenta mucho de repente (por ejemplo, de RF15 a


RF100) es probable que el animal se detenga peridicamente antes de completar el
requisito de razn = tensin de la razn. En casos extremos, es posible que la
tensin sea tan grande que el animal deje de responder por completo. Cuando se
entrena a un organismo, hay que ser cuidadoso con el aumento de la razn (la
dificultad de la tarea) pues se puede superar la tensin de la razn y el sujeto dejar
de responder.

Cuando ya tiene suficiente experiencia, el sujeto aprende que, despus del


reforzamiento, tiene que dar un n determinado de Rs para recibir el siguiente
reforzador. Este efecto de la predictibilidad puede eliminarse variando el n de Rs
necesarias para un reforzamiento de una ocasin a la siguiente. Este procedimiento
es todava un programa de razn porque el reforzamiento dependen del n de Rs,
aunque sea un n de Rs diferentes. Es lo que se llama programa de razn variable.

PROGRAMA DE RAZN VARIABLE: el valor numrico del PRV indica el n medio de


respuestas que se necesitan para el reforzamiento (Ej.: RV10). El n de Rs requeridas por
1

reforzamiento ya no es predecible por lo que la tasa de Rs no presenta pausas predecibles.


El sujeto responde con una tasa bastante estable hasta que se sacia.
Los encontramos en la vida diaria siempre que se precisa una cantidad impredecible de
esfuerzo para obtener un reforzador.
Ej: tragaperras / deportes (golf, por ejemplo).
*La pausa post-reforzamiento de los programas de razn fija y variable relacionado con los
estudios: en los programas de razn fija, la pausa post-reforzamiento es como guardarse
para el esfuerzo necesario para el siguiente reforzamiento. Por ejemplo, despus de hacer un
trabajo de clase, nos tomamos una pausa antes de empezar el otro. Una vez que se inicia la
carrera de razn, la tasa de respuestas es alta y estable as que, si tuviramos que emprender
una nueva tarea no resultara difcil trabajar hasta terminarla. Solo el comienzo es duro, pasar
de la dilacin a la nueva tarea. Una solucin consiste en decirnos a nosotros mismos que
vamos a empezar con una pequea parte de la tarea, por ejemplo un prrafo. Una vez que se
empieza, ya es ms fcil seguir.
La tasa de R es similar en RF y RV siempre y cuando, como promedio, se requieran n
similar de respuestas.
Sin embargo, la tasa global de R tiende a distribuirse ms estable en la RV y ms de
pausa-carrera en la RF.

PROGRAMAS DE INTERVALO
El Er+ no depende exclusivamente del n de Rs que d el sujeto (esfuerzo) sino que algunas
Rs se refuerzan en momentos determinados, transcurrida una determinada cantidad de
tiempo.
Cuando ya tiene suficiente experiencia, el sujeto aprende que, despus del reforzamiento,
tiene que dar un n determinado de Rs para recibir el siguiente reforzador.
PROGRAMA DE INTERVALO FIJO: cantidad de tiempo constante de una ocasin a
otra.
Ej.: IF 2 min: se refuerza la primera respuesta transcurridos 2 min desde la ltima
recompensa.
Dado que las respuestas que se ejecutan despus de la recompensa, no son reforzadas,
los animales aprenden a esperar a dar la R instrumental hasta el momento en que se
aproxima el final del intervalo fijo de 2 min. Se dan muy pocas respuestas al principio del
intervalo posterior a la recompensa. Acelera las respuestas al final del intervalo. Este
patrn de respuestas se llama festn del intervalo fijo.
Importante: el programa de intervalo fijo no asegura que el animal vaya a ser reforzado a
intervalos fijos, sino que lo que es fijo es el tiempo y se refuerza la primera respuesta que
el animal d, pasado ese intervalo (es necesario que d la respuesta instrumental). El
intervalo solo determina el momento en que el reforzador esta disponible.
Ej.: lavadora. Por muchas veces, que abramos la puerta, la ropa no estar limpia hasta
terminar el ciclo de lavado.
Ej.: tarta que tiene que cuajar. Por muchas veces que abramos la nevera, hasta que no
pase el tiempo necesario no estar lista para comer. Si estamos ansiosos por probarla, las
veces que abramos las puertas de la nevera se asemejarn al festn del intervalo fijo.
Las pausas post-reforzamiento pueden ocurrir porque una vez que se entrega la
recompensa, no hay posibilidades de ms hasta pasado un tiempo.
2

Ej.: exmenes. Se estudia antes del examen y se recompensa con la nota. Estudiar al
principio de curso o despus del examen no tiene recompensa. Una frecuencia mayor de
estudio est motivada por una frecuencia mayor de exmenes. Habra mayor tasa de
respuesta si se hicieran exmenes sin previo aviso de forma anloga a los programas de
intervalo variable (control por sorpresa).
PROGRAMA DE INTERVALO VARIABLE: el reforzador se suministra cuando se da la
primera respuesta despus de que transcurra una cantidad variable de tiempo desde el
reforzador anterior. El intervalo medio que tiene que pasar antes de que est disponible la
recompensa es de 4 min (IV 4 min).
No hay pausas = tasas estables y continuas de respuesta.
Ej.: mecnico no puede decirnos cunto tardar en arreglarnos el coche.
Tanto a los programas de intervalo fijo como a los programas de intervalo variable se le puede
aplicar la duracin limitada: restriccin del tiempo que est disponible la recompensa. Esto
ocurre en situaciones fuera de laboratorio.
Ej.: restaurante solo sirve comida en horas determinadas.

COMPARACION

RF e IF producen pausas post-reforzamiento. Por el contrario, los de RV e IV producen tasas


estables de respuestas, sin pausas predecibles.
Esta diferencia tiene que ver con el grado hasta el cual la aparicin de las respuestas
determina la frecuencia con que los sujetos son reforzados:
o

Programas de razn: relacin fuerte y directa R-Er+. La tasa de respuestas determina


totalmente el reforzamiento. Cuanto ms a menudo d la R, ms a menudo tendr Er+.
Esto hace que los programas de razn sean altamente motivantes = alta tasa de
respuestas.

Programas de intervalo: la tasa de respuestas no determina el reforzamiento del mismo


modo que en programas de razn. Se establece un lmite mximo en la frecuencia de
los reforzadores. Si los sujetos no responden en cuanto la recompensa est disponible,
no obtendrn reforzadores con toda la frecuencia que sera posible. Por tanto, la tasa
de respuesta depende ms de cundo responde el sujeto, ms que de la frecuencia de
la R = no motivan tasas de R tan altas
Ej.: IF 2 min = mximo 30 reforzadores en 1 hora.

RV e IV mantienen tasas de respuesta estables y predecibles.

PREGUNTAS
Qu tipo de programa es ms adecuado para instaurar una nueva conducta, continuo o
parcial? CONTINUO.
qu tipos de programas son ms resistentes a la extincin, fijos o variables? VARIABLES.
Qu tipos de programas producen mayor tasa de R, razn o intervalo? RAZN.
Qu tipos de programas producen una mayor estabilidad en la respuesta, fijos o
variables? VARIABLES.

PROGRAMA DE REFORZAMIENTO DE TASA DE RESPUESTAS


3

Los programas de razn fomentan tasas de respuesta ms altas que los programas de
intervalo. Pero ninguno de los dos exige que los sujetos acten con una tasa especfica de
respuesta para ser reforzados. Las diferencias son un efecto indirecto de los programas. Hay
otros programas que exigen una tasa especfica de respuestas para ser reforzados =
programa de reforzamiento de tasas de respuesta.
Tiempo interrespuesta (ITR): tiempo entre las sucesivas respuestas.
Ej.: la R se reforzar solo si se presenta antes de 5 seg desde la ultima respuesta. Si da
respuestas cada 5 seg, su tasa de respuesta ser de 12 por min.
REFORZAMIENTO DIFERENCIAL DE TASAS ALTAS (RDA): una R se refuerza solo
si aparece en un periodo de tiempo determinado despus de la ltima R.
Ej.: cadena de montaje. Trabajador se adapta a la velocidad de movimiento de la cadena.
REFORZAMIENTO DIFERENCIAL DE TASAS BAJAS (RDB): depende de que se
espere el tiempo preciso entre R, de no adelantarse.
*Oscar Berman (1980) us los RDB para estudiar los dficits en el sndrome de Korsakoff
(producido por alcohol, prdida de memoria de hechos recientes). Se interes por estudiar
hasta qu punto el dficit de memoria de hechos recientes era secundario a otros
problemas. Plante la hiptesis de que el dficit neurolgico de los Korsakoff les hace
responder prematuramente a la informacin que les llega (una salida en falso). Palanca
reforzada con peniques segn distintos programas RBD (3 seg, 6, seg., 12 seg., 18 seg.). 3
grupos:
a) Normales: resultados normales.
b) Alcohlicos sin Korsakoff: resultados intermedios.
c) Alcohlicos con Korsakoff: mucho menos capaces de esperar el tiempo suficiente para el
reforzamiento.
Interpretacion resultados: los dficits en las actuaciones con RBD son las primeras seales
de aviso de un deterioro neurolgico previo a la enfermedad de Korsakoff.
Programa concurrente de reforzamiento: el sujeto es libre de cambiar de una alternativa
de R a otra.
Laberintos en T. Manipulador hacia la derecha o izquierda cada uno con un programa de
reforzamiento distinto. La preferencia se mide por la tasa alternativa de respuesta en cada
manipulador o por el tiempo que pasa respondiendo en cada una de ellas.
En su artculo los determinantes de la conducta en el punto de eleccin, Tolman (1938)
avanza que toda conducta es esencialmente una conducta de eleccin.

S-ar putea să vă placă și