EL CONDUCTISMO
TEORÍAS PEDAGÓGICAS.
INTRODUCCIÓN
En este trabajo de investigación he realizado
una breve investigación de uno de las más teorías del aprendizaje, EL
CONDUCTISMO. Los psicólogos conductistas han producido una gran cantidad de
investigaciones básicas dirigidas a comprender cómo se crean y se mantienen las
diferentes formas de comportamiento.
Estas investigaciones se han centrado en las
interacciones que preceden al comportamiento, tales como ciclo de atención o los
procesos preceptúales. También se han estudiado los cambios en el
comportamiento del individuo, como los efectos de los incentivos o las
recompensas y los castigos, entre otros.
También citaré los principales representantes
de la teoría conductista, así como una descripción de los fundamentos teóricos
de cada uno de estos actores.
TEORÍA CONDUCTISTA O DEL CONDUCTISMO.
Corriente de
la psicología inaugurada por John B. Watson (1878-1958) que defiende el empleo
de procedimientos estrictamente experimentales para estudiar el comportamiento
observable (la conducta), considerando el entorno como un conjunto de
estímulos-respuesta. El enfoque conductista en psicología tiene sus raíces en
el asociacionismo de los filósofos ingleses, así como en la escuela de
psicología estadounidense conocida como funcionalismo y en la teoría darwiniana
de la evolución, ya que ambas corrientes hacían hincapié en una concepción del
individuo como un organismo que se adapta al medio (o ambiente).
La teoría
conductista se desarrolla principalmente a partir de la primera mitad del siglo
XX y permanece vigente hasta mediados de ese siglo, cuando surgen las teorías
cognitivas.
La teoría
conductista, desde sus orígenes, se centra en la conducta observable intentando
hacer un estudio totalmente empírico de la misma y queriendo controlar y
predecir esta conducta. Su objetivo es conseguir una conducta determinada, para
lo cual analiza el modo de conseguirla.
De esta
teoría se plantearon dos variantes: el condicionamiento clásico y el
condicionamiento instrumental y operante. El primero de ellos describe una
asociación entre estímulo y respuesta contigua, de forma que si sabemos
plantear los estímulos adecuados, obtendremos la respuesta deseada. Esta
variante explica tan solo comportamientos muy elementales.
La segunda
variante, el condicionamiento instrumental y operante persigue la consolidación
de la respuesta según el estímulo, buscando los reforzadores necesarios para
implantar esta relación en el individuo.
Para las
Teorías Conductistas, lo relevante en el aprendizaje es el cambio en la
conducta observable de un sujeto, cómo éste actúa ante una situación
particular. La conciencia, que no se ve, es considerada como "caja
negra". En la relación de aprendizaje sujeto - objeto, centran la atención
en la experiencia como objeto, y en instancias puramente psicológicas como la
percepción, la asociación y el hábito como generadoras de respuestas del
sujeto. No están interesados particularmente en los procesos internos del
sujeto debido a que postulan la “objetividad”, en el sentido que solo es
posible hacer estudios de lo observable.
Las
aplicaciones en educación se observan desde hace mucho tiempo y aún siguen
siendo utilizadas, en algunos casos con serios reparos. Enfoques conductistas
están presentes en programas computacionales educativos que disponen de
situaciones de aprendizaje en las que el alumno debe encontrar una respuesta
dado uno o varios estímulos presentados en pantalla. Al realizar la selección
de la respuesta se asocian refuerzos sonoros, de texto, símbolos, etc.,
indicándole al estudiante si acertó o erró la respuesta. Esta cadena de eventos
asociados constituye lo esencial de la teoría del aprendizaje conductista.
La teoría
del conductismo se concentra en el estudio de conductas que se pueden observar
y medir (Good y Brophy, 1990). Ve a la mente como una "caja negra" en
el sentido de que la respuestas a estímulos se pueden observar
cuantitativamente ignorando totalmente la posibilidad de todo proceso que pueda
darse en el interior de la mente.
PRINCIPALES
REPRESENTANTES DE ESTA TEORÍA.
Algunas personas claves en el desarrollo de la teoría conductista incluyen a Pavlov, Watson, Thorndike y Skinner.
IVAN
PETROVICH PAVLOV
Ivan Petrovich Pavlov fue un fisiólogo ruso discípulo de Ivan
Sechenov y ganador del Premio Novel en 1904.
Hoy se estima que la obra de Pavlov ha sido precursora, ya que fue
el primero en efectuar investigaciones sistemáticas acerca de muchos fenómenos
importantes del aprendizaje, como el condicionamiento, la extinción y la
generalización del estímulo.
Si bien Pavlov no creó el conductismo, puede decirse que fue su
pionero más ilustre. John B. Watson quedó impresionado por sus estudios, y
adoptó como piedra angular de su sistema el reflejo condicionado.
Teoria de Pavlov
Para la mayoría de la gente, el nombre de "pavlov" lo
asocia al repiqueteo de campanas. El fisiólogo ruso es mejor conocido por su
trabajo en condicionamiento clásico o sustitución de estímulos. El experimento
más conocido de pavlov lo realizó con comida, un perro y una campana.
Experimento de pavlov
Antes de condicionar, hacer sonar una
campana no producía respuesta alguna en el perro. Al colocar comida frente al
perro hacía que este comenzara a babear.
Durante el
condicionamiento con el sonido de la campana, esta se hacía sonar minutos antes
de poner el alimento frente al perro.
Después del
condicionamiento, con sólo escuchar el sonido de la campana el perro comenzaba
a salivar.
Los Elementos Del Experimento De Pavlov Estimulo Y Respuesta
- Comida: Estimulo no
condicionado
- Salivación: Respuesta no
condicionada (natural, no aprendida)
- Sonido Campana: Estímulo
de condicionamiento
- Salivación: Respuesta
condicionada (por el sonido de la campana, aprendida)
Otras Observaciones Hechas Por
Pavlov
- Generalización de estímulos: Una vez que el perro ha aprendido la salivación con el sonido de la campana, producirá salivación con otros sonidos similares.
- Extinción: Si se deja de sonar la campana cuándo se le presenta la comida, eventualmente la salivación desaparece con el sonido de la campana solo.
- Recuperación espontánea: Las respuestas extinguidas se pueden recuperar después de un periodo corto de estimulación, pero se extinguirá nuevamente si no se le presenta la comida.
- Discriminación: El perro puede aprender a discriminar entre sonidos parecidos y distinguir cuál de los sonidos está asociado con la presentación de la comida y cual no.
- Condicionamiento de orden superior: Una vez que el perro ha adquirido el condicionamiento con la asociación del sonido de la campana y el alimento, se pueden realizar al mismo tiempo, tales como encender un foco. De esta manera el perro también producirá saliva con solo encender el foco (sin el sonido de la campana).
JOHN BROADUS
WATSON
Nació en 1878 y murió en 1958. Obtuvo el primer título de doctor
en psicología que otorgó la Universidad de Chicago y fue el fundador de la
escuela de psicología que se conoce como conductismo, y que ha tenido un gran
desarrollo en los países anglosajones.
Sus obras principales y las que exponen el proceso de su
pensamiento son Behavior, an Introduction to Comparative Psychology (1914), La
psicología desde el punto de vista del conductismo (1919) y El conductismo
(1925). El conductismo se propone como una teoría psicológica que toma como
objeto de estudio lo observable y no el alma, la conciencia o cualquier otra
entidad inmaterial y por lo tanto imposible de estudio objetivo.
Una de las ideas centrales de la teoría es la de condicionamiento,
proceso por el cual una respuesta determinada es obtenida en relación con un
estímulo originalmente indiferente con respecto a la misma. Luego se trata de
determinar cómo a partir de unos pocos reflejos y mediante procesos de
condicionamiento, se obtiene la enorme gama de conductas que realizan los hombres.
El conductismo se ha planteado también como un programa, lo que incluye entre
sus pretensiones el interés por intervenir sobre la conducta y los hombres a
los efectos de producir una mejor adaptación de los mismos al medio social, lo
que ha derivado en estudios sobre el aprendizaje y un desarrollo importante en
el área laboral y en la propaganda.
Teoría
John B. Watson fue el primer psicólogo norteamericano en usar las
ideas de Pavlov. Al igual que Thorndike, primero comenzó sus estudios con
animales y posteriormente introdujo la observación de la conducta humana.
Watson pensaba que los humanos ya traían, desde su nacimiento,
algunos reflejos y reacciones emocionales de amor y furia, y que todos los
demás comportamientos se adquirían mediante la asociación estímulo-respuesta;
esto mediante un acondicionamiento.
El conductismo Watsoniano
Entre 1913 y 1930 se desarrolla el conductismo watsoniano. La
teoría elaborada por Watson no se presenta como un sistema orgánico y definido
una vez por todas. Por ejemplo, Watson especificó de modo diferente el objeto
de la psicología. El comportamiento fue explicado en los términos de
"adaptación del organismo al ambiente", "contracciones
musculares", "conjunto integrado de movimientos" y
"acciones". Se puede, en cierto modo, decir que la unidad de
observación psicológica es para Watson el comportamiento o la conducta en el
sentido de acción compleja manifestada por el organismo en su integridad,
"sea lo que fuere lo que realice, como orientarse hacia una luz o en
dirección opuesta, saltar al oír un sonido, u otras actividades más altamente
organizadas como tener hijos, escribir libros, etc.". Evidentemente esas
conductas no se detectan en cada una de las reacciones psicológicas que el
organismo manifiesta (contracción de un músculo, o bien actividades de órganos
individuales como la respiración, la digestión, etc.), que constituyen el
objeto diferenciado de estudio de la fisiología.
El condicionamiento empieza a ocupar un lugar central, en la
teoría conductista, hacia 1916. Watson aparece directamente influido no sólo
por Pavlov sino también por los reflexólogos rusos, es decir, por Secenov, que
ya hacia 1860 había afirmado que los actos de la vida consciente e inconsciente
no son más que reflejos y por Bectherev que se interesaba de modo particular
por los reflejos musculares.
El principio de condicionamiento parte del descubrimiento del
hecho de que en el organismo existen respuestas incondicionadas a determinadas
situaciones. Por ejemplo, un organismo hambriento que recibe comida seguramente
reaccionará salivando, un súbito haz de luz sobre los ojos provocará
seguramente una contracción de la pupila, etc. la comida y el haz de luz se
llaman estímulos incondicionados, es decir, acontecimientos que se producen en
el medio ambiente y que provocan incondicionadamente una determinada respuesta
en el organismo.
Pero, otros estímulos que hayan sido asociados a los estímulos
incondicionados provocarán también la reacción incondicionada, aunque no tengan
por si mismos relación alguna con ella. Por ejemplo, el perro de Pavlov
salivaba cuando oía el sonido de una campanita, por el sólo hecho de que ese
sonido había sido anteriormente asociado con cierta frecuencia a la
presentación de la comida. La investigación sobre el condicionamiento era de
particular importancia para el conductista porque, por un lado detectaba
precisas unidades estímulo (que permitían definir mejor el ambiente en que el
organismo reacciona) y precisas unidades respuesta, y, por el otro, porque
ofrecía un principio clave para explicar la génesis de las respuestas
complejas. En efecto, se podía suponer que los comportamientos complejos,
manifestados por el hombre, eran una larga historia de condicionamientos.
Por este motivo adquirió particular importancia el estudio del
aprendizaje empezando por las primeras adquisiciones infantiles. Al analizar
las emociones, Watson expresaba la idea de que el miedo, la rabia y el amor son
las emociones elementales y se definen partiendo de los estímulos ambientales
que las provocan.
Para Watson, el lenguaje se adquiere por condicionamiento. El niño
oye asociar a un objeto su nombre y por consiguiente el nombre termina por
evocar la misma respuesta evocada por el objeto. Progresivamente todo el
sistema de movimientos que provocan la emisión del sonido palabra puede ser
sustituido por una parte de movimientos, por lo que la palabra es sólo
pronunciada en voz baja, o moviendo silenciosamente los labios, o bien mediante
simples "hábitos de laringe". Watson creía que de esta manera se va
formando el pensamiento y sugería que podía ser reducido a un conjunto de
hábitos de laringe. En el plano teórico el punto central estaba representado
por el hecho de que la actividad de pensamiento era un resultado de los
aprendizajes comunicativos y no tenía por sí mismo importancia ni interés
cognoscitivo.
EDWARD. L.
THORNDIKE.
Nació en 1874 y murió en 1949. Edward L. Thorndike fue profesor de
psicología durante más de treinta años en el Teachers College de Columbia,
Estados Unidos. Lo que más atrajo su interés fue la teoría del aprendizaje, y
se cuenta entre los importantes precursores del conductismo. Watson se fundó en
gran parte en la obra de Thorndike y en la de Pavlov.
Teoria
Edward Thorndike realizó su investigación, también observando la
conducta de animales pero después realizó experimentos con personas. Thorndike
implantó el uso de "métodos usados en las ciencias exactas" para los
problemas en educación al hacer énfasis en el "tratamiento cuantitativo
exacto de la información". "Cualquier cosa que exista, debe existir
en determinada cantidad y por lo tanto pude medirse" (Johcich, citado en
Rizo, 1991). Su teoría, conexionismo, establece que aprender es el
establecimiento de conexiones entren estímulos y respuestas.
- La "ley
de efecto" dice que cuando una conexión entre un estímulo y respuesta es
recompensado (retroalimentación positiva) la conexión se refuerza y cuando es
castigado (retroalimentación negativa) la conexión se debilita. Posteriormente
Thorndike revisó esta ley cuando descubrió que la recompensa negativa (el
castigo) no necesariamente debilitaba la unión y que en alguna medida parecía
tener consecuencias de placer en lugar de motivar el comportamiento.
- La "ley
de ejercicio" sostiene que mientras más se practique una unión
estimulo-respuesta mayor será la unión. Como en la ley de efecto, la ley de
ejercicio también tuvo que ser actualizada cuando Thorndike encontró que en la
práctica sin retroalimentación no necesariamente refuerza el rendimiento.
- La "ley
de sin lectura": Debido a la estructura del sistema nervioso, ciertas
unidades de conducción, en condiciones determinadas, están más dispuestas a
conducir que otras.
Las leyes de Thorndike se basan en la hipótesis estímulo
respuesta. El creía que se establecía un vínculo neural entre el estímulo y la
respuesta cuando la respuesta era positiva. El aprendizaje se daba cuando el
vínculo se establecía dentro de un patrón observable de conducta.
Estimación Del Punto De Vista De
Thorndike
Antes resumiremos las soluciones de Thorndike a los problemas más
característicos del aprendizaje, en los siguientes puntos:
1) La capacidad de aprendizaje depende del número de conexiones y
su disponibilidad.
2) La repetición de situaciones (práctica) no modifica por sí sola
las conexiones, a menos que dichas conexiones se recompensen.
3) Motivación: la recompensa influye directamente en las
conexiones vecinas reforzándolas, pero el castigo carece del efecto debilitador
directo correspondiente. Sin embargo, el castigo puede influír indirectamente
al llevar al sujeto a elegir otra cosa que tal vez le traiga recompensa. Las
conexiones pueden fortalecerse directamente, sin necesidad de tener conciencia
o idea de ellas.
4) Comprensión: depende de hábitos anteriores. Cuando las
situaciones se comprenden de inmediato, es que se produjo transferencia o
asimilación.
5) Transferencia: la reacción a las situaciones nuevas se
beneficia, en parte, porque son parecidas a antiguas situaciones, y también por
un principio de analogía descripto como asimilación.
6) Olvido: siguió sosteniéndose a grandes rasgos la ley del
desuso, según la cual el olvido sobreviene con la falta de práctica.
El carácter más general de la teoría de Thorndike es el de
fortalecimiento automático de conexiones específicas, directamente, sin la
intervención de ideas o de influencias concientes.
La doctrina de la especificidad es fuente tanto de fuerza como de
debilidad.
La fuerza de la doctrina de Thorndike de la especificidad radica
en que, en el ámbito educativo, muestra al maestro qué tiene que hacer
específicamente para enseñar, una actividad muy compleja pero que puede
simplificarse. Por ejemplo para enseñar lectura basta con detenerse en las
palabras, ser bien específico, y desatender otros factores como semántica,
filología, etc. Pero en esto también radica su debilidad, porque el lenguaje no
es sólo palabras.
Los experimentos de Thorndike
Hay dos tipos de aprendizaje:
1) El condicionamiento clásico,
oavloviano o respondiente, que consiste en aprender la relación entre sí de
varios sucesos del entorno; y
2) El condicionamiento instrumental, que consiste
en aprender la relación entre varios eventos contextuales y el comportamiento.
El condicionamiento clásico implica aprender la relación entre ver
el pan y su olor, y condicionamiento instrumental es aprender la relación entre
la conducta de comer el pan y el gusto del pan. En este capítulo el autor
distinguirá estos dos tipos de aprendizaje.
La ley de efecto fue enunciado por Thorndike en 1898, y dice que
un efecto de un comportamiento positivo es incrementar la probabilidad de que
vuelva a suceder en condiciones similares.
Trabajó con gatos, perros y gallinas encerrándolos en jaulas,
donde los animales debían hacer algo para poder salir o recibir comida. Es
decir, trabajó con un condicionamiento instrumental (relación entre el
comportamiento y sucesos contextuales significativos, como premios y castigos).
Encontró que a más intentos que hacía el animal, menor tiempo usaba para
escapar.
La ley del efecto es simplemente la selección natural en la
historia de un organismo singular (cuanto más salta el gato para salir
equivale, en la selección natural de las especie, a cuanto más debe alargar la
jirafa el cuello para comer). Obviamente, la conducta deseada debe ser premiada
una vez que ocurre, para que luego el animal vuelva a repetirla. Esto se llama
‘modelamiento’.
Thorndike y Pavlov: Ambos fueron psicólogos moleculares, es decir,
concebían que en la base del comportamiento había conexiones simples E-R, las
que pueden ordenarse jerárquicamente según la probabilidad de su ocurrencia. Un
premio o un castigo puede modificar esta jerarquía, haciendo más probable o
menos probable una respuesta.
Respecto a sus diferencias, para Pavlov una conexión (un reflejo
condicionado) aumenta su fuerza si el estímulo condicionado es contiguo al
estímulo incondicionado (esto se llama refuerzo del reflejo condicionado). Para
Thorndike, una conexión (hábito) aumenta su fuerza si la respuesta es contigua
con un refuerzo al animal del tipo premio o castigo (esto se llama refuerzo del
hábito).
Estas explicaciones del aprendizaje en términos de conexiones
pueden también hacerse desde en punto de vista molar, en términos de
contingencias y correlaciones (entre el EI y el EC, o entre R y el premio).
Thorndike y Skinner: Para Thorndike el premio refuerza la conexión
E-R, mientras que para Skinner (1938) el premio refuerza la respuesta operante,
no la conexión con el estímulo previo. Cabe aclarar que respuesta para Skinner
es un acto destinado a producir un efecto en el entorno, a ser operante. O sea,
no importa como la rata presione la barra, sino que lo haga, y por ello
recibirá el premio.
Clases de condicionamiento
instrumental
En el condicionamiento instrumental hay cuatro principios básicos:
premio, castigo, huída y omisión. En los cuatro casos ha de tenerse presente
que primero se produce la respuesta y luego recién se premia, o se castiga,
etc.
Premio: Un premio después de la respuesta aumenta la probabilidad
que ocurra. El premio se llama refuerzo positivo, y esto fue enunciado en la
ley del efecto de Thorndike.
Castigo: Un castigo después de la R disminuye la probabilidad que
vuelva a ocurrir. Es lo inverso a lo anterior (castigo positivo).
Huída: Si una respuesta es para escapar de un castigo, aumenta la
probabilidad que vuelva a ocurrir. Esto se llama refuerzo negativo.
Omisión: Si el presente está presente pero no se da, la respuesta
que lleva a esta frustración decrece su probabilidad de ocurrencia (castigo
negativo).
Métodos de medición
Medir en el condicionamiento clásico significa descubrir la
respuesta a un estímulo, pero más interesa aquí medir en el condicionamiento
instrumental, donde significa detectar con algún aparato los cambios producidos
en la conducta por el aprendizaje.
Se citan dos medidas para medir la variable dependiente
‘respuesta’: latencia y tasa de respuesta.
Latencia: es el tiempo
transcurrido entre una señal y la ocurrencia de la respuesta. Cuando la madre
llama al hijo a comer, éste vendrá más rápido (latencia menor) si le gusta la
comida, etc.
Tasa de respuesta: es la
cantidad de respuestas por unidad de tiempo. Luego de ser llamado a comer
(señal) el niño dará más -o menos- mordiscos por unidad de tiempo.
La extinción en el
condicionamiento instrumental
En el condicionamiento clásico, extinción significa desaparición
de la conexión EC-EI. En el instrumental, significa desaparición de la conexión
respuesta-premio (o castigo).
La extinción se define entonces a partir de una correlación cero
entre la respuesta y el refuerzo, o sea la R sigue ocurriendo aunque haya
tantos premios como antes, más premios, menos premios o ningún premio. Lo
esperable es que el organismo pare, entonces, de responder, que es lo que pasa
normalmente, salvo en tres excepciones. En efecto, la respuesta sigue
ocurriendo cuando hay falta de discriminación, superstición o
psuedocondicionamiento.
a. Falta de discriminación.- El estudiante sigue dando la misma
respuesta (por ej sigue estudiando bien) a pesar de que el maestro sigue
poniendo mecánicamente la misma nota (mismo premio). Sólo tiende a desaparecer
la respuesta cuando ve que el maestro pierde las hojas de exámenes, está
distraído, etc.
b. Superstición.- Este fenómeno se da cuando en un tiempo dado, la
relación entre dos sucesos no puede deberse al azar. Aunque podamos programar
una serie de premios en forma totalmente independiente de la respuesta, se
quiera o no los premios establecerán cierta relación con las respuestas. Habrá
correlaciones accidentales, aunque tales correlaciones no hayan sido
programadas. Un jugador le va mal un día, pero al otro día donde usa otro bate
de béisbol, por azar le va bien, entonces decide usar este bate en forma
superticiosa.
c. Pseudocondicionamiento.- Ocurre por ejemplo cuando una rata
mueve la palanca para salir y en ese momento le damos adrenalina, que aumenta
su actividad. La conexión se establece entre la inyección de adrenalina y mover
la palanca, lo cual es un pseudocondicionamiento porque el condicionamiento
instrumental "verdadero" sería conectar el mover la palanca con el
premio (salir de la jaula).
Vemos que en los tres casos se producen respuestas que no
mantienen relación con el premio, o sea, no está marcada una relación
instrumental (respondo "para" obtener un premio). En el primer caso
la falta de discriminación se debe a que la falta de una relación instrumental
no puede discriminarse de alguna condición anterior, cuando aquélla existía. En
el caso de la superstición es debido a una relación instrumental accidental y
temporaria. En el tercer caso la relación no tiene nada que ver con la
respuesta, pero el premio por sí mísmo puede causar la respuesta. Todas estas
conclusiones valen también para los castigos.
Aprendizaje retardado
Es aquel aprendizaje donde la extinción se presenta
"antes" que el condicionamiento, lo que trae como consecuencia que el
condicionamiento tarde más en formarse (aprendizaje retardado). Si primero
castigamos a un niño, haga lo que haga (extinción de la respuesta, no hará
nada), y luego cambiamos la situación y castigamos sólo las conductas malas,
entonces tardará mucho más tiempo en superar la primera etapa donde no
respondía con ninguna conducta.
Parámetros de premios y castigos
Los instrumentos más sencillos para medir premios y castigos son
la caja de Skinner con un único mando (por ejemplo una palanca), y el ‘corredor
recto’, por donde el animal circula. Este último evalúa más el comportamiento
en el espacio, y la caja de Skinner en el tiempo. Por ejemplo, el primero
muestra cuánto se desplazó la rata, y la segunda cuánto tardó en apretar la
palanca.
Se citan dos parámetros de premios o castigos: la tasa o cantidad
de premio, y el retraso del premio.
Tasa o cantidad de premio: puede ser la mayor o menor cantidad de
bolitas de comida, o también cuanto tiempo se lo deja comer una vez que se le
dio la comida, o también variar la concentración de azúcar (cuanto más dulce,
más premio). Se comprobó que sin premio, la respuesta el cero o cercana a cero;
luego, cuando se incrementa el premio, se incrementa también la tasa de
respuesta al principio rápido, pero luego lentamente.
Retraso del premio: la tasa de respuesta de la rata varía con el
retraso del refuerzo positivo (bolas de comida) y del refuerzo negativo
(reducción de la descarga). La rata deja de correr (o bien de pulsar la
palanaca si está en la caja de Skinner) inmediatamente al principio pero luego
en forma más gradual. El retraso del premio es importante en la vida diaria, como
cuando una persona hace dieta pero el premio (bajar de peso), tarda en
aparecer.
En cuanto a la relación entre estos parámetros, ellos son
independientes en el sentido de que se puede variar la tasa o la cantidad de
premio sin variar su retraso, y viceversa. Pero en la práctica se influyen
mutuamente, y entonces a veces no se puede saber qué influye más en la
conducta: si el retraso del premio o su tasa.
Respecto de la relación entre tasa y cantidad, ella es constante:
si se varía la tasa (se le da poca comida a intervalos frecuentes) esto
equivale a darle una sola comida grande (cantidad). Pero esto no significa que
ambas cosas influyan de la misma forma en la conducta, porque quizás una comida
grande sea menos premio porque el animal se siente más pesado.
Huída (refuerzo negativo)
El experimento típico consiste aquí en darle a la rata un estímulo
aversivo pero sólo hasta que el animal realiza cierta conducta (llamada
entonces conducta de huída). Según la teoría de las necesidades, todo refuerzo
es negativo: comer sería ‘huír’ del hambre, beber ‘huír’ de la sed, etc.
Sin embargo las conductas de animales sometidos a descargas
(estímulo aversivo) es distinta al que actúa porque tiene hambre o sed, quizás
porque el estímulo aversivo en la descarga es externo al organismo, y además no
aparece gradualmente.
Una forma de estudiar esto es con la dosificación, donde se
aumenta de a poco la intensidad del estímulo aversivo, y las respuestas del
sujeto reducen la descarga cuando llegan a cierta cantidad.
Castigo
Es posible que el castigo no forme un condicionamiento
instrumental. Con refuerzos positivos buscamos que el animal ‘haga’ algo, pero
con el castigo tratamos de que ‘no haga’ algo. Sin embargo muchos
investigadores dijeron que desde cierto punto de vista el castigo sí produce
condicionamiento instrumental: el castigo dado independientemente de la
respuesta del animal tiene algún efecto supresivo de la misma, pero no tanto
como cuando depende de la respuesta. En la medida en que hay una diferencia
entre los efectos de las respuestas producidas por castigo y las respuestas
independientes del mismo, éste será una forma de condicionamiento instrumental.
Evitación
La evitación es una huída pero no del castigo sino de la situación
donde este se presenta. Evitar la lluvia es huír, pero ir a un lugar donde no
llueve es evitación. El problema es: qué condiciona al sujeto a correr? Huír de
la lluvia o ir hacia donde no llueve?
La evitación fue estudiada con dos procedimientos: la evitación
discriminativa (se avisa de antemano con un señal que vendrá el castigo), y
evitación no-discriminativa (no se da una señal previa). En el primer caso, por
ejemplo, se vio que ante la señal los perros pasaban rápidamente de la huída a
la evitación, mientras que en otros el paso fue más gradual.
Extinción de la evitación: cuando se intenta extinguir la
evitación dando siempre castigos (de forma que no los pueden evitar), las
conductas evitativas se reducen más rápidamente. Pero resultados opuestos se
consiguen si es retirado el castigo a ser evitado: aquí la conducta de
evitación tarda más en desaparecer.
BURRHUS
FREDERIC SKINNER
Burrhus Frederic Skinner nació el 20 de marzo de 1904 en la
pequeña ciudad de Susquehanna en Pensilvania. Su padre era abogado y su madre
una inteligente y fuerte ama de casa. Su crianza fue al viejo estilo y de
trabajo duro.
Burrhus era un chico activo y extravertido que le encantaba jugar
fuera de casa y construir cosas y de hecho, le gustaba la escuela. Sin embargo,
su vida no estuvo exenta de tragedias. En particular, su hermano murió a los 16
años de un aneurisma cerebral.
Burrhus recibió su graduado en Inglés del Colegio Hamilton en el
norte de Nueva York. No encajó muy bien sus años de estudio y ni siquiera
participó de las fiestas de las fraternidades de los juegos de fútbol. Escribió
para el periódico de la universidad, incluyendo artículos críticos sobre la
misma, la facultad e incluso contra ¡Phi Beta Kappa!. Para rematar todo, era un
ateo (en una universidad que exigía asistir diariamente a la capilla).
Al final, se resignó a escribir artículos sobre problemas
laborales y vivió por un tiempo en Greenwich Village en la ciudad de Nueva York
como "bohemio". Después de algunos viajes, decidió volver a la
universidad; esta vez a Harvard. Consiguió su licenciatura en psicología en
1930 y su doctorado en 1931; y se quedó allí para hacer investigación hasta
1936.
También en este año, se mudó a Mineápolis para enseñar en la
Universidad de Minesota. Allí conoció y más tarde se casó con Ivonne Blue.
Tuvieron dos hijas, de las cuales la segunda se volvió famosa como la primera
infante que se crió en uno de los inventos de Skinner: la cuna de aire. Aunque
no era más que una combinación de cuna y corral rodeada de cristales y aire
acondicionado, parecía más como mantener a un bebé en un acuario.
En 1945 adquirió la posición de jefe del departamento de
psicología en la Universidad de Indiana. En 1948 fue invitado a volver a
Harvard, donde se quedó por el resto de su vida. Era un hombre muy activo,
investigando constantemente y guiando a cientos de candidatos doctorales, así
como escribiendo muchos libros. Aunque no era un escritor de ficción y poesía
exitoso, llegó a ser uno de nuestros mejores escritores sobre psicología,
incluyendo el libro Walden II, un compendio de ficción sobre una comunidad
dirigido por sus principios conductuales. Nos referiremos a partir de aquí al
término conductual, por ser más apropiado dentro del campo de la
psicología.N.T.
El 18 de agosto de 1990, Skinner muere de leucemia, después de
convertirse probablemente en el psicólogo más famoso desde Sigmund Freud.
Teoria De Skkiner
Al Igual que Pavlov, Watson y Thorndike, Skinner creía en los
patrones estímulo-respuesta de la conducta condicionada. Su historia tiene que
ver con cambios observables de conducta ignorando la posibilidad de cualquier
proceso que pudiera tener lugar en la mente de las personas. El libro de
Skinner publicado en 1948, Walden Two, presenta una sociedad utópica basada en
el condicionamiento operante. También escribió Ciencia y Conducta Humana,
(1953) en el cual resalta la manera en que los principios del condicionamiento
operatorio funcionan en instituciones sociales tales como, gobierno, el
derecho, la religión, la economía y la educación.
El trabajo de Skinner difiere de sus predecesores
(condicionamiento clásico), en que él estudió la conducta operatoria (conducta
voluntaria usada en operaciones dentro del entorno).
El sistema de Skinner al completo está basado en el
condicionamiento operante. El organismo está en proceso de "operar"
sobre el ambiente, lo que en términos populares significa que está irrumpiendo
constantemente; haciendo lo que hace. Durante esta "operatividad", el
organismo se encuentra con un determinado tipo de estímulos, llamado estímulo
reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de
incrementar el operante (esto es; el comportamiento que ocurre inmediatamente
después del reforzador). Esto es el condicionamiento operante: el
comportamiento es seguido de una consecuencia, y la naturaleza de la
consecuencia modifica la tendencia del organismo a repetir el comportamiento en
el futuro."
Imagínese a una rata en una caja. Esta es una caja especial
(llamada, de hecho, "la caja de Skinner") que tiene un pedal o barra
en una pared que cuando se presiona, pone en marcha un mecanismo que libera una
bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas
hacen, cuando "sin querer" pisa la barra y ¡presto!, la bolita de
comida cae en la caja. Lo operante es el comportamiento inmediatamente
precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la
rata se retira del pedal con sus bolitas de comida a una esquina de la caja.
Un comportamiento seguido de un estímulo reforzador provoca una
probabilidad incrementada de ese comportamiento en el futuro.
¿Qué ocurre si no le volvemos a dar más bolitas a la rata? Aparentemente no es tonta y después de varios
intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama
extinción del condicionamiento operante.
Un comportamiento que ya no esté seguido de un estímulo reforzador
provoca una probabilidad decreciente de que ese comportamiento no vuelva a
ocurrir en el futuro.
Ahora, si volvemos a poner en marcha la máquina de manera que el
presionar la barra, la rata consiga el alimento de nuevo, el comportamiento de
pisar el pedal surgirá de nuevo, mucho más rápidamente que al principio del
experimento, cuando la rata tuvo que aprender el mismo por primera vez. Esto es
porque la vuelta del reforzador toma lugar en un contexto histórico,
retroactivándose hasta la primera vez que la rata fue reforzada al pisar el
pedal.
Esquemas De Refuerzo
A Skinner le gusta decir que llegó a sus diversos descubrimientos
de forma accidental (operativamente). Por ejemplo, menciona que estaba
"bajo de provisiones" de bolitas de comida, de manera que él mismo
tuvo que hacerlas; una tarea tediosa y lenta. De manera que tuvo que reducir el
número de refuerzos que le daba a sus ratas para cualquiera que fuera el
comportamiento que estaba intentando condicionar. Así que, las ratas
mantuvieron un comportamiento constante e invariable, ni más ni menos entre
otras cosas, debido a estas circunstancias. Así fue como Skinner descubrió los
esquemas de refuerzo.
El refuerzo continuo es el escenario original: cada vez que la
rata comete el comportamiento (como pisar el pedal), consigue una bolita de
comida.
El programa de frecuencia fija fue el primero que descubrió
Skinner: si, digamos, la rata pisa tres veces el pedal, consigue comida. O
cinco. O veinte. O "x" veces. Existe una frecuencia fija entre los
comportamientos y los refuerzos: 3 a 1; 5 a 1; 20 a 1, etc. Es como una
"tasa por pieza" en la producción industrial de ropa: cobras más
mientras más camisetas hagas.
El programa de intervalo fijo utiliza un artilugio para medir el
tiempo. Si la rata presiona el pedal por lo menos una vez en un período de tiempo
particular (por ejemplo 20 segundos), entonces consigue una bolita de comida.
Si falla en llevar a cabo esta acción, no consigue la bolita. Pero, ¡aunque
pise 100 veces el pedal dentro de ese margen de tiempo, no conseguirá más de
una bolita!. En el experimento pasa una cosa curiosa si la rata tiende a llevar
el "paso": bajan la frecuencia de su comportamiento justo antes del
refuerzo y aceleran la frecuencia cuando el tiempo está a punto de terminar.
Skinner también habló de los programas variables. Una frecuencia
variable significa que podemos cambiar la "x" cada vez; primero
presiona tres veces para conseguir una bolita, luego 10, luego 1, luego 7 y así
sucesivamente. El intervalo variable significa que mantenemos cambiante ese
período; primero 20 segundos, luego 5; luego 35 y así sucesivamente.
Siguiendo con el programa de intervalos variables, Skinner también
observó en ambos casos que las ratas no mantenían más la frecuencia, ya que no
podían establecer el "ritmo" por mucho tiempo más entre el comportamiento
y la recompensa. Más interesantemente, estos programas eran muy resistentes a
la extinción. Si nos detenemos a pensarlo, verdaderamente tiene sentido. Si no
hemos recibido una recompensa por un tiempo, bueno, es muy probable que estemos
en un intervalo o tasa "errónea"…¡sólo una vez más sobre el pedal;
Quizás ésta sea la definitiva!.
De acuerdo con Skinner, este es el mecanismo del juego. Quizás no
ganemos con demasiada frecuencia, pero nunca sabemos cuando ganaremos otra vez.
Puede que sea la inmediatamente siguiente, y si no lanzamos los dados o jugamos
otra mano o apostamos a ese número concreto, ¡perderemos el premio del siglo!.
Modelado
Una cuestión que Skinner tuvo que manejar es la manera en que llegamos
a fuentes más complejas de comportamientos. Respondió a esto con la idea del
modelado, o "el método de aproximaciones sucesivas". Básicamente,
consiste en primer lugar en reforzar un comportamiento solo vagamente similar
al deseado. Una vez que está establecido, buscamos otras variaciones que
aparecen como muy cercanas a lo que queremos y así sucesivamente hasta lograr
que el animal muestre un comportamiento que nunca se habría dado en la vida
ordinaria. Skinner y sus estudiantes han tenido bastante éxito en enseñar a
animales a hacer algunas cosas extraordinarias. Mi favorita es aquella de
¡enseñar a las palomas a tirar los bolos!.
Una vez utilicé el modelado en una de mis hijas. Tenía tres o
cuatro años y tenía miedo de tirarse por un tobogán en particular. De manera
que la cargué, la puse en el extremo inferior del tobogán y le pregunté si
podía saltar al suelo. Por supuesto lo hizo y me mostré muy orgulloso. Luego la
cargué de nuevo y la situé un pie más arriba; le pregunté si estaba bien y le
dije que se impulsara y se dejara caer y luego saltara. Hasta aquí todo bien.
Repetí este acto una y otra vez, cada vez más alto en el tobogán, no sin cierto
miedo cuando me apartaba de ella. Eventualmente, pudo tirarse desde la parte
más alta y saltar al final. Desdichadamente, todavía no podía subir por las
escaleritas hasta arriba, de manera que fui un padre muy ocupado durante un
tiempo.
Este es el mismo método que se utiliza en la terapia llamada
desensibilización sistemática, inventada por otro conductista llamado Joseph
Wolpe. Una persona con una fobia (por ejemplo a las arañas) se le pedirá que se
sitúe en 10 escenarios con arañas y diferentes grados de pánico. El primero
será un escenario muy suave (como ver a una araña pequeña a lo lejos a través
de una ventana). El segundo será un poquito más amenazador y así sucesivamente
hasta que el número 10 presentará algo extremadamente terrorífico (por ejemplo,
¡una tarántula corriéndote por la cara mientras conduces tu coche a mil
kilómetros por hora!. El terapeuta luego le enseñará cómo relajar sus músculos,
lo cual es incompatible con la ansiedad). Después de practicar esto por unos
pocos días, vuelves al terapeuta y ambos viajan a través de los escenarios uno
a uno, asegurándose de que estás relajado, volviendo atrás si es necesario,
hasta que finalmente puedas imaginar la tarántula sin sentir tensión.
Esta es una técnica especialmente cercana a mí, ya que de hecho
tuve fobia a las arañas y pude liberarme de ella con desensibilización
sistemática. La trabajé tan bien que después de una sola sesión (tras el
escenario original y un entrenamiento de relajación muscular) pude salir al
exterior de casa y coger una de esas arañitas de patas largas.¡Genial!.
Más allá de estos sencillos ejemplos, el modelado también se ocupa
de comportamientos más complejos. Por ejemplo, uno no se vuelve un cirujano
cerebral por solo adentrarse en un quirófano, cortar la cabeza de alguien,
extirpar exitosamente un tumor y ser remunerado con una buena cantidad de
dinero. Más bien, estás moldeado sensiblemente por tu ambiente para disfrutar
ciertas cosas; ir bien en la escuela; tomar algunas clases de biología; quizás
ver alguna película de médicos; hacer una visita al hospital; entrar en la
escuela de medicina; ser animado por alguien para que escojas la neurocirugía
como especialidad y demás. Esto es además algo que tus padres cuidadosamente
harán, como la rata en la caja, pero mejor, en tanto esto es menos
intencionado.
Estímulo adverso (aversivo) en psicología iberoamericana se ha
traducido el término como aversivo, N.T.
Un estímulo adverso es lo opuesto al estímulo reforzador; algo que
notamos como displacen tero o doloroso.
Un comportamiento seguido de un estímulo adverso resulta en una
probabilidad decreciente de la ocurrencia de ese comportamiento en el futuro.
Esta definición describe además del estímulo adverso, una forma de
condicionamiento conocida como castigo. Si le pegamos a la rata por hacer x,
hará menos veces x. Si le doy un cachete a José por tirar sus juguetes, los
tirará cada vez menos (quizás).
Por otro lado, si removemos un estímulo adverso establecido antes
de que la rata o José haga un determinado comportamiento, estamos haciendo un
refuerzo negativo. Si cortamos la electricidad mientras la rata se mantiene en
pie sobre sus patas traseras, durará más tiempo de pie. Si dejas de ser pesado
para que saque la basura, es más probable que saque la basura (quizás).
Podríamos decir que "sienta tan bien" cuando el estímulo adverso
cesa, que ¡esto sirve como refuerzo!.
Un comportamiento seguido del cese del estímulo adverso resulta en
una probabilidad incrementada de que ese comportamiento ocurra en el futuro.
Nótese lo difícil que puede llegar a ser diferenciar algunas
formas de refuerzos negativos de los positivos. Si te hago pasar hambre y te
doy comida cuando haces lo que yo quiero, ¿es esta actuación positiva; es decir
un refuerzo?; ¿o es la detención de lo negativo; es decir del estímulo adverso
de ansia?.
Skinner (contrariamente a algunos estereotipos que han surgido en
torno a los conductistas) no "aprueba" el uso del estímulo adverso;
no por una cuestión ética, sino porque ¡no funciona bien!. ¿recuerdan cuando
antes dije que José quizás dejaría de tirar los juguetes y que quizás yo
llegaría a tirar la basura?. Es porque aquello que ha mantenido los malos
comportamientos no ha sido removido, como sería el caso de que hubiese sido
definitivamente removido.
Este refuerzo escondido ha sido solamente "cubierto" por
un estímulo adverso conflictivo. Por tanto, seguramente, el niño (o yo) nos
comportaríamos bien; pero aún sentaría bien tirar los juguetes. Lo único que
tiene que hacer José es esperar a que estés fuera de la habitación o buscar
alguna forma de echarle la culpa a su hermano, o de alguna manera escapar a las
consecuencias, y de vuelta a su comportamiento anterior. De hecho, dado que
ahora José solo disfruta de su comportamiento anterior en contadas ocasiones,
se involucra en un esquema (programa) variable de refuerzo y será ¡aún más
resistente a extinguir dicho comportamiento!.
Modificación De Conducta
La modificación de conducta (usualmente conocida en inglés como
mod-b) es la técnica terapéutica basada en el trabajo de Skinner. Es muy
directa: extinguir un comportamiento indeseable (a partir de remover el
refuerzo) y sustituirlo por un comportamiento deseable por un refuerzo. Ha sido
utilizada en toda clase de problemas psicológicos (adicciones, neurosis,
timidez, autismo e incluso esquizofrenia) y es particularmente útil en niños.
Hay ejemplos de psicóticos crónicos que no se han comunicado con otros durante
años y han sido condicionados a comportarse de manera bastante normal, como
comer con tenedor y cuchillo, vestirse por sí mismos, responsabilizarse de su
propia higiene personal y demás.
Hay una variante de mod-b llamada economía simbólica, la cual es
utilizada con gran frecuencia en instituciones como hospitales psiquiátricos,
hogares juveniles y prisiones. En éstas se hacen explícitas ciertas reglas que
hay que respetar; si lo son, los sujetos son premiados con fichas o monedas
especiales que son cambiables por tardes libres fuera de la institución,
películas, caramelos, cigarrillos y demás. Si el comportamiento empobrece, se
retiran estas fichas. Esta técnica ha demostrado ser especialmente útil para
mantener el orden en estas difíciles instituciones.
Un inconveniente de la economía simbólica es el siguiente: cuando
un "interno" de alguna de estas instituciones abandona el centro,
vuelven a un entorno que refuerza el comportamiento que inicialmente le llevó a
entrar en el mismo. La familia del psicótico suele ser bastante disfuncional.
El delincuente juvenil vuelve directamente a la "boca del lobo".
Nadie les da fichas por comportarse bien. Los únicos refuerzos podrían estar
dirigidos a mantener la atención sobre los "acting-out" o alguna
gloria de la pandilla al robar en un supermercado. En otras palabras, ¡el
ambiente no encaja muy bien!.
Diferencias entre
condicionamiento clásico y operatorio
En condicionamiento clásico, un estímulo neurológico se convierte
en un reflejo asociado. El sonido de la campana, como un estímulo neurológico,
se asocia al reflejo de salivación
En el condicionamiento operatorio el aprendiz "opera" en
el entorno y recibe una recompensa por determinada conducta (operaciones).
Eventualmente se establece la relación entre la operación (accionar una
palanca) y el estímulo de recompensa (alimento).
Mecanismo de condicionamiento
operatorio de skinner
- El refuerzo positivo o recompensa: Las respuestas que son recompensadas tienen alta probabilidad de repetirse (Buen grado de refuerzo y cuidadoso estudio).
- El refuerzo negativo: Respuestas que reflejan actitudes de escape al dolor o de situaciones no deseables tienen alta probabilidad de repetirse (han sido excluidas del escrito un final debido a un buen trabajo terminal).
- Extinción o ausencia de refuerzo: Respuestas que no son reforzadas son poco probable que se repitan (Ignorando las conductas errores del estudiante la conducta esperada debe de extinguirse).
- Castigo: Respuestas que son castigadas de consecuencias no deseables cambian (Un castigo retardado a un estudiante, mediante el retiro de privilegios podría no tener efecto)
Desarrollo de la conducta de
skinner
Si colocas dentro de una caja a un animal podría requerir de una cantidad
significativa de tiempo para darse cuenta que activando una palanca puede
obtener comida. Para lograr esa conducta será necesario realizar una serie de
repeticiones sucesivas de la operación acción-respuesta hasta que el animal
aprenda la asociación entre la palanca y la recompensa (el alimento). Para
comenzar a crear el perfil, la recompensa se le da al animal primero con tan
solo voltear a ver la palanca, después cuando se acerque a ella, cuando olfatee
la palanca y finalmente cuando la presione.
Escalas de refuerzo
Una vez que la respuesta esperada se logra, el refuerzo no tiene
que ser el 100%; de hecho se puede mantener mediante lo que Skinner ha llamado
escalas de refuerzo parcial. Las escalas de refuerzo parcial incluyen
intervalos de escalas y tasas de escala.
- Escalas de intervalos fijos: la respuesta de interés se refuerza un tiempo determinado fijo después, de que se le haya dado el último reforzamiento.
- Escala de intervalo variable: es similar a las escalas de intervalo fijo, con la diferencia que la cantidad de tiempo entre cada refuerzo es variable.
- Escala de tasa fija: aquí, debe de ocurrir un número de respuestas correctas para poder recibir la recompensa.
- Escala de tasa variable: el número de respuestas varía para recibir el refuerzo.
El intervalo variable y
especialmente, las escalas de tasa variable, producen estabilidad y tasas de
respuestas más persistentes debido a que los aprendices no pueden predecir el
momento de reforzamiento a pesar de que saben que eventualmente sucederá.
CONCLUSIÓN
Realizando
este trabajo de investigación pude entender y comprender en qué consiste la
teoría conductista. También comprendí la importancia de esta teoría en la
aplicación del mismo al campo de la enseñanza-aprendizaje, principalmente a
través del tiempo y en menor medida en la actualidad.
Algunas
conclusiones fundamentales que se ha llegado a través de este estudio de
investigación son:
·
Muchos críticos afirman que el Conductismo "sobre
simplifica" la conducta humana y que ve al hombre como una automatización
en vez de una criatura con propósito y voluntad. A pesar de la opinión de estos
críticos, el conductismo ha tenido gran impacto en la psicología. Ha impulsado
la experimentación científica y el uso de procedimientos estadísticos.
·
Aunque en desacuerdo con gran parte de la influencia del
conductismo en la educación, por la forma de ver a los estudiantes como
individuos vacíos que adquieren conductas y que las que no son deseadas pueden
ser reemplazadas o eliminadas, hay que admitir la gran influencia del
conductismo en la educación tradicional y la gran influencia que seguirá
manteniendo sobre esta.
·
Muchos de los aprendizajes que realizamos los seres humanos pueden
explicarse mediante las teorías conductistas, pero esto no es posible en todos
los casos.
En este sentido, y tratando de completar y superar el punto de vista conductista, desde los años cincuenta algunos psicólogos empiezan a presentar nuevas formas de plantear y abordar los problemas psicólogos; de estos nuevos planteamientos, en los años sesenta, surgirán las llamadas teorías cognitivas o cognitivistas.
En este sentido, y tratando de completar y superar el punto de vista conductista, desde los años cincuenta algunos psicólogos empiezan a presentar nuevas formas de plantear y abordar los problemas psicólogos; de estos nuevos planteamientos, en los años sesenta, surgirán las llamadas teorías cognitivas o cognitivistas.
·
En relación con el aprendizaje, dichas teorías tienen en cuenta el
proceso implicado en la adquisición de los conocimientos y las interacciones
que se producen entre los diferentes elementos del entorno.
ANEXO
ESQUEMA DEL CONDUCTISMO
PRINCIPALES REPRESENTANTES