monografiasparavos.blogspot.com: TEORIA CONDUCTISMO CONDUCTISTA

TEORIA CONDUCTISMO CONDUCTISTA


EL CONDUCTISMO


TEORÍAS PEDAGÓGICAS.






INTRODUCCIÓN

En este trabajo de investigación he realizado una breve investigación de uno de las más teorías del aprendizaje, EL CONDUCTISMO. Los psicólogos conductistas han producido una gran cantidad de investigaciones básicas dirigidas a comprender cómo se crean y se mantienen las diferentes formas de comportamiento.


Estas investigaciones se han centrado en las interacciones que preceden al comportamiento, tales como ciclo de atención o los procesos preceptúales. También se han estudiado los cambios en el comportamiento del individuo, como los efectos de los incentivos o las recompensas y los castigos, entre otros.

También citaré los principales representantes de la teoría conductista, así como una descripción de los fundamentos teóricos de cada uno de estos actores.




TEORÍA CONDUCTISTA O DEL CONDUCTISMO.


Corriente de la psicología inaugurada por John B. Watson (1878-1958) que defiende el empleo de procedimientos estrictamente experimentales para estudiar el comportamiento observable (la conducta), considerando el entorno como un conjunto de estímulos-respuesta. El enfoque conductista en psicología tiene sus raíces en el asociacionismo de los filósofos ingleses, así como en la escuela de psicología estadounidense conocida como funcionalismo y en la teoría darwiniana de la evolución, ya que ambas corrientes hacían hincapié en una concepción del individuo como un organismo que se adapta al medio (o ambiente).
La teoría conductista se desarrolla principalmente a partir de la primera mitad del siglo XX y permanece vigente hasta mediados de ese siglo, cuando surgen las teorías cognitivas.
La teoría conductista, desde sus orígenes, se centra en la conducta observable intentando hacer un estudio totalmente empírico de la misma y queriendo controlar y predecir esta conducta. Su objetivo es conseguir una conducta determinada, para lo cual analiza el modo de conseguirla.
De esta teoría se plantearon dos variantes: el condicionamiento clásico y el condicionamiento instrumental y operante. El primero de ellos describe una asociación entre estímulo y respuesta contigua, de forma que si sabemos plantear los estímulos adecuados, obtendremos la respuesta deseada. Esta variante explica tan solo comportamientos muy elementales.
La segunda variante, el condicionamiento instrumental y operante persigue la consolidación de la respuesta según el estímulo, buscando los reforzadores necesarios para implantar esta relación en el individuo.
Para las Teorías Conductistas, lo relevante en el aprendizaje es el cambio en la conducta observable de un sujeto, cómo éste actúa ante una situación particular. La conciencia, que no se ve, es considerada como "caja negra". En la relación de aprendizaje sujeto - objeto, centran la atención en la experiencia como objeto, y en instancias puramente psicológicas como la percepción, la asociación y el hábito como generadoras de respuestas del sujeto. No están interesados particularmente en los procesos internos del sujeto debido a que postulan la “objetividad”, en el sentido que solo es posible hacer estudios de lo observable.
Las aplicaciones en educación se observan desde hace mucho tiempo y aún siguen siendo utilizadas, en algunos casos con serios reparos. Enfoques conductistas están presentes en programas computacionales educativos que disponen de situaciones de aprendizaje en las que el alumno debe encontrar una respuesta dado uno o varios estímulos presentados en pantalla. Al realizar la selección de la respuesta se asocian refuerzos sonoros, de texto, símbolos, etc., indicándole al estudiante si acertó o erró la respuesta. Esta cadena de eventos asociados constituye lo esencial de la teoría del aprendizaje conductista.

La teoría del conductismo se concentra en el estudio de conductas que se pueden observar y medir (Good y Brophy, 1990). Ve a la mente como una "caja negra" en el sentido de que la respuestas a estímulos se pueden observar cuantitativamente ignorando totalmente la posibilidad de todo proceso que pueda darse en el interior de la mente.




PRINCIPALES REPRESENTANTES DE ESTA TEORÍA.

Algunas personas claves en el desarrollo de la teoría conductista incluyen a Pavlov, Watson, Thorndike y Skinner.

IVAN PETROVICH PAVLOV

Ivan Petrovich Pavlov fue un fisiólogo ruso discípulo de Ivan Sechenov y ganador del Premio Novel en 1904.
Hoy se estima que la obra de Pavlov ha sido precursora, ya que fue el primero en efectuar investigaciones sistemáticas acerca de muchos fenómenos importantes del aprendizaje, como el condicionamiento, la extinción y la generalización del estímulo.
Si bien Pavlov no creó el conductismo, puede decirse que fue su pionero más ilustre. John B. Watson quedó impresionado por sus estudios, y adoptó como piedra angular de su sistema el reflejo condicionado.

Teoria de Pavlov
Para la mayoría de la gente, el nombre de "pavlov" lo asocia al repiqueteo de campanas. El fisiólogo ruso es mejor conocido por su trabajo en condicionamiento clásico o sustitución de estímulos. El experimento más conocido de pavlov lo realizó con comida, un perro y una campana.

Experimento de pavlov

    Antes de condicionar, hacer sonar una campana no producía respuesta alguna en el perro. Al colocar comida frente al perro hacía que este comenzara a babear.
    Durante el condicionamiento con el sonido de la campana, esta se hacía sonar minutos antes de poner el alimento frente al perro.
   Después del condicionamiento, con sólo escuchar el sonido de la campana el perro comenzaba a salivar.

Los Elementos Del Experimento De Pavlov Estimulo Y Respuesta

    - Comida: Estimulo no condicionado
    - Salivación: Respuesta no condicionada (natural, no aprendida)
    - Sonido Campana: Estímulo de condicionamiento
    - Salivación: Respuesta condicionada (por el sonido de la campana, aprendida)

Otras Observaciones Hechas Por Pavlov
  • Generalización de estímulos: Una vez que el perro ha aprendido la salivación con el sonido de la campana, producirá salivación con otros sonidos similares.
  • Extinción: Si se deja de sonar la campana cuándo se le presenta la comida, eventualmente la salivación desaparece con el sonido de la campana solo.
  • Recuperación espontánea: Las respuestas extinguidas se pueden recuperar después de un periodo corto de estimulación, pero se extinguirá nuevamente si no se le presenta la comida.
  • Discriminación: El perro puede aprender a discriminar entre sonidos parecidos y distinguir cuál de los sonidos está asociado con la presentación de la comida y cual no.
  • Condicionamiento de orden superior: Una vez que el perro ha adquirido el condicionamiento con la asociación del sonido de la campana y el alimento, se pueden realizar al mismo tiempo, tales como encender un foco. De esta manera el perro también producirá saliva con solo encender el foco (sin el sonido de la campana).


JOHN BROADUS WATSON

Nació en 1878 y murió en 1958. Obtuvo el primer título de doctor en psicología que otorgó la Universidad de Chicago y fue el fundador de la escuela de psicología que se conoce como conductismo, y que ha tenido un gran desarrollo en los países anglosajones.
Sus obras principales y las que exponen el proceso de su pensamiento son Behavior, an Introduction to Comparative Psychology (1914), La psicología desde el punto de vista del conductismo (1919) y El conductismo (1925). El conductismo se propone como una teoría psicológica que toma como objeto de estudio lo observable y no el alma, la conciencia o cualquier otra entidad inmaterial y por lo tanto imposible de estudio objetivo.

Una de las ideas centrales de la teoría es la de condicionamiento, proceso por el cual una respuesta determinada es obtenida en relación con un estímulo originalmente indiferente con respecto a la misma. Luego se trata de determinar cómo a partir de unos pocos reflejos y mediante procesos de condicionamiento, se obtiene la enorme gama de conductas que realizan los hombres. El conductismo se ha planteado también como un programa, lo que incluye entre sus pretensiones el interés por intervenir sobre la conducta y los hombres a los efectos de producir una mejor adaptación de los mismos al medio social, lo que ha derivado en estudios sobre el aprendizaje y un desarrollo importante en el área laboral y en la propaganda.

Teoría
John B. Watson fue el primer psicólogo norteamericano en usar las ideas de Pavlov. Al igual que Thorndike, primero comenzó sus estudios con animales y posteriormente introdujo la observación de la conducta humana.
Watson pensaba que los humanos ya traían, desde su nacimiento, algunos reflejos y reacciones emocionales de amor y furia, y que todos los demás comportamientos se adquirían mediante la asociación estímulo-respuesta; esto mediante un acondicionamiento.


El conductismo Watsoniano
Entre 1913 y 1930 se desarrolla el conductismo watsoniano. La teoría elaborada por Watson no se presenta como un sistema orgánico y definido una vez por todas. Por ejemplo, Watson especificó de modo diferente el objeto de la psicología. El comportamiento fue explicado en los términos de "adaptación del organismo al ambiente", "contracciones musculares", "conjunto integrado de movimientos" y "acciones". Se puede, en cierto modo, decir que la unidad de observación psicológica es para Watson el comportamiento o la conducta en el sentido de acción compleja manifestada por el organismo en su integridad, "sea lo que fuere lo que realice, como orientarse hacia una luz o en dirección opuesta, saltar al oír un sonido, u otras actividades más altamente organizadas como tener hijos, escribir libros, etc.". Evidentemente esas conductas no se detectan en cada una de las reacciones psicológicas que el organismo manifiesta (contracción de un músculo, o bien actividades de órganos individuales como la respiración, la digestión, etc.), que constituyen el objeto diferenciado de estudio de la fisiología.

El condicionamiento empieza a ocupar un lugar central, en la teoría conductista, hacia 1916. Watson aparece directamente influido no sólo por Pavlov sino también por los reflexólogos rusos, es decir, por Secenov, que ya hacia 1860 había afirmado que los actos de la vida consciente e inconsciente no son más que reflejos y por Bectherev que se interesaba de modo particular por los reflejos musculares.
El principio de condicionamiento parte del descubrimiento del hecho de que en el organismo existen respuestas incondicionadas a determinadas situaciones. Por ejemplo, un organismo hambriento que recibe comida seguramente reaccionará salivando, un súbito haz de luz sobre los ojos provocará seguramente una contracción de la pupila, etc. la comida y el haz de luz se llaman estímulos incondicionados, es decir, acontecimientos que se producen en el medio ambiente y que provocan incondicionadamente una determinada respuesta en el organismo.
Pero, otros estímulos que hayan sido asociados a los estímulos incondicionados provocarán también la reacción incondicionada, aunque no tengan por si mismos relación alguna con ella. Por ejemplo, el perro de Pavlov salivaba cuando oía el sonido de una campanita, por el sólo hecho de que ese sonido había sido anteriormente asociado con cierta frecuencia a la presentación de la comida. La investigación sobre el condicionamiento era de particular importancia para el conductista porque, por un lado detectaba precisas unidades estímulo (que permitían definir mejor el ambiente en que el organismo reacciona) y precisas unidades respuesta, y, por el otro, porque ofrecía un principio clave para explicar la génesis de las respuestas complejas. En efecto, se podía suponer que los comportamientos complejos, manifestados por el hombre, eran una larga historia de condicionamientos.

Por este motivo adquirió particular importancia el estudio del aprendizaje empezando por las primeras adquisiciones infantiles. Al analizar las emociones, Watson expresaba la idea de que el miedo, la rabia y el amor son las emociones elementales y se definen partiendo de los estímulos ambientales que las provocan.

Para Watson, el lenguaje se adquiere por condicionamiento. El niño oye asociar a un objeto su nombre y por consiguiente el nombre termina por evocar la misma respuesta evocada por el objeto. Progresivamente todo el sistema de movimientos que provocan la emisión del sonido palabra puede ser sustituido por una parte de movimientos, por lo que la palabra es sólo pronunciada en voz baja, o moviendo silenciosamente los labios, o bien mediante simples "hábitos de laringe". Watson creía que de esta manera se va formando el pensamiento y sugería que podía ser reducido a un conjunto de hábitos de laringe. En el plano teórico el punto central estaba representado por el hecho de que la actividad de pensamiento era un resultado de los aprendizajes comunicativos y no tenía por sí mismo importancia ni interés cognoscitivo.



EDWARD. L. THORNDIKE.

Nació en 1874 y murió en 1949. Edward L. Thorndike fue profesor de psicología durante más de treinta años en el Teachers College de Columbia, Estados Unidos. Lo que más atrajo su interés fue la teoría del aprendizaje, y se cuenta entre los importantes precursores del conductismo. Watson se fundó en gran parte en la obra de Thorndike y en la de Pavlov.

Teoria
Edward Thorndike realizó su investigación, también observando la conducta de animales pero después realizó experimentos con personas. Thorndike implantó el uso de "métodos usados en las ciencias exactas" para los problemas en educación al hacer énfasis en el "tratamiento cuantitativo exacto de la información". "Cualquier cosa que exista, debe existir en determinada cantidad y por lo tanto pude medirse" (Johcich, citado en Rizo, 1991). Su teoría, conexionismo, establece que aprender es el establecimiento de conexiones entren estímulos y respuestas.

-    La "ley de efecto" dice que cuando una conexión entre un estímulo y respuesta es recompensado (retroalimentación positiva) la conexión se refuerza y cuando es castigado (retroalimentación negativa) la conexión se debilita. Posteriormente Thorndike revisó esta ley cuando descubrió que la recompensa negativa (el castigo) no necesariamente debilitaba la unión y que en alguna medida parecía tener consecuencias de placer en lugar de motivar el comportamiento.
-       La "ley de ejercicio" sostiene que mientras más se practique una unión estimulo-respuesta mayor será la unión. Como en la ley de efecto, la ley de ejercicio también tuvo que ser actualizada cuando Thorndike encontró que en la práctica sin retroalimentación no necesariamente refuerza el rendimiento.
-      La "ley de sin lectura": Debido a la estructura del sistema nervioso, ciertas unidades de conducción, en condiciones determinadas, están más dispuestas a conducir que otras.

Las leyes de Thorndike se basan en la hipótesis estímulo respuesta. El creía que se establecía un vínculo neural entre el estímulo y la respuesta cuando la respuesta era positiva. El aprendizaje se daba cuando el vínculo se establecía dentro de un patrón observable de conducta.

Estimación Del Punto De Vista De Thorndike
Antes resumiremos las soluciones de Thorndike a los problemas más característicos del aprendizaje, en los siguientes puntos:
1) La capacidad de aprendizaje depende del número de conexiones y su disponibilidad.
2) La repetición de situaciones (práctica) no modifica por sí sola las conexiones, a menos que dichas conexiones se recompensen.
3) Motivación: la recompensa influye directamente en las conexiones vecinas reforzándolas, pero el castigo carece del efecto debilitador directo correspondiente. Sin embargo, el castigo puede influír indirectamente al llevar al sujeto a elegir otra cosa que tal vez le traiga recompensa. Las conexiones pueden fortalecerse directamente, sin necesidad de tener conciencia o idea de ellas.
4) Comprensión: depende de hábitos anteriores. Cuando las situaciones se comprenden de inmediato, es que se produjo transferencia o asimilación.
5) Transferencia: la reacción a las situaciones nuevas se beneficia, en parte, porque son parecidas a antiguas situaciones, y también por un principio de analogía descripto como asimilación.
6) Olvido: siguió sosteniéndose a grandes rasgos la ley del desuso, según la cual el olvido sobreviene con la falta de práctica.
El carácter más general de la teoría de Thorndike es el de fortalecimiento automático de conexiones específicas, directamente, sin la intervención de ideas o de influencias concientes.
La doctrina de la especificidad es fuente tanto de fuerza como de debilidad.
La fuerza de la doctrina de Thorndike de la especificidad radica en que, en el ámbito educativo, muestra al maestro qué tiene que hacer específicamente para enseñar, una actividad muy compleja pero que puede simplificarse. Por ejemplo para enseñar lectura basta con detenerse en las palabras, ser bien específico, y desatender otros factores como semántica, filología, etc. Pero en esto también radica su debilidad, porque el lenguaje no es sólo palabras.

Los experimentos de Thorndike
Hay dos tipos de aprendizaje: 
1) El condicionamiento clásico, oavloviano o respondiente, que consiste en aprender la relación entre sí de varios sucesos del entorno; y 
2) El condicionamiento instrumental, que consiste en aprender la relación entre varios eventos contextuales y el comportamiento.

El condicionamiento clásico implica aprender la relación entre ver el pan y su olor, y condicionamiento instrumental es aprender la relación entre la conducta de comer el pan y el gusto del pan. En este capítulo el autor distinguirá estos dos tipos de aprendizaje.
La ley de efecto fue enunciado por Thorndike en 1898, y dice que un efecto de un comportamiento positivo es incrementar la probabilidad de que vuelva a suceder en condiciones similares.
Trabajó con gatos, perros y gallinas encerrándolos en jaulas, donde los animales debían hacer algo para poder salir o recibir comida. Es decir, trabajó con un condicionamiento instrumental (relación entre el comportamiento y sucesos contextuales significativos, como premios y castigos). Encontró que a más intentos que hacía el animal, menor tiempo usaba para escapar.
La ley del efecto es simplemente la selección natural en la historia de un organismo singular (cuanto más salta el gato para salir equivale, en la selección natural de las especie, a cuanto más debe alargar la jirafa el cuello para comer). Obviamente, la conducta deseada debe ser premiada una vez que ocurre, para que luego el animal vuelva a repetirla. Esto se llama ‘modelamiento’.
Thorndike y Pavlov: Ambos fueron psicólogos moleculares, es decir, concebían que en la base del comportamiento había conexiones simples E-R, las que pueden ordenarse jerárquicamente según la probabilidad de su ocurrencia. Un premio o un castigo puede modificar esta jerarquía, haciendo más probable o menos probable una respuesta.
Respecto a sus diferencias, para Pavlov una conexión (un reflejo condicionado) aumenta su fuerza si el estímulo condicionado es contiguo al estímulo incondicionado (esto se llama refuerzo del reflejo condicionado). Para Thorndike, una conexión (hábito) aumenta su fuerza si la respuesta es contigua con un refuerzo al animal del tipo premio o castigo (esto se llama refuerzo del hábito).
Estas explicaciones del aprendizaje en términos de conexiones pueden también hacerse desde en punto de vista molar, en términos de contingencias y correlaciones (entre el EI y el EC, o entre R y el premio).
Thorndike y Skinner: Para Thorndike el premio refuerza la conexión E-R, mientras que para Skinner (1938) el premio refuerza la respuesta operante, no la conexión con el estímulo previo. Cabe aclarar que respuesta para Skinner es un acto destinado a producir un efecto en el entorno, a ser operante. O sea, no importa como la rata presione la barra, sino que lo haga, y por ello recibirá el premio.

Clases de condicionamiento instrumental
En el condicionamiento instrumental hay cuatro principios básicos: premio, castigo, huída y omisión. En los cuatro casos ha de tenerse presente que primero se produce la respuesta y luego recién se premia, o se castiga, etc.
Premio: Un premio después de la respuesta aumenta la probabilidad que ocurra. El premio se llama refuerzo positivo, y esto fue enunciado en la ley del efecto de Thorndike.
Castigo: Un castigo después de la R disminuye la probabilidad que vuelva a ocurrir. Es lo inverso a lo anterior (castigo positivo).
Huída: Si una respuesta es para escapar de un castigo, aumenta la probabilidad que vuelva a ocurrir. Esto se llama refuerzo negativo.
Omisión: Si el presente está presente pero no se da, la respuesta que lleva a esta frustración decrece su probabilidad de ocurrencia (castigo negativo).

Métodos de medición
Medir en el condicionamiento clásico significa descubrir la respuesta a un estímulo, pero más interesa aquí medir en el condicionamiento instrumental, donde significa detectar con algún aparato los cambios producidos en la conducta por el aprendizaje.
Se citan dos medidas para medir la variable dependiente ‘respuesta’: latencia y tasa de respuesta.


    Latencia: es el tiempo transcurrido entre una señal y la ocurrencia de la respuesta. Cuando la madre llama al hijo a comer, éste vendrá más rápido (latencia menor) si le gusta la comida, etc.

    Tasa de respuesta: es la cantidad de respuestas por unidad de tiempo. Luego de ser llamado a comer (señal) el niño dará más -o menos- mordiscos por unidad de tiempo.

La extinción en el condicionamiento instrumental
En el condicionamiento clásico, extinción significa desaparición de la conexión EC-EI. En el instrumental, significa desaparición de la conexión respuesta-premio (o castigo).
La extinción se define entonces a partir de una correlación cero entre la respuesta y el refuerzo, o sea la R sigue ocurriendo aunque haya tantos premios como antes, más premios, menos premios o ningún premio. Lo esperable es que el organismo pare, entonces, de responder, que es lo que pasa normalmente, salvo en tres excepciones. En efecto, la respuesta sigue ocurriendo cuando hay falta de discriminación, superstición o psuedocondicionamiento.
a. Falta de discriminación.- El estudiante sigue dando la misma respuesta (por ej sigue estudiando bien) a pesar de que el maestro sigue poniendo mecánicamente la misma nota (mismo premio). Sólo tiende a desaparecer la respuesta cuando ve que el maestro pierde las hojas de exámenes, está distraído, etc.
b. Superstición.- Este fenómeno se da cuando en un tiempo dado, la relación entre dos sucesos no puede deberse al azar. Aunque podamos programar una serie de premios en forma totalmente independiente de la respuesta, se quiera o no los premios establecerán cierta relación con las respuestas. Habrá correlaciones accidentales, aunque tales correlaciones no hayan sido programadas. Un jugador le va mal un día, pero al otro día donde usa otro bate de béisbol, por azar le va bien, entonces decide usar este bate en forma superticiosa.
c. Pseudocondicionamiento.- Ocurre por ejemplo cuando una rata mueve la palanca para salir y en ese momento le damos adrenalina, que aumenta su actividad. La conexión se establece entre la inyección de adrenalina y mover la palanca, lo cual es un pseudocondicionamiento porque el condicionamiento instrumental "verdadero" sería conectar el mover la palanca con el premio (salir de la jaula).
Vemos que en los tres casos se producen respuestas que no mantienen relación con el premio, o sea, no está marcada una relación instrumental (respondo "para" obtener un premio). En el primer caso la falta de discriminación se debe a que la falta de una relación instrumental no puede discriminarse de alguna condición anterior, cuando aquélla existía. En el caso de la superstición es debido a una relación instrumental accidental y temporaria. En el tercer caso la relación no tiene nada que ver con la respuesta, pero el premio por sí mísmo puede causar la respuesta. Todas estas conclusiones valen también para los castigos.

Aprendizaje retardado
Es aquel aprendizaje donde la extinción se presenta "antes" que el condicionamiento, lo que trae como consecuencia que el condicionamiento tarde más en formarse (aprendizaje retardado). Si primero castigamos a un niño, haga lo que haga (extinción de la respuesta, no hará nada), y luego cambiamos la situación y castigamos sólo las conductas malas, entonces tardará mucho más tiempo en superar la primera etapa donde no respondía con ninguna conducta.



Parámetros de premios y castigos
Los instrumentos más sencillos para medir premios y castigos son la caja de Skinner con un único mando (por ejemplo una palanca), y el ‘corredor recto’, por donde el animal circula. Este último evalúa más el comportamiento en el espacio, y la caja de Skinner en el tiempo. Por ejemplo, el primero muestra cuánto se desplazó la rata, y la segunda cuánto tardó en apretar la palanca.
Se citan dos parámetros de premios o castigos: la tasa o cantidad de premio, y el retraso del premio.

Tasa o cantidad de premio: puede ser la mayor o menor cantidad de bolitas de comida, o también cuanto tiempo se lo deja comer una vez que se le dio la comida, o también variar la concentración de azúcar (cuanto más dulce, más premio). Se comprobó que sin premio, la respuesta el cero o cercana a cero; luego, cuando se incrementa el premio, se incrementa también la tasa de respuesta al principio rápido, pero luego lentamente.

Retraso del premio: la tasa de respuesta de la rata varía con el retraso del refuerzo positivo (bolas de comida) y del refuerzo negativo (reducción de la descarga). La rata deja de correr (o bien de pulsar la palanaca si está en la caja de Skinner) inmediatamente al principio pero luego en forma más gradual. El retraso del premio es importante en la vida diaria, como cuando una persona hace dieta pero el premio (bajar de peso), tarda en aparecer.
En cuanto a la relación entre estos parámetros, ellos son independientes en el sentido de que se puede variar la tasa o la cantidad de premio sin variar su retraso, y viceversa. Pero en la práctica se influyen mutuamente, y entonces a veces no se puede saber qué influye más en la conducta: si el retraso del premio o su tasa.
Respecto de la relación entre tasa y cantidad, ella es constante: si se varía la tasa (se le da poca comida a intervalos frecuentes) esto equivale a darle una sola comida grande (cantidad). Pero esto no significa que ambas cosas influyan de la misma forma en la conducta, porque quizás una comida grande sea menos premio porque el animal se siente más pesado.

Huída (refuerzo negativo)
El experimento típico consiste aquí en darle a la rata un estímulo aversivo pero sólo hasta que el animal realiza cierta conducta (llamada entonces conducta de huída). Según la teoría de las necesidades, todo refuerzo es negativo: comer sería ‘huír’ del hambre, beber ‘huír’ de la sed, etc.
Sin embargo las conductas de animales sometidos a descargas (estímulo aversivo) es distinta al que actúa porque tiene hambre o sed, quizás porque el estímulo aversivo en la descarga es externo al organismo, y además no aparece gradualmente.
Una forma de estudiar esto es con la dosificación, donde se aumenta de a poco la intensidad del estímulo aversivo, y las respuestas del sujeto reducen la descarga cuando llegan a cierta cantidad.

Castigo
Es posible que el castigo no forme un condicionamiento instrumental. Con refuerzos positivos buscamos que el animal ‘haga’ algo, pero con el castigo tratamos de que ‘no haga’ algo. Sin embargo muchos investigadores dijeron que desde cierto punto de vista el castigo sí produce condicionamiento instrumental: el castigo dado independientemente de la respuesta del animal tiene algún efecto supresivo de la misma, pero no tanto como cuando depende de la respuesta. En la medida en que hay una diferencia entre los efectos de las respuestas producidas por castigo y las respuestas independientes del mismo, éste será una forma de condicionamiento instrumental.

Evitación
La evitación es una huída pero no del castigo sino de la situación donde este se presenta. Evitar la lluvia es huír, pero ir a un lugar donde no llueve es evitación. El problema es: qué condiciona al sujeto a correr? Huír de la lluvia o ir hacia donde no llueve?
La evitación fue estudiada con dos procedimientos: la evitación discriminativa (se avisa de antemano con un señal que vendrá el castigo), y evitación no-discriminativa (no se da una señal previa). En el primer caso, por ejemplo, se vio que ante la señal los perros pasaban rápidamente de la huída a la evitación, mientras que en otros el paso fue más gradual.
Extinción de la evitación: cuando se intenta extinguir la evitación dando siempre castigos (de forma que no los pueden evitar), las conductas evitativas se reducen más rápidamente. Pero resultados opuestos se consiguen si es retirado el castigo a ser evitado: aquí la conducta de evitación tarda más en desaparecer.


 
BURRHUS FREDERIC SKINNER

Burrhus Frederic Skinner nació el 20 de marzo de 1904 en la pequeña ciudad de Susquehanna en Pensilvania. Su padre era abogado y su madre una inteligente y fuerte ama de casa. Su crianza fue al viejo estilo y de trabajo duro.
Burrhus era un chico activo y extravertido que le encantaba jugar fuera de casa y construir cosas y de hecho, le gustaba la escuela. Sin embargo, su vida no estuvo exenta de tragedias. En particular, su hermano murió a los 16 años de un aneurisma cerebral.
Burrhus recibió su graduado en Inglés del Colegio Hamilton en el norte de Nueva York. No encajó muy bien sus años de estudio y ni siquiera participó de las fiestas de las fraternidades de los juegos de fútbol. Escribió para el periódico de la universidad, incluyendo artículos críticos sobre la misma, la facultad e incluso contra ¡Phi Beta Kappa!. Para rematar todo, era un ateo (en una universidad que exigía asistir diariamente a la capilla).

Al final, se resignó a escribir artículos sobre problemas laborales y vivió por un tiempo en Greenwich Village en la ciudad de Nueva York como "bohemio". Después de algunos viajes, decidió volver a la universidad; esta vez a Harvard. Consiguió su licenciatura en psicología en 1930 y su doctorado en 1931; y se quedó allí para hacer investigación hasta 1936.
También en este año, se mudó a Mineápolis para enseñar en la Universidad de Minesota. Allí conoció y más tarde se casó con Ivonne Blue. Tuvieron dos hijas, de las cuales la segunda se volvió famosa como la primera infante que se crió en uno de los inventos de Skinner: la cuna de aire. Aunque no era más que una combinación de cuna y corral rodeada de cristales y aire acondicionado, parecía más como mantener a un bebé en un acuario.
En 1945 adquirió la posición de jefe del departamento de psicología en la Universidad de Indiana. En 1948 fue invitado a volver a Harvard, donde se quedó por el resto de su vida. Era un hombre muy activo, investigando constantemente y guiando a cientos de candidatos doctorales, así como escribiendo muchos libros. Aunque no era un escritor de ficción y poesía exitoso, llegó a ser uno de nuestros mejores escritores sobre psicología, incluyendo el libro Walden II, un compendio de ficción sobre una comunidad dirigido por sus principios conductuales. Nos referiremos a partir de aquí al término conductual, por ser más apropiado dentro del campo de la psicología.N.T.
El 18 de agosto de 1990, Skinner muere de leucemia, después de convertirse probablemente en el psicólogo más famoso desde Sigmund Freud.

Teoria De Skkiner
Al Igual que Pavlov, Watson y Thorndike, Skinner creía en los patrones estímulo-respuesta de la conducta condicionada. Su historia tiene que ver con cambios observables de conducta ignorando la posibilidad de cualquier proceso que pudiera tener lugar en la mente de las personas. El libro de Skinner publicado en 1948, Walden Two, presenta una sociedad utópica basada en el condicionamiento operante. También escribió Ciencia y Conducta Humana, (1953) en el cual resalta la manera en que los principios del condicionamiento operatorio funcionan en instituciones sociales tales como, gobierno, el derecho, la religión, la economía y la educación.
El trabajo de Skinner difiere de sus predecesores (condicionamiento clásico), en que él estudió la conducta operatoria (conducta voluntaria usada en operaciones dentro del entorno).
El sistema de Skinner al completo está basado en el condicionamiento operante. El organismo está en proceso de "operar" sobre el ambiente, lo que en términos populares significa que está irrumpiendo constantemente; haciendo lo que hace. Durante esta "operatividad", el organismo se encuentra con un determinado tipo de estímulos, llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de incrementar el operante (esto es; el comportamiento que ocurre inmediatamente después del reforzador). Esto es el condicionamiento operante: el comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia modifica la tendencia del organismo a repetir el comportamiento en el futuro."
Imagínese a una rata en una caja. Esta es una caja especial (llamada, de hecho, "la caja de Skinner") que tiene un pedal o barra en una pared que cuando se presiona, pone en marcha un mecanismo que libera una bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas hacen, cuando "sin querer" pisa la barra y ¡presto!, la bolita de comida cae en la caja. Lo operante es el comportamiento inmediatamente precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la rata se retira del pedal con sus bolitas de comida a una esquina de la caja.
Un comportamiento seguido de un estímulo reforzador provoca una probabilidad incrementada de ese comportamiento en el futuro.
¿Qué ocurre si no le volvemos a dar más bolitas a la rata?  Aparentemente no es tonta y después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama extinción del condicionamiento operante.
Un comportamiento que ya no esté seguido de un estímulo reforzador provoca una probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro.
Ahora, si volvemos a poner en marcha la máquina de manera que el presionar la barra, la rata consiga el alimento de nuevo, el comportamiento de pisar el pedal surgirá de nuevo, mucho más rápidamente que al principio del experimento, cuando la rata tuvo que aprender el mismo por primera vez. Esto es porque la vuelta del reforzador toma lugar en un contexto histórico, retroactivándose hasta la primera vez que la rata fue reforzada al pisar el pedal.

Esquemas De Refuerzo
A Skinner le gusta decir que llegó a sus diversos descubrimientos de forma accidental (operativamente). Por ejemplo, menciona que estaba "bajo de provisiones" de bolitas de comida, de manera que él mismo tuvo que hacerlas; una tarea tediosa y lenta. De manera que tuvo que reducir el número de refuerzos que le daba a sus ratas para cualquiera que fuera el comportamiento que estaba intentando condicionar. Así que, las ratas mantuvieron un comportamiento constante e invariable, ni más ni menos entre otras cosas, debido a estas circunstancias. Así fue como Skinner descubrió los esquemas de refuerzo.
El refuerzo continuo es el escenario original: cada vez que la rata comete el comportamiento (como pisar el pedal), consigue una bolita de comida.
El programa de frecuencia fija fue el primero que descubrió Skinner: si, digamos, la rata pisa tres veces el pedal, consigue comida. O cinco. O veinte. O "x" veces. Existe una frecuencia fija entre los comportamientos y los refuerzos: 3 a 1; 5 a 1; 20 a 1, etc. Es como una "tasa por pieza" en la producción industrial de ropa: cobras más mientras más camisetas hagas.
El programa de intervalo fijo utiliza un artilugio para medir el tiempo. Si la rata presiona el pedal por lo menos una vez en un período de tiempo particular (por ejemplo 20 segundos), entonces consigue una bolita de comida. Si falla en llevar a cabo esta acción, no consigue la bolita. Pero, ¡aunque pise 100 veces el pedal dentro de ese margen de tiempo, no conseguirá más de una bolita!. En el experimento pasa una cosa curiosa si la rata tiende a llevar el "paso": bajan la frecuencia de su comportamiento justo antes del refuerzo y aceleran la frecuencia cuando el tiempo está a punto de terminar.
Skinner también habló de los programas variables. Una frecuencia variable significa que podemos cambiar la "x" cada vez; primero presiona tres veces para conseguir una bolita, luego 10, luego 1, luego 7 y así sucesivamente. El intervalo variable significa que mantenemos cambiante ese período; primero 20 segundos, luego 5; luego 35 y así sucesivamente.
Siguiendo con el programa de intervalos variables, Skinner también observó en ambos casos que las ratas no mantenían más la frecuencia, ya que no podían establecer el "ritmo" por mucho tiempo más entre el comportamiento y la recompensa. Más interesantemente, estos programas eran muy resistentes a la extinción. Si nos detenemos a pensarlo, verdaderamente tiene sentido. Si no hemos recibido una recompensa por un tiempo, bueno, es muy probable que estemos en un intervalo o tasa "errónea"…¡sólo una vez más sobre el pedal; Quizás ésta sea la definitiva!.
De acuerdo con Skinner, este es el mecanismo del juego. Quizás no ganemos con demasiada frecuencia, pero nunca sabemos cuando ganaremos otra vez. Puede que sea la inmediatamente siguiente, y si no lanzamos los dados o jugamos otra mano o apostamos a ese número concreto, ¡perderemos el premio del siglo!.

Modelado
Una cuestión que Skinner tuvo que manejar es la manera en que llegamos a fuentes más complejas de comportamientos. Respondió a esto con la idea del modelado, o "el método de aproximaciones sucesivas". Básicamente, consiste en primer lugar en reforzar un comportamiento solo vagamente similar al deseado. Una vez que está establecido, buscamos otras variaciones que aparecen como muy cercanas a lo que queremos y así sucesivamente hasta lograr que el animal muestre un comportamiento que nunca se habría dado en la vida ordinaria. Skinner y sus estudiantes han tenido bastante éxito en enseñar a animales a hacer algunas cosas extraordinarias. Mi favorita es aquella de ¡enseñar a las palomas a tirar los bolos!.
Una vez utilicé el modelado en una de mis hijas. Tenía tres o cuatro años y tenía miedo de tirarse por un tobogán en particular. De manera que la cargué, la puse en el extremo inferior del tobogán y le pregunté si podía saltar al suelo. Por supuesto lo hizo y me mostré muy orgulloso. Luego la cargué de nuevo y la situé un pie más arriba; le pregunté si estaba bien y le dije que se impulsara y se dejara caer y luego saltara. Hasta aquí todo bien. Repetí este acto una y otra vez, cada vez más alto en el tobogán, no sin cierto miedo cuando me apartaba de ella. Eventualmente, pudo tirarse desde la parte más alta y saltar al final. Desdichadamente, todavía no podía subir por las escaleritas hasta arriba, de manera que fui un padre muy ocupado durante un tiempo.
Este es el mismo método que se utiliza en la terapia llamada desensibilización sistemática, inventada por otro conductista llamado Joseph Wolpe. Una persona con una fobia (por ejemplo a las arañas) se le pedirá que se sitúe en 10 escenarios con arañas y diferentes grados de pánico. El primero será un escenario muy suave (como ver a una araña pequeña a lo lejos a través de una ventana). El segundo será un poquito más amenazador y así sucesivamente hasta que el número 10 presentará algo extremadamente terrorífico (por ejemplo, ¡una tarántula corriéndote por la cara mientras conduces tu coche a mil kilómetros por hora!. El terapeuta luego le enseñará cómo relajar sus músculos, lo cual es incompatible con la ansiedad). Después de practicar esto por unos pocos días, vuelves al terapeuta y ambos viajan a través de los escenarios uno a uno, asegurándose de que estás relajado, volviendo atrás si es necesario, hasta que finalmente puedas imaginar la tarántula sin sentir tensión.
Esta es una técnica especialmente cercana a mí, ya que de hecho tuve fobia a las arañas y pude liberarme de ella con desensibilización sistemática. La trabajé tan bien que después de una sola sesión (tras el escenario original y un entrenamiento de relajación muscular) pude salir al exterior de casa y coger una de esas arañitas de patas largas.¡Genial!.
Más allá de estos sencillos ejemplos, el modelado también se ocupa de comportamientos más complejos. Por ejemplo, uno no se vuelve un cirujano cerebral por solo adentrarse en un quirófano, cortar la cabeza de alguien, extirpar exitosamente un tumor y ser remunerado con una buena cantidad de dinero. Más bien, estás moldeado sensiblemente por tu ambiente para disfrutar ciertas cosas; ir bien en la escuela; tomar algunas clases de biología; quizás ver alguna película de médicos; hacer una visita al hospital; entrar en la escuela de medicina; ser animado por alguien para que escojas la neurocirugía como especialidad y demás. Esto es además algo que tus padres cuidadosamente harán, como la rata en la caja, pero mejor, en tanto esto es menos intencionado.

Estímulo adverso (aversivo) en psicología iberoamericana se ha traducido el término como aversivo, N.T.
Un estímulo adverso es lo opuesto al estímulo reforzador; algo que notamos como displacen tero o doloroso.
Un comportamiento seguido de un estímulo adverso resulta en una probabilidad decreciente de la ocurrencia de ese comportamiento en el futuro.
Esta definición describe además del estímulo adverso, una forma de condicionamiento conocida como castigo. Si le pegamos a la rata por hacer x, hará menos veces x. Si le doy un cachete a José por tirar sus juguetes, los tirará cada vez menos (quizás).
Por otro lado, si removemos un estímulo adverso establecido antes de que la rata o José haga un determinado comportamiento, estamos haciendo un refuerzo negativo. Si cortamos la electricidad mientras la rata se mantiene en pie sobre sus patas traseras, durará más tiempo de pie. Si dejas de ser pesado para que saque la basura, es más probable que saque la basura (quizás). Podríamos decir que "sienta tan bien" cuando el estímulo adverso cesa, que ¡esto sirve como refuerzo!.

Un comportamiento seguido del cese del estímulo adverso resulta en una probabilidad incrementada de que ese comportamiento ocurra en el futuro.
Nótese lo difícil que puede llegar a ser diferenciar algunas formas de refuerzos negativos de los positivos. Si te hago pasar hambre y te doy comida cuando haces lo que yo quiero, ¿es esta actuación positiva; es decir un refuerzo?; ¿o es la detención de lo negativo; es decir del estímulo adverso de ansia?.
Skinner (contrariamente a algunos estereotipos que han surgido en torno a los conductistas) no "aprueba" el uso del estímulo adverso; no por una cuestión ética, sino porque ¡no funciona bien!. ¿recuerdan cuando antes dije que José quizás dejaría de tirar los juguetes y que quizás yo llegaría a tirar la basura?. Es porque aquello que ha mantenido los malos comportamientos no ha sido removido, como sería el caso de que hubiese sido definitivamente removido.
Este refuerzo escondido ha sido solamente "cubierto" por un estímulo adverso conflictivo. Por tanto, seguramente, el niño (o yo) nos comportaríamos bien; pero aún sentaría bien tirar los juguetes. Lo único que tiene que hacer José es esperar a que estés fuera de la habitación o buscar alguna forma de echarle la culpa a su hermano, o de alguna manera escapar a las consecuencias, y de vuelta a su comportamiento anterior. De hecho, dado que ahora José solo disfruta de su comportamiento anterior en contadas ocasiones, se involucra en un esquema (programa) variable de refuerzo y será ¡aún más resistente a extinguir dicho comportamiento!.

Modificación De Conducta
La modificación de conducta (usualmente conocida en inglés como mod-b) es la técnica terapéutica basada en el trabajo de Skinner. Es muy directa: extinguir un comportamiento indeseable (a partir de remover el refuerzo) y sustituirlo por un comportamiento deseable por un refuerzo. Ha sido utilizada en toda clase de problemas psicológicos (adicciones, neurosis, timidez, autismo e incluso esquizofrenia) y es particularmente útil en niños. Hay ejemplos de psicóticos crónicos que no se han comunicado con otros durante años y han sido condicionados a comportarse de manera bastante normal, como comer con tenedor y cuchillo, vestirse por sí mismos, responsabilizarse de su propia higiene personal y demás.
Hay una variante de mod-b llamada economía simbólica, la cual es utilizada con gran frecuencia en instituciones como hospitales psiquiátricos, hogares juveniles y prisiones. En éstas se hacen explícitas ciertas reglas que hay que respetar; si lo son, los sujetos son premiados con fichas o monedas especiales que son cambiables por tardes libres fuera de la institución, películas, caramelos, cigarrillos y demás. Si el comportamiento empobrece, se retiran estas fichas. Esta técnica ha demostrado ser especialmente útil para mantener el orden en estas difíciles instituciones.
Un inconveniente de la economía simbólica es el siguiente: cuando un "interno" de alguna de estas instituciones abandona el centro, vuelven a un entorno que refuerza el comportamiento que inicialmente le llevó a entrar en el mismo. La familia del psicótico suele ser bastante disfuncional. El delincuente juvenil vuelve directamente a la "boca del lobo". Nadie les da fichas por comportarse bien. Los únicos refuerzos podrían estar dirigidos a mantener la atención sobre los "acting-out" o alguna gloria de la pandilla al robar en un supermercado. En otras palabras, ¡el ambiente no encaja muy bien!.


Diferencias entre condicionamiento clásico y operatorio
En condicionamiento clásico, un estímulo neurológico se convierte en un reflejo asociado. El sonido de la campana, como un estímulo neurológico, se asocia al reflejo de salivación
En el condicionamiento operatorio el aprendiz "opera" en el entorno y recibe una recompensa por determinada conducta (operaciones). Eventualmente se establece la relación entre la operación (accionar una palanca) y el estímulo de recompensa (alimento).

Mecanismo de condicionamiento operatorio de skinner
  • El refuerzo positivo o recompensa: Las respuestas que son recompensadas tienen alta probabilidad de repetirse (Buen grado de refuerzo y cuidadoso estudio).
  • El refuerzo negativo: Respuestas que reflejan actitudes de escape al dolor o de situaciones no deseables tienen alta probabilidad de repetirse (han sido excluidas del escrito un final debido a un buen trabajo terminal).
  • Extinción o ausencia de refuerzo: Respuestas que no son reforzadas son poco probable que se repitan (Ignorando las conductas errores del estudiante la conducta esperada debe de extinguirse).
  • Castigo: Respuestas que son castigadas de consecuencias no deseables cambian (Un castigo retardado a un estudiante, mediante el retiro de privilegios podría no tener efecto)

Desarrollo de la conducta de skinner
Si colocas dentro de una caja a un animal podría requerir de una cantidad significativa de tiempo para darse cuenta que activando una palanca puede obtener comida. Para lograr esa conducta será necesario realizar una serie de repeticiones sucesivas de la operación acción-respuesta hasta que el animal aprenda la asociación entre la palanca y la recompensa (el alimento). Para comenzar a crear el perfil, la recompensa se le da al animal primero con tan solo voltear a ver la palanca, después cuando se acerque a ella, cuando olfatee la palanca y finalmente cuando la presione.

Escalas de refuerzo
Una vez que la respuesta esperada se logra, el refuerzo no tiene que ser el 100%; de hecho se puede mantener mediante lo que Skinner ha llamado escalas de refuerzo parcial. Las escalas de refuerzo parcial incluyen intervalos de escalas y tasas de escala.

  • Escalas de intervalos fijos: la respuesta de interés se refuerza un tiempo determinado fijo después, de que se le haya dado el último reforzamiento.
  •  Escala de intervalo variable: es similar a las escalas de intervalo fijo, con la diferencia que la cantidad de tiempo entre cada refuerzo es variable.
  •  Escala de tasa fija: aquí, debe de ocurrir un número de respuestas correctas para poder recibir la recompensa.
  •  Escala de tasa variable: el número de respuestas varía para recibir el refuerzo.

    El intervalo variable y especialmente, las escalas de tasa variable, producen estabilidad y tasas de respuestas más persistentes debido a que los aprendices no pueden predecir el momento de reforzamiento a pesar de que saben que eventualmente sucederá.





CONCLUSIÓN

Realizando este trabajo de investigación pude entender y comprender en qué consiste la teoría conductista. También comprendí la importancia de esta teoría en la aplicación del mismo al campo de la enseñanza-aprendizaje, principalmente a través del tiempo y en menor medida en la actualidad.

Algunas conclusiones fundamentales que se ha llegado a través de este estudio de investigación son:
·         Muchos críticos afirman que el Conductismo "sobre simplifica" la conducta humana y que ve al hombre como una automatización en vez de una criatura con propósito y voluntad. A pesar de la opinión de estos críticos, el conductismo ha tenido gran impacto en la psicología. Ha impulsado la experimentación científica y el uso de procedimientos estadísticos.

·         Aunque en desacuerdo con gran parte de la influencia del conductismo en la educación, por la forma de ver a los estudiantes como individuos vacíos que adquieren conductas y que las que no son deseadas pueden ser reemplazadas o eliminadas, hay que admitir la gran influencia del conductismo en la educación tradicional y la gran influencia que seguirá manteniendo sobre esta.

·         Muchos de los aprendizajes que realizamos los seres humanos pueden explicarse mediante las teorías conductistas, pero esto no es posible en todos los casos.
En este sentido, y tratando de completar y superar el punto de vista conductista, desde los años cincuenta algunos psicólogos empiezan a presentar nuevas formas de plantear y abordar los problemas psicólogos; de estos nuevos planteamientos, en los años sesenta, surgirán las llamadas teorías cognitivas o cognitivistas.

·         En relación con el aprendizaje, dichas teorías tienen en cuenta el proceso implicado en la adquisición de los conocimientos y las interacciones que se producen entre los diferentes elementos del entorno.






ANEXO

ESQUEMA DEL CONDUCTISMO






PRINCIPALES REPRESENTANTES







CLOSE ADS