Introducción al Conductismo

PSICOLOGÍA CIENTÍFICA: Conjunto de conocimientos psicológicos fundamentados en la observación y el experimento. Es una rama de la ciencia empírica. La psicología científica verifica sus hipótesis mediante algunos de los procedimientos de contrastación empírica considerados científicos: observacional, experimental y correlacional.
Los principales modelos teóricos en psicología científica han sido la psicología experimental de Wundt, el estructuralismo, el funcionalismo, el psicoanálisis, el conductismo, la psicología de la forma, la psicología cognitiva y, en los últimos años, el conexionismo.

La psicología conductista es una corriente de pensamiento con tres niveles de organización científica, que se complementan y retroalimentan recíprocamente: el conductismo, el análisis experimental del comportamiento y la ingeniería del comportamiento. Esta última comprende a su vez toda una gama de aplicaciones tecnológicas tanto en el campo de la terapia como de la modificación de conducta.



El conductismo

Es la filosofía especial de la psicología como ciencia del comportamiento, entendido éste como la interacción entre el individuo y su contexto físico, biológico y social, cubriendo así un amplio rango de fenómenos psicológicos en los planos lingüístico-cognitivo, emotivo-motivacional y motor-sensorial.
La filosofía especial es una filosofía de la praxis. Como tal, surge de las labores mismas del quehacer psicológico y se encarga de discutir sobre los supuestos, extensiones y posibilidades de su dominio teórico y aplicado, así como de fijar posición y fomentar una actitud no reduccionista (ni fisiologista ni mentalista) para buscar soluciones a los problemas de la disciplina (conductismo radical).
El conductismo depende de una filosofía general de la ciencia en psicología, un asunto que aún no está totalmente dilucidado. Ontológicamente lo definitorio es el materialismo monista y el determinismo. Epistemológicamente para los conductistas post-skinnerianos la filosofía es el "contextualismo", que considera la conducta como "acto en contexto". O sea que ocurre en el marco de una determinada circunstancia cuyo análisis no se puede obviar.

En cualquiera de los casos, todas las vertientes filosóficas señaladas tienen claras diferencias con el positivismo lógico, en tanto reconocen un papel destacado a la conformación social del ambiente y del individuo. Asimismo se diferencian del mecanicismo, en tanto consideran en el análisis interrelaciones complejas de variables interactuantes.


Historia del conductismo

Los estudios darwinianos sobre la evolución de las especies y los de la fisiología experimental de fines del siglo XIX, auspiciaron, junto con la filosofía materialista, la aparición de formas de pensamiento más avanzado con respecto a las ciencias humanas.
Comenzando el siglo XX, John B. Watson defendió la idea de una psicología que consideraba valiosa la conducta en sí misma como objeto de estudio, y no la de un método para estudiar la conciencia. Esto fue una innovación sustancial con respecto a la psicología estructural del momento, la cual usaba el método de introspección y consideraba el estudio del comportamiento como una práctica sin valor. El conductismo representó una aproximación radicalmente diferente.
Watson estudió el ajuste de los organismos a sus entornos, más específicamente los estímulos o situaciones particulares que llevan a los organismos a comportarse. Sus acercamientos estaban influenciados principalmente por el trabajo del fisiólogo ruso Ivan Pavlov, quien enfatizaba la fisiología y el papel de los estímulos en producir condicionamiento clásico.
Con el tiempo, surgieron dos grandes tipos de variantes conductuales: una radical y una metodológica o mediacional. La primera de ellas (desarrollada por B.F. Skinner) se centró en las relaciones funcionales que establecen los organismos con su ambiente, con énfasis en la ley del efecto, es decir, en la manera como las consecuencias de lo que hacemos regula la emisión de nuestra conducta futura (conducta operante). La segunda (desarrollada por Hull y Tolman entre otros), sobre la base de los reflejos condicionados introdujo un factor (o variable) interviniente que podía ser neurofisiológica o mental, según el caso.
A pesar de las obvias diferencias entre estos tipos de conductismo, debido a que el segundo de ellos obtuvo mayor difusión e incluso se ligó a la filosofía del positivismo lógico, frecuentemente se han confundido las propuestas, estereotipando a Skinner como un teórico E-R, y a los demás como E-O-R.

Paralelamente han emergido gran cantidad de variantes teóricas conductuales que hasta el presente siguen en vigencia, abordando el comportamiento complejo, la personalidad y el lenguaje de diversas maneras, ciñéndose a coordenadas científicas.
resumiendo, sobre la base de los estudios de Ivan Pavlov (reflejos condicionados) y Thorndike (ley del efecto), John B. Watson es el fundador del conductismo, continuando en la siguiente generación B.F. Skinner (conductismo operante), J. R. Kantor (interconductismo), C. Hull y E. C. Tolman (conductismo mediacional).
Actualmente destacan E. Ribes (conductismo de campo), A. W. Staats (conductismo psicológico), S. C. Hayes (teoría de marco relacional), H. Rachlin (conductismo teleológico) y J. Staddon (conductismo teórico) dentro del conductismo radical; H. J. Eysenck y J. Wolpe (enfoques E-R) dentro del conductismo metodológico; así como A. Ellis (enfoque racional emotivo conductual), Arnold A. Lazarus (enfoque multimodal) y A. Bandura (enfoque sociocognitivo) dentro del conductismo E-O-R.




La ingeniería del comportamiento

Involucra lo tecnológico: todas aquellas elaboraciones procedimentales que, ligadas de alguna manera a los paradigmas de investigación básica y sus combinaciones, se han desarrollado como aplicaciones efectivas. Puede definirse como "la aplicación de conocimientos científicos para la elaboración, perfeccionamiento y manejo de técnicas de establecimiento, mantenimiento o eliminación de conductas".
Ello supone que el comportamiento humano (sea de tipo cognitivo-lingüístico, emotivo-motivacional o motor-sensorial) es susceptible de describirse legalmente, y que sus operaciones de evaluación, diagnóstico y tratamiento de problemas acuden al manejo tentativo de dichas regularidades.
A menudo se identifica la ingeniería conductual con el rótulo de Análisis de Conducta Aplicado, conjunto de acciones mediante las cuales el psicologo aplica en diferentes contextos, y para solucionar problemas socialmente relevantes desde los conocimientos aportados por el análisis experimental del comportamiento.



Aplicaciones

Los trabajos de investigación sobre los principios del aprendizaje son el marco sobre el que se han desarrollado múltiples tecnologías de ingeniería del comportamiento, como la Terapia de Conducta, la Modificación de conducta, el Análisis Conductual Aplicado, e inclusive algunas formas heterodoxas que incorporan otras nociones teóricas y filosóficas (las terapias conductual-cognitivas y las cognitivo-conductuales).
Con ellas resulta posible el tratamiento de una inmensa variedad de problemas en los campos clínico, educativo, comunitario y organizacional, la salud, el deporte, las emergencias, la gerontología y la psicopatología, entre otros, con unos índices de eficacia razonablemente altos. Cabe destacar que los sujetos de intervención pueden ser tanto individuos y parejas, como grupos sociales y familiares.
Entre las numerosas técnicas disponibles se encuentran las de exposición en vivo (p. ej. reforzamiento positivo, moldeamiento, extinción, castigo positivo y negativo, etc.), las de exposición en fantasía (reforzamiento encubierto, inoculación del estrés, desensibilización sistemática y otras), las de entrenamiento en autorregulación de competencias (autocontrol, manejo de la ansiedad, habilidades sociales, etc.), y de reestructuración racional (p. ej. solución de conflictos, aceptación y compromiso, entrenamiento autoinstruccional, etc.). Es de notar que las técnicas más complejas -en las que suelen intervenir el lenguaje y los llamados repertorios "cognitivos"- incluyen los procedimientos empleados por las más simples.



Críticas

I. Ignora la consciencia, los sentimientos y estados de la mente. No le asigna un papel a la personalidad, al Yo ni al "sí mismo". No da lugar a la libertad, a la voluntad ni a la intencionalidad.
II. No intenta explicar los procesos cognoscitivos, la intuición, la información ni el proceso creativo. Ve al sujeto como un receptor pasivo.
III. Es mecanicista: concibe lo psicológico como un conjunto de respuestas ante estímulos. Descuida la dotación innata y el papel del sistema nervioso.
IV. Está desfasado del desarrollo actual de la ciencia. Trabaja con animales, asimilando su comportamiento al humano. Sus aplicaciones son envilecedoras (premios, castigos) y hasta brutales (descargas eléctricas, vomitivos, etc).
V. Es operacionalista: identifica los fenómenos con las esencias. Es una ideología importada, al servicio del poder, que mantiene la psicología como ciencia natural, no preocupada por los fenómenos sociales.


RESPUESTAS GENERALES:
- Tanto el primero como el segundo grupo de críticas confunden "estudiar de otra manera" (que es la manera propia del conductismo) con "no estudiar". En realidad, la psicología conductista tiene sus propios conceptos y métodos para abordar los llamados "estados de la mente" y los fenómenos cognoscitivos. El hecho es que utiliza otro lenguaje y una aproximación interaccionista, en vez del enfoque internalista típico de la psicología tradicional. Hay una cantidad inmensa de publicaciones conductuales que trabajan esos problemas.
- El tercer grupo de críticas muestra cierta desinformación. Los análisis comportamentales se basan en una compleja estructuración interactuante de variables que provienen tanto del ambiente como del organismo. Basta revisar las ecuaciones conductuales de Kanfer y de Kantor para darse cuenta.
- El cuarto grupo de críticas es de carácter inexacto. Si la psicología conductista estuviera desfasada del avance actual no estaríamos en la Década de la Conducta, Skinner no hubiera sido proclamado "El Psicólogo más eminente del siglo XX", y la tecnología conductual no sería la más recomendada por los organismos oficiales de la psicología internacional para solucionar todo tipo de problemas psicológicos.
- El quinto grupo de críticas tiene puntos realmente atendibles y abiertos a discusión, exceptuando la ingenua acepción de "ideología importada" y pretender que no hay aplicaciones sociales. Al contrario, estas son las más efectivas que hay en la disciplina. De hecho, la psicología comunitaria y los programas prosociales tienen gran influencia conductual.



Principales figuras

Primera generación
· Ivan Petrovich Pavlov
· Edward Thorndike
· John B. Watson

Segunda generación
· Burrhus F. Skinner
· Jacob R. Kantor
· Clark L. Hull
· Edward C. Tolman

Tercera generación
· Hans J. Eysenck
· Julian B. Rotter
· Arthur W. Staats
· Emilio Ribes
· Steven C. Hayes
· Ramon Bayés
· Rubén Ardila
· Albert Bandura
· Alan J. Kazdin
· Rocío Fernández Ballesteros

Teoría del Condicionamiento Clásico (1/2) - Orígenes del Conductismo

El perro de Pavlov


¿Has observado alguna vez que cuando tienes ante ti una comida apetitosa, empiezas a salivar? ¿A veces te ha ocurrido que con sólo hablar de comida "se te ha hecho la boca agua"?.


Pavlov, médico ruso, observó casualmente que a los perros que tenía en su laboratorio, les bastaba oír los pasos de la persona que les traía la comida para comenzar a salivar y a segregar jugos gástricos; es decir, parecía que los perros habían aprendido a anticipar la comida.
Pavlov comenzó a estudiar este intrigante fenómeno y se preguntó si cualquier otro estímulo, por ejemplo el sonido de una campana, podía provocar la salivación si se unía a la presentación de la comida.



Y así fue. Tras varios días repitiéndose la secuencia sonido de la campana-presentación de la comida, el perro comenzó a salivar sólo con escuchar el sonido de la campana, AUNQUE NO HUBIERA COMIDA.












¿Por qué ocurre esto? Porque se ha producido una asociación entre dos estímulos que, en principio, no tenían relación ninguna: el perro HA APRENDIDO y se ha conseguido a través de un entrenamiento organizado de la siguiente manera:




















Bien, pues estos experimentos darían lugar a una teoría conocida como CONDICIONAMIENTO CLÁSICO, que posteriormente aportaría parte del fundamento teórico del CONDUCTISMO, escuela psicológica que pretende explicar y predecir la conducta y que aporta luz sobre muchos de los aprendizajes no sólo en los perros, también en los humanos.

Gran parte de nuestras conductas son aprendidas y en numerosas ocasiones se aprenden por condicionamiento, es decir, descubrimos que lo que hacemos tiene consecuencias positivas o negativas y somos capaces de anticipar dichas consecuencias y, de acuerdo con ello, modelar nuestra forma de comportarnos.


El ser humano no es un organismo predestinado desde su nacimiento, no tiene una personalidad innata, sino que a lo largo de su experiencia vital va aprendiendo una forma de ser, de actuar, de pensar, y todo ello va a ser consecuencia, entre otras cosas, de los refuerzos positivos y negativos que recibe, de los castigos, de lo que observa en los demás y muy importante: de sus propias decisiones.

Práctica Condicionamiento Clásico (1/2)


Pretendemos realizar una pequeña práctica sobre el tema central que abarcamos en este día, el condicionamiento clásico en Pavlov.

Fue el premio Nobel Ivan Pavlov (1849-1936), el hombre que descubrió el mecanismo esencial del aprendizaje asociativo. Hace ahora un siglo, en 1904, el investigador aportó la primera versión de lo que luego sería conocido como “los reflejos condicionados”. Las investigaciones se hicieron muy populares gracias a los resultados obtenidos con los perros que salivaban ante la campana. Nos encontramos ante un tipo de aprendizaje que tiene un entramado bastante complejo y rico en objetos a analizar.



MÉTODO


Vamos a utilizar como sujeto S un perro de raza Pastor Alemán. No tiene ningún aprendizaje sobre el tema que vamos a tratar previo y responde positivamente a los estímulos naturales. En este caso yo seré el elemento E.

Hemos utilizado como instrumentos el elemento X1, una caja cuadrada, roja y con galletas en su interior. Asimismo, disponemos del elemento X2, que son las propias galletas una vez se encuentran fuera del interior del elemento X1 y que son reconocidas por el elemento S como un elemento independiente.

El experimento está basado en la reproducción parcial de la práctica puesta en marcha por Pavlov hace un siglo. Nuestro procedimiento arranca con nuestro sujeto S. Éste por condicionamiento clásico babea cada vez que cojo el elemento X1, la caja de galletas, y saco de ella una galleta de perro. Obviamente según esta teoría, llegará un punto que en cuanto que en cuanto saque el elemento X1 de la despensa, el sujeto S babeará, muestre o no la galleta que posteriormente se comerá. Ahora, vayamos más allá de este simple proceso. Adentrémonos más en este estudio.

¿Sabe el sujeto S que tras coger la caja le doy la galleta? O por el contrario, ¿Sabe que tiene que salivar ante mí cuando estoy con la caja en mis manos?

En un principio la duda la tenemos en si el sujeto S aprendió a asociar la caja con la comida, o si aprendió a salivar ante la caja. Aparentemente es lo mismo, pero es sólo apariencia.



DISCUSIÓN


Para dar una respuesta expliquemos brevemente las dos formas básicas del conocimiento que se dan en esta teoría: El Procedimental y el Declarativo.

Un problema se resuelve de forma procedimental si uno sabe lo que tiene que hacer, los procedimientos para solucionarlo. En cambio el problema solucionado por forma declarativa es aquel en el que uno conoce la estructura, la esencia del problema.

En otras palabras, el conocimiento procedimental se refiere a “saber qué hacer” ante cada situación, sin saber porqué se hace eso y desconociendo otras soluciones alternativas, mientras que el conocimiento declarativo supone conocer la naturaleza del problema y ser capaz de encontrar nuevas soluciones a cuestiones parecidas pero diferentes.

Volviendo a nuestra situación práctica. Sabemos que nuestro sujeto S tiene que salivar ante la visión del elemento E con la caja roja ya que lo hace (procedimental). Pero, ¿sabe por qué?, es decir, ¿sabe que luego viene la galleta? (declarativo)

Para dar respuesta a nuestras preguntas añadiremos un nuevo fenómeno a nuestro procedimiento. Nuestro sujeto S se ha dado un atracón a galletas y ahora aborrece las galletas.



MÉTODO 2


En este caso, los sujetos e instrumentos son similares.

Nuestro procedimiento arranca con un sujeto S que cuenta con un condicionamiento clásico de salivación ante el estímulo condicionado que es el elemento X2, las galletas.

En este punto, mostramos el elemento X1, la caja de galletas roja sucesivas veces.

Resultado: Nuestro sujeto S ha dejado de salivar tras sucesivas visiones de la caja roja.



DISCUSIÓN 2


Nuestro sujeto S tiene un aprendizaje por condicionamiento clásico de conocimiento declarativo.

En nuestro caso en cuestión, el perro se ha adaptado a las nuevas circunstancias: “Tras la caja roja (X1), vienen las galletas que aborrece, por lo que le ha ascos en vez de salivar”. El sujeto S ha aprendido a predecir la llegada de las galletas tras la visión de la caja azul, y si las circunstancias cambian, cambia el procedimiento a realizar ante la caja.

Teoría del Condicionamiento Clásico (2/2)

John Watson


John Broadus Watson
, (Greenville, 9 de enero de 1878 - Nueva York, 25 de septiembre de 1958). Psicólogo estadounidense que inauguró la escuela psicológica del Conductismo.

Fue uno de los psicólogos americanos más importantes del siglo XX, conocido por haber fundado la Escuela Psicológica Conductista, que inauguró en 1913 con la publicación de su artículo La Psicología desde el punto de vista Conductista.

Es célebre la frase en la que sostiene que tomando una docena de niños cualesquiera, y aplicando técnicas de modificación de conducta, podría conseguir cualquier tipo de persona que deseara:
“Dadme una docena de niños sanos, bien formados, para que los eduque, y yo me comprometo a elegir uno de ellos al azar y adiestrarlo para que se convierta en un especialista de cualquier tipo que yo pueda escoger -médico, abogado, artista, hombre de negocios e incluso mendigo o ladrón-, prescindiendo de su talento, inclinaciones, tendencias, aptitudes, vocaciones y raza de sus antepasados”.

Es conocido también por su controvertido experimento con el Pequeño Albert realizado junto a Rosalie Rayner.



Teoría Conductista


No obstante, Watson desarrolló el Conductismo, que hoy en día constituye una de las principales corrientes psicológicas, y que se emplea en muchas terapias con un alto grado de efectividad.

En 1913 Watson publica el que, a menudo, ha sido considerado su trabajo más importante, el artículo: “La psicología desde el punto de vista conductista” y que dará punto de partida al Conductismo. En él Watson describe las líneas generales de la que será su nueva filosofía.
El conductismo pone el énfasis sobre la conducta observable (tanto humana como animal), que considera que ha de ser el objeto de estudio de la Psicología, y las relaciones entre estímulo y respuesta, más que en el estado mental interno de la gente (aunque Watson nunca negó la existencia del mundo privado o íntimo). En su opinión, el análisis de la conducta y las relaciones era el único método objetivo para conseguir la penetración en las acciones humanas y extrapolar el método propio de las Ciencias Naturales (el método científico) a la Psicología.


Su Experimento:”El pequeño Albert”


Watson pasó a la historia de la Psicología por los experimentos realizados junto a Rosalie Rayner para demostrar sus teorías acerca del condicionamiento de la reacción de miedo en un niño de once meses de edad y que ha pasado a la historia con la denominación de Pequeño Albert.

En él Watson pretendía demostrar cómo los principios del condicionamiento clásico, recientemente descubierto por Ivan Pavlov, podían aplicarse en la reacción de miedo de un niño ante una rata blanca.
Albert fue escogido como sujeto de experimentación por su gran estabilidad emocional. Mediante el experimento, Watson pretendía demostrar cómo podía condicionar la reacción de miedo de Albert hacia una rata blanca, que inicialmente no provocaba en el niño ninguna reacción aversiva, cómo podría generalizar esta conducta a otros estímulos similares y, por último, cómo eliminar esta conducta.
Según describen Watson y Rayner (1920), los objetivos que perseguían con su experimento eran dar respuesta a las siguientes preguntas:
• ¿Puede condicionarse a un niño para que tema a un animal que aparece simultáneamente con un ruido fuerte?
• ¿Se transferirá tal miedo a otros animales u objetos inanimados?
• ¿Cuánto persistirá tal miedo?
El procedimiento seguido fue el siguiente: Se seleccionó a un niño sano de nueve meses, Albert, para el experimento. Se le examinó para determinar si existía en el un miedo previo a los objetos que se le iban a presentar (animales con pelo), examen que fue negativo. Sí se identificó un miedo a los sonidos fuertes(como golpear una lamina metálica con un martillo fuertemente).
El experimento dio comienzo cuando Albert tenía 11 meses y tres días. Consitía en presentar al niño un objeto de color blanco al tiempo que un ruido fuerte (que se lograba golpeando una barra metálica detrás de la cabeza del niño). Después de varios ensayos, el niño sollozó ante la presencia de una rata, y posteriormente generalizó su respuesta a otros estímulos: un perro, lana, un abrigo de piel, etc.
El experimento no pudo llegar a término, no alcanzándose la fase de descondicionamiento, debido a que Albert fue sacado de la unidad hospitalaria en que se encontraba antes de su conclusión.



Práctica Condicionamiento Clásico (2/2)

En el día de hoy nos centraremos en la figura del psicólogo estadounidense John Broadus Watson (1878-1959), y su condicionamiento clásico sobre humanos.

Watson propuso hacer científico el estudio de la psicología empleando sólo procedimientos objetivos tales como experimentos de laboratorio diseñados para establecer resultados estadísticamente válidos. El enfoque conductista le llevó a formular una teoría psicológica en términos de estímulo-respuesta. Según esta teoría, todas las formas complejas de comportamiento -las emociones, los hábitos, e incluso el pensamiento y el lenguaje- se analizan como cadenas de respuestas simples musculares o glandulares que pueden ser observadas y medidas. Watson sostenía que las reacciones emocionales eran aprendidas del mismo modo que otras cualesquiera. (El pequeño Albert, 1913)



MÉTODO 3
(Partimos de la base del experimento del día anterior)

Vamos a utilizar como sujeto S un perro de raza Pastor Alemán. No tiene ningún aprendizaje sobre el tema que vamos a tratar previo y responde positivamente a los estímulos naturales. En este caso yo seré el elemento E.

Hemos utilizado como instrumentos el elemento X1, una caja cuadrada, roja y con galletas en su interior. Asimismo, disponemos del elemento X2, que son las propias galletas una vez se encuentran fuera del interior del elemento X1 y que son reconocidas por el elemento S como un elemento independiente.
En este caso, introduciremos el elemento X3, la palabra “COMER” como nuevo estímulo.

La conclusión del supuesto práctico planteado en el día de ayer nos servirá de enlace con la práctica sobre el condicionamiento clásico en personas de Watson.
El nuevo procedimiento a seguir toma la base de un condicionamiento del sujeto S de salivación cuando observa el elemento X1, la caja roja. En nuestro nuevo caso, asociamos el elemento X3, la palabra “COMER”, con la comida de perros. Así que cada vez que cogiese la caja roja se las enseño al sujeto S a la vez que pronuncio “COMER”. Este procedimiento lo llevamos a cabo sistemáticamente en numerosas ocasiones.

La pregunta que nos hacemos es, ya que la palabra “COMER” siempre precede a la entrega de la galleta, ¿habrá asociado el sujeto S el elemento X3 con dicha comida?

Posteriormente, pruebo a decir la palabra “COMER”, es decir, el estímulo X3 sin mostrar la caja roja, el estímulo X1.

Resultado: El sujeto X no reacciona ante el estímulo X3.



DISCUSIÓN 3

Los resultados obtenidos son lógicos. La explicación está en que usé siempre la frase “COMER” en presencia de la caja roja a la hora del aprendizaje. Si el sujeto ya sabía que iba a comer, ¿para qué atender a una nueva señal que no le aportaba información diferente a la que ya les daba el estímulo de la caja roja (X1)?




APLICACIÓN DE ESTE ÚLTIMO FENÓMENO PRÁCTICO A LA TEORÍA DE WATSON


MÉTODO 4


Vamos a presentar como Sujeto S a una señora de 65 años con ningún tipo de problema mental o disminución psíquica.

Hemos utilizado como instrumentos el elemento X1, que es el dinero en pesetas. Asimismo, el elemento X2, que es el dinero en euros y el elemento Y, que es el valor que tiene un objeto en cuestión.

El procedimiento que hemos desarrollado es la asociación del valor material de los objetos que estudiamos. Hasta la fecha, el sujeto S tasa el valor de las cosas en pesetas, pero la nueva moneda europea, euros X2, entra en vigor. Por tanto, estudiaremos el proceso de aprendizaje por parte del sujeto S del nuevo valor de los objetos en euros:

Nuestro sujeto S hasta la fecha trabajaba con la relación Y = X1, y a partir de ahora, lo hace con Y = X1 ó X2. Es decir, nuestro sujeto pasa de trabajar con tan sólo el precio en pesetas (la caja roja en nuestro experimento anterior) a trabajar con pesetas y euros (la caja roja y la frase “COMER” en el experimento anterior).

¿Habrá un segundo condicionamiento o se repetirá el mismo resultado que en el experimento 3?



DISCUSIÓN 4

El sujeto S, al saber leer y calcular los precios en pesetas no atendió a la nueva señal añadida (X2), por tanto no tuvo un condicionamiento al segundo estímulo en un período corto de tiempo.

Resultado: El sujeto S responde negativamente ante el condicionamiento en segundo grado con X2 a corto plazo. (A largo plazo, el sujeto S acabará habituándose a trabajar con X2, pero ya lo veremos más adelante).

Teoría del condicionamiento Instrumental


Edward L. Thorndike (1874-1949)



Thorndike implantó el uso de "métodos usados en las ciencias exactas" para los problemas en educación al hacer énfasis en el "tratamiento cuantitativo exacto de la información". "Cualquier cosa que exista, debe existir en determinada cantidad y por lo tanto pude medirse" (Johcich, citado en Rizo, 1991). Su teoría, conexionismo, establece que aprender es el establecimiento de conexiones entren estímulos y respuestas.

* La " ley de efecto" dice que cuando una conexión entre un estímulo y respuesta es recompensado (retroalimentación positiva) la conexión se refuerza y cuando es castigado (retroalimentación negativa) la conexión se debilita. Posteriormente Thorndike revisó esta ley cuando descubrió que la recompensa negativa (el castigo) no necesariamente debilitaba la unión y que en alguna medida parecía tener consecuencias de placer en lugar de motivar el comportamiento.
* La "ley de ejercicio" sostiene que mientras más se practique una unión estimulo-respuesta mayor será la unión. Como en la ley de efecto, la ley de ejercicio también tuvo que ser actualizada cuando Thorndike encontró que en la práctica sin retroalimentación no necesariamente refuerza el rendimiento.
* La "ley de sin lectura": Debido a la estructura del sistema nervioso, ciertas unidades de conducción, en condiciones determinadas, están más dispuestas a conducir que otras.

Las leyes de Thorndike se basan en la hipótesis estímulo respuesta. El creía que se establecía un vínculo neural entre el estímulo y la respuesta cuando la respuesta era positiva. El aprendizaje se daba cuando el vínculo se establecía dentro de un patrón observable de conducta.


Los experimentos de Thorndike


La ley de efecto fue enunciado por Thorndike en 1898, y dice que un efecto de un comportamiento positivo es incrementar la probabilidad de que vuelva a suceder en condiciones similares.
Trabajó con un condicionamiento instrumental (relación entre el comportamiento y sucesos contextuales significativos, como premios y castigos). Encontró que a más intentos que hacía el animal, menor tiempo usaba para escapar.
La ley del efecto es simplemente la selección natural en la historia de un organismo singular (cuanto más salta el gato para salir equivale, en la selección natural de las especie, a cuanto más debe alargar la jirafa el cuello para comer). Obviamente, la conducta deseada debe ser premiada una vez que ocurre, para que luego el animal vuelva a repetirla. Esto se llama ‘modelamiento’.
Thorndike y Pavlov: Ambos fueron psicólogos moleculares, es decir, concebían que en la base del comportamiento había conexiones simples E-R, las que pueden ordenarse jerárquicamente según la probabilidad de su ocurrencia. Un premio o un castigo puede modificar esta jerarquía, haciendo más probable o menos probable una respuesta.

Estas explicaciones del aprendizaje en términos de conexiones pueden también hacerse desde en punto de vista molar, en términos de contingencias y correlaciones (entre el EI y el EC, o entre R y el premio).
Thorndike y Skinner: Para Thorndike el premio refuerza la conexión E-R, mientras que para Skinner (1938) el premio refuerza la respuesta operante, no la conexión con el estímulo previo. Cabe aclarar que respuesta para Skinner es un acto destinado a producir un efecto en el entorno, a ser operante. O sea, no importa como la rata presione la barra, sino que lo haga, y por ello recibirá el premio.


Clases de condicionamiento instrumental


En el condicionamiento instrumental hay cuatro principios básicos: premio, castigo, huída y omisión. En los cuatro casos ha de tenerse presente que primero se produce la respuesta y luego recién se premia, o se castiga, etc.
Premio: Un premio después de la respuesta aumenta la probabilidad que ocurra. El premio se llama refuerzo positivo, y esto fue enunciado en la ley del efecto de Thorndike.
Castigo: Un castigo después de la R disminuye la probabilidad que vuelva a ocurrir. Es lo inverso a lo anterior (castigo positivo).
Huída: Si una respuesta es para escapar de un castigo, aumenta la probabilidad que vuelva a ocurrir. Esto se llama refuerzo negativo.
Omisión: Si el presente está presente pero no se da, la respuesta que lleva a esta frustración decrece su probabilidad de ocurrencia (castigo negativo).


La extinción en el condicionamiento instrumental


En el condicionamiento clásico, extinción significa desaparición de la conexión EC-EI. En el instrumental, significa desaparición de la conexión respuesta-premio (o castigo).
La extinción se define entonces a partir de una correlación cero entre la respuesta y el refuerzo, o sea la R sigue ocurriendo aunque haya tantos premios como antes, más premios, menos premios o ningún premio. Lo esperable es que el organismo pare, entonces, de responder, que es lo que pasa normalmente, salvo en tres excepciones. En efecto, la respuesta sigue ocurriendo cuando hay falta de discriminación, superstición o psuedocondicionamiento.


Programas de refuerzo o castigo


Un día a Skinner se le acabaron las bolas de alimento que daba a las ratas, y entonces hizo un aparato que les daba bolas de alimento automáticamente, siempre que la rata tocase la palanca un minuto. No sólo las ratas comenzaron a presionar la palanca durante ese lapso sino que también aumentó su tasa de respuestas (cantidad de respuestas por unidad de tiempo), lo cual iba en contra de la idea que a menor premio o refuerzo, menor cantidad de respuestas. Skinner pensó que este ‘programa’ de dar bolas automáticamente podía servir como eficaz método para controlar el comportamiento.

Hay varios tipos de programas:
a) De intervalo fijo: es el ejemplo anterior.
b) De razón fija: aquí se premia a la rata cuando realiza un cierto número de respuestas.
c) Programas combinados: una combinación de los dos anteriores.
d) Programas variables: es cuando los programas de intervalo o de razón son variables en vez de fijos.
e) Programas de refuerzo diferencial: pueden ser de refuerzo diferencial bajo (RDB) o alto (RDA).
Esto da tasas de respuesta muy lentas. No es eficaz para el aprendizaje humano.
f) Extinción después de un refuerzo parcial: cuando una respuesta ha sido premiada constantemente, la extinción ocurre más rápidamente que si aquélla fue premiada solo una vez.
g) Programas de castigo, refuerzo negativo y omisión: las pautas de respuesta con castigo de IF son generalmente una aceleración inmediatamente después del castigo y luego una supresión de la respuesta inmediatamente antes del mismo. Un programa de refuerzo negativo (huída) puede consistir en dar descargas eléctricas a la rata hasta que cumpla cierto requerimiento, como una razón fija de 10 respuestas. Por último, un programa de omisión sería proporcionar premio continuamente y luego retirarlo cuando se cumple el requerimiento serial.


Parámetros de premios y castigos

Los instrumentos más sencillos para medir premios y castigos son la caja de Skinner con un único mando (por ejemplo una palanca), y el ‘corredor recto’, por donde el animal circula. Este último evalúa más el comportamiento en el espacio, y la caja de Skinner en el tiempo. Por ejemplo, el primero muestra cuánto se desplazó la rata, y la segunda cuánto tardó en apretar la palanca.

Se citan dos parámetros de premios o castigos: la tasa o cantidad de premio, y el retraso del premio.
Tasa o cantidad de premio: puede ser la mayor o menor cantidad de bolitas de comida, o también cuanto tiempo se lo deja comer una vez que se le dio la comida, o también variar la concentración de azúcar (cuanto más dulce, más premio).
Retraso del premio: la tasa de respuesta de la rata varía con el retraso del refuerzo positivo (bolas de comida) y del refuerzo negativo (reducción de la descarga). La rata deja de correr (o bien de pulsar la palanaca si está en la caja de Skinner) inmediatamente al principio pero luego en forma más gradual.



Huída (refuerzo negativo)


El experimento típico consiste aquí en darle a la rata un estímulo aversivo pero sólo hasta que el animal realiza cierta conducta (llamada entonces conducta de huída). Según la teoría de las necesidades, todo refuerzo es negativo: comer sería ‘huír’ del hambre, beber ‘huír’ de la sed, etc.
Sin embargo las conductas de animales sometidos a descargas (estímulo aversivo) es distinta al que actúa porque tiene hambre o sed, quizás porque el estímulo aversivo en la descarga es externo al organismo, y además no aparece gradualmente.
Una forma de estudiar esto es con la dosificación, donde se aumenta de a poco la intensidad del estímulo aversivo, y las respuestas del sujeto reducen la descarga cuando llegan a cierta cantidad.


Castigo

Es posible que el castigo no forme un condicionamiento instrumental. Con refuerzos positivos buscamos que el animal ‘haga’ algo, pero con el castigo tratamos de que ‘no haga’ algo. Sin embargo muchos investigadores dijeron que desde cierto punto de vista el castigo sí produce condicionamiento instrumental: el castigo dado independientemente de la respuesta del animal tiene algún efecto supresivo de la misma, pero no tanto como cuando depende de la respuesta. En la medida en que hay una diferencia entre los efectos de las respuestas producidas por castigo y las respuestas independientes del mismo, éste será una forma de condicionamiento instrumental.


Evitación


La evitación es una huída pero no del castigo sino de la situación donde este se presenta. Evitar la lluvia es huír, pero ir a un lugar donde no llueve es evitación. El problema es: qué condiciona al sujeto a correr? Huír de la lluvia o ir hacia donde no llueve?
La evitación fue estudiada con dos procedimientos: la evitación discriminativa (se avisa de antemano con un señal que vendrá el castigo), y evitación no-discriminativa (no se da una señal previa). En el primer caso, por ejemplo, se vio que ante la señal los perros pasaban rápidamente de la huída a la evitación, mientras que en otros el paso fue más gradual.
Extinción de la evitación: cuando se intenta extinguir la evitación dando siempre castigos (de forma que no los pueden evitar), las conductas evitativas se reducen más rápidamente. Pero resultados opuestos se consiguen si es retirado el castigo a ser evitado: aquí la conducta de evitación tarda más en desaparecer.


Práctica Condicionamiento Instrumental-Operante (1/2)

En 1898, el psicólogo americano Edgard Lee Thorndikle formuló su conocida “Ley del Efecto”, que nos dice que los organismos –animales y humanos- tienden a repetir los actos que van seguidos de recompensas y tienden a dejar de hacer aquéllos que van seguidos de castigos. Sobre dicha base se inauguró un nuevo campo de la psicología del aprendizaje: El condicionamiento Operante o Instrumental, del cual habla nuestra práctica.


Asimismo, el sistema de Skinner al completo está basado en el condicionamiento operante. Durante esta "operatividad", el organismo se encuentra con un determinado tipo de estímulos, llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de incrementar el operante (esto es; el comportamiento que ocurre inmediatamente después del reforzador). Esto es el condicionamiento operante: el comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia modifica la tendencia del organismo a repetir el comportamiento en el futuro.


En este caso, más que centrarnos en tan sólo un procedimiento y en su desarrollo, lo haremos en la ejemplificación con situaciones corrientes del día a día, de los diversos principios del aprendizaje incluidos en el condicionamiento instrumental:




Reforzamiento Positivo: El sujeto hace algo y recibe a cambio un premio.


En nuestro ejemplo, utilizaremos como sujeto S a un niño de 9 años de edad en plena fase escolar. Como instrumentos nos apoyaremos en el elemento X1, que es la realización de sus tareas académicas y del elemento X2, que es el permiso que él obtiene para ver la tele.


Cuando el sujeto S termina de hacer sus deberes, X1, le reforzamos positivamente con X2, permitirle ver la tele.


Resultado probable: La conducta queda reforzada. Al haberle estimulado positivamente, el sujeto S repetirá la conducta.




Reforzamiento Negativo: El sujeto hace algo para escapar o evitar algo desagradable.


En nuestro ejemplo, utilizaremos como sujeto S a un perro domesticado. Como instrumentos nos apoyaremos del elemento X1, que es caminar junto a su dueño y del elemento X2, que es recibir un tirón del collar que lleva atado en su cuello.


El procedimiento se basa en que en los paseos del sujeto S con su dueño, éste procura caminar junto a su dueño X1, para evitar recibir un tirón del collar à X2.


Resultado probable: La conducta queda reforzada. El perro se mantiene al lado del amo, y en un futuro repetirá esta conducta por no recibir el tirón.




Castigo Positivo: El sujeto hace algo y recibe algo desagradable.


En nuestro ejemplo, utilizaremos como sujeto S un niño de 2 años de edad. Como instrumentos nos apoyaremos de X1, que es la acción de jugar con los enchufes de la casa, y con X2, que es recriminarle dándole un golpe en la mano.


El procedimiento se basa en que cuando el sujeto S juegue con algún enchufe à X1, nosotros le recriminemos con X2, recriminarle con un golpe en la mano.


Resultado probable: La conducta queda debilitada. Durante un cierto tiempo, el sujeto S deje de jugar con los enchufes.




Castigo Negativo: El sujeto hace algo y por ello, pierde una recompensa.


En nuestro ejemplo, utilizaremos como sujeto S a un niño de 2 años de edad también. Como instrumentos nos apoyaremos de X1, que es la acción de portarse mal a la hora de la cena, y con X2, que es dejar de contar un cuento cuando se acueste a la cama.


El procedimiento se basa en que cuando el sujeto S haga X1, es decir, portarse mal en la cena, deja de recibir su

recompensa que era X2, contarle un cuento por la noche antes de dormir.


Resultado probable: La conducta queda debilitada. El niño no se volverá a portar mal si quiere recibir la recompensa.




Teoría del Condicionamiento Operante

Burrhus Frederic Skinner

Skinner creía en los patrones estímulo-respuesta de la conducta condicionada. Su historia tiene que ver con cambios observables de conducta ignorando la posibilidad de cualquier proceso que pudiera tener lugar en la mente de las personas. El libro de Skinner publicado en 1948, Walden Two, presenta una sociedad utópica basada en el condicionamiento operante.


El trabajo de Skinner difiere de sus predecesores (condicionamiento clásico), en que él estudió la conducta operatoria (conducta voluntaria usada en operaciones dentro del entorno).
El sistema de Skinner al completo está basado en el condicionamiento operante. Durante esta "operatividad", el organismo se encuentra con un determinado tipo de estímulos, llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de incrementar el operante (esto es; el comportamiento que ocurre inmediatamente después del reforzador). Esto es el condicionamiento operante: el comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia modifica la tendencia del organismo a repetir el comportamiento en el futuro."
Imagínese a una rata en una caja. Esta es una caja especial (llamada, de hecho, "la caja de Skinner") que tiene un pedal o barra en una pared que cuando se presiona, pone en marcha un mecanismo que libera una bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas hacen, cuando "sin querer" pisa la barra y ¡presto!, la bolita de comida cae en la caja. Lo operante es el comportamiento inmediatamente precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la rata se retira del pedal con sus bolitas de comida a una esquina de la caja.

Un comportamiento seguido de un estímulo reforzador provoca una probabilidad incrementada de ese comportamiento en el futuro.
¿Qué ocurre si no le volvemos a dar más bolitas a la rata? Aparentemente no es tonta y después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama extinción del condicionamiento operante.
Un comportamiento que ya no esté seguido de un estímulo reforzador provoca una probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro.
Ahora, si volvemos a poner en marcha la máquina de manera que el presionar la barra, la rata consiga el alimento de nuevo, el comportamiento de pisar el pedal surgirá de nuevo, mucho más rápidamente que al principio del experimento, cuando la rata tuvo que aprender el mismo por primera vez. Esto es porque la vuelta del reforzador toma lugar en un contexto histórico, retroactivándose hasta la primera vez que la rata fue reforzada al pisar el pedal.


Esquemas De Refuerzo



El refuerzo continuo es el escenario original: cada vez que la rata comete el comportamiento (como pisar el pedal), consigue una bolita de comida.
El programa de frecuencia fija fue el primero que descubrió Skinner: si, digamos, la rata pisa tres veces el pedal, consigue comida. Existe una frecuencia fija entre los comportamientos y los refuerzos. Es como una "tasa por pieza" en la producción industrial de ropa: cobras más mientras más camisetas hagas.
El programa de intervalo fijo utiliza un artilugio para medir el tiempo. Si la rata presiona el pedal por lo menos una vez en un período de tiempo particular (por ejemplo 20 segundos), entonces consigue una bolita de comida. Si falla en llevar a cabo esta acción, no consigue la bolita. Pero, ¡aunque pise 100 veces el pedal dentro de ese margen de tiempo, no conseguirá más de una bolita!. En el experimento pasa una cosa curiosa si la rata tiende a llevar el "paso": bajan la frecuencia de su comportamiento justo antes del refuerzo y aceleran la frecuencia cuando el tiempo está a punto de terminar.
Skinner también habló de los programas variables. Una frecuencia variable significa que podemos cambiar la "x" cada vez; primero presiona tres veces para conseguir una bolita, luego 10, luego 1, luego 7 y así sucesivamente. El intervalo variable significa que mantenemos cambiante ese período; primero 20 segundos, luego 5; luego 35 y así sucesivamente.
Siguiendo con el programa de intervalos variables, Skinner también observó en ambos casos que las ratas no mantenían más la frecuencia, ya que no podían establecer el "ritmo" por mucho tiempo más entre el comportamiento y la recompensa. Más interesantemente, estos programas eran muy resistentes a la extinción. Si nos detenemos a pensarlo, verdaderamente tiene sentido. Si no hemos recibido una recompensa por un tiempo, bueno, es muy probable que estemos en un intervalo o tasa "errónea"…¡sólo una vez más sobre el pedal; Quizás ésta sea la definitiva!.
De acuerdo con Skinner, este es el mecanismo del juego. Quizás no ganemos con demasiada frecuencia, pero nunca sabemos cuando ganaremos otra vez. Puede que sea la inmediatamente siguiente, y si no lanzamos los dados o jugamos otra mano o apostamos a ese número concreto, ¡perderemos el premio del siglo!.


Modelado


Básicamente, consiste en primer lugar en reforzar un comportamiento solo vagamente similar al deseado. Una vez que está establecido, buscamos otras variaciones que aparecen como muy cercanas a lo que queremos y así sucesivamente hasta lograr que el animal muestre un comportamiento que nunca se habría dado en la vida ordinaria. Skinner y sus estudiantes han tenido bastante éxito en enseñar a animales a hacer algunas cosas extraordinarias.

La modificación de conducta (usualmente conocida en inglés como mod-b) es la técnica terapéutica basada en el trabajo de Skinner. Es muy directa: extinguir un comportamiento indeseable (a partir de remover el refuerzo) y sustituirlo por un comportamiento deseable por un refuerzo. Ha sido utilizada en toda clase de problemas psicológicos (adicciones, neurosis, timidez, autismo e incluso esquizofrenia) y es particularmente útil en niños.

En el condicionamiento operatorio el aprendiz "opera" en el entorno y recibe una recompensa por determinada conducta (operaciones). Eventualmente se establece la relación entre la operación (accionar una palanca) y el estímulo de recompensa (alimento).

Mecanismo de condicionamiento operatorio de skinner


• El refuerzo positivo o recompensa: Las respuestas que son recompensadas tienen alta probabilidad de repetirse (Buen grado de refuerzo y cuidadoso estudio).

• El refuerzo negativo: Respuestas que reflejan actitudes de escape al dolor o de situaciones no deseables tienen alta probabilidad de repetirse (han sido excluidas del escrito un final debido a un buen trabajo terminal).
• Extinción o ausencia de refuerzo: Respuestas que no son reforzadas son poco probable que se repitan (Ignorando las conductas errores del estudiante la conducta esperada debe de extinguirse).
• Castigo: Respuestas que son castigadas de consecuencias no deseables cambian (Un castigo retardado a un estudiante, mediante el retiro de privilegios podría no tener efecto).



Práctica Condicionamiento Instrumental-Operante (2/2)

En esta segunda parte de la práctica trataremos los dos principios de aprendizaje operante que tienen su origen en Skinner: La extinción y el moldeamiento.



Para Skinner, la explicación que da sobre la extinción está en cuando un comportamiento que ya no está seguido de un estímulo reforzador provoca una probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro.



Extinción:
El sujeto deja de recibir las recompensas que normalmente mantenían su conducta.


En nuestro ejemplo, utilizaremos al sujeto S que es un niño de 10 años de edad y que se encuentra en su ambiente escolar, con sus compañeros y profesor en clase.
Utilizaremos como instrumentos a X1, que es el realizar constantes llamadas de atención por parte de S, y X2, que es dejar de prestar atención por parte de los integrantes de la clase.

El procedimiento está en que el sujeto S siempre llama la atención con tonterías en su clase, X1, y recibe una recompensa a su conducta que es que sus compañeros se rían y su profesor le riña, dándole así mayor “status social” entre los integrantes de su grupo de amigos. Pongamos el supuesto que un día, todos se ponen de acuerdo para dejar de prestarle atención, X2, ¿qué pasaría?

Resultado probable: La conducta desaparece progresiva pero definitivamente. El sujeto S cada vez hará menos payasadas porque recibe menos recompensas, hasta que llegue un punto que no haga.





Para Skinner, el modelado consiste en básicamente, consiste en primer lugar en reforzar un comportamiento solo vagamente similar al deseado. Una vez que está establecido, buscamos otras variaciones que aparecen como muy cercanas a lo que queremos y así sucesivamente hasta lograr que el sujeto muestre un comportamiento que nunca se habría dado en la vida ordinaria



Modelado:


En nuestro ejemplo, utilizaremos al sujeto S que es una niña de 9 años que tiene miedo a los toboganes de los parques infantiles.


El procedimiento recae en varios pasos o etapas. La primera es situar a la niña en el extremo inferior del tobogán, casi a 40 centímetros del suelo, y pedirle que salte. El sujeto S lo hace. El siguiente paso es situar a la niña un metro más arriba en el tobogán y pedirle que se deje deslizar. El sujeto S lo hace. Así sucesivamente (y tras el tiempo necesario para que el sujeto S supere todas las pruebas) hasta que nuestro sujeto S llega a lo más alto del tobogán.

Resultado probable: Su miedo desaparecerá y conseguiremos el comportamiento deseado. Hemos modelado la conducta de nuestro sujeto mediante refuerzos que nos aproximan cada vez más al comportamiento deseado.

Teoría del Aprendizaje No Asociativo u Observacional


ALBERT BANDURA


Albert Bandura (n. en Mundare, Canadá, 4 de diciembre de 1925) es un psicólogo ucraniano-canadiense de tendencia conductual-cognitiva, famoso por su trabajo sobre la teoría de aprendizaje social y su evolución al Sociocognitivismo, así como por la postulación de la categoría de autoeficacia. Se lo conoce particularmente por el experimento del muñeco Bobo sobre el comportamiento agresivo de los niños.


Teoría

Bandura sugirió que el ambiente causa el comportamiento; cierto, pero que el comportamiento causa el ambiente también. Definió este concepto con el nombre de determinismo recíproco: el mundo y el comportamiento de una persona se causan mutuamente.

Más tarde, fue un paso más allá. Empezó a considerar a la personalidad como una interacción entre tres “cosas”: el ambiente, el comportamiento y los procesos psicológicos de la persona. Estos procesos consisten en nuestra habilidad para abrigar imágenes en nuestra mente y en el lenguaje. Desde el momento en que introduce la imaginación en particular, deja de ser un conductista estricto y empieza a acercarse a los cognocivistas. De hecho, usualmente es considerado el padre del movimiento cognitivo.



Aprendizaje por la observación o modelado

De los cientos de estudios de Bandura, un grupo se alza por encima de los demás, los estudios del Muñeco Bobo. Lo hizo a partir de una película de uno de sus estudiantes, donde una joven estudiante sólo pegaba a un muñeco bobo. En caso de que no lo sepan, un muñeco bobo es una criatura hinchable en forma de huevo con cierto peso en su base que hace que se tambalee cuando le pegamos.

La joven pegaba al muñeco, gritando ¡“estúpido”! Le pegaba, se sentaba encima de él, le daba con un martillo y demás acciones gritando varias frases agresivas. Bandura les enseñó la película a un grupo de niños de guardería que, como podrán suponer ustedes, saltaron de alegría al verla. Posteriormente se les dejó jugar. En el salón de juegos, por supuesto, había varios observadores con bolígrafos y carpetas, un muñeco bobo nuevo y algunos pequeños martillos. Los observadores anotaron: un gran coro de niños golpeando a descaro al muñeco bobo. Le pegaban gritando ¡”estúpidooooo!”, se sentaron sobre él, le pegaron con martillos y demás. En otras palabras, imitaron a la joven de la película y de una manera bastante precisa.

Esto podría parecer un experimento con poco de aportación en principio, pero consideremos un momento: estos niños cambiaron su comportamiento sin que hubiese inicialmente un refuerzo dirigido a explotar dicho comportamiento. Y aunque esto no parezca extraordinario para cualquier padre, maestro o un observador casual de niños, no encajaba muy bien con las teorías de aprendizaje conductuales estándares. Bandura llamó al fenómeno aprendizaje por la observación o modelado, y su teoría usualmente se conoce como la teoría social del aprendizaje.

Bandura llevó a cabo un largo número de variaciones sobre el estudio en cuestión: el modelo era recompensado o castigado de diversas formas de diferentes maneras; los niños eran recompensados por sus imitaciones; el modelo se cambiaba por otro menos atractivo o menos prestigioso y así sucesivamente. En respuesta a la crítica de que el muñeco bobo estaba hecho para ser “pegado”, Bandura incluso rodó una película donde una chica pegaba a un payaso de verdad. Cuando los niños fueron conducidos al otro cuarto de juegos, encontraron lo que andaban buscando…¡un payaso real!. Procedieron a darle patadas, golpearle, darle con un martillo, etc.

Todas estas variantes permitieron a Bandura a establecer que existen ciertos pasos envueltos en el proceso de modelado:

1. Atención. Si vas a aprender algo, necesitas estar prestando atención. De la misma manera, todo aquello que suponga un freno a la atención, resultará en un detrimento del aprendizaje, incluyendo el aprendizaje por observación.

2. Retención. Segundo, debemos ser capaces de retener (recordar) aquello a lo que le hemos prestado atención. Aquí es donde la imaginación y el lenguaje entran en juego: guardamos lo que hemos visto hacer al modelo en forma de imágenes mentales o descripciones verbales. Una vez “archivados”, podemos hacer resurgir la imagen o descripción de manera que podamos reproducirlas con nuestro propio comportamiento.

3. Reproducción. En este punto, debemos traducir las imágenes o descripciones al comportamiento actual. Por tanto, lo primero de lo que debemos ser capaces es de reproducir el comportamiento.
Otra cuestión importante con respecto a la reproducción es que nuestra habilidad para imitar mejora con la práctica de los comportamientos envueltos en la tarea.

4. Motivación. Aún con todo esto, todavía no haremos nada a menos que estemos motivados a imitar; es decir, a menos que tengamos buenas razones para hacerlo. Bandura menciona un número de motivos:

1. Refuerzo pasado, como el conductismo tradicional o clásico.

b. Refuerzos prometidos, (incentivos) que podamos imaginar.

c. Refuerzo vicario, la posibilidad de percibir y recuperar el modelo como reforzador.


Bandura nos dice que éstos no son tan causantes como muestras de lo que hemos aprendido. Es decir, él los considera más como motivos.

Por supuesto que las motivaciones negativas también existen, dándonos motivos para no imitar:

a. Castigo pasado.

b. Castigo prometido (amenazas)

c. Castigo vicario.


Como la mayoría de los conductistas clásicos, Bandura dice que el castigo en sus diferentes formas no funciona tan bien como el refuerzo y, de hecho, tiene la tendencia a volverse contra nosotros.