...con el momento dado, con el libro delante, con los resúmenes, etc. Súper interesante. Pero, sin duda, qué buena cabeza... Hola, buenas tardes, buenas tardes. Soy un solete, soy dos soletes. Mi perro también es un solete y está ahí. Pues vamos, vamos a dejarnos de tonterías. Psicología del aprendizaje... Vale, psicología del aprendizaje, estamos a medio tema. Vamos a ver, programas compuestos de reforzamiento, hay alternantes, mixtos, múltiples y secuenciales, uno detrás del otro. Eran tándem y encadenados. Ojo, los encadenados los vamos a utilizar luego, cuando veamos la impulsividad. Pero aquí nosotros vamos a ver, sobre todo, en la conducta de elección, los programas concurrentes. El sujeto va a tener... ¿Por qué? ¿Por qué es bueno utilizar programas concurrentes? Porque en la mayoría de las situaciones de la vida... Vale, desconcéntrame más. Vale, vale, vale. Luego ponemos un minuto y sueltas ahí todo lo que quieras. En las situaciones de la vida, normalmente siempre tenemos que elegir entre dos programas concurrentes. ¿Qué hago? ¿Voy al cine o me quedo viendo Netflix? ¿Qué hago? ¿Me quedo en el sofá o friego los calzones? ¿Qué hago? O sea, quiero decir, esa situación de la vida donde hay un programa concurrente a la vez que otro es la que nosotros vamos a utilizar en la conducta de elección. Es la que nosotros utilizamos para ver cómo los sujetos reparten. O sea, qué conducta eligen hacer. La ley de igualdación. Por esto ya lo vimos el otro día, lo repasáis. No tiene mucho. Entonces, es el programa concurrente que me sirve para estudiar qué conducta eligen los sujetos. En los programas concurrentes, bueno, eligen entre... Dará respuestas instrumentales concurrentes. Lo que nosotros vamos a hacer, lo que hizo Einstein para investigar, para sacar esta ley de igualdación, utilizar un programa concurrente. Tenemos... Un programa de razón fija 5 en el A y un programa de razón variable 8 en el B. Tenemos dos programas con una diferente tasa de reforzamiento, frecuencia de reforzamiento. Se dieron cuenta que las palomas... Claro, los sujetos experimentales eran palomas. Pues bien, veían que las palomas distribuían su respuesta en función de la frecuencia de reforzamiento que encontraban en esa alternativa A. Y Einstein llamó a esto ley de igualación. Es decir, significa que las respuestas que dan los sujetos, la respuesta relativa es igual a la frecuencia de reforzador que reciben en cada una de las respuestas. Ahora lo tenéis, ¿no? Es elegir o tener preferencia Es decir, tener preferencia, preferir entre dos alternativas de respuesta, ¿no? A ver, ¿me oyen? ¿Me oyen bien? Yo no veo ni oigo nada. ¿Me oyen bien? ¿No ves nada? ¿Por qué no ves nada? El resto sí lo ve. Resetea tu ordenador. De todas maneras, quedará grabado, ¿vale? Y colgado en el... En el ángulo. Se oye y se ve bien. Bueno, pues entonces... El problema de esa persona es que algo pasa con su ordenador. Por lo tanto, la ley de igualación es que se igualan las respuestas, las R, respuestas relativas, porque la respuesta que ha dado el sujeto en A partido por todas es una frecuencia relativa. Las respuestas en A más las respuestas en B. Es igual a las F, reforzadores, frecuencia de reforzamiento en A partido por la frecuencia de reforzamiento en A más la en B. Pues bien. Eso es importante. Eso es la ley de igualación. Los sujetos igualan sus respuestas a los reforzadores que van a obtener en alternativas, o sea, en programas concurrentes, ¿no? Las tasas relativas de respuesta se igualan con las tasas relativas de reforzamiento. Si es... La razón, esa división... La razón es una división entre A y partido... Partido por A más B. Pues yo sí estoy conectado. Aquí me veo, perdona, Muñoz. Es eso, ¿no? Es que igual no me conoce como ponente. Yo soy angelito de aprendizaje. Bueno, vamos a eso. No nos despiste. Es que eso de ponente, de ponente imponente a mí me pone mucho, ¿no? Yo soy un ponentillo. Ponentillo. Vale. Ley de igualación. Que no me estoy concentrando, coño. La ley de igualación dice eso. De las respuestas que da un plafaloma en A es igual a los reforzadores que obtiene. Respuestas relativas. Se dio cuenta de esto, Einstein, variando la frecuencia de reforzamiento asociada a A o B en programas de intervalo variable. ¿Les dije? Antes de razón. Es de intervalo variable. En A tenemos intervalo variable de 15 segundos. En B tenemos intervalo variable de 30 segundos. Sabéis que variable es alrededor de una media, ¿no? Vale. Pues bien. Y la ley de igualación. Relación entre tasa de respuesta y tasa de reforzamiento. R, respuestas. F, reforzadores. Y se igualan. Dice que las palomas y las ratas son... Son súper inteligentes y saben en qué alternativa pueden obtener más reforzadores. Pero bueno, ya veremos que luego la cosa se complica, ¿no? Porque además de igualar la tasa relativa de respuesta con la tasa relativa del reforzamiento, se observó que los animales igualaban la tasa relativa de respuesta con otros parámetros, como decir, como que define el reforzador, como de grandes. Son los reforzadores. Como de inmediato le damos el reforzado. Por lo tanto, hicieron esta fórmula más ampliada, donde es las primeras dos igualdades. La ley de igualación. R, después la F, frecuencia de reforzadores. La M, magnitud del reforzador. Y la última cuando 1 partido por demora. ¿Vale? Las demoras al entregar el reforzador. En el caso de la demora... El reforzador es la inversa. La demora es la inversa. O sea, no facilita, sino que perjudica, ¿no? Pues los reforzadores, cuanto más inmediato, son más preferidos. Cuanto más demorados, menos lo prefieren los sujetos. Lo esencial de la ley de igualación es que establece igualdad de tasa relativa de respuesta y tasa relativa de reforzamiento. Digo relativa. No son tasas absolutas. A las 50 respuestas, no. La tasa relativa... La tasa relativa consiste en dividir la parte por el todo. En este caso, la alternativa A, respuestas en A, por todas las que ha dado en A, más las que ha dado en B. Es una frecuencia relativa de análisis de datos. Para que, si no lo habéis hecho, a los que lo vayan a hacer. Pues bien, solo se equiparan tasas relativas. No se equiparan tasas absolutas. Pues bien, luego se dan una serie de fenómenos. Maximización. Es decir, ah, encontraron esto. Y cuando... Aquí utilizábamos programas de intervalos, sí. Pero cuando utilizaban programas de razón, encontraron que, variando el programa de reforzamiento, asociado a cada una alternativa de respuesta, los sujetos tendían a elegir la alternativa de respuesta que tenía una razón más baja. Es decir, que le pedíamos menos respuesta. Y lo llamaron maximización. Es decir, si A tiene un programa de razón fija 5 y B tiene un programa de razón variable 30. Pues el sujeto se quedaba en A porque tenía una razón más baja. Le daba... Cada cinco respuestas le daba la razón en una división. Obtenía más reforzadores en A. Pues se quedaba en A. Y no daba ninguna... No daba ninguna... Elegía exclusivamente. Alternativa más favorable. Y dice que esto no contradice la ley de igualación. Y es el único comportamiento con un programa de razón concurrente que cumple con la ley de igualación. Siguiente. Vamos a seguir con la ley de igualación porque esta sufrió transformaciones. Hemos dicho que también se producía una igualación temporal. Es decir, el sujeto se quedaba más tiempo en la alternativa A que más reforzadores obtenía con respecto a B. ¿Vale? Igualan el tiempo de estancia también en la... Por lo tanto, la medida de preferencia fue el tiempo de permanecer delante de un programa de reforzamiento. Por lo tanto, si está más tiempo delante del programa A es que prefiere el programa A. Solo lo puede preferir porque le da más reforzadores en A. Obtenemos más reforzadores en A. Vale. Pues bien. Esa igualación temporal. Es un... Se ha hallado en los experimentos de elección con procedimientos concurrentes normales. Y encontraron que los sujetos, además de igualar la tasa de reforzamiento con la tasa de respuesta, igualaban el tiempo de permanencia en una alternativa A o en una alternativa B. Se puede formalizar el A así. No por respuesta, sino por tiempo. Tiempo en A, tiempo relativo en A, tiempo en A más tiempo en B. Es igual a F, a reforzadores. Pues bien. Dijeron. Otra. Encontraron que las palomas, que son muy pícaras, pues cuando tienen que elegir entre dos o más alternativas de respuesta, lo que hacen es un comportamiento de alternancia. Es decir, si recibo de aquí un reforzador, inmediatamente cambio a la otra a ver si también me da un reforzador. Sin que guarde... Sin que esas respuestas guarden relación con los reforzadores asociados. Son curiosas. Y dicen, pues a ver si de aquí me sacó o picoteó algo. Pues bien. Este reforzamiento, o sea, está en el laboratorio. No hay, no existe este reforzamiento accidental que refuerza el comportamiento natural en situaciones de vida en libertad de las palomas. Las palomas picotean aquí y allá. No están pensando en un procedimiento. No están pensando en un programa de condicionamiento operante, ¿no? Y dijeron los investigadores, pues en el laboratorio tenemos que controlar esta influencia extraña que está en el comportamiento de alternancia de las palomas, de los animales experimentales. ¿Para qué queremos...? Pues para que no cambien de alternativa, vamos a hacer demora por el cambio. Vamos a introducir un procedimiento de... Después de la primera respuesta a una de las alternativas, habrá tres segundos donde ese programa no entre en funcionamiento. Para que suprimir esta alternancia de las palomas. Pues bien. Luego hicieron... También había otras influencias que no querían para las palomas, ¿no? El color de donde tenían que picotear, la fuerza, etcétera, ¿no? Entonces Baum, que es nuestro autor preferido, que le gusta hacer leyes, por su modo formuló la ley generalizada de la igualación. ¿Por qué? Porque además de que la frecuencia de reforzamiento y la tasa de respuesta se iguala también a un factor multiplicativo, que es la tasa de reforzamiento y los sesgos relativos. La S, ¿veis? En la fórmula sesgo. O sea, en la segunda parte de la fórmula. En la fórmula F, reforzadores en A, multiplicado por los sesgos en A, porque igual es rojo, igual es verde, etcétera. Los colores, ¿no? Los sesgos en las alternativas A y B. Bien. Tengo ganas de llegar ya a las leyes, a las teorías, ¿vale? Ya estamos llegando, ¿vale? Pues creó esta ley generalizada de la igualación, ¿no? Y bueno, creó un método para corregir los sesgos o las fuentes de influencia desconocida, ¿vale? Las palomas dan un trabajo en el laboratorio que, pues, no veas cómo ahí vengan a picotear su rollo, ¿no? Pues no. Y el BAUM lo quería, quería leyes para todo, ¿no? Pues bueno, esto es método para corregir la influencia de los sesgos. Se equiparan los factores de reforzamiento, se miden las preferencias y se varían los factores de reforzamiento asociados. No es importante. Muy bien. También ocurría, esto es lo que viene a continuación, que esos sesgos, pues, inciden en lo que elige el sujeto. Hay que corregirlo y evitarlo porque hacía que la ley de igualación se tambaleara un poco, no fuera tan igual de eso, ¿no? Porque decían, bueno, a veces la alternativa es sobrevalorada o infravalorada, ¿no? ¿Por qué? Porque encontraron que si tenemos ahora la paloma, que entre dos alternativas de respuesta igualmente favorables prefiere una más que otra, esta desviación de la ley de igualación se puede deber a sesgos de respuesta y no a sobreigualación o infraigualación. Pues bien, ¿qué es esa sobreigualación? Y el sesgo, ya hemos dicho que... Distinto de la sobreigualación y la infraigualación. Vemos que veían que las palomas a veces sobrevaloraban, daban más respuestas a la mejor alternativa o infravaloraban, es decir, daban menos respuestas a la mejor alternativa de respuesta. Que sobreigualación es cuando el sujeto valora, la mejor alternativa de respuesta es valorada por encima de lo que dice la ley de igualación. Y la infraigualación es al contrario, la mejor alternativa de respuesta es valorada por debajo de lo que establece la igualación perfecta. Es más común en palomas, supongo, la infraigualación. ¿Por qué? Porque las palomas tienen tendencia a picotear en todos los sitios. Cambian de alternativa cuando se ha obtenido el reforzamiento de una, lo que disminuye el ajuste. Aunque le pusiera esa demora por el cambio que vimos hace un momento. Es más común la infraigualación. Por lo tanto, ¿qué hablamos? ¿Qué decimos cuando hablamos de infraigualación y sobreigualación? Hablamos de tasa de respuesta en la mejor alternativa, en la alternativa que le ofrece más reforzadores. Por lo tanto, vamos a tener implícito que las dos alternativas, una de ellas es más favorable. Por lo tanto, la ley de igualación hace predicciones de preferencias relativas de los sujetos. ¿No? Y los sesgos también intervienen. Facilitan la sobreigualación o la infraigualación, los sesgos. Pues bien. Baum continuó trabajando con esta ley generalizada de la igualación. Venga, darle a la ley de la igualación. ¡Bum! Pues amplió la ley de igualación de Einstein para incorporar estas desviaciones de la de la infraigualación y la sobreigualación. Y encontró que tuvo que rehacer la fórmula. Respuestas en A partido por B es igual a K, que es una constante que ya incluye los sesgos relativos de respuesta, y luego, entre paréntesis, los reforzadores, las Fs en A y las Fs partido por las Fs en B, y esto elevado a S. Sí. Sensibilidad. Esa sensibilidad hacia los programas de reforzamiento, según Baum, es cuando K y S valen 1, quedamos con la misma ecuación, la ley de igualación, no la ley generalizada de igualación. Cuando S es mayor de 1, hay sobreigualación. Cuando S es inferior a 1, hay infraigualación. Pues bien. Esta es la ley generalizada de la igualación. Vamos a ver teorías de la igualación. Teorías de la igualación, vamos a ver tres. Maximización molecular. La segunda, maximización molar. Y la tercera, el mejoramiento. ¿Qué es una teoría? Una teoría que intenta explicar por qué el sujeto responde de una determinada manera. Porque el sujeto iguala sus respuestas a los reforzadores obtenidos. Pues bien. La teoría de maximización molecular. Y dice que la paloma lo que hace cuando cambia de una alternativa de respuesta a otra, lo realiza momentáneamente para que esa probabilidad de reforzamiento aumente. Molecular. Que explica los programas concurrentes de intervalo. Es decir, puede que haya pasado el tiempo y si picotea una vez le caiga una bolita de comida porque los programas de intervalo no tienen que dar un número de respuestas como en los de razón, sino que dando una vez, una vez finalizado el intervalo, cae la respuesta. Es decir, que el sujeto responde de una determinada manera. Otra teoría. La teoría de maximización molar dice que los sujetos distribuyen sus respuestas y hacen un cálculo global. Yo veo ahí a la paloma diciendo hoy voy a hacer maximización molar porque hace un cálculo global de las tasas relativas de reforzamiento entre dos alternativas de respuesta y elige a más la alternativa que le proporciona una mayor tasa global de reforzamiento. Y esto es lo que pasa. No explica los programas concurrentes de razón. Claro, en la de razón tiene que dar número de respuestas. Dice ella, dice yo me quiero llevar un saco de reforzadores de tres kilos. Bueno, hace un cálculo global. Pero tienen problemas estas teorías porque no pueden explicar la conducta de elección con los programas de razón variable, con los de intervalo variable. También no puede explicar por qué los sujetos, las palomas, prefieren reforzadores variables a fijos. Aunque la tasa de reforzamiento sea igual. Había cosas que estas teorías no. Y dijeron, vino uno simpático y dijo, ya lo tenemos. Hacemos una síntesis de la aproximación molecular y la molar. La llamamos la teoría del mejoramiento. Bueno. Pues, ¿qué hacen los sujetos cuando cambian de la mejor alternativa de respuesta a la otra? Mejorar. Lo que quieren es... Mejorar su tasa local de reforzamiento. Y eligen la alternativa que en cada momento presenta mayor tasa local de reforzamiento. Pues bien. Por lo tanto, los resultados tienen un alcance a mayor largo plazo que la teoría molecular. Que no habla de tasas globales como la teoría molar, ¿no? Porque al obtener mayor tasa de reforzamiento, el sujeto, la paloma, se mantiene más tiempo con la misma alternativa. La alternativa de respuesta, ¿no? Y también está... Respecto a esta teoría está que el sujeto iguala temporalmente. Es decir, se queda más tiempo delante de la alternativa que más reforzadores obtiene, ¿no? Al elegir la alternativa que le da mejor reforzamiento, darán más tasa de respuesta. Y obtienen más tasa de reforzamiento. Y permanecen más tiempo. Y responden menos a la alternativa menos favorable. Obtienen menos reforzadores. Y también permanecen menos tiempo en esa alternativa. ¿Vale? Por eso, este mejoramiento está relacionado con lo del tiempo. Lo de permanecer un tiempo en la alternativa de respuesta, ¿no? Bueno. Vamos a ver impulsividad y autocontrol. Ya cambiamos. De esto ya entramos luego a las teorías. Muy bien. ¿Cómo estudiamos la impulsividad o la elección con compromiso? Con autocontrol. Cuando utilizaron programas concurrentes simples, por lo del sujeto, la paloma o quien sea, se le da a elegir entre dos alternativas de respuesta, cada una con un programa de reforzamiento particular. Y había otro programa, del programa concurrente, pero encadenado. El concurrente simple es que puede picar a A o puede picar a B. Por el programa concurrente encadenado, el sujeto elige... ¿Cuál de los programas simples funcionará? Y una vez que entra, imagínate que entra por el B, el A ya no queda disponible. Tiene que seguir presionando en B y se le lleva a otro programa. Vale. Pues con esto estudiaron la impulsividad y el autocontrol. Las cadenas concurrentes miden elección entre diferentes fuentes de premio. Cuando utilizamos un programa concurrente encadenado, utilizamos... Procedimiento de reforzamiento complejo, en el que primero le pedimos al sujeto que elija entre dos programas simples, varios programas simples. Una vez que elige, el otro programa ya no funciona, ya no está disponible durante un tiempo. Por lo tanto, tenemos dos fases. Un inicio inicial que elige, sujeto elige, y un eslabón terminal donde le vamos a dar el reforzador por responder. En esa alternativa de respuesta... Respuesta elegida durante el eslabón inicial. Luego le volvemos a presentar otra vez a la paloma el eslabón inicial hasta que el sujeto elige otra alternativa que le lleva al eslabón final, ¿no? ¿Qué permiten estos programas concurrentes encadenados? Que el sujeto sea consecuente con su decisión. Que sepa... Y que sepa... Separe el aprendizaje de los eslabones... Los eslabones iniciales de los eslabones finales. Vamos haciendo a la paloma, que va a ser catedrática. La ponemos de directora de la UNED. Pues bien, estos programas se asemejan a la vida cotidiana, donde tenemos que optar por una alternativa que compromete por un tiempo hasta que puedas cambiar de opción. Pero no podemos cambiar de forma caprichosa. Por ejemplo, cuando te has matriculado en número de asignaturas a medio curso... Te das cuenta que eran muchas, pero no puedes cambiar porque has adquirido un compromiso de permanencia. Bueno, eso es para que tengas autocontrol. Pues bien, Rache y Negrín hicieron un trabajo que ilustra esta implicación de utilizar un programa concurrente simple o un concurrente encadenado. Porque le daban a elegir a la paloma entre una opción que implicaba una recompensa pequeña, pero inmediata. Y otra... Que implicaba una recompensa mayor, demorada. Pues bien, con el programa concurrente simple, la elección era directa. La paloma prefería la opción que le llevaba al premio pequeño e inmediato. Aunque esa opción no era la más ventajosa. Era mejor esperar y obtener un premio mayor. Muy bien. Sin embargo, cuando utilizaron Rache y Negrín, el programa concurrente encadenado, y además introdujeron un tiempo constante de espera, para poder acceder a la oportunidad de las respuestas de reforzamiento, ya introducían un eslabón inicial, cambiaron las preferencias. Ahora las palomas preferían la alternativa que le llevaba al reforzador mayor, pero más demorado. Es decir, ya la paloma decía, ya de puestos a esperar, como tiene un tiempo constante de espera, el sujeto prefería el autocontrol. Prefería esperar y... y recargar al reforzador mayor, y demorando, ¿no? Al introducir una pequeña demora entre la elección y la respuesta reforzada, la fuerza de la inmediatez del reforzador se debilitó. Y la elección siguió más por la magnitud del reforzador. Ya que tengo que esperar, pues espero y recibo más premio. Por lo tanto, demorar un poco la entrega del reforzador pequeño hace que su fuerza se debilite, y que el sujeto prefiera esperar a uno de mayor magnitud. Entonces, la impulsividad sabemos que es el niño que quiere... Lo estudiamos con un programa concurrente simple. Estas son sus alternativas. ¡Ahora, ahora, ahora! Mira que la otra es más grande. ¡No, no, no! Yo dame la hora, que me la como ahora. Autocontrol. Un programa concurrente encadenado es la preferencia por una recompensa mayor demorada. Mira que si sabes esperar, luego te voy a regalar... No sé qué. Vale, pues si le ponemos... Si introducimos un tiempo entre los reforzadores es seguro que el sujeto sabe esperar, si aprende a esperar para recibir el reforzador mayor demorado. Pasemos a otro punto. La noción... ¿Qué valor tiene el reforzador? El valor de un reforzador aumenta con la magnitud del reforzador, es más grande, y disminuye con la demora. Por lo tanto, el valor del reforzador viene determinado por el cociente, la razón entre la magnitud y la demora. Cuando un reforzador grande y otro pequeño son demorados, el valor del reforzador grande es superior al pequeño. Manifiesta autocontrol. Y el valor del reforzador pequeño será mayor que el del grande cuando hay que esperar poco, cuando la espera para el... un reforzador pequeño sea poca, impulsiva. Hay otro que quería hacer otra fórmula estupenda para explicar todo esto, es Mazur. Habla de una fórmula para expresar el cambio, el valor del reforzador en A. El cambio de un comportamiento impulsivo a un autocontrolado. Pues bien... ¿Qué dice esa fórmula? Es una función hiperbólica. ¡Guau! Cuando incrementamos la demora de las recompensas grandes y pequeñas, hace que el sujeto muestre autocontrol porque aumenta el valor de la recompensa grande. La fórmula dice VA, valor del reforzador en A, es igual a M en A, magnitud del reforzador en A, partido por 1 más K multiplicado por la demora, 1K es una constante, la demora del reforzador en A. Entonces, decíamos que Einstein amplió la ley de igualación. ¿Por qué? Porque implicaba, decía, cualquier situación implica una elección. El sujeto tiene que elegir. Puede elegir entre responder, ir al cine o verlo en Netflix. Responder o no. Responder como quiere el experimentador, sobre todo las palomas, o picotear donde la gana, como hace la paloma. Por lo tanto, dijo Einstein, el reforzamiento total de la situación comprende reforzadores programados o no reprogramados. Además decía que la tasa de conducta total implica, es decir, los organismos, los sujetos, los organismos, las palomas, los ponentes, todos, siempre estamos haciendo algo, aunque sea descansar. Por tanto, tenemos la suma de la tasa de respuesta a criterio más cualquier otra actividad, siempre, siempre que tiene que ser igual. R en A partido por RA más RB es igual a F en A más... Pues bien. Y una forma de aumentar la tasa de respuesta sería aumentar la tasa de reforzamiento que está asociada a esa conducta y otra sería disminuir la tasa de reforzamiento alternativa. Vamos a ver las teorías. ¿Qué aprende? Naturaleza de la asociación. ¿Qué asocia? Teorías del aprendizaje instrumental. Las teorías sensacionistas, las teorías estímulo-respuesta de Tordike, la teoría que hizo la Ley del Efecto. ¿Vale? Respuestas que van seguidas de satisfacción pues vuelven a ocurrir. Las respuestas que van acompañadas de malestar ocurren menos. Jan Hull entró... No, Hull este... No. Hull un neoconductista porque se le ocurrió meter cosas que no eran observables como el impulso, el incentivo. Pues Hull creó la fórmula y creo que la veremos un poco más adelante donde dice que E, la ejecución conductual, estímulo-respuesta es igual a H, el hábito El sujeto tiene... ¿Lo ha hecho otras veces? Multiplicado por D, el impulso, el drive y multiplicado por el incentivo. Quiero que sepáis que en matemáticas si tenemos una igualdad que va seguida por tres multiplicaciones si una de ellas es cero el resultado es cero. O sea, si no tiene hábito por mucho impulso que tenga y mucho incentivo que le represente yo siempre lo digo. Ejemplo de ejecución conductual El ponente Angelito hará puenti No tengo el hábito por lo tanto aunque tuviera impulso y aunque tuviera incentivo pero imaginaros que ya lo he hecho Tengo un hábito lo calculamos como cero que lo he hecho dos veces 0,2 multiplicado por el impulso que tengo Ay, sí, me apetece porque la adrenalina Vale, tengo impulso para hacerlo y me incentiva y eso también vale pues sí, será positivo Pero si uno de los elementos de una ecuación donde todos los valores se multiplican si uno de ellos es cero el resultado final es cero. Vale, esto es de las teorías estímulo-respuesta Las teorías estímulo-estímulo De Tolman otro neoconductista porque este metía expectativa de recompensa etcétera Bueno, pues dice que los reforzadores no actúan sobre la asociación estímulo-respuesta sino que la conducta está mediada por cosas internas del sujeto expectativa de recompensa Bueno el aprendizaje latente de Tolman etcétera Estas son teorías sobre la asociación estímulo-respuesta Aquí lo tenemos un poco más detalladas que son las mismas Muy bien Hull decía que conseguir el reforzador que la paloma obtenga una bolita de comida un grano de comida refuerza esa formación de la asociación estímulo-respuesta introduce el concepto de motivación etcétera y lo reduce a esta fórmula La ejecución conductual la E primera es igual a la H la fuerza del hábito que tenga del nivel de impulso que tenga el drive y el del valor en el incentivo pero es una ecuación multiplicativa si alguno de esos es cero no tiene impulso pues no lo hace no tiene hábito pues no lo hace no tiene incentivo no lo hace Y Tolman es un defensor del esquema estímulo-estímulo es contrario a estímulo-respuesta Estímulo-estímulo era os acordáis del condicionamiento clásico eso es esquema estímulo-estímulo y bueno distinguía entre aprendizaje y ejecución y decía los sujetos pueden hacer algo pueden aprender una tarea pero no hace falta que la ejecuten inmediatamente eso sería como tener aprendizaje latente porque cuando ocurre pues cuando hacemos al sujeto recorrer un laberinto y no le damos recompensa luego le ponemos otra vez en el laberinto y sí le damos recompensa pues decía Tolman que la recompensa no es necesaria para el aprendizaje pero es imprescindible para que el sujeto ejecute la respuesta aprendida sabes ir allí a una isla que le ponía pero si quieres que lo haga le pones algo allí para que le refuerce a una paloma pues unos granitos de trigo ¿no? pues todos Tolman y Hull coinciden en que aprendizaje y ejecución se pueden separar muy bien continuamos las teorías con estas teorías de asociación estímulo-respuesta pues esos mecanismos ER o IEE pueden estar implicados en el aprendizaje instrumental en este caso aprendizaje instrumental o operante es ER el más específico que establece las normas precisas para producir las respuestas no sólo la adquisición de la información luego aparecían perdón reglas de ejecución operante decía Skinner que el condicionamiento operante los reforzadores seleccionan respuestas sin una asociación concreta ni ER ni IEE decía que los estímulos ambientales los reforzadores que le damos el papel de estos estímulos es señalizar que el sujeto que da la oportunidad tiene la oportunidad de que las respuestas sean recompensadas es decir el estímulo discriminativo son los estímulos ambientales son moduladores de la respuesta y el reforzador por lo tanto según esto hay que hacer distinción entre estímulo condicionado condicionamiento clásico y el estímulo discriminativo estos estímulos ambientales son los estímulos discriminativos que decía Skinner vamos a ver ya dejamos este punto entramos a las teorías vemos la teoría de la probabilidad diferencial de PREMAC esto os va a vale ante dos respuestas imaginaros que tenemos un chaval de ocho años que le gusta mucho jugar a la playstation pero no le gusta hacer los deberes tenemos estas dos respuestas y queremos poner un procedimiento instrumental la respuesta más probable jugar a la playstation reforzará a la menos probable el más probable hacer los deberes y la respuesta menos probable hacer los deberes no reforzará a la más probable aquí hablamos de respuestas reforzadoras no le vamos a dar una bolita de comida a un niño ni a una paloma sino que vamos a ver que las respuestas lo que le gusta hacer al sujeto más probable lo vamos a utilizar va a ser reforzador de otra actividad instrumental menos probable queremos utilizar lo que le gusta jugar a la playstation para que primero haga los deberes es lo que decía mi abuela de pequeña al niño que venía del colegio y le decía primero haces los deberes y después te dejo salir a jugar a la pelota al patio no es ni más ni menos que eso la teoría de la probabilidad diferencial según el principio del reforzamiento del prematio hay dos supuestos fundamentales en la actividad que prefiere el sujeto tenemos que en la línea base tiene que estar preferida y la probabilidad de que ocurra esta actividad preferida debe ser contingente con la realización es decir primero vas a hacer los deberes y luego ya te dejo yo jugar a la playstation que para eso soy condicionador operante un condicionador instrumental que sigue los principios del reforzamiento del prematio prematio vale por lo tanto según este resultado la operación de reforzamiento la actividad reforzadora ocurre a menor probabilidad es decir no se la dejamos hacer hasta que no primero actúe la actividad instrumental aún primero haga los deberes y tiene se supone que tiene que aumentar la probabilidad de ocurrencia como ocurre en el condicionamiento operante vale le vamos a reforzar con su actividad preferida por lo tanto también dijo preman que la actividad de más baja probabilidad puede castigar la mayor probabilidad claro no te jode si si dejas al niño ahí tiene ganas de jugar a la playstation que es su actividad preferida y tú le tienes haciendo deberes castiga a la de mayor probabilidad jugar a la playstation no castiga nada no castiga nada no es un juego la si pero si el y el biológico y tampoco es incompatible con Premark. Pues bien, esta teoría de Premark, primero haces los deberes y luego te dejo yo ya jugar a la Playstation. Esta teoría de la probabilidad diferencial tiene un gran poder predictivo, es decir, puede predecir, si para predecirse una conducta reforzará otra, hay que medir sus probabilidades bajo la línea base, donde las dos conductas no tienen limitaciones, es decir, a la paloma le dejamos hacer una actividad como es, a ver, cuánto le gusta beber o hacer otra cosa. Mucho más no creo yo que las pongan a jugar al Bayport, etcétera, ¿no? Pues medimos, les gusta medir, ¿no? Pues una actividad reforzará la otra si es más probable que la otra en línea base. Pues bien, pero es compleja esta teoría cuando hablamos de medir la probabilidad de respuesta. Se puede medir la frecuencia de accionar una palanca, pero no si es comer un bocado o tomar una ración. Por lo tanto, Premag decía que la probabilidad de respuesta se debe considerar como un tiempo, como una dimensión temporal, es decir, el tiempo dedicado a una actividad particular. Es decir, si el niño puede estar cinco horas jugando a la Playstation y solo tres minutos haciendo los deberes, está claro, la probabilidad diferencial de jugar a la Playstation es la actividad que vamos a utilizar como reforzadora y la probabilidad de que el niño prefiera estar poco tiempo haciendo los deberes es la que queremos aumentar. Es la probabilidad instrumental. La actividad instrumental. Por lo tanto, sugirió que la medida de respuesta más apropiada es la probabilidad momentánea. Tiene que ver con el tiempo. Y punto, pelota. La teoría de la probabilidad diferencial dice que aquel sujeto que tenga más probabilidad de hacer una respuesta que otra, vamos a utilizar esta respuesta para la Playstation para reforzarle si primero hace la otra. Si hace contingentemente primero la otra. Finalmente tenemos la teoría de la privación de respuesta y ya hemos acabado este eterno tema cinco. Pues bien, la teoría de la privación de respuesta si queremos hacer que esa probabilidad momentánea de respuesta se mantenga a un nivel alto ¿cómo lo conseguimos? Privándola. Restringiendo la probabilidad de realizar la respuesta reforzadora. Imaginad a un por lo tanto, la respuesta reforzadora tiene que ser más probable que la instrumental cuando está restringida. Es decir, si un sujeto queremos que hacer que lo que hace, ya sea beber o comer para que funcione como reforzador le tenemos que restringir. No dejar que haga esa actividad. En relación con lo que a ese sujeto le gustaría hacer. En su punto de bienestar. Pero tampoco hace falta como en la anterior, en la teoría de PREMAC, que sea la actividad más preferida que la que se va a convertir en actividad instrumental. Pues bien, hicieron un experimento con ratas con dos actividades de libre acceso. Beber y dar giros en la rueda. Y encontraron que el sujeto bebía 400 veces y daba 200 giros en la rueda. Si le restringimos beber entonces le vamos a pedir que corra para poder beber. Donde utilizaron un programa de reforzamiento donde cada giro de rueda le permitía beber y pretendíamos determinar cómo se ajustaba la rata a esa contingencia. Y queríamos que aumentara la probabilidad de concurrencia y que disminuyera la actividad contingente en relación al punto de bienestar. O sea, si como daba 200 giros 400 veces y 200 giros de rueda vamos a pedirle que dé giros en la rueda para poder beber. Vamos a utilizar la que más le gusta para... No tiene que ser lo que más le gusta. Según esta teoría de la priorización de respuestas si restringimos a la rata correr que es de menor probabilidad que la de beber, el animal tiene que dar lametones para hacer girar la rueda. O sea, lo hacemos lo podemos hacer al revés. No tiene que ser la preferida, ¿no? En este caso, la actividad instrumental, que utilizamos como instrumento es beber y que aumenta la otra, la contingente correr, que sea beber aumenta y disminuye la otra. Pues bien, según la ley de igualación, a una mayor frecuencia de reforzamiento se debe esperar una mayor tasa de respuesta. Es decir, cuanto más intervalo entre los reforzadores, haya la menor tasa de respuesta. Obtendremos, según esta hipótesis de privación de respuesta, dice que la tasa de respuesta y la de reforzamiento son como una U invertida y no lineal. A medida que disminuye la frecuencia de reforzamiento aumenta la tasa de respuesta instrumental y posteriormente disminuye a intervalos entre reforzadores a un mayor. Es una U invertida. ¿Vale? No por mucho que le vayas reforzando y ya está. Es decir, ya hemos terminado. Os quedan ocho minutos para protestar o algo o decir o qué hacemos el viernes, Dios mío, si hemos terminado el tema 5, el tema más pediagudo. El tema con más fórmulas y más poco intuitivo de este temario. Bueno, pues el próximo viernes veremos el control de la conducta por el estímulo. Como, bueno, ahí estudiaremos las leyes de generalización y discriminación. El enlace. Pepi, el enlace, el aula es la misma ya para, hasta que yo nos diga, he cerrado el aula, el aula de los viernes es el mismo, entras con la misma, entras de la misma forma. Ah, el enlace de la grabación. La grabación. Hablas de la grabación de la clase. Ah, es que no me acuerdo si la grabé, por Dios. Es que creo que no la grabé. Esta sí está grabada. ¿No hay cuestionarios? Uy, así un ejemplo de pregunta de examen. Yo tengo preguntas de examen por temas hechas. El próximo día pues si no es por tema de verdad. ¿Dónde está? Si no lo hay en ALF, yo no... Hola a todos, tomad el teletrabajo. ¿Podrías pasar por temas? ¿Preguntas por temas? ¿Me estáis preguntando? Vale. Pues vamos a ver. Vamos a ver. Vamos a hacer, el próximo día vamos a hacer, vamos a hacer aquí un saber y ganar. Preguntas por temas. Entramos en preguntas. Vamos a hablar de condicionamiento operante y de condicionamiento clásico. Vamos a hacer preguntas por temas. El viernes va a ser más divertido. Yo soy Jordi Ustado y les voy a poner quién ganar la prueba. Y el juez será el perrillo que aparece aquí. Hola amigas, ¿qué tal están ustedes? ¿Qué tal? Hola, tus kids. Ven a hacer pausos. Edita la guitarra. Oh, pues el viernes nos lo vamos a pasar bien. No, hasta el 5. No vamos a llegar más lejos. O sea, yo prefiero que primero tengo algo hecho de, no sé si es del año pasado o de cuando. Lo tengo por ahí en archivos. De todas maneras buscaré cosas de acción. Aquí al viernes y ya lo vemos. Ojo que el viernes, ah, sí, el viernes, sí. Puede ser una hora, un poco más de una hora. Porque quiero invitar... Ojo, eh. No hay cambios. La sala que he abierto es la misma todos los viernes. Se abre a las 5 y se cierra a las 9. A las 5 empiezo con atención. Ahora a las 6 empiezo con pensamiento. A las 7 empezáis vosotros. Con aprendizaje. Y si no vienen los de educación, pues podéis seguir, podemos seguir un rato más. Es la misma sala. Es la misma sala. Si yo te envío un mail, todos tenéis un mail. Ese mail es esa sala. Los viernes a vuestra hora. Punto. No hay nadie que lo cambie. Es una relación entre yo y vosotros. Por eso tenéis que entrar con la clave de invitado. Aluno. ¿Qué? Pones ahí alumno. Iba a ponerlo más fácil, pero digo que pongo 3X. No sé. Alumno. Pero no pongas tu nombre. Pon alumno. Entonces, los viernes, aunque no hay clase ya oficialmente hasta... A ver. En la UNED no hay clase. Solo nos quedan las clases de los viernes. Sí, sí lo pongo. Hoy voy a dejar de grabar que digo muchas bobadas.