Bueno, buenas tardes. Vamos a continuar con la segunda parte del tema dos, en el cual vamos a ver lo que es la conducta de elección. Bueno, bien. A ver, en casa se oye bien para comprobar que no hay ningún problema técnico. Perfecto. Bueno, pues inicialmente la conducta de elección tradicionalmente se estudiaba a través de un procedimiento que se denominaba premios concurrentes. En este procedimiento lo que se daba era a elegir entre dos actividades diferentes. Y lo que hacíamos era medíamos el tiempo que el animal empleaba en cada una de las alternativas. De este tiempo que empleaba en cada una de las alternativas, inferíamos las preferencias relativas de los objetos. Pero se comprobó que, bueno, este método no era el más adecuado, puesto que lo que hacíamos era comparar respuestas diferentes. Entonces, actualmente se utilizan los programas concurrentes. Ya los vimos en la primera parte del tema, que los programas concurrentes consistían en la aplicación de dos programas de reforzamiento básicos que se presentaban a la vez. Y el sujeto tenía que elegir entre distintas alternativas, pero en los programas concurrentes lo que tienen que emitir es una respuesta operante idéntica, a diferencia de los anteriores. Entonces, la conducta de elección se reflejaba a través de la distribución de las respuestas que emitían los sujetos en cada una de las alternativas. Que, como vamos a ver, el sujeto va a distribuir las respuestas en cada uno de los programas de reforzamiento, en cada una de las opciones, en función del programa de reforzamiento que se esté aplicando a cada una de las alternativas. Bien. ¿Cómo medimos la conducta de elección? Bien. Pues lo medimos a través de la tasa relativa de respuesta. Bien. No vamos a medir el número de respuestas, sino la tasa relativa. ¿Qué es la tasa relativa? La tasa relativa es la respuesta que emite cada sujeto en cada uno de los programas partido por el total de las respuestas en cada una de las alternativas. Que sería esta formulita que tenemos aquí. El numerador nos indicaría la tasa de respuestas en la alternativa A. Y el denominador, el total de respuestas, tanto en la alternativa A como en la alternativa B. ¿Qué nos encontramos? Por ejemplo, si son dos ejercicios distintos, la tasa relativa es la primera partida por el total de respuestas emitidas. Efectivamente. Entonces, ¿qué sucede? Que si esta razón nos da 0.5, ¿qué nos indica? Que el sujeto ha emitido el mismo número de respuestas en cada una de las alternativas. Si esta razón nos da mayor que 0.5, ¿qué nos indica? Que el sujeto ha respondido más en la alternativa A que en la alternativa B. Y si es menor, pues es al revés. Ha emitido más respuestas en la alternativa B. ¿Por qué no hay una historia en la que el sujeto responda más? ¿Es que responde más a esa y a la otra? Claro, porque como vamos a ver, la ley de igualación... Lo que va a hacer es que lo que nos dice la ley de igualación es que se igualan el número de respuestas al número de reforzadores. La tasa relativa de respuestas queda igualada con la tasa relativa de reforzamiento. Por eso utilizamos la tasa relativa de respuestas. Por eso, relativa, aquí se lo he puesto en rojo. Y la tasa relativa de reforzamiento sería lo mismo. Tendríamos en el numerador la tasa de reforzamiento en el programa o en la alternativa A partido por el total de reforzamiento en ambas alternativas. Igualmente, si la razón es igual a 0.5, lo que nos está queriendo decir es que va a recibir o recibe el mismo número de reforzadores en ambos programas. Si es mayor, recibe más refuerzos en el programa A. Y si es menor, más refuerzos en el programa B. ¿Qué puede pasar en el examen? Que les pregunten por la alternativa B y les pongan RD partido de RRB. Entonces, si nos preguntan si es mayor que 5, es que está respondiendo más a la alternativa B. Cuidado porque esto parece una tontería, pero en el examen, al mirarlo, des en cuenta si les preguntan RA o RB. Claro, la tasa relativa de A sería esta. La tasa relativa de B sería igual, pero en vez de RA sería RB. ¿De acuerdo? Bien. Entonces, como hemos dicho, la tasa relativa de respuestas se va a... se va a igualar a la tasa relativa de reforzamiento, que es lo que nos dice la teoría de la igualación. Y cito textualmente. La tasa relativa de respuestas entre dos alternativas de respuestas concurrentes es igual a la tasa relativa o frecuencia de reforzamiento asociada con cada una de dichas alternativas de respuesta. Inicialmente, la teoría de la ley... vamos, la ley de igualación fue enunciada por Erstein. Y lo que nos describe es una relación entre la tasa relativa de respuestas y la tasa relativa de reforzamiento. Vamos a ver si en la alternativa A se ofrece una mayor frecuencia de reforzamiento que en la alternativa B. Bien. También tendremos que tendremos un mayor número de respuestas en esta alternativa y viceversa. Ahora, si los reforzadores se distribuyen por igual en ambas alternativas, ¿qué va a pasar con las respuestas? Se van a repartir igualmente en ambas alternativas. Por tanto, el sujeto va a distribuir las respuestas entre las opciones en función del programa que vamos a poner en cada una de estas alternativas. En el libro también, esta es la ley de igualación básica. En el libro también les dice que hay que tener también en cuenta otros parámetros relacionados con el reforzador, como puede ser la frecuencia, la magnitud o la demora. Y es esa fórmula que tienen un poquito más larga añadida en la parte del reforzador. Pero esta es la ley de igualación básica. Bien, en la ley de igualación se da tanto si utilizamos programas de intervalo variable como programas de razón como programas combinados. Inicialmente, este formuló la ley con intervalos variables. Y por tanto, se cumple tal cual. Distribuye en los sujetos las respuestas en ambas alternativas en función del programa de cada una de ellas. ¿Son iguales porque son iguales a qué corresponde? Es un número de reforzadores, un número de respuestas, el ejercicio A y el B, porque puede ser el mismo número. Es que yo no he dicho que vayan a dar el mismo número de respuestas. Así que... Va a depender del programa. Si yo, por ejemplo, pongo un programa de intervalo variable 5 en la tecla A y un programa de intervalo variable 30 en la tecla D, ¿qué es lo que va a pasar? ¿Cuál de los dos creen que es la alternativa más favorable? ¿El programa IV5 o el programa IV30? El primero, IV5. ¿Por qué? A ver, ¿por qué? Explíquenmelo ustedes. ¿Por qué es más...? Efectivamente, pasan 5 segundos, cada 5 segundos aparecería el reforzador. Pero si el reforzador es más de ese y tiene los 5, o es la misma cantidad de los 5. No, vamos a ver, acuérdense que el reforzador... Se recibe, si se emite la conducta, aparece el reforzador. Yo tengo programado un programa de intervalo variable 5 segundos, cada 5 segundos aparecería el reforzador. Pero sí y solo sí se emite la conducta. Si no se emite la conducta, no aparece el reforzador. ¿Pero qué sucede? Que si yo programo este programa, valga la redundancia, cada 5 segundos... ...está disponible el reforzador. En el cambio, en el programa IV30, el reforzador no estaría disponible hasta pasados 30 segundos. ¿Pero qué es lo que pasa si el reforzador aparece de nuevo y no aparece el reforzador? No, creo que estás confundiendo... ...más cortos del tiempo. Yo de mi funciona mayor mejora... A ver, vamos a hacer una cosa vamos a ponerle unos ejercicios para que ustedes lo vean y vamos a dejar las dudas si os parece para el final, para poder dar todo el temario ¿de acuerdo? Pero, si yo tengo un programa de intervalo variable 5 segundos a la hora, yo puedo recibir ¿cuántos reforzadores? Sí, o al minuto por ejemplo sería 60 entre 5 12 Si yo tengo un programa de intervalo variable 30 ¿cuántos puedo recibir al minuto? 2 ¿Qué es lo que nos dice la ley de igualación? Que yo voy a ajustar las respuestas a cada alternativa en función del programa de reforzamiento el sujeto tenderá a dar más respuestas en el programa que se recibe más reforzamiento Eso es lo que nos dice la ley de igualación que se iguala la tasa de respuestas a la tasa de reforzamiento no que se igualen las tasas de respuestas entre las dos alternativas Ah, vale, perfecto luego te saco para hacer los ejercicios porque a lo mejor aquí tenemos un nuevo descubrimiento Ahora, lo vamos a ver con la fórmula Vamos a explicar el tema y luego al final vamos a hacer unos ejercicios para poner en práctica la ley de igualación para que todos los veamos Pues dije yo que a partir del tema 5 se empezaba a complicar un poquito Bien, con los intervalos, si aplicamos dos programas de intervalo variable, se nos cumple perfectamente la ley. También si aplicamos programas de razón, ya sea tanto fijo como variable, lo que sí que en los programas de razón el sujeto va a tender a elegir responder aquel programa en el cual la razón sea más baja. Y esto es lo que se denomina maximización, incluso llegando a responder exclusivamente en el programa que es más favorable. Aún así, aunque responda en uno de los programas en el más favorable, se sigue cumpliendo la ley de igualación. ¿Por qué? El total de respuestas serían en el programa, en la opción que tiene el mejor programa de reforzamiento, el 100% de las respuestas sería en... En esta alternativa, con lo cual la razón tendría uno y los reforzadores, como siempre son también de ese mismo programa, también sería uno. Igualaríamos uno y uno. En los programas combinados también se pueden realizar programas combinados de razón y de intervalo. Aquí lo óptimo sería responder casi exclusivamente al programa de razón y de vez en cuando tocarla. La opción del programa de intervalo variable, porque ahí no necesitamos un requerimiento de respuesta, sino con tocar una ya recibimos el reforzador. Bien, esto sucede, pero sí que es cierto que no se da con... Esta preferencia no es tan marcada como debería para poder obtener el máximo de los reforzadores que podría obtener el sujeto alternando, aunque solo sea de vez en cuando, al programa de intervalo variable. Sí, dime. Del último, por ejemplo, un programa de razón 5 respuestas y un programa de intervalo 30, por ejemplo. En el de programa de razón, cada vez que yo haga 5 respuestas, 1, 2, 3, 4, 5, obtengo el reforzador. Y en el otro, cada 30 segundos, con aplicar una sola vez, ya obtengo el reforzador. Luego, claro, ¿cuál sería el más favorable ahí de los dos? El de razón. Pues yo te digo que tenderían a responder más al programa de razón y de vez en cuando, con aplicar de vez en cuando un toque en la otra, recibirían casi la totalidad de reforzadores. Lo que pasa es que es verdad que esta alternancia no es, esta preferencia no está tan marcada como debería, ¿no? Y luego, también relacionado con la ley de igualación, no solamente se iguala la tasa de respuestas, la tasa relativa de respuestas con la tasa relativa de reforzadores, sino que también los sujetos tienden a igualar el tiempo de permanencia en cada una de las alternativas de respuesta. Es decir, tienden a igualar. Si yo, por ejemplo, en este programa... De IV5, cada 5 segundos, puedo obtener el reforzador si emito la respuesta. Ya hemos visto que se igualan las respuestas. Pero, ¿en cuál de las dos alternativas estaré más tiempo? Sí, sí, yo voy 5 veces a la vez. No, no, estamos... Bueno. Bueno. Estoy hablando del de intervalo variable, o bueno, el de razón, da igual. ¿En cuál de los dos creen ustedes que pasará más tiempo el sujeto? ¿Qué dicen ustedes por ahí, o qué dicen en casa? No, intervalo variable 5, intervalo variable 30, por ejemplo, que es el inicial que hemos dicho. Si yo cada 5 segundos en la tecla A recibo un reforzador, y en el otro cada 30 segundos, ¿en cuál de los dos creen que estaré más tiempo para obtener el máximo de reforzadores? ¿En el cual? ¿En el de 5 o en el de 30, señores? Venga, levanten las manos los que dicen el de 30. Efectivamente, lo que ha dicho la compañera. No, vamos a ver. Fíjense que la ley de igualación lo que nos dice es que se iguala la tasa de respuestas, la tasa relativa de respuestas con la tasa de reforzamiento. Es decir... Si yo tengo un programa de reforzamiento que cada 5 segundos se emite una respuesta, recibo un reforzador y en el otro cada 30 emitiré más respuestas en el de 5 porque tengo más posibilidades de obtener el reforzador. Entonces, perdona, entonces si yo voy, ¿en cuál de las dos alternativas pasaré más tiempo para recibir más reforzadores? Claro. Fijaros que os he dicho que se iguala la tasa relativa de respuestas con la tasa relativa de reforzadores, pero además con el tiempo que paso en cada una de las alternativas. Aquí pasaré más tiempo porque estoy pendiente de darle para obtener el reforzador. Claro, es que a ver, vamos, todo depende de cómo te hagan la pregunta. ¿Te darán datos o te dicen esto es la igualación temporal? Esto es a nivel general. A nivel general se iguala la tasa de respuestas con la tasa de reforzamientos y además hay una igualación temporal que nos indica que no solamente igualamos estas dos, sino que además el sujeto permanecerá más tiempo en la alternativa que obtiene más reforzador y da más respuestas. ¿Por qué? Porque si yo voy a la otra, aunque sea un IV30, claro, tú estás diciendo pasa más tiempo, sí, pero yo estoy, paso más tiempo en la alternativa del IV5 y de vez en cuando me vengo aquí y hago pin y vuelvo. ¿Cuánto tarda venir y venir? No tiene nada que ver. O sea, lo que se iguala son la tasa relativa de respuestas con la tasa relativa de reforzamiento. con el tiempo que paso en cada una de las alternativas ¿ahora si está claro? vale claro, pero para que va a estar revoloteando si puede estar en el otro en la otra alternativa pudiendo tener reforzador efectivamente entonces, ¿dónde pasará más tiempo la raza? cerca de la alternativa A porque es la que más reforzadores va a tener de vez en cuando va la otra pica y ya está, pero pasará más tiempo ¿de acuerdo? exactamente no, por eso yo estoy claro, más tiempo del programa no, más tiempo de estancia en cada alternativa vale ok, aclarado bien pues esta es la ley de igualación ahora bien a veces se producen sesgos como puede ser que la rata esté alternando de una palanca a la otra porque en la vida real pues a veces ese comportamiento es adaptativo a lo mejor a la hora de buscar comida, no busca siempre en el mismo sitio porque se puede agotar y van alternando entonces, a nivel de laboratorio podemos encontrarnos con este tipo de sesgos, como por ejemplo que el animal esté alternando de una tecla a la otra, o que por el tema de la iluminación o que sean dos teclas de dos colores diferentes y tenga preferencia por un color, entonces claro para como en toda situación experimental hay que controlar todas estas variables extrañas y todos estos sesgos porque si no nos pueden salir ¿de acuerdo? resultados que son erróneos. Con lo cual, Baum lo que hizo fue ampliar la ley de igualación para corregir estos sesgos y se quedó con esta fórmula que tenemos aquí, que sería arriba la tasa relativa de respuestas en la alternativa A, abajo en vez de total pondríamos la alternativa B, y añade, igual que en los reforzadores, pero añade el término K y el término S para corregir estos sesgos. El término S se utiliza para corregir cuando ante dos alternativas igualmente favorables, o sea, tenemos dos programas que son igualmente desfavorables. ¿Qué es lo que se hace? Y resulta que, aun siendo los dos programas, pongamos, idénticos o igual de favorables, resulta que hay una tendencia a responder a uno, por la tecla, por el fenómeno de alternancia, por el sesgo que sea. Se introduce el término S, aquí está abajo, pero bueno, sería aquí arriba, ¿no? Es un exponente, para corregir este sesgo. Si no existe el sesgo, ese valor de uno, que no modifica la fórmula para nada. Si hay sesgo, dependiendo de si es hacia un lado o hacia el otro, ese será mayor o será menor de uno. El término K lo utilizamos para corregir los fenómenos de sobreigualación e infraigualación. ¿Qué es esto? La sobreigualación se da cuando tenemos dos programas y uno es mejor que otro. ¿Vale? Entonces, lo que se observa es que hay un sesgo porque se está presentando una respuesta en la mejor alternativa, pero por encima de lo que predice la ley de igualación. Entonces, para corregir si este sujeto responde más de lo previsto, para corregir utilizamos el término K para los sesgos y para las sobreigualaciones el término S. Entonces, el valor de S sería mayor que 1 para corregir este sesgo. Infraigualación. La infraigualación se da cuando... La mejor alternativa, que es la que más se tendría que responder según la ley de igualación, resulta que está respondiendo menos de lo que predice la ley. Tenemos ahí también un sesgo. Está respondiendo menos al programa más ventajoso. Para corregirlo, S tendría un valor menor que 1. ¿Por qué? Porque, fíjate, si yo tengo, por ejemplo, el sesgo de respuesta, el término K. Si yo tengo dos programas que obtengo, fijaros que de lo que se trata a la hora de la elección es elegir el programa en función del reforzador. ¿Vale? Si yo tengo dos programas y obtengo la misma cantidad de reforzadores en los dos, debería de repartir, según la ley de igualación, las respuestas igualmente en uno y en otro. Si no lo estoy repartiendo de manera igual... Mi respuesta no está siendo en función de los reforzadores. Está siendo en función de otra variable extraña que no tiene nada que ver con el programa. el recibimiento del reforzador, yo tengo eso que corregirlo. Por eso introduzco el término K. Si en la igualación, se lo he puesto aquí en verde, fíjense que aquí es la sobreigualación, respondo por encima de lo que predice la ley en el mejor. Y en la infraigualación estoy respondiendo por debajo de lo que predice la ley en la mejor alternativa. Lo cual significa que puede haber uno de estos sesgos que he mencionado anteriormente que están influenciando la respuesta. No tanto el programa. ¿Qué es lo que yo quiero medir? La respuesta ante el reforzador, ante la recompensa. Si no me está dando estas respuestas, no está respondiendo en función al programa. Y hay que corregir esos sesgos. Por eso, en la sobreigualación añadimos el término S. Si hay sobreigualación sería mayor que 1 y si es infraigualación sería menor que 1. Y si la igualación es perfecta y no hay ningún sesgo, valdría 1. Tanto S como K sería la ley de igualación tal cual. ¿De acuerdo? Sí. No, aquí lo que... Lo que sería... Ya eso serían partes ya más técnicas de laboratorio que yo no sabría escuchar. ¿Vale? Lo que te van a preguntar y ya un poco estamos aquí hablando de parte teórica, ¿no? Entonces, lo que es la ley de igualación, saber qué es, cómo es la conducta de elección, qué programas vamos a utilizar, qué son los programas concurrentes... Vamos a ver también los concurrentes encadenados en función del autocontrol o la impulsividad, la elección en ese sentido, pero ver que a esta fórmula la ley de igualación se nos cumple. Pero es verdad que se introdujeron estas correcciones para corregir estos sesgos que pueden darse, que no están midiendo realmente el programa de reforzamiento que yo estoy utilizando. ¿De acuerdo? Si yo quiero replicar ese experimento, cada vez me va a salir una cosa. Entonces, claro, ¿para qué enunciamos teoría? Para ver que, si yo luego voy repitiendo, se cumple. ¿De acuerdo? Que se ha generalizado. Por eso se descubrió que había estos sesgos, se introdujeron estos componentes para mitigar estos sesgos y corregir estas variables que podían estar incluyendo. Sí. ¿Tienen sobreigualación con este tema? Vale. Fíjense lo que les he puesto en red. No lo veo. Ay, perdón, no se ve bien. Vale. Vale, si quieres apagar la luz para que se vea mejor la pantalla. La sobreigualación y la infraigualación se dan respecto a la mejor alternativa. Vale. Que yo se ve este sesgo de respuesta ante el programa que se supone que tiene que haber una mayor respuesta, o bien está por encima o bien está por debajo. En cambio, el componente K lo que nos corrige es cuando pongo dos programas iguales. O sea, han controlado todo. Cuando yo pongo dos programas iguales, tendría que darme la misma respuesta. ¿Vieron que no? Entonces se introduce el término K cuando pongo dos componentes iguales, dos respuestas igualmente favorables. Y la sobreigualación y la infraigualación es cuando respondo de más o de menos en el programa más favorable. Sí, pero en la fórmula se añade en esto. Si yo no estoy utilizando este, K valdría 1, que ni me afecta. ¿Vale? Cuando no hay sesgo... Tanto K como S, ¿cuál sería 1? Que tengo infraigualación. No, no, no, no, no, no. Lo que estamos tratando es de corregir estos posibles sesgos que pueden aparecer y que no pueden hacer... No pueden generalizar la ley para aplicarla en los casos. ¿De acuerdo? Bien, esto en cuanto a la ley de igualación... Y a la fórmula matemática, que lo que vemos es que hay una correlación entre la tasa de respuesta, tasa relativa de respuestas y la tasa relativa de reforzamiento. Ahora bien, ¿cómo se explica? Pues tenemos tres tipos de teorías. Tenemos... Las teorías moleculares, las teorías molares, que ya también las vimos cuando hablamos del condicionamiento clásico para explicar que había teorías moleculares y teorías molares. Y una tercera que es la teoría del mejoramiento. ¿Qué nos dicen estas teorías? Bien, la teoría molecular se va a centrar en que explica el comportamiento de los sujetos de cambiar de una alternativa a otra en función de la probabilidad momentánea en ese momento de obtener el reforzador. Por ejemplo, lo que hablábamos antes, el programa de IV5 y IV30. Si yo estoy en el programa IV5, estoy respondiendo, ya he obtenido tres reforzadores, por ejemplo, es porque han pasado cinco días y quince, o cuatro reforzadores, veinte minutos. En ese momento, la probabilidad de recibir un reforzador pasa a ser mayor en el otro programa y alternan. Es como si aprendieran a hacer un cálculo los... ...animales. Entonces, la teoría molecular explica la alternancia de un programa a otro a la hora de elegir en función de la probabilidad momentánea de recibir un reforzador. Entonces, esta teoría explica muy bien la distribución de las respuestas en los programas concurrentes de intervalo variado. Variable y en general. La teoría de la maximización molar es una teoría un poquito como más a largo plazo, ¿no? ¿No? Digamos que trata de explicar cómo distribuyen las respuestas los sujetos con el fin de obtener una maximización de un reforzamiento total. O sea, basado en la tasa global de reforzamiento de cada programa. En este caso, ¿en cuál de los dos programas conseguiríamos una tasa global mayor? En el de Molar. Molar presenta grandes dificultades. Por ejemplo, no puede explicar la conducta de elección cuando aplicamos programas de razón, un programa de razón y un programa de intervalo. No puede explicar tampoco la dificultad, o sea, no puede explicar por qué prefieren aquellos reforzadores que se presentan de forma variable a los fijos. Por tanto, es mucho mejor, explica mucho mejor la teoría molecular. Ahora bien, entre medias de estas, que una nos habla de la probabilidad momentánea y la otra nos está hablando más de lo que es la tasa global, tenemos la teoría del mejoramiento, que es a nivel temporal, está entre medias de las dos. Y lo que... La teoría del mejoramiento nos explica la elección de las alternativas o cambian de una alternativa a la otra basándose en la tasa local de reforzamiento. La tasa local está entre medias, no es la probabilidad momentánea pero tampoco es a largo plazo. Es un poco el número de respuestas o el número de reforzadores en función del tiempo que yo invierto. O sea, estaría entre medias. Por tanto, intrínseco a la teoría del mejoramiento es la igualación temporal que hablábamos antes. En el programa A presento un mejor reforzamiento, daré mayor tasa de respuestas, recibiré más reforzadores y además estaré más tiempo. En la alternativa B, que es la menos favorable. Recibiré, daré menos respuestas, recibiré menos reforzadores pero también invierto menos tiempo en esa alternativa. Por tanto, las tasas locales de respuesta y de reforzamiento van a ser iguales en las diferentes alternativas. Se van a igualar. Con estas tres teorías se trata de explicar la ley de igualación. ¿Por qué se cambia de una alternativa? A otra del programa para cumplir la ley. Bien. Hasta aquí hemos hablado de programas concurrentes tal cual, en el cual yo elijo la tecla A y obtengo los reforzadores y invito la respuesta. O elijo la tecla B y recibo el reforzador en función del programa que se puesto. Ahora bien, también puedo hacer una elección con un compromiso, ya que utilizamos programas concurrentes encadenados. Tendríamos el eslabón inicial, que sería el programa concurrente normal, la tecla A y la tecla B, y luego pasaríamos, no a recibir el reforzador, sino a un eslabón terminal en el cual aparecería una tecla y de ahí se iniciaría el programa que corresponda a ese lado. Aquí no hay vuelta atrás, aquí yo ya no puedo pasar de la B a la A. O sea, si yo paso de la B, la B paso al eslabón segundo y de ahí, ahí empieza el programa. Pasado un tiempo, volvemos otra vez al eslabón inicial y el sujeto puede elegir o bien la tecla B o bien la tecla A, pero si elige la A, pasaría al eslabón correspondiente, que es por ejemplo la tecla verde, y recibiría el programa que corresponde. No hay vuelta atrás. Este es el programa para poder acceder... Por ejemplo, pica la B, automáticamente aquí en un programa concurrente ya empezaría a recibir reforzadores y emito la respuesta. ¿Vale? Pero aquí no. Aquí yo paso, se enciende un estímulo discriminativo o una tecla que puedo aplicar o no, y pasaríamos aquí. O sea, yo ya de aquí no puedo pasar a la A. Tengo obligatoriamente paso aquí al segundo eslabón y al programa de reforzamiento. Esto, los programas de elección con compromiso, es lo que más se asemeja a la vida real. Imagínense que ustedes van conduciendo casi antes del semáforo. Yo voy conduciendo y llego a un cruce. Puedo elegir la derecha o puedo elegir la izquierda, pero en el momento en el que giro la derecha con el coche ya no puedo volverme a la izquierda. Si digo, uy, me equivoqué, tengo que ir a la A, ¿qué tengo que seguir? Tengo que seguir hasta el final de la calle, dar una vuelta a la rotonda, volverme al eslabón inicial para luego elegir el cruce de la izquierda. Por ejemplo, no es ensayo y error. Estamos hablando de elección. Yo llego a un cruce y elijo derecha o izquierda. La rotonda se devuelve y yo sigo. Vale. Aquí, claro, esto es lo mismo. Yo elijo B, yo ya no puedo picar A. Como en el programa concurrente normal. Ya tengo que seguir hasta el eslabón final. Hasta que no termina, no puedo volver de nuevo al eslabón inicial. En el libro nos ponen. Si ustedes han elegido matricularse de qué asignatura, se lo ponen en el libro. Una vez que se han matriculado, ya a mitad de piso, ah, no, ya no quiero. Ahora me matriculo en la A, no puedo. Tengo que terminar y al año que viene, si quiero, me matriculo en otra asignatura. O sea, quiero decir que es una elección con compromiso. Yo ya he elegido, yo me he comprometido y tengo que seguir hasta el final. ¿De acuerdo? Pero lo del coche. Vale. Entonces, aquí, en los programas concurrentes encadenados, claro, ¿qué es lo que las características? Ya básicamente se las he dicho. El reforzador solo, solo, solo, que esto es rojo, solo se obtiene en el eslabón terminal. O sea, no lo, no se obtiene al apretar la tecla A o la tecla B. Se obtiene en el eslabón final. Gracias. Implican una elección con compromiso y está comprometido llegar hasta el final del eslabón para poder conseguir el reforzador. Claro, la consecuencia de responder en el eslabón inicial, o sea, la tecla A o la tecla B, no tenemos un reforzador primario como puede ser la comida o… no. Lo que obtenemos que es un estímulo, que sería el rojo o el verde, por seguir el ejemplo del libro, que se convertiría en un reforzador secundario, que es el que nos daría acceso a iniciar el programa. ¿Tiene algo positivo? ¿Vale? Para el primero, ¿no? Dentro de… o sea, a una sociedad ese color, algo bueno porque al final no vamos a conseguir al final un reforzador. Se convertiría en un reforzador condicionado. ¿Qué es lo que sucede? Que los sujetos, siguiendo el hilo conductor del tema, que sea la igualación, los sujetos igualarían la tasa relativa de respuestas en el eslabón final con la tasa relativa de reforzadores. Los que os quieran, en cada uno de los programas. Pero no solamente en el eslabón final, que es cuando recibo el reforzador, sino que además iguala la tasa relativa de respuestas en el eslabón inicial con la tasa relativa de reforzadores en el eslabón terminal. ¿Vale? Bien. Y esto relacionado con los estudios de autocontrol. ¿Y de impulsividad? Claro. ¿Qué es autocontrol? Autocontrol es elegir o tener la capacidad de elegir una recompensa Más grande, pero demorada en el tiempo. Y la impulsividad es la inmediatez. Me da igual que la recompensa sea más pequeña. La quiero ya. Efectivamente, 5 euros ahora o 100. Claro. Por ejemplo, vámonos a un ejemplo, un niño que yo tengo en clase, un niño que sea digestivo, que continuamente se está levantando. Imaginemos que yo digo, bueno, cuando tú te quieras levantar, levantas la mano y te doy a elegir. Si levantas la mano cada vez que tú quieras levantar, te doy a elegir. O darte un caramelo cada vez que levantas la mano, inmediato. O cada vez que levantes la mano, yo guardo dos caramelos y al final de la clase te doy todos juntos. Autocontrol, elegir la opción B. Impulsividad, elegir la opción A. Con niños muy chicos suelen ser más impulsivos y quieren la A. Normalmente, cuando elegimos un procedimiento de elección directa con programas concurrentes simples, obtenemos una mayor impulsividad. Fijaros que es apretar la A o apretar la B. Pero en el programa concurrente encadenado, ¿qué pasa? Que hay un tiempo entre medias, ¿verdad? Claro, al introducir un tiempo entre medias, pierde valor. El reforzador. Y sobre todo el pequeño, pues se queda muy pequeño. ¿Y qué es lo que se hace? Se tiende a elegir la opción más grande, aunque sea demorada. Porque al introducir este espacio, les voy a poner aquí el programa. Vendríamos, este sería el simple, cuando yo aplico simples normalmente se tiende a elegir la inmediatez, la impulsividad. Si yo añado un tiempo de demora antes de pasar al segundo, claro, este ya no es tan inmediato, como pierde valor. Y el grande también ha perdido valor, pero al final, si yo te doy la, me levantas la mano y yo te digo, te doy un caramelo, pero a los 10 minutos. Pero, te doy dos, si esperamos al final de la clase. Al final dices, bueno, pues me da igual, esperan 10 minutos, si al final voy a conseguir mucho más, pues al final de la clase. He introducido este tiempo de demora. Ahora, al introducir el tiempo de demora, conseguimos... Más autocontrol. Por tanto, que no se muestra esto, que el autocontrol se puede aprender. No, es que yo soy así, es que yo... No, el autocontrol se puede aprender. Bien. ¿Cuál es la explicación? Vale, ¿cuál es la explicación? Pues está en relación del tiempo. Poco es lo que les he dicho. El valor de un reforzador se reduce en función del tiempo. Y tenemos esta expresión matemática que nos describe esta disminución del reforzador. Es decir, el valor del reforzador V está directamente relacionado con la magnitud de la recompensa, con la cantidad, que sería el numerador, e indirectamente. Directamente relacionado con la demora. Exacto. De la presentación del reportador, ¿vale? K nos va a indicar con qué rápidas disminuye el valor de la renta, ¿vale? Por tanto, esta fórmula nos explica que al incrementar la demora, pues la recompensa grande y pequeña hace que se produzca más autocontrol porque al perder los dos valores, la pequeña se queda con un valor tan insignificante que se elige la de mayor valor. Sí, dime. ¿Esto es lo que le da forma a la renta? ¿O no es capaz de condicionar el operando? Estamos hablando del condicionamiento operando. Es que... Sí, pero entonces... No tiene nada que ver. Vamos a ver. Una cosa son los tipos de reforzamiento que hay, los tipos de programas que tenemos y luego cómo explicamos la conducta de elección. Aquí estamos aplicando el condicionamiento operante y estamos utilizando programas de reforzamiento, bien sean variables, perdón, bien sean de intervalo, bien sean de razón, variables o fijos. ¿De acuerdo? O sea que... Está relacionado... O sea, no tiene... Es que no te entiendo bien la pregunta. ¿Qué es eso? Respóndemelo tú. Sí, esas son... ¿Qué es eso? Todo tiene que ver con esto. Vale, vamos a ver. Una cosa es que yo aplique un programa de contingencia, es un programa de reforzamiento, bien sea de recompensa, de castigo, de omisión, para modificar una conducta. Y otra cosa, que yo trato de explicar modificar la conducta de elegir diferentes alternativas a través del condicionamiento operante. Son todos procedimientos del condicionamiento operante, pero ahí tú no estás haciendo una conducta de elección, estás preparando un programa de contingencias, o de castigo, o de omisión, para... No, aquí no se trata de preventivo, tú lo utilizas todo. Vamos a ver, yo quiero cambiar una conducta tuya porque has adquirido una fobia. Aplica un programa. Bueno, hay muchas formas, ¿no? Pues, en modificaciones de conductas, que si son en vivo, tal, tal, tal, pero bueno. La fobia del pequeño Albert, que presentaron, tal, tal. Pero esto es para elegir entre dos alternativas. ¿Quiero irme de vacaciones a aquí o quiero irme aquí? ¿O quiero hacer... Si hago esta conducta, obtengo... Estos reforzadores y si tengo esta, elijo esta. O sea, son cosas distintas, estás mezclándolos, son cosas diferentes. Todo es dentro del condicionamiento clásico, pero lo otro es para explicar una serie de cosas y esto es para explicar por qué elijo un programa o por qué elijo otra alternativa. ¿Aclarado? Si no, continuamos y después te explico a ti en privado. En casa, ¿cómo vais? ¿Bien? Vale, antes de entrar en las teorías vamos a hacer una cosa ¿Tienen ustedes lápiz y papel aquí en casa? Vale, quiero que escriban la ley de igualación Vamos a ver si yo puedo aquí es que me han puesto aquí estas mesas y no voy a poder utilizar la pizarra Vamos a ver si puedo utilizar la pizarra Para que lo vean también en casa a ver si lo pueden ver Vamos a ver Vamos a ver, la ley de igualación Venga, la ley de igualación era R.A. partido Venga, vayan distanciados Más R.E. Igual A partido S.A. más S.B. ¿verdad? Bien Vamos a imaginarnos una pregunta Imaginemos que yo tengo me dan un cuadro y me dan un hombro Imaginemos que me dicen R.A. ¿Me dan el gato? Es difícil No, no, no Ay, perdón R.A. No, no, no R.B. Venga, me encuentro Y aquí vamos a poner reforzadores en A Bien Reforzadores en B ¿Cómo añadiría esto? En casa... Uy, me da que no sé si se ve muy bien la pizarra. Vale. ¿Qué hacemos? Sería sustituir en la fórmula, ¿no? 25 partido... ¿Igual? 25 más 20 es igual a 100. 100 partido 100 más X. Simplemente es despejar la fórmula. Despejar la fórmula. ¿Vale? ¿En el instante ni se calcula nada? No, no lo he hecho. Yo creo que no. A ver, yo esto se lo estoy poniendo como ejemplo para... Si les dicen, no les van a poner tampoco un número grande. No vamos a hacer eso. Quiero decir que para que ustedes vean... ¿Cómo esto se iguala? Si yo tengo aquí... Sería, venga, una de 25 partido 45. Es igual a... A 100 partido... 100 partido más X. Y despejamos, cubríamos. Sería 25... 25, vamos con el último chico. 100 más X es igual a 45 por 100. Vale, si esto lo despejamos nos quedaría aquí. Tendríamos esto, ¿no? Bueno, en definitiva, para recibir, sale 80. O si les dicen, si tengo estos datos, ¿cómo puedo hallar los siguientes? Pues simplemente es con los datos que me dan. Ay, no se ve. Ay, qué pena. Bueno, no se preocupen. Si no lo ven, yo hago manualmente una hoja y se la subo al chat o... ¿De acuerdo? ¿Se dan cuenta? Nos pueden preguntar, nos pueden dar datos de las respuestas, cómo se obtiene, cuál sería el reforzador. O al revés, nos dan los datos del reforzador, cuál sería tal. O como antes hemos dicho, ¿qué tiempo invertiría en una tecla o en otra? Si yo tengo mi V5, ¿cuántos reforzadores recibo al minuto? ¿Cuántos recibo en el otro? ¿De acuerdo? Las preguntas. Respecto a la ley de la evaluación, aparte de las teóricas, pueden ir un poquito por esta línea. ¿Lo van viendo ahora? ¿Sí? Bien. Pues entramos en las teorías. Ya nos quedan nada, tres diapositivas. ¿Tienen claro la ley de igualación? Es que creo que es importante. ¿Lo tienen claro? ¿Sí? ¿En casa lo tienen claro? ¿Tienen alguna duda? Por favor, díganme. Yo les voy respondiendo bien. Pues entonces entramos en las teorías explicativas del aprendizaje. instrumental u operante. ¿Cuáles son las teorías? Tenemos por un lado las teorías asociacionistas, que estas ya las hemos oído, nos suenan, ¿no? Y luego las teorías seleccionistas. Vamos a verlas todas, pero me voy a centrar más en las seleccionistas que son las más nuevas, ¿no? Las asociacionistas, estímulo-respuesta, estímulo-estímulo. Primero, quedan Fronday, Hall, también meto este autor, Tolman, estímulo-estímulo y las de seleccionistas que serían la de probabilidad diferencial, que es el principio de Premat y la teoría de privación de respuesta. Bien. Fronday, hablábamos de qué? La ley del efecto. Acuérdense cómo era la ley del efecto. Venga. Venga, repaso. ¿Cuál era la ley del efecto? ¿Qué formuló Fronday? ¿Qué nos decía? Que la hemos dicho un montón de veces. En el caso exacto, ¿no? A ver, si tras una conducta recibo una consecuencia petitiva, se tenderá a repetir. Si es negativa, tenderé a disminuir. Bueno, pues lo que nos dicen las teorías asociacionistas en el papel de reforzador lo que va a hacer es crear o fortalecer esta asociación entre estímulo-respuesta. Jal, lo que nos va a decir es que el reforzador va a reforzar también este estímulo-respuesta por reducir el impulso y introduce términos como la fuerza del hábito, el nivel del impulso y del valor del incentivo. Por tanto, la ejecución de la conducta va a depender de la asociación El hábito que yo tenga, del nivel del impulso o la necesidad biológica que tenga y del valor del incentivo del reforzador que obtenga. Tolman nos mete el concepto de expectativa de recompensa y distingue entre aprendizaje y ejecución. ¿Vale? O sea, significa que yo puedo aprender, pero puedo no ejecutar. ¿Por qué? Porque las expectativas de recompensa van a depender de la expectativa que el sujeto obtenga. O sea, entramos ya con variables motivacionales. No, aquí estamos hablando teorías estímulo-respuesta y aquí estamos hablando de las teorías estímulo-estímulo. ¿Vale? Entonces, Hall lo explica por la fuerza del hábito, el impulso y el valor del incentivo y Tolman. La asociación entre los dos estímulos. No tanto, o sea, los reforzadores no van a actuar sobre el estímulo y la respuesta, sino entre estos estímulos o variables mediacionales que están internas que son las expectativas de respuesta. En cuanto a... Creo que está el profesor ya. ¿Vale? Las teorías... Las teorías seleccionistas, el principio de premar y las teorías de la selección de respuesta explicamos próxima semana. ¿Vale? Antes de... Porque esto sí quiero pararme para que ustedes lo vean porque son un poquito más complicadas. ¿De acuerdo? Bien, pues nos vemos entonces después de Semana Santa, que pasen una buena semana y hasta dentro de dos semanas, claro. Un saludo, hasta luego.