Ya, ya... A ver, para que se quede bien grabado. Queridos alumnos, vamos a ver el tema 4, atención auditiva y crossmodal. A continuación veremos que los primeros trabajos experimentales sobre atención utilizaron mayoritariamente estímulos auditivos para abordar cuestiones críticas como naturaleza de la atención, selectiva de la atención dividida, o sí, donde el sujeto hacía el cuello de botella, la selección, en la fase temprana o en la fase tardía. Hoy el debate gira en torno a... Hay distintos tipos de atención que está vinculado a diferentes modalidades sensoriales, visual o auditiva. Es lo que vamos a ver básicamente. Primero veremos un poco la atención auditiva y luego ver cómo hay un intercambio. ¿Qué es la atención? ¿Qué es la atención selectiva auditiva? Pues bien, es separar el sonido en elementos y componentes auditivos simples. Lo llamamos segregación del continuo auditivo. Esa capacidad de segregar sonidos complejos es lo que nos permite diferenciar una fuente de información sonora de otra. Pues bien... Esa segregación del continuo auditivo es de gran interés la investigación sobre atención auditiva, atención selectiva, atención dividida. Por ejemplo, cuando intentas seguir dos conversaciones a la vez, hay un clásico que se conoce como cocktail party. Tú estás en una fiesta hablando con un amigo y de repente escuchas tu nombre lejos a tu espalda. Pues seguro que tu atención, antes de que sigas hablando con tu amigo, intentarás atender a lo que dice esa voz que hablo de mí. Esto sería un poco como la atención dividida, ¿no? En los años 50 se utilizaba el paradigma de escucha dicótica. ¿Por qué es esto? Porque vamos a presentar, como tenemos dos orejas, vamos a presentar dos fuentes de información diferentes y por separado a cada uno de los oídos. Y le vamos a decir que me diga lo que sale por un oído, lo que sale por otro o lo de los dos. Entonces es un paradigma de escucha dicótica, presentamos dicóticamente y genera la impresión de dos flujos auditivos separados. Cada uno de ellos está localizado. Más o menos. En un oído correspondiente. Pues bien, ¿qué es el sombreado? El sombreado es, te digo, dime, repíteme, sombréame lo que viene del oído derecho. Sombréame lo que viene del oído izquierdo. Ese es el sombreado, ¿no? Pues Colin Cherry, primer investigador en aplicar el paradigma de escucha dicótica, pedía a los sujetos que sombrearan, es decir, que repitanan rápidamente y sin demora uno de los mensajes e ignorasen el otro. Y cuando los sujetos les preguntaban sobre la información del oído no atendido o no sombreado, se descubrió que eran incapaces de informar del contenido del mensaje allí presentado. Y su única percepción... Era que habían escuchado sonidos, pero que no sabían lo que había venido por ese oído. Parecía que hay propiedades físicas del mensaje ignorado que eran detectadas, pero otros aspectos más celebrados, como lenguaje, palabras individuales, contenido semántico, pasaban desapercibidas. Y fíjate que mostró Moray, demostró que el mensaje no atendido se procesaba tan bien hasta un punto inmediato. Inmediatamente anterior a la experiencia consciente, justo antes de que esa información llegara a mi memoria, a mi consciencia, y pudiera repetirla, comunicarla. Este resultado fue un revés para las teorías de selección temprana del filtro rígido que vimos en el capítulo anterior y así se decía que el filtro, que era del tipo todo o nada, que se seleccionaba la información auditiva según ciertas propiedades físicas como localización del mensaje atendido. ¿Qué factores facilitan que seleccionemos un mensaje y no otro? Pues a partir de estos hallazgos se llegó a la conclusión de que los oídos se comportan como dos canales de procesamiento relativamente independientes. Pues bien, se dijo, vale, los oídos son dos canales independientes, ¿no? Su interés era comprobar que hay propiedades físicas del mensaje sombreado que permitían su selección en detenimiento del mensaje alternativo. Ya hemos dicho la ubicación espacial, el desfase temporal. Y el tono, el tono. El oído, los oídos, son como canales de procesamiento diferentes, pero ese potencial de interferencia entre ellos es elevado. Si aumentamos el número de canales activos, se les ponían luego, imaginaos, auriculares y un auricular que en vez de ponerte por cada oído, te añade como si añadiera un tercer canal. Atender a un mensaje auditivo relevante, teniendo en cuenta su localización espacial, se dieron cuenta que tenía sus limitaciones. El desfase temporal que había, es decir, entre uno oído a otro, imagina que te pone el mismo mensaje, solo que dos segundos retrasado. Eso se ve, a veces hay programas de televisión en el hormiguero, lo hacen. Le dicen al sujeto, pon unos auriculares y va a oír su mensaje desfasado. Es decir, con unos segundos después, puede ser que el sujeto le produce tantamudeo porque quiere acompasarse al desfase temporal. Ese es el desfase temporal, ¿no? Digamos, separamos los mensajes aplicando un pequeño desfase temporal. Te voy a decir lo mismo por el oído derecho. Por lo tanto, en condición dicótica, además de la localización física del mensaje, cuando haya asincronía o desfase temporal entre las palabras de cada uno de los mensajes, facilita la selección. Vale, me ha dicho el oído derecho, el oído izquierdo, vale, no es lo mismo, pero va más tarde. Yo me quedo con el oído derecho. Facilítala, que el sujeto selecciona. El tono. El tono actúa como filtro. No es lo mismo un tono de mujer que un tono de hombre. ¿Vale? Agudo no es lo mismo. Y facilita la selección de una información en el trímetro de otra en línea con lo que decía Brad Ben, que vimos en el tema anterior. Por esto, las personas tenemos más facilidad para atender a un mensaje y ignorar el alternativo cuando las voces de cada uno son de género diferente, cuando son del mismo género. Fíjate por la izquierda me viene un hombre, me han dicho que me atienda al derecho, que es una mujer. Perfecto. El otro, un ruido ahí grave. Oigo un ruido grave. Me ayuda. ¿Y qué pasa con esa información no atendida? Hacemos un procesamiento semántico, es decir, he cogido algo de lo que me está queriendo decir ese ruido no atendido. Pues cuando al principio los trabajos de escucha dicótica buscaban explorar la eficacia de propiedades físicas para facilitar el mensaje de localización, desfase, tono. Estudios posteriores querían conocer qué tipo de información podía adquirirse por ese canal no atendido. El primer descubrimiento curioso fue que muchas personas eran capaces de escuchar su propio nombre en el canal ignorado. Ángel, no dejas de hacer eso. Coño, yo estoy escuchando el oído derecho y de repente me dicen eso por el oído izquierdo, por el canal ignorado. Lo he escuchado claramente, estaba atendiendo al otro, ¿no? Propiedades físicas que digan tu nombre. Pues dice, Tresma, y demuestra que la información del canal no ha atendido, puede que la analicemos a un nivel semántico. Por eso, igual que la pronunciación de nuestro nombre en el canal no ha atendido, capta nuestra atención. Las palabras que deben ignorarse, pero están dentro de un contexto, de una oración que estoy sombreando, también pueden hacerlo. También puedo saber qué están diciendo por ese otro oído. Pues bien, aunque los resultados de Courtney Wood son consistentes con que hacemos un análisis semántico de las palabras del canal no atendido, esto no implica necesariamente que toda la información de ese canal no atendido acceda a mi conciencia. Así, dijiste que te ibas a levantar. De hecho, solo el 33% de los sujetos reconocen su propio nombre en una tarea de escucha glicótica. Decía, es más largo, ¿no? Dice, no, el... Si dicen, párate ahora, por el oído izquierdo, solo el 6% el odio. Pero si dicen, ángel, para ahora, el 33% reconocieron su nombre en esa tarea e hicieron lo que se les decía por ese oído. No ha atendido. Hemos visto hasta aquí como los mecanismos selectivos nos permiten atender a un único canal en detrimento de otro. Pero hay muchas tareas, este problema no es tanto atender a una única fuente de información, sino a dividir la atención entre varias fuentes. Vamos a estudiar, en este caso con escucha dicótica, la teoría de amplitud de memoria dividida. Incorporar amplitud de memoria dividida. Fueron modificaciones al paradigma de escucha dicótica. Esto les permitió analizar la habilidad que tienen las personas para dividir su atención entre diferentes fuentes o canales de información. Esa modificación lo denominan técnica de amplitud de memoria dividida, donde hay una lista de ítems que se fraccionan en dos listas más cortas y se presentan cada una de las listas en un oído. Ahí tenemos al sujeto. Que tiene, le decimos estos números por este y estos por el otro. La diferencia con el sombreado está que ahora el sujeto tiene que atender a los dos oídos a la vez. Se lo decimos a la vez en los dos oídos. Y una vez finalizada la presentación tiene que recabar todo lo que ha escuchado en los dos. Tiene que decirme toda la información que te he puesto por la oreja izquierda y la derecha. Pues bien, contrario a lo que decía Broadbent, hay trabajos que demuestran que la selección de los ítems se puede realizar recurriendo a propiedades semánticas de significado y no solo a mediante claves físicas como la localización. Por ejemplo, será muy sencillo, pero imagínate que le ponemos en cada oído una lista que son dígitos y monosílabos, palabras y números. Hub 3 3 3 oído izquierdo. 2. No, 9. Pues los sujetos tendrían a recordarlos según el canal, primero un oído y luego otro, al igual que vimos en el tema anterior, con el método de amplitud de memoria dividida. Pues bien. Pero si le pedíamos que seleccionaran categóricamente, es decir, recuérdame solo los dígitos, o primero los dígitos y luego las palabras, no tenían problemas en recordar los dígitos, tanto el oído izquierdo como el derecho. Incluso, espontáneamente recordaban los ítems agrupados. Primero, según la frase familiar, unían las palabras. ¿Quién está aquí? Pues, seguido de los dígitos, 2, 3, 9. Pasamos a las tareas de detección auditiva. No estoy añadiendo más de los apuntes porque creo que se entiende bien. A veces lo traigo para algún experimento porque estos son mucho más completos. Es un resumen muy resumido. Pues bien, las tareas de detección auditiva. Los participantes escuchan secuencias o series de estímulos auditivos debiendo indicar cuándo han escuchado un determinado tárgel. El tárgel puede ser un tono. Por ejemplo, imagínate que tienen que presionar un pulsador cuando detecten un tono de 10.200 Hz entre sesiones de tonos de otras frecuencias o sobre un fondo de ruido blanco. Son frecuencias del espectro. Pues bien, los sujetos, las personas, al principio tienen buena capacidad para dividir la atención entre ambos oídos y detectar tárgeles relevantes aislados que pueden aparecer en cualquiera de ellos. Aquí dice que la detección es buena si es un único tárgel en un momento dado. Y si utilizamos varios targets, estos se diferencian entre sí. Tienen esas frecuencias diferentes. ¿Por qué? Cuando esto sucede, digamos que es como si configuraras. Si yo te digo, este es el sonido que va a ser el target. Ahora yo voy poniendo sonidos, poniendo sonidos. Es como si tú guardaras, configuraras tu atención auditiva para distribuirse adecuadamente entre un sonido y otro. Para detectar con poco margen. Ese target, ese tono, es un timbre, un sonido. Y aunque te pongan otros, ¿no? Pero el problema está cuando debemos detectar dos targets que aparecen al mismo tiempo. Uno cada oído y un... ¿Vale? Dos targets diferentes. El llamado definite del doble target, ¿no? Es muy difícil esta tarea. Y demuestra que la atención no se puede compartir. Bien, apropiadamente, entre ambos sonidos. ¿Qué es dividir la atención auditiva entre diferentes canales para detectar estímulos relevantes simultáneos a la vez? Es mucho más fácil que atender exclusivamente... Perdón, más difícil que atender exclusivamente a una única fuente de información. Funciones de alerta. ¿Qué pasa con el oído? No tiene una función de alerta, de la atención auditiva. Nuestra capacidad de detectar o atender estímulos sonoros no depende de cómo ponga la cabeza y los oídos desde cualquier posición. Si yo hablo para allá o hablo para allá, vosotros recibís más o menos la misma información. No hay problema. Por lo tanto, la neutralidad del sistema auditivo se convierte en un sistema de alerta excepcional, temprana, listo para recibir y procesar estímulos que vienen de cualquier dirección, independientemente de la orientación adeptada por el sujeto. Es un classo, no es un bombero. Y tras, se controla la atención. Alerta, se pone alerta, ¿vale? Del haz olivococlear. Allí ya tenemos una ubicación cerebral que hace funciones de alerta, ¿no? Tenemos el sistema auditivo, etc. Contrariamente a lo que ocurre con los ojos. Nuestros oídos se pueden mover, no se pueden mover para capturar el sonido. Esto no excluye que la atención auditiva pueda estar supeditada a algún tipo de control fisiológico interno. ¿Por qué? Porque sabemos que si tú poco a poco vas entrando en un local donde hay mucho ruido, tu sistema dice, uy, eso es mucho para... Si le das el tiempo suficiente, se adapta. No permite que esos decibelios, digamos, entren a toda esa velocidad que te podrían volver loco, ¿no? Pues bien, la cóclea, estructura anatómica situada en el oído interno, donde están los receptores sensoriales, recibe impulsos del cerebro y tal vez estos impulsos ejercen un control sobre dónde dirigir nuestra atención auditiva. O, ¿vale? O sí, la aumento o la disminuyo. Oye, que están hablando cuchicheando allí, por ese leído. Que dice, hay mucho ruido y me molesta lo que estoy haciendo aquí. Es capaz de, aunque haya ruido, no testar. ¿Vale? Esa es la función de alerta, ¿no? Eso me ha dado cuenta de que a lo mejor si te va a caer algo y como que intentas no ser tan sensible a lo que va a hacer. Ah, claro. Sobre todo si estás en mucho silencio y ahí, ¡tac! Y un clic y ya te suena, claro. Porque llevas un rato en silencio. Sí. Es un receptor adaptado a esto. No está poniendo el decir, oye, oye, que hay mucho ruido, cuando es un... Un ruido, en situación normal de ruido, no hace falta, no te asusta, te alerta, ¿no? Pero vamos a otra cosa, ¿no? De hecho, unas 1.400 fibras de nervios, el ácido oligococlear, conectan el tronco del encéfalo con la cóclea y transmiten un input que proviene del centro auditivo del óvulo temporal. El centro auditivo dice, uy, que eso es mucho, baja, baja, ojo, ¿sabes? Porque puedes estar en una discoteca al lado de un altavoz así, que si de repente tú estás en la calle en silencio y te colocaran allí, te daría dolor, dolor por dentro, porque además duele. Si tú te vas entrando poco a poco y te vas acostumbrando al sonido, llegas y te pones allí y no te molesta, porque te has adaptado. Eso es lo que viene a decir el ácido oligococlear, ¿no? Pues este input es eferente, no es accedente, es del centro. Cerebro al órgano. No es del órgano al cerebro. Uy, te he tocado algo que quema. No, no. Él dice, el control es eferente y se retira la mano para no quemarte. Es en el cerebro. Es un control eferente que va del cerebro al órgano. Ayuda a sintonizar los receptores sensoriales favoreciendo la selección de un sonido relevante en detenimiento de otro que no me interesa, que es irrelevante en ese momento. Lo que convierte este sistema en un excelente sistema de alerta y control necesario para protegernos de distracción, de la distracción. ¿Qué control me ejerce? Los sonidos pueden hacer que tenga control de la atención visual, que ejerza, si hay un sonido que mire a ver qué ocurre, esto es lo que vamos a ver en la función de alerta de atención auditiva. Los sonidos, además de controlar la atención auditiva, tienen la capacidad de orientar la atención. Por eso tenemos un timbre que nos dice, ve, echa la puerta y abre la puerta. Oye, tú, me estás llamando, miro a ver quién eres. La cross-modalidad, vinculación entre modalidades atencionales diferentes, incrementa la prominencia perceptiva del estímulo. Puedo percibir ese estímulo con mucho mejor. Y aumentar esa prominencia de eventos que aparecen de forma próxima o simultánea en el espacio y en el tiempo, me puede ayudar a integrar la información que recibo por diversos sentidos para construir una representación multimodal del ambiente. Yo tengo que representar con una representación física de quién está ahí. Oigo un sonido y miro para ver qué es, para completar la información. Estoy recibiendo, porque el sonido parece que tiene una función de alerta. Tenemos predisposición atencional, en este caso, a la frecuencia, el tono. La frecuencia es un tono. Pues bien, si nos piden detectar un tono del que conocemos su frecuencia, nuestra ejecución será mucho mejor que si no la conociera. Y esto incluso cuando la probabilidad de operación de dicha frecuencia sea reducida. Yo te voy a poner un tono, como dice, un ruido blanco. Igual te voy a esperar 15 minutos, porque la probabilidad de aparición es muy pequeña. Y te doy un tono que ya conoces, si ya lo conoces. Es decir, los oyentes tenemos predisposición atencional y detectamos mejor aquello que esperamos que suceda. He dicho que tono va a salir, que pase el tiempo. Y así, sí, aquí apareció. O aquí no apareció, ¿no? Los oyentes podemos configurar una especie de filtro atencional que nos predispone a detectar una frecuencia concreta de la misma forma que focalizábamos la atención visual en una región específica del espacio. Lo podemos hacer con un filtro a una frecuencia. Ahí se utiliza un paradigma de detección del estímulo sonda para estudiar la predisposición atencional de una persona ante la frecuencia. Paradigma de detección del estímulo sonda. Sonda, provee, señal, paradigma. En este paradigma, al sujeto se formaliza previamente con un tono de una frecuencia determinada, pi 1200 Hz, que se presenta de forma reiterada, de forma clara y audible. Ya le tengo así creado una predisposición atencional hacia la frecuencia. A continuación, le vamos a presentar dos breves secuencias de ruido de fondo, ruido blanco, pero una incluye el target o... Un tono desviado de frecuencia, un estímulo sonda, o el target o el sonda, ¿no? Pues bien, con una intensidad que dificulta su detección. Es decir, muy bien. La tarea del sujeto es indicar en cuál de las dos secuencias, la primera o la segunda, apareciera el target. ¿Vamos bien? Una pregunta, ruido blanco, ¿qué sería? Una frecuencia genérica, ¿no? No, no tiene problema. Tampoco va a salir mucho ruido blanco. Como si te acostumbras a un sonido ambiente, en este caso, lo llamamos ruido blanco. Vamos a ver. Continuamos con la predisposición a la frecuencia. A esta línea se le domina gradiente de detección. Ya me he perdido. Digamos, indicar en cuál de las dos secuencias aparece el target a esa línea de investigación le llama gradiente de detección. Se obtiene promediando los datos de muchos experimentos. Y aquí la detección disminuye bruscamente en el momento en que nos desviamos ligeramente del target. Yo tengo el target, 1200 sección. Me lo han puesto un montón de veces. Pero imagínate que ahora me ponen desviado. Fíjate. 100 por debajo, 100 por arriba. De 1900 a 1100 lo detecto perfectamente. Pero en cuanto baje un poco, de 850, no lo detectaría. Es lo que dice. Disminuye, en cuanto nos desviamos, ligeramente. Y esa predisposición auditiva parece que se configura en una fase temprana del proceso. Me han dado el TID. Yo he hecho una configuración que lo dijimos antes, en fase temprana, y hacemos el experimento. Comprobaron todo esto. Si hay un experimento relacionado con esta sintonización o predisposición a la frecuencia, demuestra que si les decimos a los sujetos que van a esperar no uno, sino dos tarjes diferentes, su rendimiento detectando ambos tonos es bastante bueno. Bueno, ¿ves? Detectaría el de 700, 100 por debajo, 100 por arriba, y el de 1600, 100 por debajo, 100 por arriba, pero no los intervino. Lo viene a decir ahora, ¿no? También, predisposición hacia el espacio. Bueno, predisponer a una persona a escuchar un sonido que viene de una determinada ubicación puede facilitar la ubicación. Se han hecho experimentos de lo mismo, con modalidad visual, cross-modalidad, que estamos viendo, ¿no? Es decir, la atención auditiva se puede sintonizar hacia una ubicación espacial. Y un adecuado ajuste de la atención auditiva con la localización de eventos sonoros ayuda al procesamiento de los ritmos. Es decir, ajuste entre atención auditiva y localización, ¿no? Eso, esta afirmación, dice que solo se sostiene cuando el ambiente o el estímulo, o el estimular, o la tarea es común. porque la precisión para detectar un simple target auditivo no se beneficia aunque conozca por anticipado su lugar de procedencia es posible que la posición espacial de procedencia de un sonido no nos resulte tan importante para la percepción auditiva como lo es la visual me da igual que la voz salga de allí hace función de alerta, miraré y luego diré, ah vale, sí me lo dejo a aquella persona va un poco por allá la posición espacial respecto al sonido no, porque no se mueve, los ojos sí les interesa el espacio, porque se mueven por el espacio los oídos no, captan todo lo que haya en ondas en el espacio pero a pesar de la localización la localización no parece ser un factor muy eficiente para la selección pero hay estudios que han demostrado que conocer por adelantado la procedencia espacial de un sonido puede que beneficie su detección al menos si el estímulo se emite desde altavoces lo suficientemente alejados de la posición del sujeto y no mediante auricular es decir, tan lejos entonces hay un... a ver el experimento el experimento es con luces bueno, no, luego lo veremos conclusiones Respecto a la predisposición atencional. ¿Qué hipótesis gana fuerza? La frecuencia. La frecuencia es la más importante para la localización espacial para orientar la atención auditiva. Es decir, ¿es voz de mujer o es voz de hombre? Eso es frecuencia. Manipulando ambas propiedades a la vez, la frecuencia y la localización espacial, algunos trabajos dicen, insisten en la idea de cuando demuestran que la frecuencia es a menudo más eficaz que la localización para seleccionar el foco. En conclusión, el espacio no parece que desempeñe un papel tan relevante durante el procesamiento auditivo como si lo hace en el procesamiento visual. A. Vamos a complicarlo. Vamos a atender a modalidades sensoriales diferentes. A veces a la visión, a veces al oído, a veces al tacto. ¿Vale? No hay más. Vista, oído, el olfato, no. El gusto, el tacto, me he dejado dos, no me nos dan de comer, ni cosas que huelan bien, pues no, no hacemos experimentos. ¿Qué es atender a varias modalidades sensoriales? Hacer un procedimiento de muchos sentimientos. ¿Qué es atender a varios sentimientos? Multisensorial. ¿Qué es tan cotidiano para las personas humanas? Que no nos damos cuenta de que exista. ¿Vale? Le interesa la psicología de la atención para estudiar ciertas cuestiones relacionadas con el uso, con la integración de la información que viene de diferentes modalidades sensoriales. Por eso lo llamamos cross-modalidad. Vamos a ver qué beneficios obtenemos con este procesamiento multisensorial. En los estudios se han demostrado que en ocasiones podemos atender a la información que viene de varias modalidades sensoriales en lugar de una sola, sin aparente coste. ¿Vale? Los beneficios del procesamiento multisensorial. Hay hallazgos que dan ventaja a las presentaciones cross-modales sobre las unimodales. Por ejemplo, es más fácil atender simultáneamente una secuencia visual y a una auditiva para detectar un target, por ejemplo, ver un dibujo de animal y escuchar su nombre, que atender a dos secuencias visuales o dos auditivas. ¿Vale? Mucho peor cuando trabajamos en atención dividida que cuando atendemos a cada modalidad por separado. Porque parece ser que cuando emitimos juicios temporales, cuando ha ocurrido algo, recurre a un tipo de procesamiento que se debe compartir entre ambas modalidades y esto explicaría este deterioro. Por ejemplo, la detección de una frecuencia se facilita si hay una predisposición en el sujeto, es decir, si la conoce. Se ha explorado de forma parecida si predisponer a una persona a esperar un estímulo de una modalidad sensorial afecta a su procesamiento. Y en los experimentos vamos a demostrar que es posible crear una predisposición a esperar un estímulo en una modalidad determinada, aunque esto no siempre va a hacer que sea más fácil el procesamiento. No va a facilitar el proceso. ¿Qué es la dominancia visual? Tenemos dominancia, los ojos dominan a los otros sentidos. ¿Qué es cuando compiten con información que viene de otras modalidades? Por ejemplo, la auditiva proprioceptiva, como me siento de... Tal, la percepción de la posición de nuestro cuerpo que es procesada por los receptores de las articulaciones, los músculos, la táctica. Pues bien, la información visual captura, controla nuestra atención. Ya vimos antes que el oído es como una función de alerta. La vista captura nuestra atención, nuestra percepción. Y vamos a ver unos trabajos que sugieren que puede existir una predisposición atencional hacia la información visual. Pero hay que tener en cuenta que esto no es universal. Vamos a darnos cuenta de que puede haber una predisposición atencional a la información universal, pero no siempre tiene por qué ocurrir así. Porque cuando hay los estímulos visuales que tienen la misma importancia que otros estímulos de modalidades sensoriales simultáneas y dan igual o mayor información, es muy probable que haya una predisposición o sesgo hacia la modalidad visual y que ésta sea la dominante. Vale, sí he oído algo por el oído tal, pero me creo lo que va a dominar mi atención es si lo veo. Santo Tomás. Santo Tomás, lo veo y me lo creo. Pues un poco es eso. ¿Qué es efecto de la información visual sobre la información auditiva? La ventriloquía. El efecto de la ventriloquía demuestra, mira, ¿veis cómo habla mi mano? ¿Veis cómo habla mi mano? El efecto de la ventriloquía demuestra la influencia de los efectos crossmodales de la atención. Pues nuestra percepción del origen del sonido se ve alterada por la información visual. Llamar atención a la información visual. O sea, que es mirando cómo abre la boca el payaso y en realidad la información me la está dando el ventriloquero que está un poco más loquero que yo. Pues eso, es decir, la información visual nos engaña. ¡Ah! El libro que quería traer, Los engaños de la mente. Ahí está. Cómo la magia... Lo puse al principio. Yo lo utilizaba en Atención otros años porque tiene que ver con esto. Bueno, con muchas cosas de la atención. Cómo los magos capturan nuestra atención para que no veamos cómo hacen el cambio de la moneda, cómo hacen el tal y luego nos sorprendemos si yo le vi que la moneda la tenía aquí y ahora está ahí. ¡Ah! Captan nuestra atención. Pues bien. La información visual no se engaña. Creemos que ya está el origen del sonido. Aunque el sonido proviene del ventrílogo, nosotros lo ubicamos en la boca del muñeco. El efecto se hace más poderoso conforme la fuente del sonido resulta más difícil de localizar. Imagínate, te pongo un altavoz y sale desde allí y el muñeco está aquí en el escenario. Es más difícil de localizar la fuente del sonido. ¿Qué pasa con la percepción del dolor? Efectos de la atención sobre la percepción del dolor. ¿Qué pasa si me pongo el brazo, voy al médico y por qué le digo yo, no voy a mirar, no voy a mirar, no voy a mirar, no voy a mirar? Porque sin mirar me duele. Eso. Si dirigir la atención visual a una región del espacio facilita el procesamiento de los targets allí presentados, saber por adelantado qué zona de mi piel va a ser estimulada, reduce el umbral para determinar la estimulación de dicha zona. Además, cuando la estimulación es dolorosa, saber por adelantado qué va a ser aplicada nos hará todavía más sensibles debido a lo aversivo. No voy a mirar, yo siempre voy al médico y digo, perdóneme, pero no puedo mirar. Me lo impide mi legión. Mi legión atencional. Si no me va a doler mal, ya me va a doler. Así que, entonces, continuando con estos efectos de la atención sobre la percepción del dolor, en un experimento en el que los sujetos se les aplicó en cada ensayo una dosis de calor radiante aversivo, se descubrió que la estimulación térmica fue valorada como más intensa y desagradable cuando era esperada. Ah, ya te va. Te la voy a dar ahora. Y cuando no lo era, cuando le daban por sorpresa. Surprise. Para los ingleses, para los ingleses. Esta observación. No, que queda grabado. Es una broma, perdón. Estoy en mi tono, estoy en mi línea. No me he traído la nariz de payaso. Hoy te vas a llamar Angel. Angel of Harlem. Ángel de Harlem, ¿no? Pues bien, esto que acabo de decir, que es más intensa y desagradable cuando era esperada, tiene una importante repercusión cuando aplicamos terapias. Distraer la atención de un paciente cuando recibe un tratamiento doloroso puede que haga que su experiencia sea relativamente más liviana. Vale, distraer la atención, lo hemos visto con los niños, el mentista, ay mira que no somos tan malos, estuvimos en aprendizaje, también se ve un poco aquí. Pues bien, si consideramos la atención como un mecanismo necesario para dirigir nuestra conducta a un ambiente complejo, digamos que es obvio pensar que esta capacidad de control solo la puedo llevar a cabo integrando la información recogida de los distintos sentidos. Por eso vamos a ver la atención a través de modalidades. La manera más adecuada de entender qué queremos decir por atención cross-modal es analizar la manera en que... ...que percibimos el espacio y construimos un marco de referencia espacial a partir de la información que reciba de los distintos sentidos. Tenemos que formarnos marcos de referencia espacial, ¿no? Yo tengo que ver, aparte visualmente, ¿no? O sea, quiero decir, igual tienes información en un ambiente complejo, dices, vale, pues sí, startup, si las personas están aquí, vienen de aquí, hablan, etcétera, ¿no? Vamos uniendo modalidades. Puesto que cada sentido recopila información que... ...viene de su propio conjunto de receptores. Y puesto que estos receptores están en diferentes lugares, uno respecto a otro, respecto a los eventos, las conexiones entre la información que me aportan... desde diferentes modalidades sensoriales, me permite construir una representación estable del ambiente externo, me permite actuar y dirigirme a hacer cosas en él. La manera o una manera en la que se ha estudiado la integración entre modalidades lo llamamos facilitación cross-modal. ¿Qué se estudia? Comparando las respuestas neuronales separadas ante cada uno de los estímulos unimodales con respecto a la respuesta neuronal conjunta obtenida con la presentación bimodal. Esta respuesta solo la puedo tener con potenciales evocados, que utiliza electroencefalograma, ¿vale? Si la respuesta bimodal es mayor que la combinada de cada uno de los dos estímulos unimodales, entonces se dice que ha ocurrido facilitación cross-modal de la respuesta porque hay integración de las dos modalidades. Y sabemos que... La presencia de una señal puede controlar nuestra atención, dirigiendo a un objeto o a una región del espacio, es decir, una señal luminosa o auditiva, etc. Y de forma parecida a lo que sucede con señales unimodales, se han estudiado potenciales efectos de la señalización cross-modal. Aludimos, por señalización crossmodal, al fenómeno por el que una señal de una modalidad visual puede dirigir la atención hacia una dimensión del estímulo presentado en otra modalidad auditiva. Aquí tenemos el experimento. Bueno, todavía no ha llegado. Aunque dice, bueno, ojo, que las cosas no son tan serias. Hay factores no atencionales que pueden ser responsables de la señalización. Los psicólogos, para evitar este problema, han desarrollado el paradigma de señalización ortogonal, que aquí lo tenemos. Son sitios donde va a haber un altavoz y al mismo tiempo unas luces que me van a indicar por dónde va a salir el taso. ¿Por qué al altavoz va a venir el taso? Dice, utilizando una señalización ortogonal como la descrita, se considera que hay efectos de señalización crossmodal cuando las respuestas son correctas. O sea, la posición vertical del target, arriba-abajo, son más rápidas en el lado señalizado que en el lado no señalizado. Imagínate, se me enciende una luz. El experimento lo tenéis ahí, ¿no? A ver si lo pone, ¿no? No, no. Bueno, el experimento es muy sencillo. Lo vamos poniendo y coincida. Donde aparece el tágel, o que no coincida la luz con donde va a salir. A ver cuánto tarda en el tágel. Tiempo de más. Las variables dependientes eran tiempo de respuesta y precisión de respuesta. Esto no cambia, ¿no? Pues bien, conclusión. ¿Existen estos efectos de señalización cross-modal? Pues a pesar de que hay divergencias en experimentos, podemos concluir que los efectos de la señalización cross-modal existen y se manifiestan en trabajos experimentales. Determinados aspectos de la atención espacial parece que están apareciendo bajo un controlador supramodal. La localización espacial externa compartida entre estímulos de distintas modalidades facilita la presencia de vínculos atencionales cross-modales y esto favorece la presencia de una especie de controlador atencional supramodal que dice, vale, ahora atiende a lo visual, ahora a lo auditivo, a la modalidad o a lo apto. Porque ya veréis el experimento de las manos de goma. Si queréis buscarlo en internet, que también aparece. Pero básicamente lo tenéis en este vídeo, ¿no? ¿Existe un controlador, existe un control supramodal único para la atención espacial? Hay ocasiones que dice que la atención opera sobre representaciones espaciales que están sujetas a influencia cross-modal. Del oído, del tacto. Y podríamos concluir que los mecanismos responsables de orientar la atención visual y aquellos de orientar la atención auditiva o táctil no son completamente independientes, sino comparten información a algún momento del procesamiento. Pues ya acabó. Hay cuantas páginas en blanco pongo yo. ¿Entiendes? Yo creo que ya acabó. Sí, ya terminamos el tema. Bueno, pues colorín colorado y este cuento se ha acabado. Siguiendo en mi línea. Espero no haberos aburrido. No implica que haya un sistema maestro de control sobre la modalidad, sino que la señalización, digamos que prioriza o... Dice, atiende más a lo visual o atiende más a lo auditivo. A lo auditivo, ya. Claro, si te he señalizado algo. Sí, sí. No existe el sistema maestro de control porque entonces yo estaría, por ejemplo, en un tren, veo que el de al lado se pone en marcha y a mí no me daría la sensación de...