auditiva y crossmodal. ¿Qué es crossmodal? A través de modalidades, auditiva visual, auditiva sensorial, etc. Vamos a ver cómo va esto. Hay que tener en cuenta que primero se estudió esto mediante la atención, mediante estímulos auditivos, pero hoy en día el debate está hablando de distintos tipos de atención vinculados a distintas modalidades sensoriales. Una atención sensitiva, visual, auditiva, olfática. Tenemos cinco sentidos. Bueno, nosotros vamos a estudiar la vista y el oído a través de modalidades. Entonces, ¿qué hacemos cuando con la atención selectiva auditiva? Pues vamos a separar el sonido en dos partes, lo que se llama segregación del continuo auditivo. Y esto es lo que nos permite diferenciar una fuente de información sonora de otra. Tuvo mucho interés esto en la investigación sobre atención selectiva auditiva. Pues tenemos el típico ejemplo que es el cóctel party. Imagínate que estás en una fiesta hablando con un amigo y de repente oyes a tus espaldas y dicen ¡Ángel! E intentas atender encubiertamente a lo que dicen de ti. Y decir tu nombre, aunque estés en un grupo, aunque haya mucho ruido, parece que lo percibimos. Esto es un poco lo que vamos a ver. ¿Cómo estudiamos esto? El paradigma de escucha dicótica. Vamos al sujeto a meterle dos fuentes de información diferentes en cada uno de los oídos. Por ejemplo, puede estar oyendo una lista de palabras en un oído y una lista de dígitos en el otro. Entonces, él va a tener la sensación de que tiene dos flujos auditivos separados y cada uno localizado en el oído correspondiente. Sherry fue el primer investigador que aplicó este paradigma de escucha dicótica y tenían que sombrear, es decir, el sujeto tenía que repetir rápidamente y sin demorar el mensaje del oído derecho. Por ejemplo, ignorar el otro. Al final le van a preguntar sobre la información presentada en el oído que no tenía que sombrear, en el oído no atendido o no sombreado. Y se dieron cuenta que los sujetos eran incapaces de informar del contenido del mensaje por ahí. Y lo único que habían percibido era que escuchaban sonidos. Imagínate, por una palabra tienes que sombrear y por otro, números, sonidos. Por lo tanto, parecía que hay propiedades físicas del mensaje ignorado que sí eran detectadas, pero otros aspectos como el lenguaje, las palabras individuales, el contenido y el significado no se daban cuenta. Pues Moray demostró que el mensaje no atendido se procesaba también hasta un punto antes de que nos seamos conscientes, de la experiencia consciente, justo antes de que esa información llegara al oído. Llegale a la consciencia y yo pueda comunicarla abierta. ¿Veis? Esto es lo que están mirando. ¿Os acordáis del filtro de Broadbent? Digamos, esto de Moray era un revés. Tiraba por tierra las teorías de selección de filtro rígido de Broadbent, que decía que había un filtro de tipo todo o nada que seleccionaba la información auditiva según propiedades físicas. Pues esto de Moray. Decía, no, hay algo que sí pasa. ¿Qué factores van a facilitar la selección de la información en el oído no atendido? Pues bien, se llegó a la conclusión de que los oídos se comportan como canales de procesamiento bastante independientes. Por lo tanto, el interés es comprobar cómo hay propiedades físicas del mensaje sombreado que me van a permitir seleccionar, o sea, si yo estoy sombreando, repitiendo lo que oigo por un oído, me va a impedir que no sepa bien lo que viene por el otro oído. Lo de la ubicación espacial, el espacio temporal, el tono, etc. Por lo tanto, el potencial de interferencia entre los oídos es elevado si aumentamos, por ejemplo, el número de canales activos. Es decir, porque luego también pusieron unos cascos donde un oído, otro oído. Y otro, un tercer canal. Llegaron a hacer un tercer canal. Por lo tanto, atender un mensaje auditivo relevante, teniendo en cuenta su ubicación espacial, tiene limitaciones. Porque puede haber un desfase temporal, es decir, en condiciones dicóticas, cuando hay desfase temporal entre las palabras de uno, cada uno de los mensajes, facilita la selección. Claro, si tú separas lo del tiempo, lo de un oído y lo del otro, el sujeto le da tiempo a saber lo que está entrando por el otro oído. El tono. El tono actúa como filtro, porque las personas podemos atender un mensaje, ignorar el alternativo, cuando las voces de cada uno de ellos son de género diferente. Cuando son del mismo género, los mujeres, me cuesta más ignorar. El oído no atendido. Son iguales, me cuesta más. Son diferentes, vale, me tengo que fijar en el hombre, me tengo que fijar en la mujer. Entonces, no es más sencillo. Por eso, el tono, la frecuencia. Hay procesamiento semántico de la información no atendida, lo que hemos dicho. El filtro temprano, tardío. Filtro tardío, procesamiento semántico. Sé lo que han dicho por el oído que no atiende. El 8. Imagínate que son números, por lo otro, palabras. Pues eso. Estos primeros trabajos ya exploraban las propiedades del mensaje, ¿no? Lo que es fase, tono. Estudios posteriores querían conocer qué tipo de información me puede llegar a mi conciencia del canal no atendido, ¿no? El primer descubrimiento fue menos curioso, fue que numerosas personas éramos capaces de escuchar nuestro propio nombre en el canal y señalarlo. Lo mismo es antes de copio, con telpartio. Yo por el canal ignorado dicen Ángel, tal, no sé qué, entonces cambio y digo, ostia, por aquí viene información interesante, ¿no? Sí, porque si dicen tu nombre ya parece que, ¿sabes? Por eso, Tresman, ¿os acordáis de Tresman?, el filtro atenuado, no es un filtro rígido como decía Brontën. Es un filtro... Pero no es un filtro rígido. Puede pasar algo de información. La información, decía Tresman, la información del canal no atendido, se puede analizar a un nivel semántico, es decir, puedo saber que sí, lo que viene por ese canal, no solo bla, bla, bla, bla, bla, un sonido. Dice, igual, cuando pronuncia nuestro nombre en el canal no atendido, puede captar nuestra atención, las palabras que deben ignorarse, pero que se ajustan al contexto de la oración que estoy sombreando, ostia. Por este lado también viene lo mismo, imagínate, ¿no?, parece que no los ignoras, que también llegan, pues bien. Estos resultados de Korten y Wood son consistentes con que hay un análisis semántico de las palabras del canal no atendido, por lo tanto, dice que no implica que toda la información llegue a la consciencia, dice que solo el 33% de los sujetos reconocen su propio nombre en el oído. Por lo tanto, no atendido, no atendido en una escucha de Korten, una escucha de números y palabras, o cosas distintas. Vale, atención dividida auditiva, ¿no? Aquí estábamos hablando de seleccionar, atención selectiva, seleccionar un canal y olvidarte del otro, ¿no? Pero hay tareas donde el problema no es atender a una fuente de estimulación, sino dividirla entre diversas fuentes de estimulación auditiva, ¿no? La técnica de memorización. ¿Qué es la amplitud de memoria dividida, de split, de amplitud de memoria? Pues bien, incorporaron modificaciones en este paradigma de escucha dicótica para ver qué habilidad tenían las personas para dividir su atención entre diferentes canales. La modificación fue la denominada técnica de amplitud de memoria dividida, donde te van a poner una lista de ítems fraccionada en dos listas más cortas y cada una se presenta en uno. Ahora pasa al otro, ahora pasa a este. Pues bien. La diferencia con esta técnica anterior del sombreado está en que ahora el sujeto tiene que atender a los dos oídos a la vez y una vez finalizada recordar lo que ha escuchado en los dos. Esto es contrario a las propuestas de Broat-Bell. Hay trabajos que demuestran que seleccionar ítems podía realizarse recurriendo a propiedades semánticas, no solo a claves físicas. O sea, significado, ¿no? Si cada oído... Imagínate que cada oído... Le ponemos una lista compuesta por dígitos y palabras, monosílabos. Los sujetos tendrían a recordarlos según el canal. Primero lo que oí por el derecho y luego lo oí por el izquierdo. Al igual que pasaba con Broat-Bell. Pero si les pedimos que seleccionen categóricamente, es decir, estamos diciendo números y palabras, que seleccionen primero los dígitos y luego las palabras. Incluso habría sujetos que lo recordaban agrupados, primero según la frase familiar, seguido de los dígitos. O sea, porque las palabras que eran sueltas formaban una frase. Hasta aquí la tarea dividida. La atención dividida. Aquí, en tareas de detección auditiva, los participantes escuchan series de estímulos auditivos y tienen que indicar cuándo han escuchado un táctil. Por ejemplo... Tienen que presionar un pulsador si detectan un tono de 1200 hercios entre una secuencia de tonos de otras frecuencias más bajas o sobre un fondo de ruido blanco. Es decir, que tiene todas las frecuencias. Tenemos buena capacidad los sujetos para dividir la atención entre los oídos y detectar tárgetes relevantes aislados. La detección es buena si es un solo tárgete en un momento dado. Si utilizamos... Si utilizamos varios tárgetes, varios sonidos de estos, si se separan, si se discriminan adecuadamente entre sí y pertenecen a frecuencias diferentes. No hay diferencia. Entonces, sí, nuestra atención auditiva se configura para distribuirse adecuadamente entre cada oído. Pero el problema surge cuando tenemos que detectar dos tárgetes que aparecen al mismo tiempo, uno en cada oído, y lo llama déficit del doble tárgete. Y esto demuestra que la atención... La atención no se puede compartir bien. Por lo tanto, dividir la atención entre diferentes canales para detectar estímulos relevantes simultáneos es más difícil que atender solo a una única fuente. ¿Cómo es que es así? Esto lo hacían siempre con un oído y con el otro, porque puedes escuchar en el exterior varias voces y es lo mismo. O lo hacían porque querían ver si tenía... Lo trataba como dos canales distintos de comunicación. Lo incluyeron otro más, que es un estéreo, donde no lo oyes aquí y aquí, sino aquí. Ah, vale. Pero esa parte... Sí. O sea, hasta ahora hemos hablado de escucha dicótica. Canal, canal. Dos canales. Y lo hemos ido complicando. Primero tal, luego tienes que dividir la atención, números y palabras, etcétera. Funciones de alerta a la atención auditiva, ¿no? Eh... La... O sea, atender a estímulos sonoros es independiente de cómo tengas la cabeza, la posición de la cabeza, de los oídos. O sea, tú... Bueno, si tienes un oído muy bajo, igual sí tienes que aplicar la oreja, ¿no? Pero... Por lo tanto, el sistema auditivo es neutral en eso, ¿no? Es un sistema de alerta temprana, listo para procesar un estímulo, provenga de cualquier dirección, independientemente de lo que estés haciendo, de tu posición. Haz... Haz olivococleal. Esa es la función de alerta del haz olivococleal, ¿no? Que es esta facilidad. Los ojos, los ojos, contrariamente a los ojos, el oído, no se puede remover a capturar el sonido, ¿no? Aunque haya algún tipo de control fisiológico interno, como los sensores, ¿no? La cóclea es una estructura anatómica que está en el oído interno. En el oído interno, donde están los receptores sensoriales, recibe inputs desde el cerebro y tal, estos inputs pueden ejercer un control sobre dónde dirigir la atención auditiva. El haz olivococleal, ¿no? De hecho, hay unas 1.300-400 fibras nerviosas en el haz olivococleal. Y conecta el tronco del encéfalo con la cóclea, transmitiendo un input que proviene del centro auditivo del lóbulo temporal, que está por aquí. ¿Vale? Este input eferente, que va de aquí, del tronco, a la cóclea, eferente, porque va hacia afuera, eferente, sería de la cóclea al cerebro, eferente, se puede ayudar a sintonizar los receptores sensoriales favoreciendo la selección de un sonido relevante en detenimiento de otro sonido elevado. Aunque esto es un excelente sistema de alerta y control necesario para protegernos de distracciones. De hecho, os podéis dar cuenta. Cuando, si tú entraras a una discoteca y te pusieras al lado del altavoz, así, te romperían los pímpanos. Pero si tú vas entrando poco a poco, poco a poco, cuando llegas, estás ahí, tú has estado mandando la orden de que, uy, esto es muy fuerte, baja, baja, baja, baja, baja, baja, baja, baja, baja, y pues igual estás soportando un montón de excesos. Es como en el metro, a veces me pongo a todo volumen por si no lo sé. Oye, y luego en casa, a lo mejor me lo pongo, ¡ah! O así, dices, hostia. Y está igual. De hecho, hay, ah, bueno, sí. Es que, bueno, ya lo he dicho, vale, vale, vale, seguimos, seguimos, pero estamos con esto. Ay, no, pues ya se acabó. Es eso. O sea, lo que estamos diciendo es que hay un control, yo voy diciendo, uy, uy, que hay mucho ruido desde el óvulo temporal y desde el tronco del encéfalo hacia la cóclea donde está el receptor sensorial. Para decir, uy, uy, que hay mucho ruido, uy, que hay muy poco, ¿no? Y se cae una moneda y te ha asustado, ¿no? Porque lo que el ruido hizo, ¿no? Ese es el control propio. A ver si me entiendes bien, aunque, o sea, que el cerebro como que... El sonido lo utiliza como un alerta y cuando quiere lo amortigua la cóclea. Tú le mandas el orden, la orden, no, hombre, lo que ya hemos hablado, o sea... Sí, pero nunca había hablado, o sea, no me... Es que si tú de repente... Si te expones a 500 Celsius, por ejemplo, un altavoz, te sangrarían las orejas. O sea, quiero decirte lo de... Pero si tú te vas acercando poco a poco, tú vas dando la orden interiormente de que uy, uy, uy, y ese sonido te tienes que proteger. Vale, lo llamo función de alerta. Vamos a cross-modalidad, vamos a cruzar modalidades. Control de la atención visual ejercido por los sonidos. Los sonidos, además de controlar la atención auditiva, también tienen la capacidad de orientar la atención visual. Oigo un ruido por allí, miro por ahí, ¿no? La vinculación entre modalidades atencionales incrementa la prominencia. Lo llamativo, pues, la prominencia perceptiva. Lo llamativo, que es un estímulo. La vinculación entre modalidades. Aumentar esto, lo llamativo de los eventos que aparecen en el espacio y en el tiempo, me pueden ayudar a integrar la información recibida por diversos sentidos para hacer una representación... ...multimodal del ambiente. Tenemos una predisposición a algo, a la vista o al oído. Predisposición hacia la frecuencia, ¿no? Imagínate que nos, te hago un experimento, nos piden detectar un tono del que, te digo, la frecuencia es esta. Conocemos su frecuencia. Nuestra ejecución, lo que hagamos será mejor que si no la conociéramos, incluso aunque esa, la probabilidad de que... ...la frecuencia aparezca sea muy reducida, pero la conozco. Por lo tanto, los oyentes tenemos predisposición atencional y detectamos mejor aquello que esperamos que suceda. Los oyentes podemos configurar una especie de filtro atencional que nos predispone a detectar una frecuencia concreta... ...de forma parecida a lo que sucede cuando focalizamos nuestra atención visual en una región específica del espacio. Hay un paradigma. Un paradigma. Para estudiar la predisposición atencional de una persona ante la frecuencia, que se llama paradigma de detección del estímulo sonda, prueba de señal paradigma. Aquí, se familiariza previamente al sujeto con un actor en una frecuencia determinada. Que es presentado reiteradamente de forma clara y audible. Vas a oír este ruido, este ruido. Así ya tenemos creado una predisposición atencional hacia la frecuencia. Y aquí tenemos la frecuencia. Y a continuación, le vamos a presentar dos breves secuencias sucesivas de ruido de fondo a ruido blanco. En una de las cuales incluyemos el target de la frecuencia. O en su defecto, un tono desviado en frecuencia. No es esa frecuencia que ya se ha acostumbrado, sino que es otro desviado. Con una intensidad que, en los dos casos, que dificulte su detección. Sujeto, la tarea que tiene es indicar... En cuál de las secuencias apareció el target. No el estímulo sonda, el probe. Aquí dice que se le llama gradiente de detección. Y se ha obtenido promediando los datos de multitud de experimentos. La detección disminuye en el momento que nos desviamos ligeramente del target. Aquí está el target, 1000 Hz. Aquí ya no se detecta. Un poquito más a la izquierda. Un poquito por debajo. O un poquito por encima. Ya no se detecta. Esa predisposición. La predisposición auditiva dice que parece que se configura en frases tempranas de procesamiento. Y esto demuestra que si los sujetos se les dice, se instruye a esperar, no uno, sino dos tarjes distintos. Y su rendimiento es muy bueno. Bastante bueno. Ante los dos tonos. Por ejemplo, uno de 700 y otro del doble. O sea, quiero decir, no muy parecidos. Sino que estén separados. Predisposición hacia el espacio. Imagínate que queremos no predisponerle a la frecuencia, sino a escuchar el sonido que viene de algún sitio determinado. También podemos sintonizarnos para una ubicación espacial. De ahí que haya un ajuste en la atención auditiva localizando eventos sonoros que ayudan al procesamiento del sonido. Esto se sostiene cuando estamos en un ambiente, una tarea compleja, un ambiente estimulado muy complejo. ¿Por qué? Para detectar un tarje auditivo no se beneficia por el hecho de conocer de dónde va a salir, dónde está el altavoz que vamos a poner. Parece que esta posición espacial no es tan importante para la percepción auditiva como lo es para la visual. Muy lógico. Pues bien. A pesar de esto, la localización no es un factor que me permita seleccionar cosas. Hay estudios que han demostrado que conocer... ...de dónde procede un sonido me puede beneficiar para detectarlo. Al menos si el estímulo se emite desde altavoces lo suficientemente alejados del sujeto, no mediante auriculares como hemos hecho estudiosos. Conclusión. La frecuencia es más importante que la localización espacial para la percepción auditiva. Manipulando estas propiedades hay trabajos que dicen que la frecuencia es más importante que la localización espacial para la percepción auditiva. Pero no es tan eficaz para seleccionar la información auditiva que la localización. Conclusión. El espacio no tiene un papel tan relevante en el procesamiento auditivo como lo ocurría en el procesamiento visual. Vamos a hacerle atender... Ahora vamos a complicárselo. Atender a modalidades sensoriales diferentes. Lo más cotidiano es un procesamiento multisensorial. Tienes que estar pendiente de los sonidos, de lo que ves, etc. En la atención... cuestiones relacionadas con la integración de información que procede de diversas modalidades sensoriales, la cross-modalidad, que demuestra que en ocasiones podemos atender la información que viene de varias modalidades sin costes, sin aparente coste. Es decir, que tarde mucho en detectar lo que tenga que ver. Beneficios del procesamiento multisensorial. Es más fácil atender simultáneamente una secuencia visual y a una auditiva para determinar un táctil que atender o bien a dos secuencias visuales o dos secuencias auditivas. Puedo estar atendiendo a lo que veo y a lo que oigo, pero si tengo que atender a dos cosas que veo, más difícil. O a dos cosas que oigo, más difícil. Ahí ya tenemos un beneficio. Cuando me piden detectar cambios en la integración multisensorial. La duración de los estímulos, las cosas empeoran. Porque el rendimiento ahora es peor bajo condiciones de atención dividida que cuando se atiende a una modalidad por separado. Porque cuando tenemos que hacer juicios temporales hay un procesamiento que tenemos que compartir con... Es decir, tengo que decir cuánto ha durado. Tengo que decir un juicio temporal. Es decir, no tienes que escuchar un táctil auditivo. No, no. Tienes que decirme cuánto dura. Tengo que compartir. Eso lo hago en el cerebro, en mi consciencia. Eso es lo que hago en el cerebro. Eso es lo que hago en mi consciencia. No en la atención auditiva ni visual, sino... Porque el tiempo no pertenece ni al oído ni a la vista. Lo que explica el deterioro. Pues bien. Detectar una frecuencia se facilita si hay una predisposición a esperarla. Eso ya lo decimos antes, ¿no? Predisponer a la persona a esperar un estímulo de una modalidad sensorial también afecta. También hace que mejore su procesamiento. Hay experimentos que demuestran que podemos mejorar su procesamiento. Hay experimentos que demuestran que podemos crear una predisposición a esperar un estímulo de una modalidad determinada, aunque esto no siempre va a facilitar su procesamiento. ¿Qué domina? ¿La visual o la auditiva? Aquí dice que hay dominancia de la modalidad visual. Si compite información que viene de varias modalidades, auditiva, proprioceptiva. Proprioceptiva es como estoy sentado. O sea, yo tengo información de mí mismo. Recepción de la posición del cuerpo, procesado por receptores de las articulaciones, los músculos táctil y la información visual que captura y controla nuestra percepción. Pues bien. Hicieron trabajos que sugerían que puede existir predisposición atencional hacia la información visual. Pero esa dominancia de lo visual sobre las otras modalidades no es algo universal, viene a decir. Bueno, en psicología hay pocos. Pero cuando los estímulos visuales tienen la misma importancia que otros estímulos de otras modalidades sensoriales simultáneas y me dan igual o mayor información, porque estoy viendo así el sonido está saliendo de ese camión de helados o lo que sea. Es muy probable que haya una predisposición hacia la modalidad visual y que ésta sea la dominante. ¿Cómo lo vemos? El ventrílogo. ¿Qué hace el ventrílogo? Demuestra la ventriloquía, demuestra la influencia del efecto Kroos modalidad en la atención, porque nuestra percepción del origen del sonido se ve alterada por la percepción visual. Hola, ¿qué soy yo al que hablo? El ventrílogo deja la boca quieta, y tú ves que la boca que se mueve es el muñeco. Y está hablando el muñeco. Ese es el tonto que está moviendo por detrás. Es decir, la información visual nos engaña. y creemos que en ella se sitúa el origen del sonido. Aunque el sonido proviene del ventriloquio, nosotros lo evocamos en la boca del muñeco. El efecto es muy poderoso conforme a la fuente del sonido. Es difícil de localizar. No sale de aquí, sale por un altavoz por allí. Y tú ves que el otro se mueve y cada vez que ahí dice ¡Hola! ¡Estoy aquí! ¿Sabes? Acompasa un poco los movimientos, la información visual con la información auditiva, lo que está diciendo. Percepción del dolor. Si dirigir la atención visual a una región de espacio facilita el procesamiento de los trajes. Allí presentado. Saber por adelantado en qué zona de nuestra piel va a ser estimulada reduce el umbral para detectar la estimulación en dicha zona y nos hace más sensibles. Yo no puedo ver, cuando me sacan sangre no puedo ver. Me lo acaban de explicar. Además, cuando la estimulación es dolorosa, saber por adelantado qué va a ser aplicada nos hace más sensibles. Debido a lo aversivo. Efectos de la atención sobre la percepción del dolor. En unos experimentos en el que los sujetos se les aplicó en cada ensayo una dosis de calor radiante aversivo. Con una alfombrilla. Calor radiante. Se descubrió que la estimulación térmica fue valorada como más intensa y desagradable cuando era esperada que cuando no lo era. Cuando le decían Ahora te vamos a poner un... Un... En la silla. Un calor intenso. Aversivo. No voy a decir nada. Esta observación tiene una importante repercusión durante la aplicación de terapias. Porque distraer la atención de un paciente cuando recibe un tratamiento doloroso puede hacer que su experiencia sea relativamente más fría. No le vas a decir Mira, te voy a pinchar aquí. Y ahora voy a hacer así para que... No, no, le distraes. Mira. Ay, mariposa. Mira, un DVD. ¿Quieres ver Harry Potter? Por favor. Le distrae. Si consideramos la atención como un mecanismo para dirigir nuestra conducta en un ambiente complejo, es obvio que esta control solo se puede llevar a cabo integrando las informaciones recogidas de los distintos sentidos. La manera más adecuada de entender qué queremos decir con atención a través de modalidades es analizar de qué manera percibimos el espacio y construimos marcos de referencia espaciales a partir de la información. Y la información que recibimos es de los distintos sentidos. Entonces, si vas conduciendo, tienes que crear marcos de referencia espacial. Y dado que cada sentido recopila información que viene de sus receptores, y estos receptores están en un lugar distinto, las conexiones entre la información que aportan diferentes modalidades sensoriales me va a permitir construir una representación estable del ambiente externo y nos permite actuar y dirigirnos en el medio. ¿Cómo se ha estudiado todo esto, esta integración entre modalidades? La facilitación crossmodal. Vamos a comparar las respuestas neuronales separadas ante cada uno de los dos estímulos unimodales y con la respuesta neuronal conjunta obtenida, vamos a comparar la individual con la conjunta. Si esta respuesta bimodal es mayor que la respuesta combinada en cada uno de los dos estímulos, entonces, Entonces, hay facilitación cross-modalidad de la respuesta debido a la integración de las modalidades. Cuando sabemos que la presencia de una señal puede controlar nuestra atención y la puede dirigir hacia un objeto o hacia una región del espacio, lo mismo que ocurre con las señales unimodales, también se han estudiado los potenciales efectos de esta señalización cross-modal. Digamos, señalización cross-modal es el fenómeno porque una señal visual puede dirigir la atención hacia una dimensión de un estímulo auditivo, a tono, etc. Hay factores atencionales que no pueden ser responsables. Esto, los psicólogos, para evitar este problema, han desarrollado el paradigma de la señalización ortogonada. Luces y sonidos. Los puntos negros son los puntos blancos. Los puntos negros son luces. Luego, el círculo es un bafle, un altavoz. Pues, utilizando cuatro altavoces, esta señalización ortogonal, hay efectos de señalización cross-modal cuando las respuestas de la posición vertical del tárteta, arriba o abajo, son más rápidos en el lado señalizado que en el no señalizado. Esto es lo que viene a ver. Conclusión. ¿Hay efectos de señalización cross-modal? Sí. Existen. Se manifiestan en trabajos experimentales. ¿Hay un control supramodal único para la atención espacial? Tiene que haber un control, ¿no? Tengo que dirigir la atención a la vista o al oído, etc. Supuestamente hay aspectos de la atención que aparentemente están bajo un controlador supramodal. Esto aparece, o sea, la localización espacial externa compartida entre los dos. Estímulos auditivos y visuales facilita que haya vínculos atencionales cross-modales. Esto favorece que haya un controlador atencional supramodal. Y, en efecto, la atención opera sobre representaciones espaciales que están sujetas a influencia de varias modalidades y no solo sobre una única modalidad. Por lo tanto, podemos concluir que los mecanismos responsables de orientar la atención visual y la auditiva o táctil no son independientes, sino que comparten información en algún momento. Y esto es todo, amigos. Ha sido rápido el de hoy.