Hola, vamos a ver el capítulo 4 de Psicología de la atención, la atención auditiva y plosmodal. Hay que decir que los primeros trabajos experimentales fueron mayoritariamente con estímulos auditivos. A final del siglo XX la investigación estaba dedicada a explorar la modalidad visual. Pero hoy queremos saber, o sea, el debate entre los teóricos de esto está alrededor de los distintos tipos de atención vinculados con diferentes modalidades sensoriales. Atención para la vista, atención para el oído, atención para el olfato, para el gusto, para el tacto, etc. La pregunta que se hace en los teóricos es cómo se integra la información, la información que procede de diversas modalidades sensoriales, de la visión, de la audición y del tacto principalmente. Y si hay algo parecido a un controlador atencional central de naturaleza supramodal, es decir, con la modalidad visual, audición, tacto, por encima de estas modalidades. Si tenemos un controlador que coge bien la atención. La audición. La audición, el oído, lo que oímos, difiere de la visión en aspectos, ¿no? Lo que limita la investigación con estímulos auditivos. Aquí vamos a, en este capítulo, se revisan investigaciones que han aplicado el paradigma de escucha dicótica, que es presentar distintos mensajes en cada oído de modo simultáneamente. Entonces, lo vamos a ver un poco porque es un poco en que se dividen los capítulos. Vamos a ver en primer lugar descubrimientos obtenidos en atención selectiva auditiva. Es decir, el sujeto tiene que atender el mensaje de un oído e ignorar el del otro. Luego, en el punto 3, creo que pasamos a la atención dividida auditiva, ¿no? Donde el sujeto tiene que atender a los dos mensajes, ¿no? Y a partir de estos trabajos se han presentado teorías. Vamos a verlas. Y esa manera vemos también la función de alerta, la alerta que nos producen los estímulos auditivos. Y a ver qué disponemos. ¿Qué papel juega ahí estar predispuesto a atencionarme? Terminaremos con la investigación sobre atención crossmodal en la que se vincula audición, visión y el tacto. Muy simpático de la atención crossmodal. Veremos el experimento de la ilusión del guante de goma. ¿Vale? Vamos a ver el punto 2 de este tema titulado atención selectiva auditiva. Entender un mensaje, en este caso en los experimentos será detectar un target auditivo, depende de la capacidad que tenemos para analizar y fragmentar los sonidos complejos en componentes simples. A este proceso se le conoce como análisis o segregación del continuo auditivo. Esta capacidad nos permite diferenciar una fuente de información sonora de otra fuente. Los ejemplos de segregación del continuo auditivo en atención auditiva es intentar seguir dos conversaciones a la vez. Por ejemplo, el ejemplo clásico, cóctel party. Imagínate, cóctel party. Estamos en una fiesta, hablando con una amiga. De repente, escuchamos nuestro nombre en otra conversación a nuestra espalda. José, intentamos atender lo que se dice de nosotros a la vez que seguimos la conversación con nuestra amiga. Otro ejemplo. Seguir el diálogo de una película sobre el fondo de una conversación ruidosa entre dos personas. Imagínate que estás en el cine y las dos personas que hay delante están hablando. Tenemos que intentar ignorar una fuente sonora, los dos pesados que están hablando en el cine, y seleccionar el mensaje auditivo que me dicen desde la película y que me interesa. En los dos ejemplos existen dos fuentes. Dos fuentes de información auditiva que se reciben simultáneamente y que deben separarse, segregarse. En el primer ejemplo, intentamos seguir dos conversaciones simultáneamente. En el cóctel party estamos en una fiesta. En el segundo, intentamos seguir una conversación e ignorar la otra. Aquí vamos a hacer la atención selectiva. Pues bien, vamos a empezar con el punto 2-1. Escucha dicótica, el sombreado. El paradigma de escucha dicótica consiste en que le voy a poner al sujeto por los auriculares dos fuentes diferentes de información auditiva. y que se presenta por separado en cada uno de los oídos. Por ejemplo, escuchar una lista de dígitos en un oído y una lista de palabras en el otro. Es más sencillo seleccionar un único mensaje cuando estamos aquí bajo condiciones de escucha dicótica que bajo condiciones de escucha cotidiana. Pues bien, esa presentación dicótica genera la impresión de escuchar dos flujos auditivos separados, cada uno de ellos localizado más o menos en el oído correspondiente. La localización de los mensajes dicóticos, comparándolo con los cotidianos, es mucho más marcada y de una naturaleza distinta a lo que es una escucha habitual. Colin Cherry fue el primer investigador en aplicar el paradigma de escucha dicótica para estudiar la atención. Pues bien, en sus experimentos pedía a los sujetos que sombrearan... es decir, repitieran rápidamente y sin demora, pues sombrearan uno de los mensajes del oído derecho e ignorasen el otro, el del oído izquierdo. Y al finalizar la tarea, cuando le preguntaba a los sujetos sobre la información presentada en el oído no atendido o no sombreado, se descubrió que eran incapaces de informar del contenido del mensaje allí presentado. Pues bien, Cherry quería comprobar mediante manipulaciones del mensaje atendido, quería comprobar qué tipo de información ignorada se podía captar. A pesar de decirles a los sujetos que atendieran exclusivamente al oído sombreado. Pues bien, se descubrió que casi ningún sujeto era capaz de detectar un cambio de idioma, por ejemplo del inglés al alemán, ni tampoco que un mensaje en inglés era reproducido en sentido inverso. Sin embargo, los sujetos sí se percataron de cambios en el género del hablante, de la voz que pasaba de hombre a mujer o de mujer a hombre. ¿Qué conclusión sacó? Pues parece que determinadas propiedades físicas del mensaje ignorado, del oído ignorado, eran detectadas. Pero aspectos más elaborados como el lenguaje, las palabras individuales, el significado, el contenido semántico, pasaban desapercibidas. Lo que favorece las propuestas... las propuestas de la selección temprana que hemos visto en los temas anteriores. Pues bien, otro investigador, Neville Moray, quiso comprobar si las personas eran tan insensibles al canal no atendido como decía Cherry. Moray presentaba una tarea de sombreada, de sombreado, de tal manera que les presentaba 35 veces una misma lista de palabras en el oído no atendido. Moray descubrió que la probabilidad de recordar alguna de estas palabras fue tan baja como la de recordar palabras que nunca fueron presentadas. Bien. También descubrió que si el mensaje presentado en el oído no atendido era el mismo que del oído atendido, los sujetos se percataban de la semejanza, siempre y cuando el desfase o diferencia temporal entre las palabras repetidas de ambos canales no excediera de escasos segundos. Es decir, se daban cuenta cuando iban más o menos a la par, que no hubiera desfases, el mismo mensaje. Se daban cuenta de que era el mismo mensaje. Pues bien, este resultado de Moray fue un revés, un golpe para las teorías de la selección temprana del filtro rígido de Provence. El resultado de Moray demostraba que esto no es necesariamente así, pues el sujeto parecía haber procesado mucha más información. Del oído ignorado, que la que realmente estaba atendiendo conscientemente en el oído sombreado. Es decir, que el mensaje que no atendió se procesaba también hasta un punto inmediatamente anterior a la experiencia consciente. Lo del filtro, o sea, filtro de selección temprana y selección tardía, ¿no? Vale, hasta justo de que la información accedía. Era la conciencia y pudiera comunicarse abiertamente. En consonancia con la propuesta del filtro atenuado, seguimos con selección temprana, filtro atenuado de Tresma. Vamos a ver ahora qué factores, o sea, todas las investigaciones que hallaron, ¿no? En este caso, unas iban a favor del filtro temprano, que eran las de Collin-Cherry. Y ya luego Moray introdujo diferencias y ya fue Moray el que descubrió que esa información que le había oído ignorado se procesaba hasta un punto ya antes de que acceda a la conciencia, antes de que pudiera comunicarse libremente a otros. Esto favorece la propuesta del filtro atenuado de antes. Vamos a ver ahora factores que facilitan la selección. A ver, vamos a ver qué cosas son las que hacen más fácil que el sujeto seleccione un mensaje entre el cimentro de otro. Vamos a ver la ubicación espacial, de dónde salve y proviene el mensaje, los experimentos que han hecho. Si hay un desfase temporal, como hemos visto, entre un mensaje y otro. El tono, cuando cambia el tono de hombre a mujer. Todo esto que hemos... señalado. Vamos a ver si facilita la selección. Utilizando escucha dicótica, se llegó a la conclusión de que los oídos se comportan como dos canales de procesamiento relativamente independientes. Por eso el interés fue comprobar cómo algunas propiedades físicas del mensaje sombreado permitían su selección en detrimento del mensaje alternativo. ¿Verdad? El mensaje que no tengo que sombrear. Vamos a ver lo que hemos dicho. Ubicación espacial o localización espacial, desfase temporal entre un mensaje y otro y el tono. En la localización espacial... En escucha dicótica es el lugar de procedencia de un mensaje, en este caso del oído sombreado, es una clave que permite que lo seleccione el sujeto frente al mensaje alternativo. Pero se sabe que esa resolución espacial auditiva es muy limitada porque el número de mensajes que pueden atenderse e ignorarse también es limitado. Esto se comprobó creando un tercer canal. Tenemos un sujeto con dos canales, el oído derecho y el oído izquierdo. Vamos a crear un tercer canal resultado de presentar mediante auriculares un tercer mensaje de igual intensidad en ambos oídos. En este caso el oyente tiene la impresión de que el mensaje proviene del centro de la cabeza. Pues bien, aplicando este experimento, este procedimiento, se sabe que el sombreado de un canal, es posible, si se presenta simultáneamente un mensaje a ignorar en un segundo canal. Pero si se presentan mensajes en los tres canales a la vez, se deteriora mucho el sombreado de uno de ellos. Es decir, los oídos actúan a modo de canales de procesamiento diferentes, pero el potencial de interferencia entre ellos es elevado si el número de canales activos se incrementa. Por lo tanto, atender a un mensaje auditivo relevante, teniendo en cuenta su localización espacial, tiene sus limitaciones. Hasta aquí la localización espacial. Vamos a ver lo que tienen que decir sobre el desfase temporal. En condiciones de escucha dicótica, la selección del mensaje que tiene que ser sombreado a veces es difícil o prácticamente imposible. Por esto, para facilitar la selección del canal relevante en escucha dicótica, es necesario en ocasiones separar ambos mensajes aplicando un pequeño desfase temporal entre ellos. Por tanto, bajo condiciones dicóticas, además de la localización física del mensaje o localización espacial, la existencia de una asincronía o desfase temporal entre las palabras de cada uno de los mensajes es un importante factor que facilita la selección. Respecto al tono, otro factor que facilita la selección auditiva. En el experimento de Cherry, que hemos visto antes... Hablaba de... ¿no? ¿Nombramos a Cherry? Sí, ¿no? Sí, Colin Cherry en el sombreado. En el experimento de Cherry, los sujetos atestían el cambio de género del narrador del mensaje no sombreado, ya sea hombre o mujer, lo que indica que eran conscientes del tono del mensaje, aunque no lo atendieran activamente. Por tanto, esto quiere decir que el tono actúa como filtro y facilita la selección de una información en detrimento de otra. Y esto está en línea con la teoría de Brazben, del filtro rígido. Por esto, las personas tenemos más facilidad para atender a un mensaje e ignorar el mensaje alternativo. Cuando las voces de cada uno de ellos son de género diferente, mucho mejor que cuando son del mismo género. Vamos a pasar al procesamiento semántico de la información no atendida, cuando conozco ya el significado, semántica, significado. Pues bien, posteriormente querían saber los investigadores qué tipo de información podría adquirirse del canal no atendido y descubrieron que muchas personas eran capaces de escuchar su propio nombre en el canal ignorado. José Moray, investigador Moray, se dio cuenta que la secuencia puedes parar ahora, presentar... ...en el oído, no sombreado, hizo que un 8% de los participantes detuvieran la tarea. Sin embargo, cuando esa misma secuencia estuvo precedida por el nombre del sujeto, Ana, puedes parar ahora, el número de participantes que detuvieron la ejecución alcanzó el 33%. Quiere decir, cuando decía, en general al sujeto, puedes parar ahora, por el oído no ignorado, solo el 8%. El 33% detuvo la tarea. Sin embargo, cuando decía el nombre del sujeto, José, puedes parar ahora, por el oído no ignorado, el 33% lo entendieron, captaron el mensaje y pararon. Gracias. Esto es la investigación de Moray. Muy bien, pues luego Treisman hizo otro descubrimiento de cómo se procesa la información del canal no atendido. Les presentaba dos mensajes diferentes. Los dos mensajes eran relatos con significado, estaban grabados por la misma voz. Pero los mensajes fueron fraccionados. Partía de forma que la primera mitad de cada mensaje fue presentada en un oído y la otra mitad en el otro. Aunque se instruyó a los participantes para que atendieran un sombreal todo aquello que se presentaba en un único oído. A menudo saltaron al canal no atendido en el punto en el que el mensaje se fraccionaba y pasaba al otro canal. Cuando sucedía esto, los sujetos... ...normalmente regresaban al canal originalmente atendido tras una o dos palabras escuchadas. Pues bien, este resultado demuestra que la información del canal no atendido podría ser analizada en un nivel semántico. En definitiva, al igual que la pronunciación de nuestro nombre en el canal no atendido puede captar nuestra atención... ...las palabras que deben ignorarse. ...pero que se ajustan al contexto de una oración sombreada, también pueden hacerlo. ...también pueden hacerlo. Es decir, que yo solo tengo que atender al oído derecho, pero lo que estoy escuchando cambia al otro oído izquierdo. Aunque no lo tengo que escuchar porque es la consigna, me salto la consigna y paso al oído izquierdo. Quiero decir, he captado que continúa el mensaje ahí, ¿no? Y luego, tras unas pocas palabras, vuelvo al canal, estoy haciendo un experimento del oído derecho. O sea, es decir, la pronunciación de nuestro nombre en un canal no atendido puede captar nuestra atención. También, como las palabras del oído no atendido se ajustan al contexto que estoy sombreando, también llama mi atención. Otros investigadores corten. Y Wood comprobaron esta idea del procesamiento semántico del significado. Por el oído irrelevante, captó el significado. ¿Qué hicieron? Vamos a utilizar el condicionamiento. Vamos a utilizar una descarga eléctrica. Vamos a condicionar. Corten y Wood condicionaron a las personas a esperar una leve descarga eléctrica al escuchar el nombre de ciertas ciudades. Roma, París. Lo que sea. Algunas. Posteriormente, los participantes realizaron una tarea de escucha dicótica en la que el mensaje no atendido incluía los nombres de las ciudades condicionadas mezclado con nombres de otras ciudades y palabras no relacionadas. Pues bien, los participantes. Afirmaron no ser conscientes de haber escuchado el nombre de ninguna ciudad en el oído no atendido. Pero, curiosamente, mostraron cambios significativos en la conductancia eléctrica de la piel, que es una respuesta psicofisiológica asociada con el estrés. ¿Cuándo? Cuando aparecieron los nombres de las ciudades condicionadas. Eso comparando esa conductancia de la piel cuando aparecían el resto de las palabras, que también eran ciudades. Por lo tanto, aunque los nombres de las ciudades condicionadas no superaron el umbral de la experiencia consciente, porque los sujetos dijeron que no habían oído nada, nombres de ciudades. Pues bien, aunque no superaron la experiencia consciente, parece que sí fueron analizadas semánticamente en un plano inconsciente. ¿Qué implica esto? Pues esto implica que toda la información del canal no atendido llega a la consciencia, accede a la consciencia. Y para que la información que recibo, categorizada, porque sé el significado, acceda a la consciencia y sea comunicada abiertamente para el sujeto, se requiere la participación de la atención. Y esto va en línea con la propuesta de la selección perdida. Es decir, lo que estamos diciendo es que toda la información del canal no atendido accede a la... Perdón, que no... Perdón, me he equivocado. Voy a leer lo que dice para que... Aunque estos resultados son consistentes con el análisis semántico de las palabras del canal no atendido, no implica que llegue a la conciencia. Es decir, como ha analizado todo lo que ha entrado por el oído no atendido, no tiene por qué llegar a la conciencia hasta que no aparezca la atención. Es decir, para que la información categorizada hacia la conciencia y sea comunicada libremente por el sujeto, se requiere la atención. Por lo tanto, esto va en línea con la propuesta de selección tardía. Decimos, toda la información sobre la atendida llega a la conciencia inconsciente de ella. Ya la puedo decir. Sí, he oído una ciudad. Sí, he oído esto. Perdón, ¿eh? Vamos a pasar al punto 3. Atención dividida auditiva. Vamos a ver que es más problema. Hemos escuchado atención selectiva pidiendo a los sujetos que seleccionaran un canal, la información de un oído. Aquí va a ser más difícil, más problemático dividir la atención entre diversas fuentes. Vamos a ver paradigmas, experimentos. Para estudiar la capacidad de dividir la atención entre diferentes fuentes de información acústica. Primero vamos a ver la escucha dicótica. Con la escucha dicótica... Seguimos. Veremos la técnica de amplitud de memoria dividida, split-span. Pues bien, al experimento de escucha dicótica ya han hecho modificaciones y esto permitió analizar también la habilidad de la persona para dividir su atención entre diferentes fuentes de información o canales. Una de las modificaciones es técnica de amplitud de memoria dividida, split-span, que consiste en presentar una lista de ítems que se fracciona en dos listas más cortas que se presentan cada una de ellas en un oído. La diferencia con la técnica del sombreado está en que ahora el sujeto tiene que atender a ambos oídos a la vez, atención dividida, y una vez finalizada. Finalizada los estímulos, el mensaje. Recordar lo que ha escuchado en ambos oídos. Pues bien, Brodben utilizó este procedimiento. Se presentó dos listas diferentes, formada cada una por tres dígitos, que se metieron en una tasa de dos dígitos por segundo. Brodben descubrió que los sujetos tendían a recordar los dígitos agrupados por cada canal de presentación. Es decir, primero le decía un oído y después el oído. Pero no agrupados según la secuencia temporal de aparición. Bien, Brodben, en línea con su idea del filtro selectivo, explicó este resultado, diciendo que la selección de la información se producía en fases tempranas del procesamiento y recurriendo a las propiedades físicas de la información. Una propiedad como la localización espacial del mensaje, el canal por el que... Así, mientras el mensaje de uno de los oídos era atendido, el otro mensaje se mantenía en espera, en una especie de almacén, de tal forma que el filtro atencional cambiaba al oído alternativo después de que se comunicaran los dígitos del primer oído. Bien. Hay contrarios a esta propuesta de selección temprana de Brabham. Ahí hicieron trabajos posteriores y demostraron que la selección de ítems podía realizarse también recurriendo a propiedades semánticas y no sólo a claves físicas como la localización. Lo dicen los experimentadores Barzath y Fennell, que presentaban en cada oído una lista compuesta por dígitos y monocíticos. Por ejemplo, oído derecho Q, en inglés, 3, dígito 3, D, aquí. Y en el oído izquierdo 2, Q, en inglés, dos, palabra, nueve, nine. Los sujetos tendían a recordarlo según el canal. Primero un oído y luego el otro, igual que lo que pasaba con Brabham. Sin embargo... Si le pedíamos a los sujetos que los seleccionaran categorialmente, es decir, que me digan primero los dígitos y luego las palabras, lo hacían sin mayores problemas. ¿Qué tareas les ponían? Les podemos poner una de detección audítica. Tareas de detección audítica. En las tareas que les ponemos, los participantes escuchan secuencias o series de estímulos auditivos y tienen que indicar cuándo han escuchado un determinado target, presionando un pulsador cuando detecten un tono de 1.200 Hz. Entre ellas hay ahora secuencias de tonos de otras frecuencias o les pondremos un ruido blanco formado por toda la secuencia. Pues bien, las personas tenemos buena capacidad para dividir nuestra atención entre ambos oídos y detectar targets relevantes, aislados, que puedan aparecer en cualquiera de ellos. Pues bien, la detección es buena cuando sólo se presenta un target o cuando se diferencia bien entre sí al utilizar varios targets. El problema surge cuando debemos detectar dos targets que aparecen al mismo tiempo y uno en cada oído. Esto lo vamos a llamar déficit de doble target. Es una tarea muy difícil, muy dificultosa y demuestra que la atención no se puede compartir apropiadamente entre ambos oídos. Es decir, podemos dirigir la atención a muchas fuentes de estímulos pero parece que surge un déficit de doble target. O sea, un cuello de botella en el procesamiento cuando queremos detectar varios estímulos relevantes que aparecen a la vez. A la vez. Este déficit del doble target también sabemos que aparece incluso en el proceso de la comunicación. Cuando los sujetos saben de antemano en qué oído se presentará un tárget, lo que hace a priori facilitar la detección simultánea del otro tárget en el oído alternativo. En conclusión, dividir la atención auditiva entre diferentes canales para detectar estímulos relevantes simultáneos es mucho más difícil que atender exclusivamente a una única fuente de información. Según los investigadores Schneider y Schiffer. Vamos a ver el punto 4. Pasamos a las funciones de alerta de la atención auditiva. Sabemos que podemos atender a estímulos sonoros independientemente de cómo tengamos la cabeza, de la posición de la cabeza, de los oídos. Esta neutralidad del sistema auditivo hace que sea algo excepcional, un sistema de alarma temprana. ¿Qué es lo que se puede hacer? Un sistema de alarma temprana preparado para recibir y procesar estímulos que provienen de cualquier dirección, independientemente de cómo esté situado el organismo. Función de alerta del haz olivocoplear. Los ojos se pueden mover, pero nuestros oídos no se pueden mover para capturar el sonido. Podemos hacer así, a ver, pero no se pueden mover. Sin embargo, esto no excluye que la atención auditiva pueda estar subyacente. La atención auditiva puede estar supeditada a algún tipo de control fisiológico interno. La cóclea es una estructura anatómica situada en el oído interno donde se localizan los receptores sensoriales. La cóclea recibe impulsos desde el cerebro, de arriba a abajo, y tal vez estos impulsos pueden ejercer un control sobre dónde dirigir nuestra atención auditiva. Tenemos 1.400 fibras nerviosas, llamado ad olivocoplear, que conectan el tronco del encéfalo con la cóclea, transmitiendo un input que proviene de los centros auditivos del lóbulo temporal. Pues bien, este input eferente, que va hacia afuera, arriba-abajo, puede ayudar a sintonizar los receptores sensoriales, favoreciendo la selección de un oído relevante en detrimento de otro irrelevante. Lo que constituye un excelente sistema de alerta y control necesario para protegernos de las distracciones. Pues bien, por ejemplo, vamos a ver qué ejemplo nos pone. Los gatos. Imaginaros que a los gatos se les ha lesionado el ad olivocoplear. Le han cortado esa conexión entre el lóbulo temporal y la cóclea. Bueno, pues a estos gatos, que les hemos seccionado esta vía, se distraen más fácilmente ante un ruido irrelevante que los gatos que no están lesionados. Cuando el input eferente del ad olivocoplear... Está intacto. Cuando esa línea está intacta, los gatos y las personas quizás son menos susceptibles a la distracción y a la interferencia ocasionada por el ruido. sin embargo, este control que es sensible a la presencia de estímulos exógenos que nos hace que no los tengamos en cuenta tal vez no tenga un papel tan destacado cuando la atención auditiva estaba bajo control del sujeto endógeno orientada endógena control de la atención visual ejercida por los sonidos cross-modalidad vamos a ver cómo nos controla la atención vamos a ver el control que ejercemos de lo que vemos por lo que oímos hay que tener en cuenta que los sonidos están a menudo asociados con eventos importantes situaciones importantes, amenazantes para nuestra vida es lógico que la presencia de sonidos alerta de un potencial peligro y que existe una fuerte tendencia a orientar nuestra atención auditiva hacia el lugar de procedencia pero además de controlar la atención auditiva los sonidos también tienen la capacidad de orientar la atención visual miramos sabemos que las respuestas ante un tángel visual que aparece a la derecha o a la izquierda de un punto de fijación son más rápidas cuando se presenta previamente un tono auditivo que procede de un altavoz ubicado en el mismo lado Aquí tenemos el dibujo de este experimento que vamos a ver de cross-modalidad, ¿vale? En el procedimiento, bueno, perdón. El procedimiento que vamos a utilizar es que sabemos que las respuestas ante un tárgeno visual que pueda aparecer a la derecha o a la izquierda de un punto de definición son más rápidas cuando se presenta previamente un tono auditivo que procede de un altavoz que está en el mismo lado. Es un breve tono emitido a modo de señal auditiva, fue seguido por un tárgeno visual, algo que tengo que ver, presentado también brevemente. Y la señal auditiva podía emitirse desde un altavoz izquierdo o derecho. El tárgeno era un led central que se iluminó en verde. Cuatro leds rojos situados alrededor del tárgeno fueron empleados para enmascararlo una vez que desaparecía. Bien, los sujetos debían presionar un pulsador cada vez que detectaran el tárgeno visual sin tener en cuenta el lado en que aparecía. Estamos midiendo una tarea de tiempo de reacción simple. Pues bien, los sujetos fueron más rápidos y más precisos para detectar el tárgeno visual si éste aparecía en el mismo lado que el tono auditivo que si aparecía en la dirección. lado opuesto del tono auditivo. Estos hallazgos sugirieron que la cross-modalidad o vinculación entre modalidades atencionales diferentes, en este caso la visión y la audición, incrementa la prominencia perceptiva de los estímulos. Ese aumento de la prominencia puede ayudarnos a integrar la información recibida por los sentidos para construir una representación multimodal del ambiente. Es decir, que si me vienen las señales por dos modalidades, una vinculación de modalidades, vista o oído, aumenta que yo perciba mejor esos estímulos y me haga una representación del ambiente. Hasta aquí el punto 4. Pasamos al punto 5 de predisposición atencional. Vamos a ver investigaciones sobre si hay una... Si me predispongo... Por ejemplo, el investigador me predispone hacia detectar una frecuencia concreta, luego lo hará hacia el espacio y luego sacaremos unas conclusiones. En este caso, la conclusión es que la frecuencia es más importante que la localización espacial para orientar la atención auditiva. Nos lo decía en el primer mensaje. La frecuencia. Cambiar el mensaje de hombre a mujer. En el oído no atendido me llamaba mi atención, hacía que me diera cuenta, etc. Vamos a ver qué dice la predisposición hacia la frecuencia. Si nos piden detectar un tono del que sabemos su frecuencia de antemano... lo haremos mejor, esta ejecución será mejor que si no conocemos la frecuencia de antemano. Aunque esa posibilidad de aparición de la frecuencia sea muy reducida. Es decir, si conozco el tono, cuando aparezca, lo detecto mejor. Incluso que aparezca pocas veces. Vaya probabilidad de que la probabilidad de aparición sea reducida cuando me lo ponen a los 5 minutos. Por ejemplo, tenemos personas con habilidades musicales a las que les presentan melodías constituidas por 5 notas y son más precisas juzgando el tono de una nota táctil, que puede ser la cuarta. Si es una frecuencia esperada en términos musicales y cuando es una frecuencia inesperada. Es decir, los oyentes tenemos predisposición atencional y detectamos aquello. Mejor aquello que esperamos que suceda. Si, por ejemplo, tras ejecutar ensayos en los que hay que detectar un tono de 1000 Hz sobre un fondo de ruido y se obliga a detectar un target de 1300 Hz, el rendimiento empeora. Sin embargo, después, tan pronto como se escuchan varios ejemplos de tonos de 1300 Hz, la ejecución mejora. En definitiva, esto demuestra que los oyentes podemos configurar una especie de filtro atencional que nos predispone a detectar una frecuencia concreta. Era parecido a lo que veíamos en la visión cuando hacíamos experimentos donde veíamos que fijaran su atención en una región específica. Se facilitaba. Aquí lo mismo. Sí, podemos hacer un filtro para oír, escuchar, detectar un target en una frecuencia completa. Vamos a ver ahora aquí un paradigma. La predisposición a la frecuencia ya os dije que es importante. En la conclusión sale que a la frecuencia es más eficaz que la localización. El espacio no tiene un papel tan relevante. Pues bien, vamos a ver el paradigma de detección del estímulo de sonda. Prog, señal, paradigma. Este paradigma se ha utilizado para estudiar la predisposición atencional de un... de una persona ante la frecuencia. ¿Cómo hacemos? Vamos a hacer que el sujeto se familiarice previamente con un tono o una frecuencia determinada del target. Luego, que se presenta repetidamente, de manera clara y audible. Así ya hemos creado una predisposición atencional hacia esa frecuencia. A continuación, le vamos a presentar dos breves secuencias sucesivas. De ruedas. Ruido de fondo. Habitualmente ruido blanco. Una de esas dos secuencias incluye el target o, en su defecto, un tono desviado en frecuencia, un estímulo sonda o estímulo prog. Con una intensidad, en los dos casos, ya sea el táctil o el probe, que dificulta su detección. La tarea del sujeto es indicar en cuál de las dos secuencias, si fue en la primera o en la segunda, le pareció escuchar el tono táctil. Pues bien, utilizando este paradigma se sabe que el rango de frecuencias desviadas que pueden ser detectadas es muy estrecho. Se dio cuenta que ese rango de frecuencias no ampliaba mucho. Uno es un tono, que me lo han puesto repetidamente, luego me lo ponen dos secuencias, breves secuencias, ruido de fondo y con un táctil a poca intensidad. O con algo que no, o un probe, algo diferente. Pues bien, utilizando... Este paradigma se sabe que el rango de frecuencias es muy estrecho. Por ejemplo, si hemos predispuesto al sujeto para detectar un tono táctil de 1000 Hz, pues bien, solo aquellos tonos desviados entre 900 y 1100 Hz serán también detectados y se consideran táctils. Es decir, en la fase de familiarización, el oyente configura, sintoniza un filtro selectivo, de un rango muy estrecho, para detectar la frecuencia táctil. Me lo ponen de 1000 y yo configuro un filtro entre 900 y 1100 Hz. De tal manera que esas otras frecuencias alejadas que no atraviesan ese filtro no serán atendidas. Hay que darse cuenta que la detección disminuye bruscamente en el momento que nos desviamos ligeramente del tarjeta, de 900 a 1000. Hay que observar también cómo se ajustan los resultados reales del experimento, cómo se ajustan a ese gradiente de detección. Lo que sugiere que existe en el oyente una predisposición atencional auditiva, que es la consecuencia de sintonización. Es decir, que se configura el filtro con la frecuencia tarjeta. Y parece que esta predisposición auditiva parece que se configura en fases tempranas de procesamiento. Es decir, un filtro temprano. Un descubrimiento interesante relacionado con esta predisposición, esta sintonización hacia la frecuencia, demuestra que si a los sujetos les vamos a ir a decir, a instruir, a esperar, no uno, sino dos, dos tarjetas distintas, por ejemplo, uno de 700 Hz y otro de 1600 Hz, su rendimiento detectando ambos tonos es bastante bueno. Aunque no sean buenos detectando tonos con frecuencias intermedias entre ellos. Es decir, sintonizan el de 700 y el de 1600. No el de 800, 900, 1000... Las frecuencias intermedias no las detectan. Pues bien, estos datos indican que las personas son capaces de configurar un filtro atencional o tal vez varios filtros para múltiples frecuencias, lo que les predispone para detectarlas. Esto tiene que ver un poco con la música. Yo cuando notas que estás tocando una canción a la guitarra y notas que hay algo que no funciona, que se te ha desafinado una cuerda, tienes... Ahora vamos a pasar a la otra predisposición. La predisposición. La predisposición hacia el espacio. Como hemos dicho, la predisposición a la frecuencia para que tenemos una capacidad de detectar una frecuencia. A la que hemos ido expuestos en este caso. Predisposición hacia el espacio. Predisponer a unas personas a escuchar un sonido que viene de una determinada ubicación espacial puede facilitar su detección. Es decir, la atención auditiva también parece que puede sintonizar. Es decir, la atención auditiva puede sintonizarse hacia una ubicación espacial. Pues un adecuado ajuste, atención auditiva, localización de eventos sonoros, ayuda al procesamiento de esos eventos. Bien. Sin embargo... La realidad es que esa atención solo puede sostenerse cuando el ambiente estimular o la tarea son complejos, ¿de acuerdo? Hay muchos estilos. Pues la precisión para detectar un simple tarjeta auditivo no se beneficia demasiado por el hecho de conocer por anticipado su lugar de procedencia. Cuando hay solo un tarjeta, no hay beneficio porque el sujeto sepa de dónde me viene ese tarjeta auditivo, ¿vale? Pero sí hay muchos cuando el ambiente estimular son complejos. Y es posible que la posición espacial de procedencia de un sonido no resulte tan importante para la percepción auditiva como lo es para la visual. En la atención visual sí tenía mucha importancia de dónde procede ese estímulo. ¿Por qué? El espacio, porque los ojos se mueven por el espacio. Pero no es tan importante para el oído. Claro que cada modalidad ejerce tiene su trabajo, ¿no? Bien. Sabemos que la corteza auditiva se organiza tonotópicamente, es decir, frecuencia, un tono, el estímulo de un tono está contiguo a otro tono. ¿Vale? En áreas adyacentes. Y según tonos, no, más que topológicamente, es decir, no tanto la corteza auditiva se organiza por tonos y no por topológicamente como es con el córtex visual que atiende a los espacios entre los estímulos, etcétera, ¿no? Tal vez el cerebro esté programado para orientar la atención auditiva de manera diferente. Sí. Es decir, la corteza auditiva prioriza la frecuencia y lo hace diferente a la atención visual que prioriza el espacio. Esto es muy lógico. Vamos, yo lo veo súper lógico. Que el oído trabaje con frecuencias porque trabaja con frecuencias y la vista trabaje con espacios porque se dirige a los espacios. Pues bien, a pesar de que la localización del espacio no es un factor importante para la selección, hay estudios que han demostrado que conocer por adelantado dónde va por acceder un sonido puede beneficiar detectar ese sonido. Si el estímulo se emite desde altavoces alejados de la posición del sujeto, no mediante auriculares. Por ejemplo. La predisposición hacia el espacio. Por ejemplo, vamos a utilizar tres altavoces. Tres altavoces situados a dos metros del sujeto durante una tarea de detección de tonos. Antes de emitir el target auditivo, una señal luminosa de duración de 300 milisegundos que está localizada o a la derecha o a la enfrente o a la izquierda del participante. Indica el altavoz por el que se escuchará el target. Tenemos tres altavoces a dos metros y una señal. 300 milisegundos va a aparecer para decir por dónde me van a mandar el mensaje auditivo. Resultado es que cuando la señal visual es válida, es decir, aparece por donde aparece el mensaje, y marca correctamente la localización del tarjeta auditivo, la detección de ese tarjeta es mucho más rápida que cuando la señal es inválida. O sea que algo influye, ¿no? Conclusiones. La conclusión es que la frecuencia es importante. Parece ser más importante que la localización espacial para orientar la atención auditiva. La frecuencia es más eficaz para seleccionar la información auditiva que la localización. En conclusión, el espacio no tiene un papel tan relevante durante el procesamiento auditivo como si lo hace durante el procesamiento visual. Muy bien. Qué bien, ¿no? Lo que decimos. La frecuencia tiene que ver con cómo se organiza el cerebro, el cerebro auditivo, etcétera, ¿no? Y en lo visual, el espacio. Muy bien. Todo sigue estando en orden. Vamos a complicarlo. Vamos a estudiar la atención a diferentes modalidades sensoriales. Atendiendo a diferentes modalidades sensoriales. Lo que veo, lo que oigo, lo que toco, lo que huelo. Lo más cotidiano es un procesamiento multisensorial, ¿no? Aunque no nos damos cuenta. Huelo, veo, toco, y hay tareas cotidianas que requieren integración de información de diversos sentidos, como por ejemplo cocinar, escribir en un ordenador, montar en bicicleta. Pues bien, esta psicología de la atención quiere estudiar cuestiones relacionadas con la integración de la información que viene de diversos sentidos. Cross-modalidad. Vamos a ver qué pasa si hay beneficios en el procesamiento multisensorial, los beneficios del procesamiento multisensorial. Hay diversos estudios que han demostrado que en ocasiones es posible atender a la información que procede de varias modalidades sensoriales en lugar de a una sola sin aparente consecuencia. Por ejemplo, tiene que detectar tres estímulos, uno visual, otro auditivo y otro táctil, presentados simultáneamente. Pues bien, esta detección puede ser igual correcta que cuando son presentados aisladamente, uno tras otro. ¿Hay otros hallazgos? Otros experimentos que dan ventaja a las presentaciones cross-modales frente a las unimodales, por ejemplo. Es más fácil atender simultáneamente a una secuencia visual y a una auditiva para detectar la presencia de un tárget, por ejemplo. Ver el dibujo de un animal y escuchar su nombre. Pues es más fácil esto que atender a dos secuencias visuales o a dos secuencias auditivas. Pues bien. A pesar de que una tarea requiere recursos auditivos y otra requiere visuales, hay exigencias de procesamiento que pueden eliminar los beneficios de la presentación bimodal. Por ejemplo, si nos piden detectar cambios de intensidad, ya sea de un sonido o de una luz, somos muy buenos dividiendo la atención entre los estímulos auditivos y los visuales presentados simultáneamente. Pero, ya no somos tan buenos porque empeora nuestra ejecución cuando se nos pide detectar cambios en la duración de los estímulos. Porque ahora el rendimiento es mucho peor bajo condiciones de atención dividida que cuando se atiende por cada modalidad por separado. Por lo tanto, interpretamos que emitir juicios temporales recurrimos a un procedimiento. Un procesamiento que debe compartirse necesariamente entre ambas modalidades, lo que hace que explique el deterioro que se produce. Queremos saber si, con esta atención hacia todas las modalidades, si hay una predisposición hacia una modalidad sensorial. Se han explorado si se predispone a una persona a esperar un estímulo de una modalidad sensorial. Y si esta modalidad sensorial determinada afecta su procesamiento. Imaginaos que preparamos a la persona para esperar un estímulo, ya sea auditivo o visual, a ver cómo afecta. Hicieron experimentos Spencer y Breaver donde un LED de modo de señal predisponía al sujeto a esperar un estímulo visual si la LED era rojo, o auditivo si la LED era blanca. era verde. Entonces enseñamos al sujeto, cuando aparezca el led rojo va a esperar un estímulo visual y cuando aparezca la led verde uno auditivo, un sonido. Posteriormente aparecía un estímulo target, ya fuera visual o auditivo, sobre el que debía realizar una tarea de detección, es decir, tenía que detectar la presencia o de un tono auditivo o de una luz, si era visual, o de discriminación, detectarla, o de discriminación, es decir, indicar si los sonidos son de la misma intensidad o si los colores son muy parecidos. Parte de los ensayos la señal led fue válida y predispuso al sujeto adecuadamente, aparecía un led rojo, el estímulo posterior era visual, aparecía uno verde, era auditivo. En otra. Parte de los ensayos la señal fue inválida y resultó engañosa respecto al target que se iba a presentar. También les pusieron ensayos neutros que no eran informativos porque hacían que se iluminaran los dos leds, el rojo y el verde. Resultados. Los resultados demostraron que la presentación de la señal previa predispuso al sujeto a esperar una modalidad sensorial determinada aunque los posibles costes y beneficios sobre el procesamiento del estímulo posterior dependían del tipo de modalidad. En definitiva, es posible crear una predisposición a esperar un estímulo de una modalidad determinada, pero esto no siempre facilitará su procesamiento. Dominancia. Pasamos a ver si hay dominancia de la modalidad visual respecto a la auditiva. Cuando compiten información que proviene de varias modalidades, auditiva, táctil, proprioceptiva, hay que saber que la información visual captura y controla nuestra percepción. Ejemplo, si nos encontramos en un tren o en un automóvil, si estamos estacionados o junto a otro vehículo más grande que el nuestro, ¿qué comienza a moverse hacia adelante? Nuestra sensación es que nuestro coche o nuestro tren se mueve hacia atrás. A pesar de que la información visual es una forma de observar, la información visual es una forma de observar. Si la información proprioceptiva de mi cuerpo nos informa de que estamos parados, de que no nos movemos, nosotros creemos que sí. Esto sucede porque la visión es la modalidad sensorial dominante y domina sobre la propriocepción, de tal modo que nos transmite esta ilusión. ¿Cómo lo investigaramos en el laboratorio? Pues se ha estudiado la dominancia visual sobre el sonido utilizando tareas que requieren. Si la información visual es una forma de observar, la información visual es una forma de observar. ¿Cómo lo investigaríamos en el laboratorio? o solamente el tono pero en los ensayos críticos se presentan los dos Cuando ocurre esto, las personas generalmente responden prioritariamente al estímulo visual y pueden llegar incluso a no escuchar el auditivo. Es decir, el procesamiento visual acapararía los recursos atencionales que serían necesarios para el procesamiento auditivo. Además, además de estudiar la propriocepción, la audición, la táctil, la modalidad áptica táctil, también se van dominados por estímulos visuales. Tenemos un ejemplo en el trabajo de Pavani. Podéis verlo si ponéis en el ordenador ilusión de las manos de goma, del guante de goma, ilusión de las manos de goma. ¿Qué hacía Pavani? Pavani, Stenze y Diver en esta ilusión de las manos de goma. Los participantes sujetan con ambas manos una cajita entre el pulgar y el índice. Esta cajita emitía vibraciones bien en la zona del pulgar o bien en la del índice. Pues bien, el sujeto debe indicar lo más rápidamente posible en qué dedo siente la vibración. Las manos del sujeto. Los sujetos siempre están ocultas a su vista, bajo una tabla. A su vez, sobre dicha tabla y de forma visible, se encontraba otra cajita idéntica con dos luces que se corresponden con las zonas de agarre de los dedos del sujeto. Estas luces se iluminan a la vez que se presenta la vibración de los dedos, en los dedos. A pesar de que dicha luz debe ignorarse, las respuestas de los sujetos fueron más lentas cuando la información de la luz entraba en conflicto con la del dedo en el que se aplicó la vibración. Pues bien, ¿cuándo se encontró un efecto sorprendente? En este trabajo, el efecto más sorprendente descubierto se produjo cuando se pidió al sujeto que se pusiera unos guantes de goma y sostuviera con ellos la cajita vibratoria bajo la tabla, fuera de su vista. ¿Y qué hacían? Mediante una proyección sobre la tabla aparecían ahora unas... ¡Las manos de goma! A pesar de que los sujetos sabían que las manos de goma proyectadas no eran las suyas, la mayor parte de los sujetos indicaban que se sentían como si dichas manos les pertenecieran, y que la vibración parecía ocurrir en la localización correspondiente a las manos de goma proyectadas. Estas sensaciones se experimentaban cuando la orientación de las manos del sujeto... ...y las de goma se correspondían, pero estas sensaciones tendían a desaparecer cuando las manos del sujeto se colocaban en una orientación diferente, de manera ortogonal a las manos del sujeto. En conclusión, ahí tenéis el experimento. El trabajo de las manos de goma. En conclusión, este trabajo sugiere que puede existir una predisposición atencional hacia la información visual. Pero esta dominancia visual no es algo universal, según Heller. Por ejemplo, sabemos que los estímulos auditivos tienen una tendencia mucha más poderosa para capturar la atención que la que tienen los estímulos visuales. Sin embargo, cuando los estímulos visuales adquieren la misma importancia que otros estímulos de otras modalidades sensoriales simultáneas y suministran igual o mayor información, es muy posible que exista un sesgo o predisposición hacia la modalidad visual y que esta sea la modalidad dominante. Vamos a ver ahora, continuando con la crossmodalidad, efectos de la información visual. Sobre la localización auditiva. Vamos a ver qué pasa cuando el ventrígloco no mueve los labios y su muñeco habla. La ventriloquía. Cuando vemos un ventrígloco, que es su muñeco, vemos la influencia que ejerce la información visual sobre la localización del sonido. El ventrículo proyecta su voz de forma parecida a lo que hacen con los altavoces de un cine. Por lo que se emiten las voces de los autores que aparecen en pantalla. En ambos casos solemos atribuir el origen del sonido a una fuente diferente de la real, los labios del muñeco o los labios. Pues bien, el efecto de la ventriloquía demuestra la influencia de los efectos cross-modales en la atención, porque nuestra percepción del origen del sonido se ve alterada por la información visual, es decir, la información visual nos engaña y creemos que en esa información está el origen del sonido. Aunque sabemos que el sonido proviene del ventriloquio, nosotros lo ubicamos en la boca del muñeco. El efecto se hace más poderoso conforme la fuente del sonido resulta más difícil de localizar, si la fuente del sonido sale de un sitio distinto de donde está el ventriloquio. Hay que decir también que localizar un sonido... ...en el plano vertical es más dificultoso que localizarlo en el plano horizontal. Esto tiene su implicación para posicionar el muñeco en el escenario o para poner los altavoces en un cine. Si yo lo que intento al poner los altavoces en un cine es que no lo localicen... Vamos a ver la investigación de Spencer y River, de 2005. Spencer y River diseñaron una ingeniosa disposición para comprobar experimentalmente cómo opera el efecto de ventriloquía. Aparecía a la vez una señal visual y otra auditiva. La señal visual consistía en la iluminación de una de las dos rejillas con LEDs, por encima o por debajo del punto de fijación central. Y la señal auditiva, que era simultánea a la iluminación de los LEDs, podía ser de fácil localización, un tono por un único altavoz, o de difícil localización, un tono por varios altavoces a la vez. Parecido al ventrílogo, análogo con el ventrílogo, la señal visual sería la boca del muñeco y la señal auditiva sería la voz del ventrílogo. Por lo tanto, en este experimento se creó una situación análoga, una situación análoga. Un análogo a la ventriloquía, una situación ilusoria. Cuando la señal auditiva era difícil de localizar, el sujeto creía que procedía del lugar ocupado por la señal visual. Es decir, los LEDs serían parecidos a la boca del muñeco, que atraerían su atención hacia la posición, el sonido que venía de los altavoces. En esos casos, la señal visual capturaba la atención y facilitaba la detección de un tárgez sonoro posterior que aparecía por un altavoz ubicado en la misma posición vertical. Sin embargo, ese efecto de ventriloquía desaparecía cuando la señal auditiva era fácilmente localizable al ser emitida por un único altavoz. En estos casos, el estímulo visual no atraía la atención auditiva hacia su posición y, a su vez, el beneficio sobre la tarea de detección de un táctil posterior también desaparecía. Extrapolando, sacando este resultado al ámbito del espectáculo. Si el ventrílogo no es capaz de proyectar y difuminar su voz adecuadamente en el ambiente, entonces apreciamos fácilmente el truco y la ilusión del muñeco, el muñeco que habla, desaparece. Vamos a ver otro trabajo que demuestra la influencia de los estímulos visuales sobre la localización del sonido. Y también reproduce el efecto del ventrílogo. Es el de Diver. Diver. ¿Qué tiene que hacer, según Diver, para hacer el experimento? Los partícipes. Los participantes escuchan por un único altavoz un mensaje táctil mezclado con otro mensaje distractor. El mensaje táctil era difícil de seguir, que estaba constituido en secuencias de palabras aleatorias que se mezclaban con las palabras también aleatorias del mensaje distractor, que se pronunciaba la misma voz. Como veis, muy difícil. A la vez que escuchaban ambos mensajes... ...entremezclados, se proyectaba un vídeo de una persona que movía sus labios pronunciando las palabras TARGET. El vídeo no tenía voz. el vídeo era como el muñeco cuando el vídeo se presentó sobre el altavoz de la presentación auditiva la condición mismo lado la selección del mensaje target mejoró considerablemente en comparación a cuando el vídeo se proyectaba sobre un altavoz simulado que no emitía el mensaje condición lado diferente presumiblemente en la condición mismo lado los sujetos reubicaron los sonidos de las palabras target escuchadas por el altavoz en los labios de la persona del vídeo al igual que con la ventriloquía que este hecho ocasionó una especie de separación ilusoria entre el mensaje target y el mensaje distractor que facilitó la escucha seleccionada de manera parecida a lo que ocurre cuando dos mensajes auditivos son emitidos desde altavoces separados espacialmente vamos a ver en el punto 5-4 los efectos de la atención sobre la percepción del dolor hemos dicho que dirigir la atención visual a una región del espacio facilita el procesamiento de los targets allí presentados por lo tanto saber por adelantado qué zona de nuestra piel va a ser extinguida reducir los umbrales para detectar la estimulación en dicha zona y nos hace más sensibles según mayer gross y de huelga Cuando la estimulación es dolorosa, saber por adelantado qué va a ser aplicada nos hará todavía más sensibles debido a lo aversivo de la misma. En un experimento en el que a los sujetos se les aplicó en cada ensayo una dosis de calor radiante aversivo, se descubrió que la estimulación térmica, el calor, fue valorado como más intenso y desagradable cuando era esperada que cuando no era esperada. Esto es importante durante la aplicación de terapia, pues distraer la atención de un paciente. Cuando un paciente recibe un tratamiento doloroso, puede hacer que su experiencia sea relativamente más liviana. También yo esto lo experimento cuando me sacan sangre. Yo no puedo, sé de dónde me van a sacar sangre, pero no puedo mirar. No puedo mirar como tengo que cambiar la mirada. O sea, prestar atención a un estímulo doloroso, saber por adelantado qué va a ser aplicada. Nos hace más sensibles todavía a esa estimulación dolorosa. Vamos a pasar al punto 6, atención crosmodal. Si consideramos la atención como un mecanismo necesario para dirigir la conducta en un ambiente complejo, la capacidad de control sólo se puede llevar a cabo integrando la información recogida desde los distintos sentidos. Existe mucha interacción, importantes interacciones entre la modalidad visual, la auditiva y adoptando una aproximación crosmodal, Permite comprender mucho mejor el mecanismo atencional. Una manera adecuada de entender qué se quiere decir con atención cross-modal consiste en analizar la manera en que percibimos el espacio y construimos marcos de referencias espaciales a partir de la información recibida desde los distintos sentidos. Los sentidos recopilan información de su propio conjunto de receptores. Las conexiones entre la información aportada desde diferentes modalidades sensoriales permite construir una representación estable del ambiente externo que nos permite actuar y dirigirnos en el medioambiente externo. Bien, metodológicamente se ha estudiado la integración entre modalidades sensoriales analizando la llamada facilitación cross-modal. ¿Qué es esta facilitación cross-modal? ¿Cómo se estudia? Comparando las respuestas neuronales separadas ante cada uno de los dos estímulos unimodales, uno visual y otro auditivo, pues bien, comparándola con la respuesta neuronal conjunta obtenida ante la presentación bimodal. Si esta respuesta ante la presentación bimodal es mayor que la respuesta combinada a cada uno de los dos estímulos unimodales, entonces se dice que ha ocurrido una facilitación cross-modal de la respuesta debido a la integración de ambas modalidades. Se ha estudiado con potenciales evocados ERP. Y ha demostrado que la interacción entre ambas modalidades comienza unos 40 milisegundos después de la presentación estimular, es decir, en fases tempranas del procesamiento perceptivo. Hay que decir que en esos estudios con ERP, con potenciales evocados, se sustrajeron los ERP correspondientes a la presentación unimodal de tazos visuales y auditivos, es decir, les dábamos un flash de luz y unas ráfagas de ruido, pues muy bien, los sustrajeron del correspondiente ERP obtenido ante la presentación bimodal. Bien, continuamos. Efectos de la señalización crostal. Si se sabe que la presencia de una señal puede controlar nuestra atención, dirigiéndola hacia un objeto o hacia una región del espacio, es parecido a lo que ocurre con las señales unimodales, que se han estudiado los efectos potenciales de la señalización crostal. Es un fenómeno por el cual una señal de una modalidad visual, por ejemplo, puede dirigir la atención hacia alguna dimensión de un estilo. Por ejemplo, una señal de una dimensión de un estímulo presentado en otra modalidad. Vale. Ejemplo, suponga que debe presionar, suponga que debe presionar el botón derecho o el izquierdo para indicar el altavoz desde el cual se emitió un tono. La respuesta es más rápida cuando el tono se emite por el altavoz señalizado previamente por una luz. Pero existen factores no atencionales que pueden ser responsables de los efectos de la señalización, puesto que puede que la señal visual no dirigiera realmente la atención hacia la región señalizada, sino que simplemente predispusiera a ejecutar una respuesta. Los psicólogos han desarrollado el paradigma de señalización ortogonal para evitar este problema, es decir, para saber si se debe a una señalización o una predisposición. Tenemos la figura, la disposición del paradigma de señalización ortogonal y vemos que orientamos la atención, si se orienta a la izquierda o a la derecha, por una de las flechas centrales. Los targets, luz o sonido, pueden aparecer en cualquiera de las cuatro posiciones. Como se observa en la figura, una luz a modo de punta de flecha, que está ubicada junto al punto de fijación, indica el lado, los sujetos se fijan alrededor del hitón del centro, y una luz... de la flecha izquierda o a la derecha, indicará el lado de la posible aparición de un estímulo target. Izquierda o derecha. El target será un sonido y se puede presentar en cualquiera de los cuatro altavoz. La lógica de este experimento, de este paradigma, es que a pesar de que la señal luminosa indica que el tárgeta auditivo puede aparecer en cualquier altavoz del lado izquierdo, del lado derecho, la tarea del participante será juzgar si el tárgeta se ha presentado en un altavoz de la parte superior o de la parte inferior. De ahí le viene el nombre de señalización ortogonal. Con este procedimiento se evita el inconveniente que hemos apuntado antes, pues impide que los efectos de señalización sean debidos a otros factores diferentes al puro control espacial, tales como predisponer al sujeto a emitir una respuesta determinada. Es lo que decíamos hace un momento, que había problemas para ver si había predisposición o era señalización espacial. Muy bien. Utilizando... Utilizando este paradigma, utilizando este paradigma de señalización ortogonal, se considera que existen efectos de señalización crossmodal cuando las respuestas de la posición vertical del tárget arriba-abajo son más rápidas en el lado señalizado que en el no señalizado. Conclusiones. ¿Qué conclusiones sacamos de esto? ¿Existen efectos de señalización crossmodal? Pues bien. Sabemos que las señales auditivas pueden facilitar la respuesta ante estímulos visuales presentados en el mismo lado que las señales auditivas. Sin embargo, esto es más discutible afirmar que las señales visuales ejerzan algún efecto sobre la atención auditiva. Sí, señales auditivas sí facilitan que dirija la mirada hacia un lado, ¿no? Pero es discutible que la visual ejerza influjos sobre el estímulo auditivo. Hay algunos trabajos que han encontrado que las señales visuales no afectan en tareas de discriminación auditiva. Pero también hay otros estudios que han descubierto lo opuesto. ¿Por qué? ¿Cuál es la razón de esta divergencia? Puede estar en la naturaleza de los señales, en los tarjes utilizados... Bueno, unos llegan a una conclusión y otros a otra. Y a pesar de las divergencias, podemos sacar la conclusión de que los efectos de señalización cross-modal existen y se manifiestan en diferentes trabajos experimentales. Y lo que decíamos anteriormente. Lo que dijimos al principio, ¿no? Hay un control supramodal, es decir, que afecta a lo que veo, a lo que oigo, a lo que siento, a lo que toco, a lo que huelo... Vamos a ver si existe un control supramodal único para la atención espacial. Es una pregunta. ¿Existe un control supramodal único para la atención hacia el espacio? Hay determinados aspectos de la atención espacial que parecen estar aparentemente bajo un control supramodal. Por ejemplo, es más sencillo atender a un estímulo visual y a otro auditivo si el monitor y el altavoz que los presenta están en el mismo lado. Y no uno a izquierda o derecha. También hemos encontrado unos resultados parecidos con la atención táctil y el procesamiento visual y auditivo. En conclusión, la localización espacial externa, compartida entre estímulos de distintas modalidades, facilita la presentación de vínculos atencionales cross-modales, lo que favorece la presencia de un controlador atencional supramodal por encima de las modalidades. Presto atención por encima de los modales. Y se afirma que la atención opera sobre representaciones espaciales que están sujetas a esta influencia cross-modal y no sobre representaciones exclusivas de una única modalidad. En definitiva, podemos concluir que los mecanismos responsables de orientar la atención visual, la auditiva o la táctil, no son complementarios. No son completamente independientes, sino que comparten información en algún momento del procesamiento. Pero sabemos que el simple hecho de que se despliegue atencional en una modalidad pueda modular o pueda afectar a los efectos atencionales en otra, no implica necesariamente que la atención esté controlada por un mecanismo supramodal. Esta intercomunicación entre información que viene de diferentes modales, modales sensoriales, es posible en cualquier momento del procesamiento. Y esto no prueba necesariamente que exista un sistema maestro de control supramodal. Bueno, hemos terminado el tema 4, atención auditiva y crosmodal.