Vamos a ver el tema 11, la psicología del lenguaje, lectura. Al principio en la introducción tenemos varias páginas donde se habla de cómo comenzó la escritura, la escritura ideográfica hace 30.000 años, con pinturas rupuestres, etc. Hace 5.000 años la escritura logográfica, en Oriente Medio, donde ya no representa objetos sino conceptos, o sea, palabras. Hace 3.000 años surgió la escritura cuneiforme sumeria, el sistema jeroglífico egipcio. Hace 2.000 años los pictogramas representan sonidos. Con los sumerios, también llegaron a utilizar 900 carácteres y designaban sílabas, etc. Bien, lo que nos importa de aquí son los conceptos de ideograma, que es un signo esquemático no lingüístico, que representa globalmente conceptos o mensajes simples. En la actualidad hay ideogramas en las señales de tráfico, en los símbolos matemáticos. Se distingue de un pictograma, en que ha perdido su carácter figurativo. Un pictograma es un signo icónico dibujado y no lingüístico. que representa un objeto o un significado. Por lo tanto, el logograma, que parte del griego logos, palabra y grama, escritura, y en el cual el dibujo por sí solo representa una palabra o un lexema o morfema, y el sistema alfabético, que son sistemas fonéticos, donde cada símbolo representa un fonema, un sonido o una combinación de fonemas, una sílaba. Por lo tanto, el ideograma representa objetos. La escritura tiene una evolución que va del ideograma, que representa objetos, al ideograma ya estilizado, que representa palabras. En la sociedad actual alfabetizada hay que dominar el lenguaje. Pues bien, la lectura es... Es uno de los procesos similares al lenguaje oral, ¿no? Pues que el objetivo es el mismo, comprender un mensaje a partir de unos estímulos físicos que nos llegan a los sentidos. En el lenguaje oral eran ondas sonoras, los estímulos, en el lenguaje escrito son signos. Hay un... En el lenguaje oral los fonemas están secuenciados de forma sucesiva y en el lenguaje escrito aparecen todos los signos a la vez y luego desaparecen. Bueno, hay un reconocimiento de palabras. En el lenguaje escrito no es muy importante, ¿no? Porque todas las letras aparecen simultáneamente. Por lo tanto, la palabra aparece completa. Bien, en el lenguaje oral tendríamos que estudiar las variables punto de unicidad, ¿no? Pero en el lenguaje escrito nos interesa la frecuencia de uso y la edad de adquisición. Respecto a la comprensión de oraciones, en el lenguaje oral utilizamos la prosodia y los gestos del hablante, que eran importantes para la comprensión oral. En el lenguaje escrito, digamos, la prosodia viene representada por los signos de puntuación. En este capítulo vamos a ver procesos distintos de lectura. Procesos perceptivos, o sea, identificar las letras. Procesos de reconocimiento de las letras. Procesos de reconocimiento de las palabras escritas. Y luego veremos, finalmente, las bases neurológicas de la lectura. Hay que tener en cuenta que el lenguaje escrito es una adquisición reciente, por lo tanto, no ha tenido tiempo para que se pueda programar en nuestros cerebros. Significa que los mecanismos, o sea, que hay que utilizar unos mecanismos cerebrales que teníamos destinados a otras actividades, como el reconocimiento de caras o de objetos para poder leer. ¿Qué es el lenguaje escrito? ¿Qué se produce mediante la lectura, en la percepción de la información escrita? Pues vamos a ver los movimientos sacádicos y las fijaciones. Como el campo visual es muy amplio, sabemos que la máxima agudeza está en el 3%, muy amplio, de 180 grados. La máxima agudeza está en la fobia, con el 3%, 3 grados. Pues bien... Con este ángulo podemos ver de 10 a 12 letras, ¿no?, a la vez. Los movimientos sacádicos son movimientos muy rápidos y discontinuos que van cambiando de dirección. Si se dan hacia atrás se llamarán regresiones. Digamos que con los saltos se sitúan partes del texto en el campo de la fobia, ¿no? Por lo tanto vamos avanzando con una nueva fijación y nuevo movimiento sacádico a lo largo de las líneas, ¿no? Hay, como habla de una duración de 20 o 40 milisegundos que va abarcando estos movimientos sacádicos. Hemos dicho que cuando se producen saltos hacia atrás en el texto lo llamamos regresiones, pero suelen ser cortas y se dirigen a zonas próximas y sobre todo ocurre cuando no se ha entendido el texto por su complejidad o las dificultades que tenga el lector, ¿no? Y las regresiones son más abundantes. Sobre todo cuando leemos textos complejos en personas con dificultades y también con los disléxicos, ¿no? Los periodos de fijación. ¿Qué ocurre aquí? Extraemos la información de la palabra y accedemos al significado y pronunciación y luego nos desplazamos otra vez mediante los movimientos sacádicos para pasar a otra parte del texto. Todo depende del lector y del tipo de texto. La fijación media son de 200 a 200 milisegundos. Milisegundos, aunque un lector experto estaría menos tiempo, ¿no? El inexperto, mayor tiempo de fijación. ¿Y qué pasa con los textos? Pues que los textos complejos requieren mayor tiempo de fijación. Y cambiar, el cambio de tema en el texto aumenta también el tiempo de fijación. Hemos dicho que una característica importante es la naturaleza balística de estos movimientos sacádicos y las fijaciones, ¿no? Porque elegir un nuevo punto de fijación tiene que ser realizada antes de iniciar el movimiento, ¿no? Entonces primero tenemos que decidir dónde vamos a aterrizar los ojos para continuar la siguiente fijación, ¿no? Se han demostrado por McConkie y Reiner que durante una fijación el lector se sirve de la información parafobial distante, es decir, la información borrosa que percibimos por el rabillo del ojo para decidir el lugar del texto a donde dará el salto para la próxima fijación. Pues McConkie y Reiner utilizando las estrategias, es decir, la longitud de las palabras, averiguaron que sabemos... Sabemos que las palabras de contenido son más largas que las palabras de función, eso es cierto, ¿no? Las palabras de función son artículos, pronombres, etcétera. Las palabras de contenido son más largas, ¿no? Por lo tanto es más... Por esa razón es tan difícil darse cuenta de que hay un error tipográfico cuando se trata de una palabra funcional corta. Se da en los periodos de fijación el desplazamiento hacia la derecha porque vamos en la escritura que hacemos aquí... ...en occidente vamos de izquierda a derecha. Y... Bueno, estudiaron estas estrategias sobre la dirección de los movimientos sacádicos... Dice que eran importantes para una lectura eficiente y se adquieren y perfeccionan con la práctica. Por eso hay mucha diferencia entre buenos y malos lectores, ¿no? Vamos a ver la teoría de la fobia dividida. Digamos, el campo visual se divide en dos mitades simétricas. Los estímulos que aparecen en el campo visual derecho e izquierdo se proyectan en el hemisferio contralateral, a través del cuerpo calloso. Digamos que a través del cuerpo calloso, que conecta los dos hemisferios, y el cerebro une ambas mitades para formar la representación total del objeto, en este caso de la palabra. Antes se creía que esa división solo se producía en la periferia del campo visual y no en la fobia, ¿no? Pero según la teoría clásica de la proyección bilateral, los estímulos que caen dentro de la zona de la fobia se proyectan simultáneamente en ambos hemisferios. Bueno, tenemos posteriormente la teoría de la fobia dividida de Zirkel y Monaghan, que mediante unos estudios empíricos demostraron que también se produce la división contralateral de los campos visuales de la fobia, ¿no? Luego la información fluye al cuerpo calloso y unemos las dos mitades apareciendo la palabra completa. Bueno, esto también lo demostraron la teoría de la fobia dividida, un experimento con dos grupos de individuos. Con lateralización del lenguaje en el hemisferio derecho e izquierdo, respectivamente, y comprobaron mediante resonancia magnética funcional la lateralización, ¿no? Mientras hacían tareas lingüísticas con diferentes activaciones. El cerebral, ¿no? Bueno, la extracción de la información. ¿Qué ocurre para la extracción de la información? En el momento en que los ojos se detienen una parte del texto, la fijación, comienza la extracción de la información. Rainer y colaboradores dicen que del tiempo total de una fijación de 200 o 250 milisegundos, la extracción de la información visual solo requiere los primeros 50 milisegundos. Hicieron un experimento para averiguar esto, donde presentaban frases, pero luego les ponían un estímulo para impedir seguir leyendo, ¿no? Y encontraron que a los 50 milisegundos el sujeto... El sujeto no es capaz ya de leer la información que tiene delante antes de 50 milisegundos, pero después de 50 milisegundos el sujeto puede leer la información sin dificultad. El resto del tiempo, 50 a 250, ¿qué hace el sistema cognitivo? Pues procesa palabras, es decir, acceder al significado, acceder a la pronunciación, ¿no? Y mientras no termina de hacer ese trabajo, no recoge más. De manera que los dos ojos solo se mueven cuando se termina de procesar la información. Por lo tanto, al final de las frases la fijación dura más porque se está procesando toda la frase completa, ¿no? Muy bien, esta coordinación ojo-mente es la que marca la velocidad lectora y la que hace que nuestros ojos no puedan avanzar más rápido de lo que la mente les permite. Si queremos tener una buena comprensión, una lectura comprensiva del texto. Por eso los métodos de lectura que anuncian el aumento de la velocidad lectora con movimiento de los ojos, moviendo los ojos de manera rápida, lo que consiguen ganar en velocidad lo pierden en comprensión. Bueno, después de la teoría de la fobia dividida vamos a hablar de la identificación de las letras, que durante la fijación una de las primeras tareas es identificar las letras. Si no se identifican, no se puede seguir leyendo ni continuar el proceso de reconocimiento de la palabra. Hay varias hipótesis, bastante locas. Yo voy a pasar por ellas de puntillas. La hipótesis es de la plantilla. Dice que los... Los lectores tenemos representaciones con las formas de cada letra, una especie de plantillas con las que vamos comparando las letras que vemos escritas. Vemos una letra, comprobamos cuál es la plantilla que encaja y se le da un solo apagamiento que reconoce la letra. Hay un inconveniente, ¿no? Es una hipótesis muy intuitiva. Dice que no bastan 27 plantillas, sino que hay que buscar diferentes pastillas para diferentes tipos de letras. Porque puede ser mayúscula. Si no hubiéramos plantillas minúsculas, necesitaríamos multitud de plantillas. Con lo que el funcionamiento cerebral sabemos que no funciona así. No encaja con el sistema del funcionamiento cerebral, que además intenta ahorrar... no tener cosas superfluas y tener 500.000 plantillas para mí lo sería tenemos otra hipótesis la hipótesis de los rasgos cada letra se define por un rasgo por unos rasgos y cuando el sistema detecta determinados rasgos deduce que letra se trata aunque esta teoría es más económica porque con unos cuantos rasgos se pueden definir todas las letras y se ajusta mejor al funcionamiento cerebral ¿por qué? porque tenemos un sistema visual que tema 12 11, perdón 11, lectura lectura hola Cristian perdona que estoy soltando el rollo para que quede grabado aquí para los colegas que están en su casa y quieran ver mi clase vale, seguimos hablamos de la hipótesis de las plantillas que no era económica la hipótesis de los rasgos aunque es económica y se ajusta mejor al funcionamiento cerebral porque tenemos detectores de rasgos ¿no? en percepción del área visual de rasgos podemos reconocer líneas verticales, horizontales y oblicuas, etcétera son rasgos que tienen definen un patrón determinado una letra determinada ¿no? vale luego está la hipótesis global y efecto de superioridad de la palabra Dice que lo que sabemos es que sin duda, o sea, tenemos esas hipótesis, pero lo que no hay duda es que la identificación de las palabras, de las letras, perdón, que componen las palabras, es un paso previo y es necesario para reconocer la palabra. Cattell también había comprobado que tenemos más dificultad los sujetos para identificar letras cuando están aisladas y cuando forman parte de una palabra. Por lo tanto, lo que es claro es que hay superioridad de la palabra. Esta hipótesis global, el efecto de superioridad de la palabra, tiene problemas metodológicos porque encontraron que había sujetos que reconocían las palabras, o sea, más que reconocerlas, las adivinaban. Y idearon un paradigma, el paradigma de Richard Well. Es un paradigma para estudiar el efecto de superioridad de la palabra y evitar la adivinación de la palabra. Pues bien, encontraron, utilizando estos experimentos, que se seguía produciendo superioridad de la palabra. Es decir, conseguían que no adivinaran los sujetos, pero había superioridad de la palabra. También, ¿por qué hay superioridad de la palabra? Encontramos una... Encontraron unos métodos globales de lectura que enseñan a leer a partir de las palabras completas y no de letra a letra o sílaba a sílaba, ¿no? Y encontraron unos resultados que... implicaban a nivel teórico y educativo y lo que influyó en la construcción de los modelos de lectura. Es decir, si el reconocimiento de la palabra era global, era lógico que se enseñara a leer la palabra completa y no partes de la palabra. Pero bueno, sin embargo, también hay investigaciones que hablaban de la identificación de la letra primero. Hicieron experimentos muy controlados desde el punto de vista metodológico para mostrar que no es posible reconocer las palabras si previamente no se identifican las letras. Esto es un poco como lo del huevo y la gallina, que fue primero lo que compone la palabra o la palabra completa. ¿Y por qué? Porque también encontraron problemas en la otra hipótesis. Es decir, en la hipótesis de reconocimiento global no podían responder a la palabra a la pregunta de cómo se reconoce la palabra. Por su contorno, por su perfil, por los elementos que lo componen. Por lo tanto, sabemos actualmente que primero hemos de reconocer las letras para luego reconocer la palabra. Como paso previo y necesario al reconocimiento de la palabra. Vale. Pasamos al apartado de reconocimiento de palabras escritas, que es el proceso fundamental de la lectura porque implica extraer el significado y la aplicación y la pronunciación del signo que hay escrito sobre el papel o sobre una pantalla. Se falla... Cuando falla este proceso falla todo lo demás. Es decir, si una persona no puede reconocer una palabra... pues entonces los disléxicos por ejemplo se resiente todo el sistema lector incluso la comprensión por lo tanto este es un proceso muy importante y el que más ha sido investigado en psicología del psicología del lenguaje también en neurociencia cognitiva sabemos que el reconocimiento de una palabra escrita es muy rápido es decir cientos milisegundos aunque parezca instantáneo y la lectura que es el reconocimiento de palabras escritas requiere una enseñanza sistemática y continuada en el tiempo, habíamos dicho que no le había dado tiempo a nuestro sistema para tenerlo incluido ahí entre los aprendizajes antiguos por esta razón o sea requiere una enseñanza sistemática el lenguaje oral no, no requiere enseñanza sistemática los niños, o sea aprender a leer lo hacen los niños y tardan cuando han aprendido a leer unos segundos consiguen el significado, la pronunciación de palabras escritas y van adquiriendo fluidez esos procesos que automatizan, por lo tanto los tiempos se acortan hasta que un lector experto no puede evitar leer las palabras que aparecen en su campo visual aunque intente no leerles no leerlas, ¿os acordáis del efecto Stroke? Pues eso es lo que nos pasa. El efecto Strat se produce porque somos lectores. No nos cuesta nada leer la palabra, pero nos cuesta mucho tiempo leer el color con que está escrita la palabra. A ver, ¿qué metodologías han utilizado para el reconocimiento de palabras escritas? Es decir, han utilizado las investigaciones, tiempos de reacción, tiempos de exposición, el seguimiento de los movimientos oculares y también técnicas electrofisiológicas, los famosos potenciales evocados. Con esta metodología se han secuenciado procesos que intervienen en el reconocimiento de palabras y han llegado a conocer las variables que determinan que tengamos mayor o menor velocidad de procesamiento. Para permitir que los estímulos sean más versátiles, etc. También se utiliza experimentos de decisión lésica, o sea, decir si una palabra es palabra o no palabra. Y afectaba la longitud de la palabra, lo que hemos dicho, la frecuencia de uso y la complejidad silábica. También es mediante experimentos de lectura en voz alta, que en esta tarea no hay que tomar una decisión sobre el estímulo, sino se presentan las palabras y el participante tiene que pronunciarlas en voz alta lo más rápidamente posible. También tareas de categorización semántica, esto es llegar a poner en una categoría o en otra unas palabras que me dan. Aquí las variables que influyen en la categorización semántica son la tipicidad, y la imaginabilidad. También mediante técnicas de movimientos oculares, técnicas de reflexión corneana, estudiaron el lugar de las fijaciones, el tiempo de fijaciones de los ojos, etc. Cuanto más encontraron que, cuanto más cantidad de procesamiento requiere una palabra, mayor será el tiempo de fijación sobre esa palabra. O sea, hasta que no te digas, hasta que no terminamos de comprenderla correctamente o la frase, por eso al final se produce más tiempo de fijaciones, porque estamos terminando de procesar esa palabra. No entiendo procesar como comprender. Yo leo una palabra y lo que quiero que me llegue es el significado, para seguir leyendo. También se han utilizado términos de priming. ¿Os acordáis que primero va una palabra que puede ser favorecedora del target, que es la que tengo que reconocer? Que suele representar en mayúsculas, que me he quedado atrás con las diapositivas. Tengo que ir a la 38, perdón. Si no, pues vuelvo loco. Un momento, estamos aquí. El priming. Seguimos utilizando, estamos con toda la metodología que se ha utilizado. Se ha utilizado el priming y dependiendo del SOA que se utilice, es decir, el tiempo entre el prime y el target, puede ser un priming automático, controlado o enmascarado. Se han utilizado priming de repetición, priming ortográfico, priming fonológico, priming semántico. Etcétera. El priming se ha utilizado mucho, sobre todo para estudiar el curso temporal del reconocimiento de las palabras. La técnica del priming se utiliza, como dije, para el curso temporal y para investigar el curso del procesamiento léxico. Es decir, cuando reconocemos la palabra, cuando accedemos a su fonología y a su significado. En función del momento. En que se produce ese priming ortográfico, fonológico y semántico. Dice que en los primeros momentos de procesamiento se da el priming ortográfico, que produce efecto facilitador con un SOA corto, una distancia entre estímulos corta. Ya en momentos posteriores de procesamiento se da el priming semántico, ya en etapas posteriores y con cualquier intervalo. Por lo tanto, en los primeros milisegundos ya reconocemos la palabra, pero tardamos un poco más en acceder a su significado. Otra metodología, potenciales evocados, electrofisiológicas. La técnica mide actividad eléctrica cerebral mediante electrodos conectados en el cuerpo galleto ante estímulos que aparecen en el campo visual del sujeto. El cerebro produce unas ondas que varían en polaridad. Es decir, y en su momento de aparición. Por eso decimos que cuando una onda llega a su máximo 200 milisegundos después de presentado el estímulo y es de signo negativo, la llamamos N200. Si llega a los 300 y es positivo, la P300, etc. Y dice que algunas de estas ondas son, por ejemplo, la N400, habla de un procesamiento semántico. Aquí. Una anomalía semántica genera la onda N400. En la N200 encontramos un procesamiento ortográfico y en la N320 el procesamiento fonológico de las palabras. Pues bien, esta técnica es muy útil para obtener información sobre el curso temporal de reconocimiento de las palabras Porque da datos sobre cambios cerebrales milisegundo a milisegundo Es decir, tiene una gran resolución temporal Bueno, otros investigadores estudiaron los efectos de la frecuencia de las palabras y la longitud de las palabras O también la frecuencia y la edad de adquisición de las palabras En este caso comprobaron que la frecuencia producía un cambio más temprano que el de la edad de adquisición En una tarea de lectura silenciosa Porque llegaron a decir que estas dos variables tienen efectos de la frecuencia Sobre distintos procesos independientes y sobre distintos procesos Es decir, en un caso efectos lésicos, el de la frecuencia, y semánticos, la edad de adquisición Resultados que encontramos con todo esto Diferencias entre las distintas palabras son pequeñas Pero siempre aparecen de forma constante en la mayoría de las personas Es decir, se tardan unos milisegundos en reconocer una palabra de ocho letras Unos milisegundos Unos milisegundos más de ocho letras que una de seis Y unos milisegundos más una palabra de baja frecuencia que otra de alta frecuencia Les interesaba estudiar las variables Para estudiar sobre el tiempo de reacción Dice que este interés tiene que ver con los efectos A través de los efectos que se encontraron, se pueden inferir procesos cognitivos que intervienen en la lectura en general y en cada situación en particular. Por lo tanto, en un experimento de lectura en voz alta, dice que hay efectos de las variables consideradas semánticas. Por lo tanto, podemos inferir que los participantes estaban accediendo al significado de las palabras, aunque la tarea fuese sólo una tarea de lectura en voz alta. Vale, ahora pasamos al apartado variables que influyen en el reconocimiento de palabras orales y escritas de los dos. Una de estas, o sea, hay muchas variables que influyen. Tenemos la frecuencia, que es la más importante. La más influyente, porque encontraron que se reconocen antes las palabras más frecuentes, se leen más rápido, las fijaciones oculares son más cortas. Otra variable, la edad de adquisición. Otra variable, la vecindad ortográfica. ¿Os acordáis que era un vecino? Número de palabras que comparten con una palabra todas sus letras excepto una. Palo, velo... O sea, quiero decir... Vas nombrando palabras y lo llaman vecinos, ¿no? Se diferencian sólo en una letra. Otra variable que influye, el punto de unicidad. Ojo, era importante en el reconocimiento oral de las palabras, pero en la lectura no influye apenas porque la palabra en la lectura parece completa ante nuestros ojos. Otra variable que influye es la longitud de las palabras, pero también influye más en el lenguaje escrito que en el oral. ¿Por qué? Porque encontraron que los tiempos de lectura se incrementaban de manera lineal con el número de letras, unos milisegundos más, 10-20 milisegundos más por cada letra de más. Y se mide la longitud de la palabra por el número de letras, aunque se puede utilizar números de sílabas, sobre todo cuando es un idioma silábico como el español o el francés. Otra variable que influye en el reconocimiento de palabras son las letras escritas, la frecuencia de las sílabas, ojo, y la complejidad morfológica. Fíjate que en este caso funciona al revés. La frecuencia de las palabras era una variable influyente. La frecuencia de las palabras era una variable influyente, que reconocíamos antes, pero en la frecuencia de las sílabas entorpece el reconocimiento de las palabras. Las sílabas muy frecuentes hace que, cuando se utilizan, da lugar a tiempos más lentos que las palabras formadas por sílabas poco frecuentes. Hicieron un estudio, sobre todo en inglés, ¿no?, donde encontraron que... Ah, bueno, no, perdón. Hicieron un estudio de la técnica de la ventana móvil que... Para... Para comprobar algo de que una vez eliminado el efecto de otras variables, el procesamiento de cada palabra estaba relacionado negativamente con las frecuencias posicionales de sus sílabas. Es decir, la frecuencia de las sílabas en el idioma, en una determinada posición dentro de la palabra, pues requería mayor tiempo de lectura. Latencia de respuestas. Presentación lésica. Es decir, si son sílabas de alta frecuencia, activan más unidades lésicas que las de baja frecuencia y, por lo tanto, esas unidades compiten cuando hay que identificar la palabra. Vale, la regularidad del sistema autográfico. Hay idiomas, hay ortografías que son opacas, se llaman opacas, como el danés, el francés, el inglés, y hay otras transparentes, ¿no? No importa. El castellano, el italiano, el finés, ¿no? Bueno, pues bien. La ortografía opaca dice que no hay irregularidad grafema-fonema. Es decir, se escribe de una manera y se pronuncia de otra, ¿no? Fonema, ¿no? En inglés hay algo que es la regularidad, es determinante para el reconocimiento visual de las palabras, ¿no? ¿Por qué? Esto explica que los ingleses tardan más y cometen más errores al leer palabras irregulares. ¿Por qué? Porque lo que se encuentra es que son palabras que no conocen y que no saben cómo se pronuncian. Por eso los niños ingleses tardan mucho más tiempo en aprender a leer. Sin embargo, en las ortografías transparentes, donde cada grafema se pronuncia siempre de la misma forma, pues se puede leer una palabra aunque nunca se haya oído. Cuando la ortografía arbitraria se da en la escritura, cuando la palabra no se ajusta a ninguna regla ortográfica, esa ortografía arbitraria dice que tenemos que procesarla mediante dos vías, una vía léxico-ortográfica, es decir, cuando la palabra no se ajusta a ninguna regla ortográfica, cuando la palabra es familiar y hay una representación en la memoria, se utiliza esta vía, pero utilizamos la vía sublésica para palabras desconocidas. Y cuando uno tiene que escribir una palabra de ortografía arbitraria y desconocida, se usa la vía sublésica para elegir los grafemas más frecuentes y la vía léxica para buscar las palabras parecidas, palabras familiares o parecidas. Correlaciones. Como veis, hay muchísimas variables en reconocimiento de palabras orales escritas, ¿no? También está el efecto del contexto. El efecto del contexto, o sea, ya dijimos al principio que antes que hasta Cattel había encontrado que leer una palabra aislada era mucho más difícil. O sea, no, leer signos aislados era más difícil que leer palabras, ¿no? Vale, leer una palabra aislada es más difícil porque está fuera de contexto. ¿Qué es el efecto del contexto, no? Dice que en los experimentos anteriores, o en las variables de los experimentos, se ha hecho con palabras aisladas. Es decir, sabemos que el contexto facilita el reconocimiento de palabras, ¿no? Además, el contexto modula el papel de las variables. O sea, necesitamos más que una sola. También sabemos, respecto al acceso al significado, sabemos de hace tiempo que el contexto ayuda a reconocer las palabras, pero parece que no influye en el acceso al significado. ¿Por qué? Porque cuando leemos una palabra polisémica, se activan todos sus significados, incluso aquellos que no son apropiados para ese contexto. Hicieron experimentos para descubrir esto, con experimentos... ...contextos neutros, podía ser sesgado, ¿no? Y encontraron que cuando la palabra aparece justo después del contexto, tanto la palabra relacionada como la no relacionada se reconocen antes que la palabra de control. Pero cuando aparece más tarde del contexto, muy tarde, 700 milisegundos, solo aparecen respuestas rápidas con la palabra relacionada. Esto significa que en los primeros milisegundos se activan todas las representaciones léxicas que corresponden a la palabra escrita, con independencia de que sean o no válidas por su significado, plausibles, ¿no? Aunque ya luego, poco después, solo se queda activada la que corresponde a ese significado. Aquí entramos, aquí entramos en los modelos de reconocimiento de palabras escritas. No nos asustemos porque hay alguno más de dos, por dar una idea, ¿no? Está ahí en la página 56, el de casa, estará diciendo, este se ha quedado en la página 47, pues tengo que ir a la página 56, porque los modelos, alguno tiene algún dibujito que puede servir para comprender un poco más del tal modelito, ¿no? Mira, me he puesto casi al principio, perfecto. Modelos de reconocimiento de palabras escritas, es decir, ¿qué modelo, cómo se suponen estos señores que hace un ser humano para reconocer una palabra escrita, no? Es decir, para explicar datos empíricos que se han desplazado. Vamos a estudiar los modelos de reconocimiento de palabras escritas. Los más conocidos van a ser el modelo dual y el de triángulo. Pero primero vamos a ver unos pocos, ¿no? Cuando lleguemos a esos que serán los últimos, los más reconocidos. Tenemos el famoso logo, modelo de logogen de Morton. Ojo, que este también lo teníamos para palabras tanto escritas como habladas. Este también estaba en el tema 5, me parece, aunque yo este año no lo he visto. Pues bien, este modelo de logogen dice que es un modelo de activación. Es decir, nosotros lo que tenemos en la mente, cada palabra está representada por un mecanismo que es un logogen. Pues bien, cuanto más activación tengas este logogen, cuando leemos una palabra, barco, se activa el logogen correspondiente a la palabra barco. Cada vez que se activa ese logogen, su umbral de activación disminuye. O sea, se activará en cualquier momento que supongamos que va a aparecer la palabra. Cuanto más veces se lea una palabra, mayor es su frecuencia, menor es su umbral de activación. Y es más fácil conocerla. Vale, ese es un modelo. Modelo, otro modelo, modelo de búsqueda. Es búsqueda en serie, de Foster. Este utiliza la metáfora de la biblioteca. De la misma manera que tenemos en la biblioteca que hay archivos, están las fichas de los libros, etc. Dice que tenemos unos archivos periféricos y un archivo general. En los archivos periféricos están representaciones de las palabras por orden de frecuencia. Tenemos el archivo fonológico para el lenguaje oral, el archivo ortográfico para el lenguaje escrito y el archivo sintáctico para el lenguaje semántico, para el significado. Pues bien, y otro archivo general donde está toda la información respecto a la palabra incluido el significado. Pues bien. ¿Cómo funciona? Cada vez que se lee una palabra, se busca en el archivo de las representaciones ortográficas hasta que se encuentra. Cuanto más frecuente sea esa palabra, más arriba estará ese archivo. Tardaremos menos en llegar a esa información. Y igual que ocurre con la ficha de la biblioteca, esa ficha nos lleva al libro. Pero llegamos a la representación de la palabra en el archivo periférico y esa nos lleva a la información del archivo general. Vamos a ver que hemos dicho que había dos muy interesantes, dos modelos, y no hemos llegado a ellos. El modelo dual y el modelo del triángulo. Vamos a llegar a ellos. Bueno, son de los mismos, no son de los mismos. El modelo dual o de doble ruta es de Coldhair. Y el modelo del triángulo de Seiden y Marlella, ¿no? Pero son muy parecidos. Y ha habido también otros modelos que son una síntesis, como el modelo de Perry, que es un modelo conexionista, que habla de una vía léxica y otra vía subléxica. Y dice que este modelo es capaz de aprender, lo que le da ventaja sobre el modelo dual, ¿no? También tenemos el modelo de Hans Carbonell y Valdoas, ¿no?, que es un modelo de lectura de tipo conexionista. Y está dirigido a las palabras polisilábicas, ¿no?, que se han descuidado en los modelos anteriores, ¿no? Dice que hay dos procedimientos para el sistema lector. Un procedimiento global, que usa el conocimiento completo de la palabra y permite leer palabras familiares. Y un procedimiento analítico. donde se activan los segmentos silábicos de las palabras y ocurre cuando no se puede reconocer globalmente la palabra. Pero pasamos a los dos modelos más defendidos actualmente, que son el modelo dual o de doble ruta, en primer lugar. De Cotter, que a partir del modelo del logogen le fue añadiendo componentes para explicar algunos datos que iban saliendo en las investigaciones con psicología experimental con individuos sanos y también desde la neuropsicología con pacientes que habían sufrido lesiones cerebrales. Bien, el modelo dual propone dos vías o procedimientos para pasar de la palabra escrita al significado de lectura comprensiva y luego a la pronunciación de lectura en voz alta. Tenemos una vía léxica que permite leer las palabras. Mediante la aplicación grafema-fonema, de tal manera que transforma cada letra o grafema en su correspondiente fonema. Esta vía subléxica, dije léxica, pero es subléxica, perdón. Primero la subléxica, grafema-fonema, se puede utilizar con todas las palabras, sean o no familiares, como con palabras desconocidas y pseudopalabras, pero no sirve con las palabras irregulares. Y luego está la otra vía, la vía léxica, que nos permite leer directamente las palabras porque activa la representación que tenemos en nuestro léxico visual. Se podemos dividir, bueno, hay variantes, léxica pura, vía léxica pura, que conecta directamente el léxico ortográfico con el fonológico. lo que permite reconocer las palabras y leerlas en voz alta sin llegar a entrar en su significado, es decir, como si fuera un automata, sin comprender. Y la vía léxico-semántica que ya pasa por el sistema semántico. Dice que esta es la vía que es indispensable para comprender las palabras que leemos. Esta vía léxica es muy útil porque permite leer de una manera más fluida, porque reconocemos y pronunciamos directamente las palabras, ¿no? Y también es importante esta vía léxica para la lectura de palabras irregulares, aunque sabemos que estas palabras solo existen en los sistemas ortográficos opacos, como el inglés. Pero solo se puede utilizar con las palabras familiares que ya han existido. Muy bien. ¿Qué proceso? Ojo, que todavía me falta el de... Es que está muy definido. Con mucha... Muchos detalles. No, me falta el modelo de triángulo. Perdón, ¿eh? Bueno, aquí nos habla un poco del proceso, de qué hacemos cuando leemos, ¿no? Tanto que el primer paso que hacemos es identificar las letras, luego utilizamos la vía subléxica, si nunca hemos visto la palabra que tenemos delante, y la vía léxica. La vía léxica, si la palabra que está delante es conocida, pero de pronunciación irregular. Y bueno, también hay otros momentos que utilizamos las dos, la vía subléxica más la léxica. Cuando se trata de una palabra familiar y regular, se ponen en marcha las dos vías, por lo que hace que la lectura sea rápida y precisa. Si hay una palabra larga en la que hay que aplicar muchas reglas, por ejemplo, rinoceronte, seguramente utilizaremos la vía léxica, la más efectiva. Pero en cualquier caso, las dos vías se ponen en funcionamiento. Por eso cometemos pocos errores con la lectura, porque si falla una, salta la otra. ¿Los niños cómo qué hacen? En principio solo utilizan la vía subléxica, porque no tienen palabras en su léxico visual, pero a medida que se van haciendo cada vez más expertos, van leyendo más, van formando representaciones, y van participando en la vía léxica de lectura que la hace más rápida y fluida. Ojo, en este modelo... ...la vía léxica no requiere un aprendizaje sistemático, sino que los propios niños, los que al leer una y otra vez las palabras, se terminan aprendiendo, formando representaciones. Esto lo denomina ser autoaprendizaje. Dice que a veces, a medida que los niños van leyendo más, forman representaciones. Se terminan formando más representaciones de las palabras y van aumentando su léxico ortográfico. Y por lo tanto, su lectura se hace más fluida. Y también... cambian los efectos de las variables, porque la longitud, cada vez las palabras pueden ser más grandes y van adquiriendo, o sea, aumentando la frecuencia, la edad de adquisición, etc. Ojo, que este modelo dual en principio era en serie, es decir, primero iba un componente, no comenzaba a funcionar hasta que terminaba el anterior, ¿no? Pero Colter había propuesto un funcionamiento de tipo computacional en el modelo ampliado. Vamos a hablar del modelo de doble ruta en cascada, ¿no? O sea, según esto, funcionaba como que la vía subléxica va de manera serial, porque hay que hacer una conversión de que la fema en fonema y es sucesivo. Pero la vía léxica tiene un funcionamiento en paralelo y en cascada, ¿no? Como la vía léxica sabemos que es la más rápida que la subléxica, por ese trabajo en paralelo, ¿no? Por eso agiliza el proceso. Llegamos al modelo del triángulo. Esta es la página 67. El modelo del triángulo de Seidler y Maglela. Ese trabajo mucho, es que me salen todos los libros, sobre todo también en atención, ¿no? Bueno, muy bien. Este modelo del triángulo es un modelo conexionista, que está propuesto a partir del modelo de procesamiento de distribución en paralelo, PDP, ¿no? De Maglela a Mirúmerz, al claro. que es el rival del dual, del modelo dual que habíamos visto hace un momento. Aquí no distinguen entre vía lésica y vía sublésica porque todos los estímulos, sean palabras familiares o desconocidas, se leen por el mismo procedimiento. El modelo del triángulo dice que hay tres niveles, ortográfico, fonológico y semántico. Los tres niveles están unidos entre sí por unidades ocultas. Y la facilidad que tenemos para leer las palabras depende de la fortaleza de las conexiones. Cada vez que se lee una palabra, se activan las representaciones de esa palabra y va cogiendo mayor fuerza la conexión. Palabras de alta frecuencia se reconocen más rápidamente que las de baja frecuencia en las pseudopalabras porque sus conexiones son más fuertes. Pero, ¿qué es lo que se puede hacer? Pero, ojo, que este modelo, hemos dicho que no reconocía la vía lésica y sublésica, pero habla de dos vías. Dice que un poco parecidas a las del modelo dual, pero ¿para cuánto? Para la lectura en bolsalta de las palabras. Una es la vía que conecta directamente la ortografía con la fonología y que se parece a la vía sublésica y otra que lo hace a través de la semántica, que se parece a la vía léxico-semántica. Muy bien. En el caso de acceder al significado, según el modelo del triángulo, se puede pasar directamente de la ortografía a la semántica o podemos pasar a través de la fonología. Contrariamente al otro modelo, al modelo dual, los modelos conexionistas no dicen que el sistema de lectura esté formado por módulos, sino por redes, es conexionista, redes compuestas por un gran número de unidades o nodos que se conectan entre sí y que funcionan de forma similar a las redes neuronales. Por lo tanto, aquí los distintos componentes del sistema trabajan en paralelo, pero por lo tanto no se necesita que un componente termine de funcionar para que empiece a funcionar el siguiente. Y esto es lo que ocurre también al funcionamiento cerebral. Tiene otra ventaja sobre el modelo dual y es que es un sistema que mejora con la práctica, es decir, sirve para explicar el aprendizaje de la lectura. Este modelo del triángulo no incluye reglas de conversión grafema-fonema, sino que... ...la relación entre las letras y los sonidos aparece en el curso del entrenamiento del sistema. Cuantas más veces un grafema aparezca asociado a un determinado sonido, más fuerte se hará la conexión. Ojo, el modelo dual y el modelo del triángulo son dos modelos que continúan vigentes porque son capaces de explicar los principales resultados que se han encontrado en los estudios de reconocimiento de palabras. Y respecto a las diferentes variables, como puede ser la lexicalidad, la frecuencia de palabras, la interacción frecuencia-lógico... ...sólo me falta el apartado bases neurológicas de la lectura. Pero estoy en la página 70. Ah, bueno, solo son 16 páginas. ¿Ustedes creerán que en 5 minutos podré leer 16 páginas? Tendré que ser un lector muy experto y tendrán que ser las palabras que yo lea muy frecuentes para que yo pueda leerlas con gran facilidad. Me vais a perdonar, pero yo voy a dejar el tema aquí porque luego los... Realmente cuando hablamos de las bases neurológicas de la lectura, digamos un poco porque dejé yo el tema 3, que también entra, no le voy a hacer. Porque la base neurológica, lo que hay en el cerebro, el funcionamiento, digamos, poca explicación hay que dar, ¿no? Realmente nos van a explicar de qué zonas están relacionadas. Con la comprensión de las palabras que leemos a nivel ortográfico, fonológico y semántico, como hemos visto, ¿no? Habrá una zona, el área de Bernique, el área de Broca, funciona ahí, zonas medias del temporal izquierdo, lóbulo frontal izquierdo, etcétera, área de Broca. Ahora lo estudia un poco en detenimiento, pero como no me va a dar tiempo, me vais a perdonar, voy a cerrar aquí la grabación. Y ya compartimos. Bueno, pues eso es todo.