Buenas tardes a todas y a todos los alumnos de los grados de Pedagogía, Sociología y Políticas. Tal como dijimos el primer día y tal como especificamos en el calendario de clases que íbamos a ver, hoy tocaría clase con los alumnos de Pedagogía y vamos a ver el tema 2. El tema 2 que se refiere en concreto a las características de los instrumentos de medida. Vamos a ir viendo, como siempre, basándonos la explicación en un PowerPoint que vamos a descargar ahora mismo. Ya sabéis que lo podéis descargar vosotros. El tema, como hemos dicho, se llama Características técnicas de los instrumentos de medida. Vamos a ver en general dos tipos de... Bueno, pues de... Modelos teóricos que se refieren en concreto a determinar si la puntuación que ha obtenido el sujeto en un test es precisa o no lo es. Entonces, en este caso vamos a abordar esa precisión de la medida a través de la teoría clásica de test, que es la más conocida y la que más se ha utilizado tradicionalmente, y frente a ello la teoría de respuesta al ítem, donde cada una tiene sus ventajas y sus... inconvenientes. Entre otras cosas, la teoría clásica de test va a depender los valores que vayamos obteniendo del grupo normativo, de una comparación a una norma, frente a la teoría de respuesta al ítem, que se va a referir en general a unos resultados que van a ser invariantes a la muestra, es decir, que no van a depender de la muestra, porque se va a basar precisamente en que la actitud del sujeto es un rasgo latente que no podemos observar. Entonces... En este caso la muestra no va a tener nada que ver, sino que se va a basar sobre todo en lo que es el ítem. La fuerza está en el ítem, no en las respuestas que da el sujeto comparadas con el grupo normativo. En este sentido, basándonos en la teoría clásica de test, pues vamos a ir viendo cómo podemos evaluar la calidad de los ítems. Para ello podemos valorar cuál es la dificultad de los ítems, sería una primera medida. Ahora definiremos cada una y veremos cómo se halla. ¿Cuál es la discriminación de los ítems? ¿Cuál discrimina más? ¿Cuál discrimina menos dentro de los ítems de una prueba? Los ítems nos referimos a las preguntas de una prueba. Los distractores, es decir, en una pregunta, una prueba objetiva, normalmente ponemos cuatro alternativas, o tres alternativas en cada una de las cuestiones o preguntas que formulemos en cada uno de los ítems. Pues bien, en este caso es bueno que... Bueno, la respuesta... La respuesta verdadera será una de esas tres o cuatro, pero el resto son distractores, ¿no? Entonces lo bueno es que los distractores tengan una cierta característica, ¿no? Es decir, que sean similares, el grado de distracción que le provoquen al sujeto frente a la respuesta verdadera sean similares, ¿no? Porque, bueno, si un distractor se ve muy claro que es un distractor, pues evidentemente estaríamos de alguna manera falseando los resultados que obtiene el sujeto. Será más fácil la pregunta, ¿no? Si uno... De las alternativas vemos que es un distractor claro, es decir, que no es una respuesta verdadera, ¿no? Entonces ahora veremos cómo se analizan los distractores. La fiabilidad o precisión de la medida del propio ítem y la validez, es decir, si mide aquello que nos dice medir, ¿no?, que queremos medir. Y luego cuántas dimensiones va a tener el conjunto de ítems, si todos responden a una dimensión o pertenecen a varias dimensiones. Entonces iremos viendo cada uno de estos... De estas propiedades. O de estas características, ¿no? En cuanto a dificultad, la podemos definir como el número de personas que contestan correctamente. La dificultad del ítem, ítem difficulty en inglés. Entonces sería el número de sujetos que contestan correctamente que sería A frente o dividido frente el número de sujetos que contestan en total, ¿vale? Número de sujetos que contestan a una prueba correctamente frente al número de sujetos que contestan en total. Número de sujetos que participan en esa prueba. Ese sería el ítem difficulty. En los ítems de elección múltiple, como son las pruebas que hemos dicho de cuatro alternativas o de tres alternativas, tienen una fórmula correcta. Tienen una fórmula concreta. ¿Por qué? Para evitar que el sujeto conteste por azar. Si el sujeto contestara por azar y no tuviéramos una fórmula de corrección, entonces estaríamos falseando la respuesta. Estaríamos invitándole a contestar aunque no sepa, con lo cual sería más probable que acertara. Imaginaos que esto sea un examen en el cual... Pues bueno, pues el sujeto se arriesga y va contestando. Al final puede aprobar sin saber. Entonces, para evitar eso y para evitar que responda cuando no sepa, hay una serie de correcciones en función del número de alternativas erróneas que conteste. ¿Vale? Y entonces, esa corrección es la siguiente. El ítem difficulty en estos ítems de elección múltiple sería el número de sujetos que contestan correctamente menos el número. De errores partido de alternativa menos uno. ¿Qué serían las alternativas? Es decir, ¿qué sería si tiene cuatro alternativas cada pregunta? El ítem, pues aquí sería cuatro. Cuatro menos uno, tres. ¿Vale? Uy, perdón. Entonces, por ejemplo, un ítem con cuatro alternativas de respuesta sería el número de sujetos que contestan afirmativamente. O correctamente. Menos el número de sujetos que fallan. Si es de cuatro alternativas, aquí tendríamos tres. ¿Vale? Y esto partido del número de sujetos que se presentan a la prueba. ¿De acuerdo? Esta sería la fórmula con la que hallaríamos la dificultad de ese ítem en concreto. ¿Vale? O de esa pregunta en concreto. Aquí veis que, bueno, pues en concreto podemos decir que la dificultad del ítem no es una propiedad intrínseca al ítem. ¿Eh? O sea, no es una propiedad que puede decirse que va acompañando a ese ítem, ¿no? Sino que el valor depende, como hemos visto, de la muestra del sujeto. Es decir, depende, acordaos, ¿eh? El each in difficulty, ¿vale? Depende, en el mejor de los casos, de el número de los que aciertan frente al número de los que participan. Por lo tanto, si n cambia, la each in difficulty también cambia. ¿Vale? En el sentido en que, bueno, en que realmente mida esa prueba. Es decir, que realmente tenga validez la prueba. Si no, evidentemente la dificultad del ítem no tendría mayor sentido, ¿no? Y siempre nos aconsejan que la mayor cantidad de ítems sean de una dificultad media. Es decir, ni muy fácil ni muy difíciles. ¿Y a qué llamamos dificultad media? Pues veis que si el índice de dificultad es menor de 0.25 son muy difíciles. Si el índice va entre 0.25 y 0.44 serían difíciles. Si el ítem va entre 0.44 y 0.54 serían normales. Es decir, nos tendríamos que centrar en que la mayor parte de los ítems de una prueba estuvieran aquí. Entre 0.54 y 0.75 serían fáciles y más de 0.75 serían muy fáciles esos ítems. Continuamos. Por ejemplo, vamos a ver un ejemplo. Un ejemplo, ¿vale? Pues primero empezamos con dos alternativas para que sea más fácil. Tenemos una clase de 40 alumnos. Es decir, 40 alumnos responden a una prueba. Y nos vamos a fijar en el ítem número 3 para ver si es fácil o difícil. Y si tiene dos alternativas, pues vamos a la fórmula general. La fórmula general nos dice que el ítem difficulty... Vamos a ver cuántos alumnos aciertan en el ítem número 3. Pues aciertan 25 sujetos. Vamos a hacerlo bien para que veáis los pasos por paso. Evidentemente, igual que siempre. Si veis cualquier duda lo podéis preguntar. ¿Vale? A entre N. ¿Cuántos sujetos aciertan aquí? 25. ¿Cuántos sujetos contestan? 40. Si dividimos 25 entre 40, pues esto nos da 0,625. Si vamos a la escala anterior, vamos a ir a la escala anterior para que lo veáis. El 0,625, pues estaría... Aquí, ¿vale? Estaría aquí 0,625. Entonces, esto quiere decir que este ítem sería fácil, ¿vale? Bueno, pues vamos a ver. El ítem número 8, la pregunta número 8, también tiene dos alternativas de respuesta. Fórmula general. La fórmula general nos dice que... Bueno, pues que aciertan 15 en este caso, ¿vale? Igual de 25. Bueno, pues nada, ponemos 15. Vale, pues ponemos 15. Si yo divido 15 entre 40, pues aquí me va a dar 0,375. ¿De acuerdo? Entonces, nada, yo pongo aquí 0,375. ¿Vale? Entonces, vemos que si vamos otra vez a la tabla anterior, el 0,375, pues estaría aquí. ¿Vale? 0,375. ¿Y esto qué sería? Un ítem difícil. ¿Vale? Ahora tenemos, en lugar de dos alternativas, imaginaos que el ítem número 9 tenga tres alternativas. Pues vamos a ver si es fácil o difícil, porque claro, sin hallarlo, pues no lo podemos saber. Bueno, pues vamos a la fórmula. El ítem difficulty nos dice que sería igual. Número de sujetos que aciertan. Menos un factor de corrección. ¿Vale? Que sería el número de los que fracasan o el número de los que fallan. ¿Vale? Entre el número de alternativas del ítem, que en este caso serían 3 menos 1. ¿Vale? Y todo esto lo dividimos entre el número de sujetos que están participando. ¿Qué es lo que tenemos aquí? ¿Vale? 25 sujetos que aciertan, que sería A. ¿Vale? Bueno, esto mejor lo vamos a poner de otro color para que lo veáis. Mejor así. 25 sujetos que aciertan, que sería A. 15 sujetos que fallan, que serían E. Y el número de alternativas, que serían 3. ¿Vale? Si yo hago el cálculo de todo esto, vemos que me da 0,4375. Si me voy a la tabla anterior, el 0,4375, pues estaría por aquí. Es decir, vendría a ser más o menos normal. Tendría una dificultad media, de difícil a media. ¿Vale? Sería de difícil a media. Bueno, seguimos. Vamos a pasar a discriminación, que es otra de las propiedades. La discriminación es si ese ítem discrimina entre el grupo que sabe más y el que sabe menos. El grupo que tiene más y menos aciertos. Para eso lo que hacemos es una correlación entre el propio ítem y las puntuaciones del test. Por lo tanto, una correlación, todo el mundo sabe que va de menos 1 a 1, como la correlación de Pearson. Es decir, una correlación, si tiene la misma puntuación, sería 1. Y si justo 1 cuando alcanza la máxima puntuación, el otro hecho que estemos analizando, alcanza la mínima puntuación, sería menos 1. Es decir, sería justo el fenómeno contrario. ¿Vale? Decimos habitualmente que cuando tienen un índice de discriminación entre 0 y 35, hablamos de un buen ítem. ¿Vale? Y la discriminación se halla, pues, restando la proporción de sujetos, es decir, porcentaje de sujetos. Que son del grupo superior frente a la proporción de sujetos del extremo inferior. ¿Vale? ¿De acuerdo? P más, menos, P menos. ¿Vale? Esto sería. Bueno, pues, cuando podemos hacer la correlación del ítem con el test sin el ítem, le llamamos índice de discriminación. Pero muchas veces no tenemos herramientas tan precisas como para hacerlo. Entonces, si no se quita el ítem, tenemos que utilizar esta fórmula de aquí. ¿Vale? Que la otra sería simplemente la correlación del ítem con el test. La correlación de Pearson, la tetracórica, etcétera. Si son dicotómicos, utilizamos la correlación de Pearson para dicotómicos, variables dicotómicas. Si la variable no es dicotómica, es decir, que la hemos transformado y la hemos dicotomizado, la hemos puesto en dos valores, 1, 2, alto-bajo, por ejemplo, o tenía más valores y nos lo ocupaba en 2 al final. Y podemos a un valor decirle A y al otro B, independientemente de que al principio el A tuviera más categorías. Imaginaos el nivel socioeconómico, ¿no? Que podemos decir los que ganan de los que no ganan nada hasta los que ganan al mes 600 euros. De 600, imaginaos, ¿no? Pues, no lo sé, a 1.000. De 1.000 a 1.500, ¿vale? Bueno, vamos a ver, de 1.000, perdón, 1.000. Hemos dicho, esperad, vamos a hacerlo bien, ¿vale? O sea, de 1.000 a 1.500, de 1.500 a 1.800, de 1.800 a 2.000. Bueno, si puedo poner un ejemplo, ¿vale? Y luego haya mayor de 2.000, ¿vale? Bueno, imaginaos que decimos que el nivel socioeconómico bajo, estaría aquí, ¿vale? Estaría hasta 1.500, ¿vale? Hasta 1.500. Y más de 1.500 decimos que es medio alto. Bueno, pues entonces tendríamos que aquí tenemos una variable dicotomizada. En principio tenía tres, seis categorías, al final la hemos transformado en dos dicotomizadas. Y distribución normal sería la correlación tetracórica. Si una variable es continua y otra dicotomizada sería la correlación visceral. Si una variable es continua y la otra dicotómica, la correlación visceral puntual acordada del año pasado es como eran las fórmulas. Y si las dos variables son continuas sería la correlación de Pearson que todos conocéis, ¿vale? Entonces, ya os digo, si no se quita el ítem sería este el, bueno, pues, la fórmula para hallar el índice de discriminación. Ahora veremos un ejemplo. Igual, no es útil si tiene menos de 0,10 de discriminación. Si va de 0,10 a 0,19 debe mejorar el ítem. Si va de 0,19 a 0,29 discrimina poco. Si va de 29 a 39 discrimina bastante bien. Lo que hemos dicho, de 0,25 a 0,35 sería un buen valor del índice de discriminación. Y si es mayor de 0,39 podemos decir que discrimina muy bien. Hay una relación entre la variabilidad o la variabilidad, ¿sabéis qué es? La desviación típica y la discriminación, ¿vale? Que nos vendría a dar que, bueno, pues, la variación típica, la desviación típica del test sería, la desviación típica del ítem por la correlación ítem y el test, ¿vale? La correlación de Pearson. Podemos hacer un ejercicio como antes. A un test responden 300 estudiantes. Luego el 27% de 300 serían 81 mejores. Y el 27% también serían 81 peores. Ya tenemos aquí el 27% del grupo mejor y peor, ¿vale? Bueno, pues, los 81 que mejor hacen el test, pues, el ítem 3 lo aciertan 40. Y de los 81 que obtienen peor puntuación en el test, el ítem 3 aciertan 12. ¿Cuál sería el índice de discriminación? 40, que aciertan el ítem 3 de los mejores, frente a 81, que son los que han sacado mejor puntuación en el test, menos los que peor puntuación tienen, le aciertan 12, entre 81, que son los que peor puntuación sacan en el test, del 27% más bajo. Al final da un 0,3456. Y si vamos a la página anterior, un 0,3456 estaría aquí, ¿vale? Sería un buen índice de discriminación. Y continuamos. Análisis de distractores. Como hemos dicho, las análisis de distractores, en teoría tienen que ser equiprobables, es decir, que nos podamos confundir con la misma probabilidad que podamos acertar, ¿vale? Eso sería, es decir, que sean distractores, es decir, que nos confundan, que podamos dudar entre la respuesta buena y la respuesta mala para no facilitar el test. Y pistas que permitan sacar una puntuación mayor de la que se debe. Entonces, pues bueno, los distractores serían esas alternativas falsas o respuestas incorrectas que pueden confundir al sujeto. Tenemos 300 individuos y tenemos un test de cuatro alternativas, ¿vale? En el ítem 3, con esas cuatro alternativas, la respuesta es de la correcta, pero fallan 198. Y con 198 que fallan, entonces vemos que han elegido la opción A, 85. La opción B, 40. Y la opción C, 73. Si sumamos 85 más 40 más 73, nos tendrían que dar 198. Entonces, 198, que son los que fallan, vamos a ver, el tema de los distractores, fallan 198, pues bueno, pues vamos a ver esos distractores. Utilizamos la G cuadrada de Pearson, que ya sabéis que es, bueno, pues una, prueba estadística que permite determinar cuando las variables, bueno, pues o bien no tienen una condición de normalidad o tienen pocas características que nos permitan asegurar su propia distribución donde proceden o, bueno, pues que las variables sean de un nivel nominal. Como en este caso fallan, no fallan, ¿vale? Entonces, bueno, pues nada, cogemos 85 que han cogido la opción A, 40 que han cogido la opción B, y 73 que han cogido la opción C. Si fueran buenos distractores, pues 198 que han fallado, entre 3, cabría esperar que 66 se decidieran por cualquiera de las tres. Entonces tendríamos aquí 85 menos 66, 40 menos 66, y 73 menos 66. Todo esto se le va al cuadrado, como ya sabéis, se divide entre la media, que sería 66. Nos daría la G cuadrada de 16, 45. Como sabéis, es un estadístico que hay que comparar el estadístico empírico, 16, 45 que hemos obtenido, frente al estadístico teórico, que estarían las tablas. Con los grados de libertad alternativa menos 1, 4 alternativa menos 1, 3, nos daría 5, 99. Como el G cuadrado empírico, el estadístico empírico, es mayor, acordado del contraste de hipótesis del año pasado, el estadístico empírico es mayor que el estadístico teórico de las tablas, podemos afirmar sin lugar a dudas que no son independientes. Luego, las respuestas son diferentes en función de cada alternativa, es decir, no estamos teniendo un buen nivel de distractibilidad. Y se puede ver que este ítem, la opción número A, está confundiendo al sujeto mucho más que la opción número B. Luego, no podemos decir que los ítems tengan el mismo grado de distracción, tendríamos que mejorar este ítem dentro de la prueba final. La fiabilidad, la precisión, es una característica importante, acordados que decíamos que los TES tienen que tener dos características esenciales, las más importantes son que sean fiables y sean válidas. Fiabilidad y validez, siempre han sido las tradicionales. Bueno, por la fiabilidad se refiere a que la puntuación que un sujeto tiene en el TES es igual a la puntuación verdadera, es decir, la puntuación que en verdad alcanza el sujeto más o menos porque esto no tiene por qué ser más, puede ser menos, un error. Este error es un error aleatorio. Si os acordáis de las propiedades de las variables estadísticas, la esperanza de una variable, como puede ser la puntuación que saca de un TES que varía de un sujeto a otro, es igual a la esperanza de la otra variable y los errores en teoría son errores aleatorios, esto sería cero, por lo cual, la esperanza de la puntuación del TES debería ser igual a la esperanza de la puntuación verdadera. En esto se basa la teoría clásica de los TES. Además, se basa en que la correlación entre la puntuación verdadera y el error sea cero, es decir, no haya correlación entre estas dos variables y que la correlación entre errores entre sí sea también cero, que se distribuyan aleatoriamente los errores. ¿Qué es lo que se puede hacer? Un instrumento de medida es fiable si la medida está libre de error. Pero un instrumento de medida no es bueno porque sea fiable. Ahora bien, si no es fiable, no es aceptable. Es decir, la fiabilidad es una condición necesaria pero no suficiente. ¿La fiabilidad cómo se halla? Pues la fiabilidad se halla mediante el coeficiente, podemos hablar tanto del coeficiente de fiabilidad y cuando hablamos del coeficiente de fiabilidad nos referimos a la fiabilidad relativa o el error típico de medida que es la propia precisión del TES. Y esa sería la fiabilidad absoluta. Cuando hablamos de la fiabilidad relativa estaríamos hablando de la probabilidad de fallo de correlación entre dos puntuaciones. ¿Vale? Entre dos puntuaciones. ¿Vale? Entonces, ahí estaríamos diciendo la relación que hay entre la varianza de la puntuación verdadera y la varianza de la puntuación que realmente saca el sujeto en el TES. Esa sería la correlación entre dos puntuaciones. ¿Vale? Y eso a su vez sería uno, ¿vale? Menos la varianza del error partido de la varianza de... Ya sabéis que la varianza la definimos así cuando es la de la población y cuando es de la muestra la definimos de esta manera como una S parece una serpiente. La deviación típica, acordaos, que sería hallando la raíz cuadrada que sería la medida de variabilidad con lo que tendríamos deviación típica poblacional y variación de la variación. Deviación típica poblacional, sí y desviación típica muestral. ¿Vale? Entonces, esa sería la probabilidad de fallo. La correlación entre dos puntuaciones vendría definida por esa relación. Varianza de la puntuación verdadera variabilidad de la puntuación verdadera frente a la varianza de la puntuación del TES. Evidentemente, si el error es aleatorio ¿vale? la puntuación verdadera y la puntuación del TES coincide. Con lo cual, podríamos decir que si el error es cero uno menos cero, uno y aquí coincidirían las dos varianzas. Con lo cual, la correlación sería uno. ¿Vale? Sería perfecta. Seguimos. Error típico de medida de la precisión. Es decir, ¿qué pasaría si yo repito imaginaos que un TES se pudiera repetir infinitas veces. Pues entonces, sería la puntuación que verdaderamente saca el sujeto. Porque como he repetido infinitas veces la media de puntuaciones de esas infinitas veces sería el valor verdadero. ¿Eh? Pero, de nuevo, estamos en un campo teórico. Yo no puedo... Infinito... No puedo... Infinito es un número inalcanzable. ¿Vale? Se supone que cuando la N es grande la teoría central del límite nos dice que cuando la N es muy grande se aproxima a infinito. ¿Vale? Y la deviación típica de esas puntuaciones respecto a la media verdadera sería el error típico. ¿Vale? Sería el error típico. El error típico, por tanto, sería poblacional. Sería el... La desviación típica, ahora sí, de que he sacado en el test y esto por uno menos la correlación entre puntuaciones. ¿Vale? Aquí, puntuación. X y X' ¿De acuerdo? Entre dos puntuaciones. ¿Vale? Estaríamos hablando de un tema absolutamente teórico. Podemos hablar de fiabilidad tres tipos de fiabilidades. Como estabilidad, como equivalencia y como consistencia interna. Vamos a ver en qué consiste cada una. La fiabilidad como estabilidad es cuando yo paso una prueba y luego a los 25 días vuelvo a pasar la misma prueba. ¿Vale? Dejo un lapso sustemporal. Evidentemente, influye la memoria de motivación. Es decir, cuando pasamos una prueba acordaos del año pasado y acordaos de otras asignaturas que habéis visto en primero y que estéis viendo en segundo que cuando yo paso un test en pedagogía, en psicología, cuando yo paso un test me estoy suponiendo que el sujeto está en situación de máximo rendimiento. Es decir, cuando yo paso un test de inteligencia supongo que el sujeto está libre de todo condicionamiento. Volvemos a cuestiones teóricas. En cuanto el sujeto no está motivado la respuesta no es la que él me está dando. Por eso siempre en los tests ponemos estos datos se refieren al momento puntual en el que yo paso esta prueba. No a otro momento que la pudiera pasar que podría cambiar la puntuación total. Entonces influye la desmotivación, influye la memoria. Los sujetos que tienen buena memoria se pueden acordar de este test. ¿Por qué digo 20-25 días? Pues por una norma. También podría decir 30 días. Podría dejar un mes. Podría dejar tres meses. Mucho mejor tres meses. Pero cuando yo tengo que hacer una investigación me corren prisa los resultados. Y sobre todo en pedagogía estamos hablando sobre todo de investigaciones que hacemos en un curso escolar. Si dejo pasar tres meses evidentemente se pueden dar también como aspecto positivo es que la memoria no es la memoria la influencia de la memoria disminuye. Pero también es cierto que se pueden haber dado mejoras por otros factores espontáneamente porque el sujeto ha aprendido, etc. Entonces hay una correlación entre la puntuación que saco en la primera vez y la que saco a los 20 días o a los 25 días. X sería la que saco la primera vez y X' la que obtengo a los 21 días. También hablamos del coeficiente de fiabilidad por las dos mitades de la mitad del test frente a la segunda para ver si es fiable un test. Y ahí hablaríamos del procedimiento de Spearman-Brown. Entonces X sería la primera mitad y X' sería la segunda mitad. Y esto sería la fórmula con la que sostiene. Aquí estaríamos hablando de la correlación de Pearson de la tetracórica en función del nivel de medida de las variables que hemos dicho antes. Si es dicotómica, si hay distribución normal si es dicotomizada, si la otra es continua, si la otra no es continua, etc. ¿Vale? Por lo tanto vamos a la anterior. Bueno, vamos a ir a ver un momentito, para que quede claro porque por aquí me están diciendo que puede que no quede claro. Vamos a ver. Quería decir con esto del nivel de medida lo siguiente. Aquí en el nivel de medida yo quería decir que aquí tenéis los niveles de medida que hemos establecido y el nivel de cuando sean dicotómicas las dos es la correlación de Pearson para variables dicotómicas. Si una es dicotomizada y la otra se distribuye de forma normal a tetracórica. Si una variable dicotómica es la otra dicotomizada correlación viserial. Si una es continua y la otra es dicotómica correlación viserial puntual y es una continua correlación de Pearson. Esta sería la mejor. ¿Vale? Y en el formulario tenéis las fórmulas de cada una de ellas. ¿De acuerdo? Continuamos. Entonces hemos visto la fiabilidad como estabilidad y vamos a ver la fiabilidad como equivalencia. La fiabilidad como equivalencia se refiere a que si un instrumento bueno pues realmente constituye una muestra suficiente y representativa de la población de conducta del propio rango es decir instrumento lo aplicamos para medir un rasgo inteligencia una prueba de solución de problemas de matemáticas una prueba de la asignatura de técnicas para recogida de información o de técnicas de investigación social de sociología da igual ¿vale? Entonces el instrumento tiene que tener preguntas ítems que abarquen toda la población de conducta de ese rango si es inteligencia tiene que tener ítems suficientes como para evaluar todo lo que abarca la inteligencia la inteligencia verbal la no verbal si la inteligencia verbal pues tiene que responder a analogías verbales tendrá que haber ítems de analogías verbales si tiene que tener sinónimos tendrá que tener sinónimos si tiene que tener velocidad de repetición de palabras tendrá que tener velocidad de repetición de palabras si la inteligencia manipulativa tiene que hacer una serie de figuras con cubos tiene que haber cubos es decir que tiene que tener una amplia muestra si en el si aquí en la prueba de técnicas para recogida de instrumentos técnicas para recogida de información en pedagogía deben haber preguntar de todos los temas ¿vale? del tema 1 del programa R que ya sabéis que veremos en diciembre del tema 2 que estamos viendo ahora y que cuya parte más práctica que requiere utilizar el programa R también lo veremos en diciembre en la tutoría que tenemos planificada tiene que del tema 3 que es de la observación del tema 4 del tema 5 es decir tiene que tener de todos los temas y los temas más importantes tendrá que tener más peso ¿vale? entonces los errores de medida pueden ser por varias razones cuando hay errores de medida una porque hay una falta de equivalencia entre los elementos que constituye la muestra y otro porque las experiencias del sujeto anterior es a la realización de la prueba imaginaos que a un sujeto le hemos dicho que siempre hay que aplicar la correlación de Pearson o tenga esas ideas que siempre hay que aplicar la correlación de Pearson y se encuentra ante variables que no sean continuas pues si es así él cree que siempre hay que aplicar la correlación de Pearson le aplicará la correlación de Pearson aunque el nivel de medida de las variables que tenga no sean continuas ¿por qué? por estas experiencias del sujeto ¿vale? en teoría deben tener el mismo número de elementos las dos pruebas que la teoría como equivalencia sería ver ¿eh? que saca en una prueba ¿vale? una prueba por ejemplo de inteligencia imaginaos que yo aplique pues por ejemplo para medir aptitudes intelectuales ¿vale? que yo aplique el IGF sabe que es una prueba que mide inteligencia verbal y no verbal y con la verbal ¿eh? aquí tendríamos razonamiento abstracto ¿vale? razonamiento abstracto ¿eh? y verbal no verbal aquí tendríamos aptitud numérica aquí tendríamos y razonamiento espacial ¿vale? ¿de acuerdo? aquí teníamos razonamiento abstracto y eh vocabulario ¿vale? o razonamiento verbal ¿vale? razonamiento de vocabulario o razonamiento verbal ¿vale? pero tenemos que poner razonamiento verbal para que quede más claro ¿vale? razonamiento verbal bueno pues veis que en este caso bueno pues aquí en este caso está claro que podemos comparar el X1 sería la puntuación que alcanza en el IGF y X2 por ejemplo la puntuación que saca en el VADIC ¿vale? que son pruebas similares y que podemos ver si son equivalentes o no bueno pues para ver la puntuación que alcanza en el VADIC o si hablamos de factor G pues en CATEL factor G de CATEL o matrices progresivas de RAVEN ¿vale? ¿de acuerdo? bueno pues aquí tenemos pruebas entonces para eso ¿qué hacemos? tienen que tener el mismo número de elementos y si no muy aproximado la relación a la estructura debe ser idéntica porque si cambiamos la relación o la estructura imaginaos que el VADIC pues tuviera una prueba adicional que fuera de precisión precisión numérica ¿no? que tenga otro tipo de prueba pues no estaríamos midiendo lo mismo o sea no sería equivalente ¿no? aquí nos estaría dando muy probablemente otro valor diferente ¿vale? que el contenido del objetivo sea el mismo o que parezca por lo menos que el índice de dificultad sea similar y el índice de dificultad ya lo hemos visto antes ¿vale? tanto el índice de dificultad del ítem ¿vale? como el grado de distractores como los índices de discriminación ¿vale? y que no haya una media significativa en los grupos que estamos comparando de medias, varianzas y covarianzas ¿vale? y que no se presenten de forma similar ¿vale? que tarden más o menos lo mismo el sujeto en hacer la prueba aquí en este caso dura una hora ¿no? aquí en este caso es libre pero igual en torno a 50 a 60 minutos ¿no? entonces aquí lo que haríamos sería haya la correlación entre las dos puntuaciones la correlación de una prueba frente a la correlación de otra es decir sería x ¿vale? x1 que sería la primera prueba y x2 sería la segunda prueba esto sería como equivalencia y vamos a ver ahora la fiabilidad como consistencia interna ¿vale? la consistencia interna sería bueno pues cuál es la fiabilidad del ítem en función del índice de discriminación de ese ítem y de su propia desviación típica entonces en teoría todos los elementos de un test deben medir un porcentaje del rasgo que queramos medir es decir deben medir un porcentaje de ese rasgo y tienen que ser coherentes todos tienen que medir lo mismo si estamos midiendo razonamiento verbal ¿vale? un test no puede medir razonamiento numérico es decir si lo que estamos diciendo al sujeto es que nos diga analogías verbales entre media no podemos meter una operación matemática porque en este caso no sería coherente estaría midiendo otra cosa diferente entonces suponemos que todos los ítems de una prueba miden lo mismo y miden un porcentaje de ese rasgo que queramos medir ¿vale? aquí nuevamente hacemos una correlación pares impares es decir ítem pares impares o primera y segunda mitad acordaos antes cuando hemos visto la primera y segunda mitad y empleamos para la consistencia interna una fórmula que llamamos alfa de Cronbach que viene dado por n que es el número de ítem del test partido de n-1 y a esto le restamos lo multiplicamos por 1 menos el sumatorio de que han sacado han sacado los perdón aquí cuando he dicho vale aquí n y n-1 ¿vale? vale tenemos dos submuestras ¿vale? bien aquí sumamos la desviación típica del la varianza del ítem y lo dividimos entre la varianza del test ¿vale? varianza del ítem y varianza del test ¿vale? número de elementos que tiene el test partido de n-1 elemento menos uno del test y de esto multiplicamos por 1 menos los ítems del test van de 1 hasta n y lo que hacemos es sumamos ¿eh? sumamos cada varianza de cada ítem ¿eh? de s-1 más la varianza de s-2 más la varianza de s-3 así hasta imaginaos que más ¿vale? puntico y más la varianza de n y por n pues imaginaos que el test tenga 15 preguntas pues aquí sería 15 ¿vale? y esto lo dividimos entre la varianza total de la puntuación del test ¿vale? de la puntuación global del test ¿vale? y esto es la varianza restamos a 1 la operación que nos da aquí ¿vale? entonces vemos que la fiabilidad del test está en relación con el número de ítems una alfa elevada es interesante eso significa que hay una consistencia interna pero cuidado que eso no indica no indica unidimensionalidad puede haber multidimensionalidad entonces si hay multidimensionalidad no nos vale la consistencia interna sino que tendríamos que medir la consistencia interna para cada dimensión por ejemplo inteligencia todo mide inteligencia pero si la inteligencia está compuesta de pruebas verbales y no verbales pues las pruebas verbales tenemos que hallar la consistencia interna de las pruebas verbales por un lado y la consistencia interna de las pruebas no verbales por otro no tendría sentido hallar la consistencia interna de una prueba de todas las dimensiones en conjunto porque no estaríamos hallando nada ¿vale? la validez sería otra de las garantías científicas y antes de eso hemos dicho que se complementaría la fiabilidad es un concepto relativo y la mejor definición de validez es que es aquello que mide lo que dice medir y tenemos validez de cuatro tipos de contenido predictiva concurrente y de constructo ¿qué es la validez de contenido? la validez de contenido se aplica sobre todo a pruebas de rendimiento y significa que haya suficiencia y representatividad de las muestras de las diferentes conductas del rasgo que queremos medir en el instrumento ¿vale? entonces esa suficiencia tiene que ver con el problema de tamaño es decir que tenga una longitud adecuada el instrumento entonces tiene que incluir todas las facetas que deban medirse y que no sea aburrido ¿vale? es decir que el sujeto no se aburra al realizar la prueba por lo tanto la validez de contenido es que realmente tenga todo aquel contenido que debe medir adecuado al rasgo ¿vale? ¿de acuerdo? eso sería la validez de contenido la validez predictiva pues la validez predictiva es que haya una relación de esa prueba con una medida normalmente es una medida externa es decir imaginaos quiero hacer un test para que mida la actitud mecánica ¿vale? porque quiero seleccionar a una serie de personas para bueno pues para reparar vehículos para un taller de reparación de vehículos entonces en teoría si esa prueba mide bien la actitud mecánica tiene que haber una alta correlación de la puntuación que saque en el test ¿vale? en el test de mecánica que yo haya hecho frente a la puntuación y que es una puntuación externa que me va a dar el jefe de taller esto la medida entre el test ¿vale? que en este caso he puesto y ¿vale? la medida entre el test y la otra medida externa que puede ser la puntuación como hemos dicho del jefe de taller ¿eh? puede haber un tiempo hasta que va a estar el jefe de taller vea cómo trabajan y demás ¿vale? por ejemplo imaginaos que deje dos meses tres meses ¿vale? si la prueba está bien hecha y hay una alta correlación entre la puntuación que saca en el test y el valor que nos dé el jefe de taller puede decir que tiene una validez predictiva me vale mi prueba para predecir gente que luego va a trabajar bien en un taller esto no implica validez de contenido es decir la prueba puede ser válida para seleccionar gente que va a trabajar en un taller pero puede que no tenga todas las facetas que el rasgo actitud mecánica teórico haya definido previamente en la teoría psicológica o pedagógica la validez predictiva es una variante de la ponga aquí predictiva perdón es una variante a ver sí a ver la validez predictiva bueno hemos dicho que, que la validez concurrente la validez concurrente es una variante cuando pongo aquí validez predictiva perdonad aquí quiero decir borrad aquí predictiva por favor y me ponéis concurrente la validez concurrente sería una variante de la predictiva os acordáis que antes he dicho que la predictiva puede haber un lapso de tiempo entre medida del test y medida externa ¿no? pues aquí se refiere a que las medidas van a ser simultáneas ¿vale? por lo tanto pero eso es una variante estamos hablando de lo mismo nada más que en lugar de esperar tres meses me tiene que decir el jefe de taller ya no serviría para el caso este del taller pero serviría por ejemplo una prueba de solución de problemas yo aplico una prueba de solución de problemas de matemáticas y veo luego si eso se corresponde con la evaluación de la primera evaluación de matemáticas ¿vale? y el lapso de tiempo imagino que sean dos o tres días ¿vale? entonces en dos o tres días tengo una valoración ¿vale? entonces sería validez concurrente he aplicado una prueba de matemáticas ¿vale? la prueba de solución de problemas voy a correlacionarla de forma inmediata con las calificaciones del sujeto en matemáticas ¿vale? si es esto lo que quiero hacer claro y por último tengo la validez de elaboración o constructo ¿no? y esto es que bueno que realmente mi prueba mira todas aquellas dimensiones que la teoría dice y para ello ¿qué hago? hago un análisis factorial entonces veo si mi prueba el análisis factorial es una prueba bueno pues de las que llamamos el análisis multivariable y veo si la respuesta que ha dado el sujeto las puedo agrupar por ejemplo en tres factores ¿vale? si tiene tres factores significa que está midiendo como tres dimensiones ¿vale? entonces veo si se ajusta o no se ajusta a la teoría mi prueba también estaría la validez de expertos hay una relación entre validez y longitud de la prueba ¿vale? entonces ¿qué nos diría aquí? la longitud de la prueba vendría por el número de ítems ¿vale? entonces aquí tendríamos la validez ya sabéis que va valor del test ¿vale? con valor externo con la prueba externa entonces mi cuando yo cuando yo cambio el número de ítems de la prueba entonces me va a decir que la nueva validez que he obtenido es igual a la validez que yo ya tenía ¿eh? dividido entre uno menos la correlación ¿eh? ¿vale? entre dos pasadas de la prueba ¿vale? entre el número de esto es la fiabilidad ¿vale? la fiabilidad ¿eh? la fiabilidad test re test ¿vale? entonces vemos que aquí también tiene relación con la longitud y con la fiabilidad ¿vale? la fiabilidad es la misma y lo que está cambiando aquí es la longitud de la prueba si yo tengo el mismo número de ítems también veo cómo varía de acuerdo a la fiabilidad la validez es decir aquí esto es en relación de validez fiabilidad y longitud de una prueba determinada ¿vale? yo creo que con esto vamos a pasar ya a la teoría de respuesta al ítem ¿vale? pongo aquí fiabilidad dejadme que lo ponga y para a paso a doy un paso al frente ¿vale? bueno pues la teoría de respuesta al ítem no me he dicho por qué bueno perdón todavía me falta la dimensionalidad es que bueno pues el objetivo del test mida la variable que yo quiero que tengo interés en medir y para eso normalmente hago como antes hemos dicho un análisis factorial para ver si estoy hablando si mis preguntas que yo he formulado sus respuestas obtengo un único factor es decir mide una dimensión ¿vale? o por contra mide tres factores ¿vale? entonces para eso lo que hago es bueno pues aplico el procedimiento del análisis factorial en este caso voy a voy a decir que el primer factor sea aquel que obtiene más del 40% de la varianza común es decir para que me sean factores potentes si yo pongo menos de este criterio pues a lo mejor sí que me salen más factores al ponerle este criterio exigente pues realmente solamente me va a salir un factor cuando tenga más del 40% de la varianza común lo cual no es muchas veces al final me va a costar que me salga más de un factor ¿vale? y eso sobre todo se basa en la matriz de correlación y o covarianza ¿vale? entre diferentes ítems de una prueba ¿no? es lo que nos va a dar al final es decir al final ¿qué significan los factores? los factores significa que cada factor va a agrupar imaginaos vamos a ver a ver pues vamos ya con la teoría de respuesta al ítem el factor número 1 imaginaos que aquí tengamos ¿vale? factor número 2 y factor número 3 ¿vale? imaginaos que yo aquí tenga para simplificarlo porque si no esto se hace pesado pues vamos a imaginar que tenga 5 ítems ¿de acuerdo? bueno pues imaginaos que aquí tenga una correlación de 0.8 ¿vale? aquí una correlación de 0.6 aquí una correlación de 0.50 ay perdón 0.55 0.23 y 0.15 ¿vale? aquí imaginaos que me sale 0.10 aquí imaginaos que me sale 0.10 0.22 aquí imaginaos que me sale 0.18 por ejemplo venga 0.18 vamos a poner aquí mejor este aquí imaginaos que me sale 0.75 y aquí imaginaos que me sale pues 0.80 y perdonad que borré para no liarnos más el factor 3 ¿vale? esto que me está diciendo que en mi prueba es un ejemplo con 5 itens los 3 primeros veis que saturan en el factor 1 ¿vale? que podría ser este de aquí mientras que el 4 y el 5 en el factor 2 ¿vale? con lo cual aquí vamos a borrar este de aquí ¿vale? entonces vemos que estaríamos hablando de que esta prueba tiene dos dimensiones ¿vale? tiene dos dimensiones o dos factores ¿vale? bueno pues entonces ya sabéis que para hallar la calidad de la prueba ¿qué nos estaría diciendo? pues que si yo la consistencia interna tendría que decir me he equivocado tengo que hallar la consistencia interna del factor 1 por un lado y del la consistencia interna del factor 2 por otro lado por ejemplo entre otras cosas ¿vale? y por lo tanto tengo que ver si el rango que yo estoy midiendo realmente tiene dos factores imaginaos que estoy midiendo inteligencia y la inteligencia pues en la teoría que sea una teoría multifactorial diga que por lo menos hay cinco factores evidentemente no hay validez de contenido en este caso validez predictiva si a lo mejor mi prueba no tiene validez de contenido pero mi prueba FETEM para seleccionar los alumnos más inteligentes de una clase pues tendría validez predictiva y si lo aplico en el mismo momento si voy a aplicar en el mismo momento la prueba y el criterio externo lo voy a medir inmediatamente eso sería una validez concurrente yo creo que ahora sí yo creo que ahora vamos a la teoría de respuesta al ítem la teoría de respuesta al ítem igualmente pues se refiere a que cada individuo tiene asociado un parámetro de tipo individual ¿vale? es lo que se llama aptitud ¿vale? la actitud del sujeto ¿eh? el cual sería su propia actitud por lo tanto no tiene nada que ver con la actitud del grupo con el que lo estemos comparando es actitud propia del sujeto ¿vale? y realmente nos va a dar es una actitud que pertenece a él y que es latente que no es observable por lo tanto la teoría de respuesta al ítem nos va a dar una serie de fundamentos probabilísticos a través de una serie de funciones que no van a ser lineales como en el caso de la teoría clásica de test es decir una función lineal es una función en la que la variable es realmente función de otras variables y que no es que son del mismo grado ¿vale? aquí no aquí vamos a tener funciones exponenciales elevadas a diferentes grados ¿vale? entonces la teoría de respuesta al ítem nos va a dar el fundamento probabilístico perdón para medir una serie de valores latentes que van a ser estas actitudes del sujeto la teoría de respuesta al ítem se basa en la unidimensionalidad es decir la respuesta al ítem está determinada por una variable el rasgo latente es decir yo se supone que el que el rasgo latente que yo esté midiendo es se refiere a una dimensión ¿vale? una dimensión una variable ese rasgo latente y una independencia local es decir la probabilidad de respuesta de cada ítem es independiente del otro el sujeto responde a cada ítem con una probabilidad determinada esa probabilidad determinada va a ser la probabilidad ¿vale? vamos a ponerla mejor esta sería la probabilidad con la que con la que el sujeto eh responde a eh a esta a esta actitud ¿vale? entonces el resultado del individuo en un ítem está explicado por un conjunto de factores que son los rasgos latentes o aptitudes ¿vale? se basa a su vez en que el resultado de la respuesta al sujeto en un ítem frente al rasgo latente subyacente es una función monótona creciente que se llama función de característica de ese ítem que a su vez podemos hallar esa función característica la curva característica del ítem para un sujeto determinado o para un conjunto de sujetos entonces normalmente los más utilizados las curvas de característica del ítem más utilizadas son funciones de tipo logísticas y tenemos modelos de un parámetro de dos parámetros y de tres parámetros ¿vale? y esto está asociado a la dificultad del ítem ¿vale? entonces como está asociado a la dificultad del ítem vamos a tener un primer un parámetro primero que va a ser dificultad del ítem ¿vale? debe ser una constante que en realidad D por definición va a ser 1 2 7 ¿vale? y este que estamos hablando es la actitud rasgo latente ¿vale? entonces cuando tenemos dos parámetros ¿vale? tendríamos aquí el parámetro A y el B el B venido por la dificultad del ítem y el A pues ahora mismo os voy a decir que el A es el índice de discriminación ¿vale? A índice de discriminación ¿vale? perdón índice de discriminación ¿vale? y el B es el índice o el difficulty ítem ¿vale? índice de dificultad bueno vamos a ponerlo mejor vamos a ponerlo en castellano bueno y este entonces el índice de discriminación la discriminación en inglés el índice de dificultad ¿vale? cuando tenemos tres parámetros pues en este caso vamos a tener el parámetro C es decir vamos a añadir el índice de discriminación el índice de dificultad o difficulty ítem frente al al parámetro C que va a ser la probabilidad de acertar ¿vale? sin tener conocimiento del tema ¿vale? ya tenemos tres parámetros y este va a ser la manera de hallar cuál sería la probabilidad de manifestar ese rasgo determinar ese rasgo latente del sujeto ¿vale? lo normal podemos encontrar el modelo de tres parámetros en ya modelos adecuados ¿vale? vamos con el siguiente por ejemplo aquí tenéis ¿cuál es la probabilidad de acertar un ítem ¿vale? cuyo rasgo latente es 3 el rasgo S latente que tenemos suponemos que es 3 la probabilidad de acertar al azar es 0,3 ¿vale? este sería C la probabilidad el índice de dificultad 0,6 el índice discriminación 1,3 ¿vale? y el D la constante vamos a fijarla como 1 ¿vale? pues aquí tendríamos que la probabilidad de acertar en un modelo de tres parámetros sería 0,3 0,9703 esa sería la probabilidad de acertar un ítem ¿vale? con un modelo de tres parámetros ¿de acuerdo? con un modelo de tres parámetros sería esta probabilidad de acertar un ítem siempre cuando el índice la probabilidad de acertar al azar sea de un 30% el índice de dificultad sea un 6% y la discriminación que proporcione ese ítem sea de 1,3 sirve para esto fundamentalmente la teoría de respuesta al ítem ¿vale? vamos a entender cuatro ítems ¿vale? en el cual los cuatro ítems aquí tenemos en este caso solamente vamos a utilizar dos parámetros ¿vale? dos parámetros y bueno pues el rasgo la probabilidad esta de latitud del rasgo latente que vaya de menos 3 a 3 ¿vale? de menos 3 a 3 ¿de acuerdo? bueno es una probabilidad de dos parámetros y tenemos que los dos parámetros de cada ítem del ítem 1 el índice de discriminación sería aquí el índice de discriminación ¿vale? vamos a ponerlo mejor porque realmente así se ve muy mal entonces vamos a verlo mejor ¿vale? el índice hemos dicho que es el índice de discriminación ¿vale? y B es el índice de dificultad la dificultad ¿en qué antes hemos dicho? bueno pues en este caso esto es una D ¿vale? entonces aquí vemos que de los cuatro ítems ¿vale? aquí vamos viendo que que el valor se va a menos tres vemos que en la curva de característica del ítem cero que el valor sea menos dos pues aquí tendríamos estos valores de la curva característica del del ítem ¿vale? o sea lo veríamos aquí ¿vale? veríamos aquí esta tabla que nos iría dando las posibilidades y al final el valor de la curva característica del test ¿vale? compuesto por los cuatro ítems ¿vale? nos vendría aquí dando es decir esto sería al final esta curva la podemos dibujar tal como la tenéis en el libro una cosa así creciente es una función creciente exponencial ¿vale? entonces bueno pues aquí estamos viendo la curva de característica al test en función de el del rasgo latente y de el el valor de cada uno de los ítems ¿vale? entonces vamos a ir viendo cómo se resolvería esto tenemos cuatro ítems tenemos dos parámetros A y B que ya hemos dicho que los parámetros A y B el A sería el índice de discriminación y el B el índice de dificultad y tenemos que el rasgo latente podría ir que no lo conocemos podría ir de menos 3 a 3 entonces la curva característica vendría a dar por la relación entre la puntuación verdadera y la escala de aptitud ¿vale? es decir la curva característica es lo que nos permite transformar ese valor de el rasgo latente en una puntuación verdadera esa es la curva característica ¿vale? es decir la puntuación verdadera en función de esa probabilidad que tenemos de encontrar ese valor latente ¿vale? si nos vendría del valor latente podemos sacar la puntuación verdadera para un determinado nivel de aptitud ¿vale? entonces en este caso bien tenemos aquí que las funciones aquí tenemos las funciones de información de Fischer también que sería otra característica que tenemos que tener en cuenta la función de información sería el recíproco de la precisión indica la precisión del test a mayor poder informativo menor error típico de medida ¿vale? es decir la función de información del rasgo latente y vendría dada por el inverso entre la varianza de el rasgo estimado y el propio rasgo el valor verdadero del rasgo ¿de acuerdo? y vendría dada por esta fórmula de aquí d al cuadrado por la probabilidad y de q que sería si os acordáis de la binomial sería 1 menos p ¿vale? ¿de acuerdo? y si tenemos un modelo de tres parámetros nos vendríamos a dar esta fórmula el índice de información del t sería la suma de cada índice individual de cada ítem ¿y para qué sirve la teoría de respuesta al ítem? pues para construir bancos de datos de ítems unidimensionales para que las puntuaciones del test de una misma variable tengan la misma fiabilidad aproximadamente para que veamos si funcionan de forma diferente los ítems en función de diferencias del propio grupo y para establecer una serie de test adaptativos de rendimiento individual es decir aquellos que le presentamos a un sujeto una pregunta en función de su propio rendimiento su propia capacidad ¿vale? entonces para esto es importante ¿de acuerdo? bueno pues vamos a ver hasta aquí lo dejamos y recordad que el próximo día hablaremos de no del gobierno que del gobierno eso lo dejamos a los políticos y no a los desgrados de políticas sino que hablaremos de el tema de la observación ¿vale? hablaremos de la observación como técnica de investigación tanto para los grados de políticas sociología y pedagogía muchas gracias por vuestra atención y cualquier tipo de duda pues la resolvemos en los foros gracias por vuestra atención