Hola, buenas tardes. Seguimos con la parte quinta del tema 5, el ANOVA. Si habíamos quedado el último día, habíamos estado viendo lo que eran las comparaciones múltiples. Habíamos dicho que después de realizar una ANOVA, si esta ANOVA nos daba significativo en el caso de un factor, aunque para dos factores también sería lo mismo, si nos daba significativo, lo único que nos decía la ANOVA era que la variable independiente del factor era una causa de la variación de la variable dependiente, afectaba a la variable dependiente. Lo que no nos decía era dónde estaban las diferencias entre los grupos. O sea, afecta sí pero no te dice nada más. Si queremos indagar más en el tema tenemos que hacer comparaciones múltiples y estas comparaciones múltiples habían de varios tipos. Estuvimos viendo las comparaciones a priori, que eran las que se postulaban antes de realizar el estudio porque teóricamente había algunas comparaciones que resultaban interesantes y otras no o a posteriori, que son más exploratorias en el sentido de que una vez que has hecho la ANOVA te sales innovativo, vas a ver dónde están las diferencias sin esperar ninguna en concreto. Estas últimas, a posteriori, eran las más usuales y habían dos tipos de contrastes para realizarlo la prueba de Tukey, ya estuvimos viéndola, y la prueba de Schäfer. Estuvimos viendo que en la prueba de Schäfer el aspecto positivo es que nos permite realizar comparaciones múltiples cosa que Tukey no nos permitía. Habíamos visto que era esto de las comparaciones múltiples, habíamos visto varios ejemplos de hipótesis nulas en donde había comparaciones complejas, en el sentido de no dos a dos sino más complicadas. De este tipo íbamos a aplicarlo al ejemplo 5.6. Eran los mismos datos en los que se aplicó la prueba de Taquet. Teníamos, si recuerdo bien, k igual a 3, es decir, teníamos tres grupos, tres niveles del factor, nuestra variable independiente la hemos manipulado a tres niveles y teníamos siete sujetos en cada grupo. Entonces, el valor de la distribución f para un alfa del 0.05 con dos grados de libertad en el numerador y 18 grados de libertad en el denominador es de 3,55. Mientras que la media cuadrática era 16.27. Esto lo recordamos porque lo vamos a citar a continuación en la fórmula. La media cuadrática del error obviamente se refiere a la tabla de la nuba mientras que la f crítica para 2 y 18 grados de libertad era 3,565. Era 18 grados de libertad. Sí, 18, no 16, 18, que es el término que vemos aquí a la izquierda. Entonces, dos grados de libertad en el numerador y 18 en el denominador nos da una f crítica de 3,565. 555 no lo veo bien. Ahora, si queremos comparar todas las medias entre sí tenemos tres posibles comparaciones y podemos establecer tres combinaciones lineales. En la primera que vemos en pantalla, que es esta, la primera comparación nos indica que estamos comparando el primer grupo, la media del primer grupo con la media del segundo. El tercero está eliminado porque es como si para eliminarlo el coeficiente fuese cero, con lo cual ni siquiera se pone. Entonces estamos comparando el primer grupo con el segundo y por tanto los coeficientes son más uno para la primera media y menos uno para la segunda. Los coeficientes se pueden perfectamente intercambiar, no hay ningún problema. De la misma forma que cuando vimos en el ejemplo de las comparaciones múltiples yo puedo poner a un lado del balancín a Hansel y en el otro a Gretel o a la inversa. Da lo mismo para la comparación que queremos, para comparar si tienen el mismo peso. Aquí queremos comparar si las dos medias son estadísticamente similares por lo consiguiente lo que hacemos es darles pesos iguales y de sentido contrario. En la segunda comparación hacemos exactamente lo mismo vemos aquí la segunda comparación pero estamos comparando la primera media, el primer grupo con el tercero. El segundo es como si hubiera desaparecido porque su coeficiente vale cero o le habríamos asignado un valor de cero. De nuevo los coeficientes C1 y C3 serían uno y menos uno o a la inversa. La tercera comparación es muy parecida pero estamos comparando el segundo grupo con el tercero. En este caso estas serían las comparaciones y los coeficientes para hacer estas comparaciones dos a dos con el experimento de tres grupos que tenemos. Si aplicamos la prueba de Eschefe vamos a tener un valor CR, razón crítica de Eschefe que viene dado por la expresión que vimos el último día. Tenemos el producto de dos raíces cuadradas donde en la primera raíz cuadrada tiene K-1 recordemos que K era el número de niveles como tenemos tres niveles, tres grupos del factor 3-1 3.555 es la F, crítica extraída de las tablas para K-1° de libertad en el numerador y los grados de libertad del error que hemos visto que eran 18. Este valor de la F hemos encontrado que valía 3.555 en las tablas. La segunda raíz cuadrada tiene la media cuadrática del error que la hemos visto en el ANOVA recuerden que este análisis se realiza después de haber hecho un ANOVA entonces este dato se extrae directamente de la ANOVA, la media cuadrática del error multiplicado por, observen ahora que tenemos un sumatorio desde J-1 hasta K hubiera sido más adecuado ponerle al índice I pero como no hay posibilidad de confusión aquí J se refiere al número de niveles porque el valor máximo es K que hemos dicho que era el número de niveles entonces nos está diciendo suma desde J-1 hasta 3 ¿y qué es lo que está sumando? está sumando 3 cocientes en donde el numerador del cociente es el coeficiente al cuadrado de ese grupo partido por el número de sujetos de ese grupo como había un número de sujetos en cada grupo 777 pues no tenemos ningún problema, tenemos 3 cocientes el numerador vale en todos los casos 777 y en el numerador observar que están los cocientes que hemos visto anteriormente aquí tendríamos el coeficiente 1, menos 1 y 0 estábamos comparando todo ese primer grupo con el segundo y el tercero lo eliminamos al poner 0 si hacemos estos cálculos nos da 5.74 es el valor CR de Schiff y a continuación hacemos lo mismo que hicimos con Tachy exactamente lo mismo realizamos las diferencias entre las medidas de los grupos en valor absoluto, es decir, sin considerar el signo siempre positivo y vemos cuáles de esas diferencias superan el valor CR de Schiff lo que vemos es que si comparamos si hacemos esa diferencia entre el primer grupo y el segundo en valor absoluto nos da 3,71 que es inferior a 5.74 por consiguiente no hay diferencias expeditivamente significativas entre el grupo 1 y el grupo 2 vamos a ver qué sucede con los grupos 1 y 3 hacemos la diferencia de medias en valor absoluto y nos da 3.14 que de nuevo sigue siendo inferior a 5.74 por consiguiente entre el grupo 1 y el 3 tampoco podemos decir que hayan diferencias significativas por consiguiente las diferencias están en el último par de grupos entre el 2 y el 3 vemos que la diferencia en valor absoluto entre el segundo grupo y el tercero vale 6.86 que supera el valor crítico de Schiff, 5.74 por consiguiente en este caso la F significativa de la NOVA se debe únicamente a la comparación entre grupos 2 y 3 en otros casos no tiene por qué ser así podríamos tener más diferencias significativas pero en este caso la F significativa se debe a la diferencia entre los grupos 2 y 3 y obviamente es el mismo resultado que tuvimos cualitativamente no en términos numéricos, pero sí en términos cualitativos el único que tuvimos fue el TACI aunque el valor obtenido por consiguiente de Schiff es algo mayor que lo obtenido por consiguiente de TACI no me acuerdo cuánto era TACI pero seguro que era un poquito más bajo esto es lo que se indica con que la prueba de Schiff es más conservadora que la prueba de TACI es más conservadora porque para que un par de medias superen la prueba de Schiff tienen que ser más diferentes entre sí que para que superen a TACI es como si el listón estuviera más alto en Schiff que en Tukey para rechazar la hipotesis 1 de igualdad es lo que significa más conservadora en este contexto parece mentira que tengamos política incluso aquí en estadística, ¿verdad? vamos a ver el ejemplo 5.7 y vamos a aplicar supongamos que de las tres dosis distintas la primera a la que llegaremos es la dosis tradicional que se suele administrar supongamos entonces que tenemos una enfermedad y que tradicionalmente a los enfermos se les daba 0.05 miligramos de una dosis de una prueba mientras que las otras dos a las que llegaremos son dosis que están en estudio no sabemos si quizá incrementando la dosis la mejora sea más rápida o más efectiva o el porcentaje sea mayor y al comprobar que el resultado de la variante es significativo, rechazamos H0 se nos ocurre probar si el efecto de la dosis tradicional es distinto al efecto de las otras dosis experimentales tomadas en subconjunto es decir, lo que hemos hecho en el caso anterior es lo mismo que hicimos con Tukey para el tornocio y para el PHF porque hemos comparado las medias 2 a 2 ahora lo que estamos haciendo es poner una situación experimental una situación novedosa en la que la comparación que nos planteamos ya no sea 2 a 2 sino que sea un poquito más compleja en este caso, por ejemplo si nos dicen comparar la dosis tradicional A versus las otras dos está claro que entonces la comparación es complicada en este caso la comparación sería la que podemos ver en pantalla la hipotesis nula afirma que la hipotesis nula del efecto que tiene la dosis tradicional A es la misma que la media de las dosis B y C en este caso estamos poniendo a A a un lado de la balanza y al otro lado de la balanza estamos poniendo a B y C juntas y por consiguiente tendríamos en musu A un coeficiente de 1 mientras que para musu B y musu C tuviéramos 0.5 un medio o seremos que podríamos poner esto perfectamente como un medio por mu de B más mu de C ahora yo lo había hecho en transparencia obviamente consigo negativo es decir, vemos aquí la misma hipotesis nula de antes en donde hemos el factor 1 medio lo hemos separado para B y para C y para tener una idea más clara de los contrastes lo que hacemos es que pasamos todos los factores todos los mus a un lado de la igualdad por lo consiguiente estos dos medios pasan con signo negativo y ahora vemos que efectivamente lo que ponemos a un lado de la balanza con signo positivo es lo mismo que lo que ponemos al otro lado de la balanza con sus coeficientes la suma de un medio y más un medio da la unidad y con signo negativo este es el contraste que pondríamos a prueba para evaluar la hipótesis que se ha planteado inicialmente y aplicamos este fe si recuerdo bien teníamos 3 menos 1 que era la unidad la F crítica con 2 y 18 grados de libertad la media cuadrática del error 16.27 y observa que lo único que cambia es el numerador de estos coeficientes porque ahora el numerador son los coeficientes apropiados 1 para el primer caso menos un medio para el segundo y menos un medio para el tercero hacemos los cálculos y nos sale un contraste de 4.97 aproximadamente 5 y ahora ese fe r ese critical range de este fe para hacer este contraste en concreto lo tenemos que comparar ya no con las medias sin la diferencia de medias simple que hicimos la otra vez sino con la diferencia compleja que es lo que hemos intentado representar aquí ahora tenemos el primer coeficiente que era 1 por su media más el segundo coeficiente que era menos un medio por su media más el tercer coeficiente que era menos un medio por su media menos un medio por 15 menos un medio por 8 y esto nos da 0.2857 como nos había salido un valor muchísimo más elevado en la cr de este fe tenemos que aceptar la hipotesis nula de que el tratamiento control A no difiere significativamente de una combinación de B y C lo que vemos aquí en pantalla es lo mismo que hicimos para las comparaciones 2 a 2 lo que pasa es que allí era mucho más sencillo porque como teníamos dos comparaciones simplemente se restaban en valor absoluto las medias aquí como las comparaciones son un poquito más complejas tenemos que tener en cuenta considerar considerar muy detenidamente cuánto valían los coeficientes C1, C2 y C3 aquí hay un error entonces sería C3 y la media vale sería C1 por su media más C2 por su media más C3 por su media entonces según dice el último estaba mal colocado estas son las comparaciones múltiples de ese fe y qué pasa si en vez de utilizar los coeficientes que yo he utilizado que he utilizado 1 menos un medio y menos un medio para C1 para C2 y para C3 utilizamos otros coeficientes por ejemplo 2 para A menos 1 y menos 1 para B y C es decir, 2 menos 1 y menos 1 obviamente el 3DHC va a dar un valor diferente cuando hagamos estos mismos cálculos se ve que hemos cambiado el numerador de ese coeficiente y el numerador de este cociente por consiguiente el valor del DRHC nos va a cambiar pero también nos va a cambiar este este cálculo se ve aquí también que está equivocado esto sería C3 y con la media del 3, vale este cálculo también nos va a cambiar porque ahora tenemos C1 vale 2 C2 vale menos 1 y C3 vale menos 1 va a cambiar por consiguiente el resultado que va a ser 0.27 pero no nos va a cambiar la conclusión estadística a la que lleguemos entonces la pregunta que nos hacemos ¿qué coeficientes elegimos? ¿1,-1,5,-1,5? ¿o 2,-1,-1? recuerden lo que dijimos el último día los coeficientes que podríamos utilizar para hacer este contraste son infinitos por las razones que estuvimos viendo el último día lo más adecuado sería utilizar coeficientes lo más cómodos estadísticamente posibles y para mí los más cómodos son estos significa que lo más cómodo sería obviamente que se cumple que el sumatorio de los coeficientes en valor absoluto me dé 2 estos coeficientes en cambio su suma en valor absoluto son un poco más incómodos de utilizar pero se pueden utilizar también no hay ningún problema porque el contraste es el mismo utilizamos los coeficientes 2,-1 o menos 1 que utilizar el contraste 1,-1,5 menos 1,5 estamos poniendo la comparación es exactamente la misma no importa que coeficiente elijamos para el contraste hemos visto entonces básicamente hemos aprendido a hacer una nueva de un factor y hemos visto que si sale significativo podemos hacer las comparaciones múltiples por TK o por HF ahora vamos a ver los supuestos del análisis los supuestos de trabajo deberían ser los primeros antes de hacer la nueva pero bueno simplemente una sencilla razón no se puede realizar un análisis de varianza si los supuestos se incumplen por consiguiente, antes de realizar la nueva comprueba que se cumplan lo más importante es saber cuáles son el supuesto de independencia las distintas muestras o grupos a comparar deben haber sido obtenidas esto implica que tanto las muestras como las observaciones dentro de las muestras deben ser independientes normalmente es un criterio que se suele cumplir normalidad de las distribuciones dentro de cada grupo es decir, las muestras o grupos que comparemos deben proceder de poblaciones que se distribuyan normalmente según la curva normal y homogeneidad de las varianzas lo que también se llama como homogeneasticidad es el supuesto desde mi punto de vista más importante porque la nueva se realiza depende de las varianzas y por consiguiente este supuesto es bastante importante los grupos a comparar deben proceder de poblaciones que no difieren significativamente en sus varianzas las poblaciones tienen que distribuirse normalmente y las varianzas entre los distintos grupos deben ser similares entre sí vamos a ver el supuesto de independencia implica que tanto las muestras como las observaciones se extraigan de manera aleatoria ya he comentado más de una vez la dificultad que tenemos en psicología para hacer esto es un requisito normalmente tenemos la fortuna de que no es un supuesto excesivamente grave si se incumple y que aunque los sujetos no podamos escogerlos al azar de la población en la que estemos interesados una vez que hemos escogido un grupo sujeto sí lo podemos asignar al azar a los grupos el primer punto de las observaciones es el test de rachas vamos a ver que es el test de rachas la hipótesis nula que se establece en el test de rachas es que las observaciones son independientes la alternativa es que las observaciones no son independientes entre sí observé que aquí se incumple un poco la idea de la hipótesis nula como aquello que va es lo que le gustaría confirmar al experimentador que mis observaciones son independientes entre sí para poder aplicar esta prueba hemos de dicotomizar la variable observada tenemos una variable cuantitativa de escala de intervalo o de razón y la dicotomizamos para dicotomizarla tenemos que utilizar un criterio normalmente el criterio que se utiliza es utilizando la mediana como factor de dicotomización a aquellas puntuaciones que sean mayores que la mediana y un signo negativo a aquellas puntuaciones que sean menores que la mediana entonces llamamos racha a un grupo de signos positivos a un grupo de signos iguales positivos o negativos situados unos a continuación de otros es decir, un grupo de signos seguidos un grupo de signos iguales seguidos lo que tratamos de comprobar es que el número de ese conjunto de signos seguidos es compatible con la hipotesis de que las puntuaciones son independientes vamos a verlo en el ejemplo 5.8 permítanme un momento supongamos que tenemos una muestra aleatoria de 21 sujetos tamaño muestra 21 que puntúan alto en ansiedad y lo distribuimos aleatoriamente entre grupos de 7 sujetos cada uno entonces tenemos un diseño equilibrado le suministramos 3 dosis distintas de una cierta droga 0,05 miligramos 0,10 y 0,20 queremos ver si estas dosis influyen en el estado de ansiedad de los sujetos es decir, si lo disminuyen obviamente tenemos aquí los datos evidentemente tenemos 7 sujetos en cada grupo es un factor con 3 niveles asus1, asus2 y asus3 y estas son las puntuaciones en una variable cuantitativa para poder aplicar el procedimiento del TETRH hemos de calcular la medida de los datos y aquí existe un problema ¿cómo se calcula la mediana de los datos? con datos directos en el texto nos indican que la mediana vale 12.125 bien, yo solo he pedido que me calcule la mediana a uno de los softwares que yo utilizo matemática pero en lugar de clasificar los datos los he puesto de menor a mayor y después le he pedido la mediana entre comillas es que para establecer la mediana de un conjunto de datos a partir de las puntuaciones directas no hay un único algoritmo no hay una única forma de calcularlo y diversos softwares lo van a calcular de forma diferente son muy parecidas las puntuaciones 12.125 pero a lo mejor SPSS calculó la mediana de arriba y matemática me calcula entonces vamos a ver cómo calcularlo lo de arriba bueno cuando vi este pequeño problemilla me fui a ver en algún texto otros ejemplos por ejemplo aquí en el cálculo de mediana no recuerdo en cual efectivamente la mediana es simplemente el punto 7 ponen los datos 7, 10.5 10.5, 10.5, 12, 12 y 13.5 lo que hace en este texto es simplemente ordenar los datos ya están ordenados y determinar cual es el que queda justamente en medio mediana 10.5 en este texto están haciendo exactamente lo mismo que hace matemática sin embargo en el texto han utilizado por ejemplo un poquito más complicado y lo vamos a comentar más complicado diferente, hemos dicho que son distintos algoritmos cuando los datos no están agrupados en intervalos vamos a aplicar la fórmula de la mediana que se vio en ASI datos 1 con los siguientes valores amplitud de intervalo la unidad n, t 1 si existe una única observación y k si existen k observaciones en ese intervalo entonces el procedente es el siguiente se ordenan los datos de menor a mayor o viceversa pero normalmente de menor a mayor entonces si n es impar tenemos un número impar de datos y la situación central es única en todas las medianas el estadístico es la puntuación que ocupa ese punto medio que es lo que se llama el estadístico de orden que se suele representar en estadística mediante el valor x es la variable y como subíndice se pone entre paréntesis la posición que ocupa el dato en este caso impar tenemos un ejemplo 1, 2, 3, 4, 5, 6, 7, 8 9 datos 9 sin par aplicamos el estadístico vemos que posición de los datos ordenados ocupa la posición 5 es decir 9 más 1 partido por 2 la posición quinta es el 13 esa es la mediana vemos que 13 no está repetido porque el 10 y el 14 son diferentes y ocupa la posición central de los datos ordenados pero vamos a ver que si la puntuación que ocupa el centro es igual a otras puntuaciones vemos aquí que hay varias puntuaciones que son idénticas ¿qué pasa en este caso? la posición central lo hemos ordenado tenemos 1, 2, 3, 4, 5 6, 7, 8, 9 10 y 11 tenemos por consiguiente un número impar de datos no escogeríamos el dato que en las puntuaciones ordenadas ocupa la posición central pero al haber repetición la posición central sería la 6 está ocupada por el 19 en la posición central 6 esto habría que haberle puesto unos paréntesis 19 sin embargo es igual a otras 4 puntuaciones 2 por debajo y 2 por encima el 20 no debería entrar es decir, este 19 central está flanqueado por otros dos 19 por encima y otros dos 19 por abajo que son idénticos en este caso se aplica la fórmula de la mediana con intervalo crítico 18.5 a 19.5 que es de tal forma que 19 queda justamente en medio NC 5 son los datos que hay por debajo de esa puntuación media ND 3 con 11 datos me está surgiendo dudas sobre este ND ¿por qué 3? no puedo resolver esto tendría que volver a recordarlo con datos no agrupados en intervalos estos son transparencias de ASI datos 1 previas si el número de observaciones es par y las dos puntuaciones centrales son distintas entre sí y son valores consecutivos entonces las medianas son la media de las posiciones que ocupan esas posiciones centrales ejemplo tenemos 1, 2, 3, 4 5, 6, 7, 8, 9 10 datos son par entonces tenemos el dato que ocupa la posición 5 y el dato que ocupa la posición 6 los órdenes centrales 5º y 6º es decir, la posición 5º y 6º cuyas puntuaciones son 10 y 11 y la media entre los otros valores otro caso si el número de observaciones es par y las dos puntuaciones centrales son iguales entre sí entonces se aplica la fórmula general de la mediana esta es la fórmula general para calcular la mediana de un conjunto de datos no agrupados hemos determinado hemos clasificado los datos esto ya pertenece al ejemplo con el que hemos iniciado este apartado vemos que de 21 datos es 21 datos impar el intervalo crítico el valor de 21 sería 10 1, 2, 3, 4 5, 6, 7, 8 9 y 10 este sería la posición central 12 sería el punto central del intervalo por consiguiente el intervalo de amplitud unidad sería media unidad por debajo de 12 y media unidad por encima de 12 11.5 y 12.5 este sería el intervalo crítico 21 casos NC es el número de veces que se repite el dato tenemos 4 doces y ND es el número de datos inferiores a 12 1, 2, 3, 4 5, 6, 7 y 8 aplicamos esa fórmula teníamos límite inferior 11.5 que es este 21 datos partido por 2 menos el número de datos que hay por debajo de 12 son 8 partido por el número de datos iguales entre sí en posición central que son 4 y el intervalo tiene amplitud unidad esto nos da una vez que tenemos la mediana volvemos al test de rachas esto ha sido porque el cálculo de la mediana no estaba desarrollado en el texto y probablemente en análisis de datos 1 no se vio con la precisión que se merece entonces, a continuación asignamos un signo positivo a cada valor que supere la mediana y un signo negativo a cada valor que quede por debajo cogemos los datos los podemos poner yo creo que los he puesto de arriba abajo 12, 18, 16 y 12 vemos que es inferior a 12.125 le damos signo negativo 18 que es superior a 12.125 le damos signo positivo 16 signo positivo 8 signo negativo 6 signo negativo y así le vamos asignando un conjunto de signos en función de que cada uno de los datos directos del experimento quede por encima o por debajo de la mediana que hemos calculado una vez hecho esto calculamos el número de rachas es decir, el número de signos iguales el conjunto de números de signos iguales y vemos tenemos aquí un signo esta solo porque del primero al segundo cambia el valor aquí tenemos una racha aquí tenemos otra racha dos signos positivos seguidos aquí tenemos la siguiente racha que son cuatro signos la siguiente racha esta cuatro signos positivos seguidos la siguiente racha un único signo negativo y así calculamos que hay en total 10 rachas en este conjunto de datos esto es lo que vamos a denominar al área estadística R número de rachas ya vamos también necesitamos conocer N1 el número de signos positivos que tenemos en la secuencia y N2 el número de signos negativos en este caso tenemos nueve signos positivos y dos o tres signos negativos nos vamos ahora a la tabla de valores críticos del test de rachas y encontramos que para nueve valores positivos a ver voy a tratar de hacerlo un poco mejor línea para nueve valores positivos y doce queda precisamente nueve y doce el número de signos positivo y negativo buscamos la fila de columna en función del número DNS1 y DNS2 encontramos dos valores numéricos en esa intersección seis y dieciséis entonces para N igual a nueve y DNS2 igual a doce y a un nivel de confianza del 95% no lo he mencionado pero si no lo he mencionado es que solamente una tabla de valores críticos para el test de rachas al 0.95 no tenemos más al 95% los valores de RD nos filan entre 6 y 16 si el R que hemos encontrado se saliese de estos valores y fuese superior a 16 o inferior a 6 dudaríamos de la independencia de las observaciones pero como 10 se encuentra en esa gama en ese rango que nos ha dado la tabla no podemos rechazar la hipotesis de la independencia de las observaciones si los valores de N1 y DNS2 son mayores de 20 en este caso nos ayudaremos para probar la hipotesis de una característica T es decir, nos cogemos el número de rachas que hemos calculado R N1 y DNS2 aplicamos esta fórmula que vemos que aunque parece muy compleja es sencilla y nos da una T y tendríamos que buscar en la curva normal para ver la significación de este estadístico tal y como hemos hecho en otros muchos casos supuesto de normalidad pasamos del supuesto de independencia al supuesto de normalidad el supuesto de normalidad indica que las muestras o grupos que comparemos deben proceder de evaluaciones de manera que se distribuya normalmente en la variable estudiada las pruebas utilizadas para probar este supuesto son o Chico Hedado de Pearson o la prueba de Kolmogorov-Smirnov o la prueba de Liliafors no se van a ver entonces si alguien está interesado en ellas puede ir a los textos apropiados Supuesto de homogeneidad de las varianzas es decir, el supuesto de homocedasticidad en este caso este supuesto nos indica que los grupos deben proceder de evaluaciones que no definan significativamente sus varianzas en la variable estudiada en lo que se conoce como homocedasticidad de las tres condiciones que hemos enumerado independencia de las evaluaciones normalidad y homocedasticidad esta es la que más va a dar resultados si no se cumple ¿Por qué? Pues porque, como hemos dicho todo el fundamento de la ANOVA depende de un contraste de varianzas si estas varianzas son diferentes antes de realizar el experimento tenemos problemas Es decir, si no probamos que los grupos proceden de evaluaciones que no definen significativamente sus varianzas en esa variable dependiente nunca podemos saber si las diferencias que hemos obtenido en nuestra ANOVA se deben a que ya existían previamente o a que nuestro factor ha variado esas varianzas Por consiguiente, este es el principal supuesto Hay varios test para ponerlo a prueba Tenemos el test de COSRAN Este contraste sencillo de aplicar es factible solo se puede aplicar si tenemos un modelo equilibrado con el mismo número de elementos que el número de sujetos dentro de cada grupo sea el mismo La hipótesis nula que establece es que las varianzas de las simulaciones son iguales y la alternativa es que al menos una de las varianzas es distinta al resto Para contrastar la hipótesis nula se utilizan las varianzas de los grupos que queramos comparar realizándose en función entre la varianza mayor y la suma de todas ellas El resultado lo compararemos con los valores críticos para el test de COSRAN Si el valor obtenido es menor que el de las tablas no podemos rechazar H1,0 y si es mayor se rechaza siguiendo la misma tónica vista hasta el momento Es decir, el test de COSRAN es este Se cogen las varianzas de los K grupos esto debería ser K de los K grupos que tenemos en nuestro experimento y de todo ese conjunto de varianzas cogemos la máxima el mayor valor y se divide por la suma de todas ellas es decir, el sumatorio desde el primer grupo hasta el último de sus varianzas Este conciente nos da un valor que lo vamos a comparar con las tablas El test de Bartlett se utilizará cuando los modelos no sean equilibrados que es donde COSRAN no puede utilizarse La hipótesis nula que plantea este test es que las varianzas de H1,0 no son iguales es decir, la hipótesis nula no varía entre COSRAN y Bartlett El estadístico es un poquito más complicado Vemos que el resultado es una chi cuadrado por lo tanto se distribuirá según chi cuadrado con I menos un grado de libertad con una libertad menos que el número de grupos que tengamos en nuestro experimento Y viene dado por C es un valor que calcularemos más adelante multiplicado por la diferencia entre estos dos valores G por el logaritmo neperiano de la cuasi-varianza menos el sumatorio del producto de G SUI tendremos para cada grupo un G, un coeficiente por el logaritmo neperiano de la cuasi-varianza de ese subgrupo Como vamos a hacer un ejemplo lo vamos a ver más adelante C, es decir este valor numérico que aparece aquí viene dado por esta fórmula que parece un poquito complicada 1 más el cociente de 1 partido por 3 multiplicado por I menos 1 recordemos que I era el número de grupos multiplicado bueno, en primer lugar haríamos esto 1 más el producto entre voy a intentar hacer un poquito más más claro para indicar la prioridad de las operaciones En primer lugar tendríamos esto es un producto este producto este producto llega hasta aquí un momento, un momento tenemos entonces tres factores este y una constante la unidad dentro de los factores la unidad no hay ningún problema 1 partido por G no hay ningún problema y esto es un producto un producto entre el cociente 1 partido por 3 multiplicado por I menos 1 y el número de grupos y ese cociente multiplicado por aquí quizá es donde pueda haber un poquito más de problema ay no, no, no vamos a ver observen yo me estaba equivocando ahora el resfriado me está afectando tenemos un paréntesis por consiguiente lo que hay entre paréntesis va primero entonces este es el primer primer cargo que tendríamos que realizar una vez realizado lo multiplicaríamos por este cociente y al resultado le sumamos la unidad ahora sí entonces dentro de los paréntesis tenemos aquí un sumatorio de 1 partido por los G sui habrá un G sui veremos cómo calcularlo en cada uno de los grupos y este es un G global entonces haremos este sumatorio de cocientes le restamos 1 partido por G global y a ello lo multiplicamos 1 partido por 3 por I menos 1 al resultado de todo ello le sumamos la unidad vamos a creo que lo resolví de forma completa vamos a ver qué son los G sui los G sui son ponderaciones la ponderación es una forma de decir la importancia de cada uno de los componentes por ejemplo cuando realizamos un juicio cuando decimos ¿qué lavadora comprar? tenemos que tener en cuenta una serie de factores el precio la calidad el gusto estético si es más o menos bonita la lavadora si nos cabe y tendremos que asignar importancia más o menos a cada uno de estos factores si no estamos muy guayante económicamente el factor económico será mucho más importante que la estética a la inversa si somos no tenemos problemas económicos a lo mejor da muy poca importancia a factor económico y nos gusta la estética de la lavadora eso es una forma de dar importancia ponderación a los diversos componentes que entran dentro de un juicio en este caso nosotros vamos a ver esos juicios en términos de sumatorio cuando sumamos algo no siempre tiene que tener cada uno de los elementos que sumamos la misma carga la misma importancia podemos dar más importancia a unos elementos del sumatorio que a otros esto es lo que van a ser las GESUI GESUI es un valor numérico viene ingresado por el subíndice I por consiguiente tenemos 1 para cada grupo para cada nivel del factor y se corresponde con el denominador de cada varianza insergada es decir, con N sub i menos 1 GESUI por consiguiente depende del número de cada grupo será el mismo para todos los sujetos si el diseño es equilibrado y no lo será si el diseño no es equilibrado entonces vemos que calculamos una varianza insergada o se ve el hat una varianza insergada pero ponderada ponderada podemos calcular una varianza insergada para cada subgrupo y tenemos la varianza insergada para el primer grupo, para el segundo para el tercero pero lo que hace este cálculo es utilizar una S una varianza global ponderada por el denominador de las varianzas insergadas de cada grupo que es lo que se llama el GESUI entonces lo que está haciendo en este caso es el sumatorio desde el primer grupo hasta el último del producto entre cada varianza insergada de cada subgrupo multiplicado por el denominador de ese grupo y partido todo ello por G G es la suma de todos esos denominadores GESUI el test de Bartlett se dice que es muy sensible a la normalidad de los datos si se sospecha que estos datos no son normales no debe aplicarse vamos a hacer el ejemplo y lo vamos a ver tenemos en el ejemplo 5.9 simplemente un factor con tres niveles si yo no me equivoco perdón tenemos A1, primer nivel del factor A2, el segundo y A3, el tercero 0.05 0.10, 0.20 son los niveles del factor la variable independiente tenemos siete puntuaciones en cada grupo por lo que tenemos un diseño equilibrado calculamos las varianzas ese al cuadrado vemos que es la varianza del primer grupo del segundo y del tercero y calculamos también sus varianzas insergadas queremos que son siempre un poquito superiores a las varianzas porque el denominador es una unidad inferior al denominador de la varianza una vez que hemos calculado la varianza y la cuasivarianza para cada uno de los grupos que tenemos en nuestro experimento aplicamos el test de Corham bueno, este es muy sencillo porque nos cogemos cuál es la varianza mayor de las calculadas tenemos la varianza 15, 8 y 17 esta pues la ponemos en el numerador la suma de todas las varianzas varianzas ese valor ese coeficiente nos da 0.42 0.43 aproximadamente nos vamos a las tablas del valor eléctrico del test de Corham para i igual a 3 es decir, números de grupos y en cada grupo 7 sujetos tenemos entonces n 7 7 sujetos en cada grupo y el número de grupos 3 en la intersección tenemos un valor de 0.67 a un nivel de confianza del 95% 0.05 tenemos por último siguiente un valor crítico de 0.67 que lo tenemos que comparar el valor DR que hemos obtenido en las tablas el valor DR que hemos obtenido empírico 0.42 es menor que el valor crítico de 0.67 no rechazamos la hipotésimula de igualdad de varianzas podemos seguir con el procedimiento asumiendo que las varianzas de las 3 poblaciones no difieren significativamente entre sí en primer lugar calculamos la varianza general insesgada o la varianza general promedio insesgada que hemos visto anteriormente que era el denominador poníamos un sumatorio tenemos 3 sumatorios porque tenemos 3 grupos en cada uno de los sumatorios tenemos 6 de esa varianza n-1 si tenemos 7 subjetos en cada grupo 7-1 es 6 en el segundo grupo teníamos lo mismo 7-1 es 6 y 7-1 es 6 vemos que la importancia que otorgamos a cada una de estas cuasi varianzas es 6, es la misma en este caso no sería la misma si los grupos tuviesen distintos números sujetos cada uno de estos con la varianza insesgada de ese grupo 17.9 9.95 y 20.95 y sumamos y todo ello lo dividimos por el total de las g que es 6 más 6 más 6 el número total de los pesos que hemos puesto arriba y esto anota una varianza insesgada general o promedio de 16.26 aquí simplemente habíamos puesto como recordatorio los datos que habíamos calculado de varianza y cuasi varianza de todos los grupos a continuación calculamos la constante C que necesitamos para el test de Bartlett aquí teníamos la fórmula general tenemos 1 que es este valor más 1 partido por 3 que es la constante por i-1 tenemos tres niveles 3-1 este sumatorio es desde 1 hasta 3 y es un sumatorio de tres cocientes el primero el segundo y el tercero cada uno de estos cocientes es 1 partido por jesui se suman estos tres cocientes y se le resta 1 partido por el j global 6 más 6 más 6 que es este si hacemos estos cálculos nos da 1.07 y ya podemos aplicar este dicho contraste 1 partido por el C que hemos calculado 1.07 en el paso anterior ya lo habíamos calculado el g global que es este 18 6 más 6 más 6 6 por 3 es 18 por el logaritmo neperiano de la cuasivarianza global promedio 16.26 menos un sumatorio un sumatorio que va desde el primer grupo hasta el último es decir, tenemos tres grupos tres sumatorios tres sumandos, mejor dicho cada sumando nos viene dado por jesui el denominador de la cuasivarianza de ese grupo 6 en cada caso porque el diseño era equilibrado por el logaritmo neperiano de la cuasivarianza de cada uno de los grupos el logaritmo neperiano es una función matemática que pueden la tienen en cualquier calculadora actual está disponible es como calcular el seno o el coseno el valor que hemos obtenido para este chi cuadrado es 0.797 ahora nos vamos a notar el chi cuadrado con i menos un grado de libertad aquí tenemos los grados de libertad dos y buscamos el valor crítico al 0.05 buscamos aquel valor de chi cuadrado que me deja por encima de sí el 0.05 de la distribución y este es 5.99 porque me deja por debajo de sí el 0.95 y por consiguiente por encima el 0.05 este es el valor crítico con el que vamos a comparar el valor que hemos obtenido en el paso anterior 0.7 y estamos viendo ya lo que va a suceder 0.7 se queda aproximadamente por aquí y el valor crítico es 5.99 por consiguiente vemos que el chi cuadrado que hemos obtenido se queda dentro de la región de aceptación de h sub cero como podemos ver más detenidamente en este gráfico vemos que el valor 5.99 que me deja por encima de sí el 0.05 del área es decir, este área en amarillo entonces tenemos la distribución de chi cuadrado todos estos valores son compatibles con h sub cero y los que están por encima de sí son compatibles con h sub uno por consiguiente 0.797 que me queda por aquí aproximadamente está en la región de aceptación de h sub cero por consiguiente podemos asumir que las varianzas son similares en un caso y en otro bueno y por hoy creo que hemos terminado una de las cosas que a mí me resultaba rechazables cuando yo estudiaba ya que las definiciones de distinta autorización de algunos conceptos psicológicos no coincidían o si me venía un constructista y me daba una definición de aprendizaje era muy diferente a la que me daba un psicólogo cognitivo y esto no me gustaba actualmente he cambiado un poco de idea y en parte por porque es algo que sucede de forma general en la vida o si no veamos lo que sucedió cuando a tres profesionales distintos cuatro profesionales distintos le preguntaron pidieron que le dieran una definición de qué es el amor obviamente ninguno de ellos coincidió el médico dijo que el amor era una enfermedad el economista dijo que no es una inversión rentable porque si siempre se saca se mete más de lo que se saca el político por el contrario dijo que el amor es como una democracia porque tanto goza el que está arriba como el que está abajo y luego le llegó el turno al matemático y el matemático dijo que el amor es la ecuación perfecta ya que la mujer lo encierra entre paréntesis le extrae el factor común y lo reduce a su mínima expresión hasta el próximo día