Hola, retomamos el tema 5 la cuarta parte del tema 5 habíamos visto un ejemplo completamente desarrollado sobre lo que es una nuba y dos formas de hacerlo uno, utilizando las fórmulas teóricas las fórmulas a las que le podemos encontrar sentido el cálculo de la suma de cuadrados y otras en las que son más sencillas de realizar pero no nos da una idea de lo que está haciendo la nuba estas fórmulas tenemos un solo factor, recordémoslo y aún así no parecen muy sencillas, imaginemos lo que sucederá cuando tengamos dos factores tres factores, cuatro cuatro variables independientes con este sistema de anotación necesitaríamos cinco sumatorios uno para cada factor y otro para los sujetos dentro esto se complica mucho se puede llegar a complicar mucho entonces, aunque con un solo factor el sistema de anotación no parece demasiado embarazoso, siéndolo en cuanto pasamos a dos factores o más es muy difícil manejarlo por ello, por lo que en el texto nos parece adecuado plantear el sistema de anotación propuesto por Keppel que es un investigador escribió un libro de texto, en inglés obviamente sobre el tema cuando todavía no existían los ordenadores, o estos ordenadores eran poco accesibles y desarrolló un sistema de anotación bastante cómodo para trabajar con diseños factoriales de cualquier tipo con el número de factores que se quisiera y de una forma relativamente sencilla, yo repito recuerdo cuando estuve haciendo la tesis manejaba un software llamado CRISP, que significa abrupto en inglés, me gustó, la verdad es que me gustó, pero recordemos que funcionaba bajo MS-DOS, un sistema operativo muy antiguo, todo texto, no había nada de gráficos. Yo recuerdo que cuando vi el sistema de Kepler, cuando llegué al último tema en donde establecí una serie de reglas para establecer la suma de cuadrados de forma sencilla, el hogar de libertad de forma sencilla, una vez que tienes el diseño podías saberlo todo sobre el experimento, yo me alegré mucho. Lo recuerdo, hice un meta-análisis con... con aquel sistema y me cogí estudios que habían publicado otras personas y conseguí reproducir completamente sus tablas de la nova, gracias a esta terminología de Kepler. Entonces, actualmente quizá con los ordenadores y los sistemas operativos que tenemos actualmente y el software, quizá no sea tan necesario, pero su conocimiento, de todas formas, a mí me parece muy útil. Básicamente, Kepler... calcula la suma de cuadrados, sumando y restando unas cantidades a las que llama razones básicas. Razones son conscientes y básicos porque a partir de ellas calcula... lo calcula todo. Y estas razones no se basan, no las calcula utilizando las puntuaciones de diferencia de la suma de cuadrados, no. Utiliza las puntuaciones directas. Las razones básicas son, están relacionadas en la primera, en la terminología, en primer lugar, es corchetes y una letra adentro. La letra obviamente tiene referencia con el factor o con lo que es... Lo que está indicando es esa razón. Por ejemplo, corchetes I, la I encerrada entre corchetes, está relacionada con las puntuaciones individuales. Recordemos que I, la I latina, son las puntuaciones directas que tenemos en nuestro estudio. La segunda, corchetes A, está relacionada con el factor. Allí hemos denominado el factor, sea el que sea, droga, el tipo de aprendizaje, lo que sea, de forma genérica lo hemos denominado como A. Por consiguiente, la razón básica A, corchetes A, está referida a los niveles, a mi factor. Y la última, corchetes T, está relacionada con la suma total. Y lo bueno es que la estructura del cálculo del numerador de esta razón es siempre igual. Se elevan al cuadrado las cantidades que están implicadas y, posteriormente, se suman estas cantidades. Vamos a verlo de forma rápida. Por ejemplo, aquí tenemos, en primer lugar, hemos calculado I al cuadrado, A al cuadrado y T al cuadrado. Sumatorio, sigma. Sigma significa suma. ¿Suma de qué? De I al cuadrado. E I, no hemos dicho que eran las puntuaciones individuales. Pues, cogemos las puntuaciones individuales 5, 8, 4, 3, 6, 7, 8, 2, 4. Cada una de ellas las elevamos al cuadrado y sumamos. El resultado es 283. Si ahora nos dicen sumatorio, sigma, de A al cuadrado, A, no eran las sumas de las puntuaciones dentro de cada nivel, pues entonces... Sumatorio, sigma, de A al cuadrado, es los sumatorios de cada nivel elevados al cuadrado. Y eso lo he dado en 877. Y por último, t al cuadrado, como solamente un t no podemos hacer un sumatorio, tenemos visto que era 47, que es el sumatorio de todas las as, es decir, el sumatorio de todos los datos, al cuadrado 2209. Una vez que tenemos esos sumatorios, esta la pared está repetida, lo anterior se refería a los numeradores de las razones básicas. Los denominadores se obtienen aplicando otras reglas sencillas. Se divide por el número de puntuaciones que contribuyen a su cálculo. Esto dependerá de que el diseño sea equilibrado o no, es decir, que tenga el mismo número de observaciones por nivel o no. En ese caso las razones básicas van a cambiar. Entonces hemos puesto aquí los numeradores, que son simplemente las puntuaciones que nos indica la razón En el numerador ponemos esas puntuaciones al cuadrado. En el caso de t, t al cuadrado. Y dividimos por el número de puntuaciones que han aportado información al numerador. En el caso de t, está claro, t es el total, t al cuadrado 2209. Por consiguiente, el numerador de la razón básica t es t al cuadrado 2209. Y el denominador es ¿Cuántas puntuaciones se han utilizado para calcular esa t? Pues 9, el total de puntuaciones individuales que teníamos. Ese 9 es igual a a por n en el caso de un diseño equilibrado. Porque en el diseño equilibrado, si todos los grupos tuviesen el mismo número de sujetos, multiplicamos el número de sujetos n de un grupo por el número de niveles y tendríamos el total en el caso de que el diseño no sea equilibrado, tendremos simplemente que calcular cuántos sujetos hay en n entonces la razón básica t, por ejemplo, es la potencia de t al cuadrado partido por a por n en el caso del diseño equilibrado y n total, diseño no equilibrado es decir, el número de sujetos eso para el cálculo de la razón básica t y para el cálculo de la razón básica a pues las puntuaciones a al cuadrado sumatorio de esas puntuaciones a al cuadrado, que ya hemos visto lo que era y nos preguntamos ¿cuántos elementos tengo que sumar aportan a ese cálculo de a? 1 es decir, ese 20 ¿con cuántos sujetos se ha calculado? habíamos visto en el cálculo de t cuántos sujetos ¿cuántas sumas habíamos necesitado para calcular 47? y ya hemos visto que habíamos necesitado 9 ese era el denominador, n total ahora, para esta suma o para esta en el caso de un diseño equilibrado necesitaremos el número de sujetos que haya dentro de un grupo, n si no es equilibrado tendremos que diferenciarlo por n sub 1, n sub 2 y n sub 3 y eso nos dará la razón básica a la razón básica y está muy claro ¿cuántos elementos tengo que sumar para calcular este 5? 1 mientras que para calcular n habíamos visto que necesitábamos los 4 del primer grupo y por eso se había puesto a al cuadrado partido por n para calcular la razón básica para calcular la razón básica y cada elemento es un único elemento. por lo tanto se mide por 1 Por nada, la razón básica de I es el sumatorio de los I al cuadrado. Una vez que tenemos estas razones básicas, es sencillo calcular la suma de cuadrados. Miren, la suma de cuadrados total son las razones básicas I menos T. Suma de cuadrados de A, la razón básica A menos T. Y la suma de cuadrados de ese intra es I menos A. Observen que la primera razón básica es lo que aparecía en las puntuaciones de diferencia. Recuerden que en el cálculo de la suma de cuadrados teníamos un sumatorio de puntuaciones de diferencia al cuadrado. Teníamos aquí una serie de puntuaciones. Y aquí... Aquí la media de referencia. Observen como esta media de referencia es, en cada caso, es a lo que se referencia el segundo término de la suma de cuadrados. Y el primer componente de la puntuación de diferencia es el primer término de la suma de cuadrados a partir de las razones básicas. Obviamente, el cálculo no tiene que dar... El cálculo no tiene que dar lo mismo que hemos visto en los dos sistemas anteriores. Solamente que este es mucho más cómodo cuando tengamos más de un factor. Con dos factores ya se nota la ventaja. Con tres no hay punto de comparación. Entonces, en este caso, se compararían las razones básicas T, el total, lo divido a la A y lo divido a las puntuaciones individuales. Y a partir de ellas se pueden calcular la suma de cuadrados. Obviamente. El cálculo es exactamente... El resultado del cálculo tiene que ser el mismo. ...obtenido con los cálculos anteriores. Bien, ahora vamos a... En el modelo de efectos aleatorios vamos a hablar un poquito de él, no lo vamos a desarrollar, pero sí es conveniente saber un poco más de él y en qué consiste. Es decir, todo lo que hemos dicho en el apartado anterior, el modelo de un factor se daría al modelo de un factor de efectos fijos. Pues solamente nos interesan los niveles que se han manipulado en ese experimento. El investigador establece como niveles del factor sólo aquellos en los que está interesado en estudiar. No está interesado en estudiar ningún otro. Por tanto, sus inferencias se refieren a esos niveles. En el modelo de efectos aleatorios, no. En el modelo de efectos aleatorios, los sí niveles de ese factor, los niveles del factor, son una muestra aleatoria de todos los posibles niveles del factor que yo pueda manipular. Los he elegido al azar, de todos los posibles niveles. Esta muestra aleatoria de niveles se supone distribuida según una distribución normal con media cero y dirección típica sigma de A. Sigma de A será la varianza aportada por ese factor. El planteamiento inicial es distinto al modelo de efectos fijos. El modelo de efectos fijos solamente nos interesa esos niveles. En el efecto aleatorio, esos niveles se consideran una muestra de todos los niveles posibles. Solamente cuando tenemos un solo factor, este hecho no tiene consecuencias para el cálculo. Con lo cual, el cálculo sería idéntico. Y el estadístico de contacto sigue siendo el mismo. Un cociente entre varianzas. Y nos proporciona una razón F. Ahora vamos a un punto importante. Comparaciones múltiples. ¿Qué son las comparaciones múltiples? Yo el mejor ejemplo que tengo para indicar qué es esto es, si usted me pide... Yo voy por la calle y una señorita atractiva me pide la hora. Y me dice, ¿tiene hora? Yo digo, sí. Obviamente la señorita atractiva se va a ir echando pestes de mí. ¿Por qué? Obviamente, ella no sabía que yo tenía hora. Quiere la hora. Aquí viene este ejemplo. Viene a que la tabla de la nova ha hecho exactamente lo mismo que yo he hecho con esta señorita. A la nova, en nuestro diseño, preguntarle, nosotros le hemos preguntado al diseño, compañero, ¿mi experimento tiene efecto? ¿Mi variable independiente, el factor que estoy manipulando, afecta a la variable dependiente? Si soy un psicólogo que trabaje en un ayuntamiento, si soy un psicólogo que trabaje en un centro de cosmética, sea como sea, yo estoy manipulando una variable, un factor, para ver si afecta a otro. Quiero ver, por ejemplo, si la crema que acabo de desarrollar, disminuye las arrugas en mayor medida que las otras, ¿sí o no? Si yo tengo un tratamiento para curar la ansiedad, quiero ver si es mejor que los que ya existen, ¿sí o no? En la nova me dice, ¿sí o no? Tiene hora, ¿sí o no? Pero no me dice más. La razón es que, que hemos visto en la tabla de la nova, la razón es que, si me informa acerca de si mi factor tiene, o no tiene efecto, si, no, respuesta dicotómica. Por eso se dice que es una F global, ómnibus. Pero realmente cuando tenemos tres niveles y estamos en ese caso como mínimo, a mí me va a interesar, no tanto si existe efecto, me interesa, si existe efecto, ¿dónde están las diferencias? Si yo estoy comprando tres cremas antiarrugas, yo estoy seguro que tienen efecto, pero yo quiero saber cuál es la mejor. ¿No? Eso la FNO no lo dice La FNO no lo dice Hay diferencias Tus cremas antiarrugas Tienen efecto, pero no me dice cuál es el mejor Por ejemplo, si estoy interesado en ello Por eso, porque es ómnibus Me está diciendo Tiene hora o no tiene hora Pero no me está indicando Entonces, cuando hacemos un experimento Si ese experimento me ha dado significativo Si ese experimento me ha permitido Rechazar H0 Y tenemos tres niveles Yo quiero saber dónde están las diferencias Son las tres posibles comparaciones El primer grupo con el segundo El primer grupo con el tercero Y el segundo grupo con el tercero ¿Son las tres comparaciones diferentes? ¿O no? En cuanto haya una única comparación de esas tres En cuanto haya una única Que sea significativa La F me lo va a decir No me va a decir dónde está Pero con que haya una es suficiente La F va a ser significativa Rechazo H0 Pero yo quiero saber dónde están las diferencias ¿Vale? Si las diferencias son Están, por ejemplo, entre las tres comparaciones ¿O solamente hay una comparación significativa? ¿O son dos comparaciones? ¿Dónde está? En ese caso tenemos que hacer uso De las comparaciones múltiples Es decir, cuando un investigador aplica Una análisis de variación anóva A un conjunto de observaciones Para detectar si hay diferencia Entre los distintos grupos Obtenemos una única razón F Que si no da significativo Nos olvidamos Si no da significativo Inferimos que en la población Las tres medias son iguales Mala noticia para el investigador Pero eso es lo que dan los datos Pero si resulta significativo Nos indica que al menos Entre dos medias hay diferencias Que no son debidas a la F ¿Dónde están? Comparaciones múltiples Si nos sale significativo la F De la anóva Es el segundo paso que tenemos que dar Es decir, la anóva no nos dice Dónde están esas diferencias significativas Nos dice si existen o no Pero no dónde están Por consiguiente, para responder a esta pregunta debemos utilizar las comparaciones múltiples. Al plantearnos el análisis de las comparaciones múltiples, podemos distinguir dos situaciones. La primera, que a priori, antes de hacer los cálculos de las razones básicas o de las sumas de cuadrados o de la f, yo estoy interesado en conocer unas determinadas comparaciones. De todas las posibles comparaciones que se pueden realizar con mis medias, con mis distintos niveles del factor, estoy interesado en estas en concreto. Es la que se dice comparaciones, eso serían las a priori. Comparaciones planificadas o a priori. Antes de realizar el experimento. En este caso, el investigador no está necesariamente interesado en probar todas las comparaciones posibles. Le interesan solamente algunas y no todas. Sabe de antemano, antes de realizar el experimento, qué comparaciones le interesan y no le interesan todas. En ese caso, utilizará comparaciones planificadas o a priori. ¿Cuántas comparaciones planificadas? Muy sencillo. Cuando yo tenga una teoría lo suficientemente precisa para indicarme dónde van a estar las diferencias entre los grupos y dónde no lo van a estar. En ese caso, yo iré a probar aquello que mi teoría me dice prueba estas comparaciones. Las otras no son necesarias, no son interesantes. si mi teoría me lo dije antes de hacer el experimento son comparaciones planificadas o a priori si no me lo dije estamos en las comparaciones no planificadas a posteriori o post hoc yo he hecho el experimento, no tengo ninguna teoría previa o hipótesis previa sobre dónde van a estar las diferencias entre los niveles del factor y por consiguiente después de realizar el experimento voy a ver dónde están entonces, como no sé dónde están voy a probarlas todas porque no tengo una idea a priori de dónde están a mí esto lo suelo ejemplificar con el técnico que se encuentra en un terreno nuevo y está buscando petróleo, por ejemplo si no sabe dónde excavar para buscar petróleo pues busca de forma al azar exploratoria porque no tiene una idea previa o precisa de dónde puede encontrar el petróleo, pues hace una serie de comparaciones hace una serie de calacenes al azar, no planificadas pero si estudios previos le indican mira, el petróleo debe estar donde se encuentran tales o cuales tipos de rocas entonces hará excavaciones en esos lugares específicos serán las comparaciones a priori porque sabe va directamente a unos lugares específicos en los que la teoría le indica aquí existe una alta probabilidad de que exista petróleo lo mismo sucede con los experimentos si no tienes una idea a priori sobre dónde van a estar las diferencias entre los distintos niveles del factor cuando tengas el experimento vas a tratar de probar todas las posibles comparaciones a ver cuáles son las significativas pero si tienes una idea previa sobre dónde van a estar las comparaciones ve a probar precisamente esas y aquí está el problema con muchos estudios en psicología que muchas veces nuestras teorías no están lo suficientemente formales no están formalizadas matemáticamente no tenemos hipótesis previas sobre dónde van a estar las diferencias y por ello solemos utilizar no las comparaciones planificadas sino las no planificadas. El objetivo de las comparaciones múltiples es reducir la cantidad de error tipo 1, ya hemos visto que este es uno de los grandes problemas que teníamos al inicio de este tema y que nos llevaba a utilizar una técnica completamente nueva, era nueva en vez de las comparaciones 2 a 2, pero las comparaciones múltiples tienen que seguir manteniendo esta posibilidad de que se incremente el error tipo 1 y por tanto uno de los objetivos es reducir la cantidad de error tipo 1 que cometeríamos si comparáramos 2 a 2 todas las muestras. Por lo tanto, aunque en las comparaciones múltiples compararemos las muestras 2 a 2, cosa que hemos dicho que no deberíamos realizarlo, hemos tenido en cuenta que esto se realiza después de haber hecho una nueva que nos ha dicho que hay diferencias y además las comparaciones múltiples están diseñadas para que no se incremente esa cantidad de error tipo 1. Estas pruebas nos aseguran que no se incrementa el error tipo 1 más allá del valor alfa nominal con el que estamos trabajando y por ello no recurrimos a la prueba T estudiada en temas anteriores, aplicamos pruebas específicas que aprovechan los resultados de la análisis de varianza. En las comparaciones planificadas o a priori, en este caso el inventador no es interesado en comparar todas las posibles medias que tengamos en nuestro experimento, solo en algunas combinaciones de medias. Por eso se llama comparación planificadas o a priori. Nos ponen un ejemplo, supongamos que estamos interesados en conocer el efecto que es sobre la reducción de la ansiedad, la ansiedad en este caso será la variable dependiente y queremos reducirla. En este caso estaríamos en el área de la investigación clínica, en concreto en ansiedad y queremos reducirla, no vamos a querer aumentarla. Bueno, en algunos casos los psicólogos militares pueden querer incrementar la ansiedad. La terapia puntúa en alto y vamos a ver si y en qué medida nuestras terapias conductuales lo reducen. Distribuimos a esos sujetos aleatoriamente en cinco grupos, uno de ellos será el grupo control y los otros cuatro serán tratados cada uno de ellos con una terapia distinta. Al finalizar la terapia medimos la variable dependiente, la ansiedad de los cinco grupos. Para probar nuestra hipótesis tendríamos que comparar las puntuaciones del grupo control con las de los otros cuatro grupos. Combinadas, porque la hipótesis de la que partía el presentador era, no quería ver si la terapia A era mejor que la B o la B mejor que la C, era las terapias conductuales como un grupo para ver si en relación al grupo control las terapias conductuales reducían la ansiedad sin diferenciar entre ellas. Por consiguiente, la comparación que está realizando aquí es grupo control por un lado, las cuatro terapias conductuales por otro lado. Es la comparación que le interesa en este caso a este investigador y le interesa a priori antes de realizar los resultados. Entonces, recurrimos al análisis de varianza. Si el análisis de varianza nos da significativo, hacemos comparaciones múltiples comparando grupo control con una combinación de las medias de las cuatro terapias conductuales aplicadas. Mientras que las comparaciones no planificadas a posteriori o post hoc son aquellas que se deciden después de que el investigador haya obtenido los resultados de la NOVA y haya rechazado la hipótesis nula. El rechazo de la hipótesis nula le indica que hay medias diferentes y ahora se plantea dónde están esas medias. No lo ha planteado antes de, sino después. Y son las únicas comparaciones que vamos a ver. Las más utilizadas son la prueba de Tukey y la prueba de Schaefer. Vamos a ver la prueba de comparaciones múltiples de Tukey. El otro día un compañero me criticó que no leyese los nombres ingleses en inglés. Voy a seguir haciéndolo. Probablemente porque si lo leyes en inglés... ...como diría más errores que si lo leo directamente en castellano. Entonces ya le diré Tukey en vez de probablemente Takey. Tukey propuso un test de comparaciones múltiples al que denominó HSD. También se le llama LSD. ¿Le suena esto a algo? Least Significant Difference. Aquí le han llamado Honest Dream. ¿Diferencia significativa? Honestamente. Otro le llaman Least Significant Difference. Esto ha dado lugar al chiste de que Tukey fue un investigador, no sé si ahora muerto ya o no, muy importante, y trabajaba en Berkeley. En la década de 1960 cuando propuso este test. Aquellos que ya tienen una cierta edad recordarán que Berkeley, 1960, hippies, droga, LSD. ¿Cómo no iba Tukey a probar el LSD en los 1960? Bueno, es un chiste. Tukey propone el test HSD o LSD y lo diseña para realizar pruebas de comparaciones múltiples entre pares de medias. Comparaciones, lo más importante aquí, son que para Tukey su test nos va a permitir hacer todas las comparaciones posibles de pares de medias. No permite realizar comparaciones complejas. La comparación, por ejemplo, que hemos puesto anteriormente del grupo de control versus los cuatro grupos de terapia conductual conjuntos no puede realizarse con Tukey. Tukey solamente permite realizar pares de medias 2 a 2. Pero mantiene fija la tasa de error tipo 1, el alfa. Impide que alfa se dispare. E independientemente del número de comparaciones que vayamos a realizar. Para ello lo que se hace es que se compara... Se calcula un estadístico llamado HSD de Tukey. No tiene mucho misterio ese nombre. Es el nombre que le damos a este estadístico. Y este estadístico se calcula multiplicando un valor, q, que luego tenemos en las tablas. Y depende de tres factores. Alfa, los grados de libertad. Y el número de niveles, k. k es el número de niveles de mi experimento, de mi factor. GL es los grados de libertad de la media cuadrática del error. de S barra A y alfa es el alfa con el que estamos trabajando dados esos tres parámetros nos vamos a las tablas y las tablas nos dan un valor Q, un valor numérico ese valor numérico lo multiplicamos por la raíz cuadrada del cociente entre la media cuadrática del error partido por N la media cuadrática del error obtenida en el ANOVA recuerden que esto es algo que se puede realizar cuando el ANOVA no está significativo es A posteriori de haber calculado el ANOVA y N es para un diseño si recuerdo bien N es el número de sujetos que hay en cada grupo diseño equilibrado entonces Q es el valor crítico de la tabla de rango estudiantizado de Tukey esta es la tabla que desarrolló Tukey ella nos da para un detenido de nivel alfa normalmente 0.05 vamos a buscar en la primera columna los grados de libertad del error de la tabla de ANOVA de MS, de la media cuadrática MC mejor dicho de la media cuadrática del error buscamos su grado de libertad y esa será la fila que vamos a buscar en... la tabla de rango estudiantizado mientras que estos valores nos indican en qué columna deben buscar en la columna del cuantos niveles tiene mi factor que es lo que llamamos k entonces vamos a ejemplificarlo con los datos que obtuvimos en el ejemplo anterior que teníamos su tabla de la ANOVA vemos que la media cuadrática La práctica del error es tres. Y los grados de libertad son 6, no se confunden, yo antes me confundí en la clase anterior y puse 7, 6. 6 grados de libertad de la media cuadrática del error y tenemos 3 niveles. En el caso de que el diseño no sea equilibrado, no haya el mismo número de sujetos en cada grupo, tenemos que utilizar esta fórmula. Para calcular un n', sustituimos la n de la fórmula anterior por este n' que es simplemente, dividimos k, que es el número de niveles de nuestro diseño, por el sumatorio de los coeficientes del inverso del número de sujetos que tengamos en cada grupo. 1 partido por el número de sujetos del primer grupo. Más 1 partido por el número de sujetos del segundo grupo. Más, así hasta llegar al último grupo que tengamos. La prueba de comparación en múltiples de Tukey consiste en el cálculo de ese valor hsd de Tukey, que actuará como la mínima diferencia, mínima, la diferencia más pequeña que debe existir entre dos medias mostrales para que podamos decir que entre ellas existen diferencias. No existe diferencia máxima, pero diferencia mínima sí. Y es la que nos da hsd de Tukey. Entonces, diríamos que una comparación entre dos medias es iniciativa si la diferencia entre las medias de esos dos niveles es mayor que el hsd de Tukey que hemos calculado en el ejemplo anterior. Vamos a verlo con un ejemplo. Supongamos que tenemos una muestra aleatoria de 21 sujetos que puntúan alto en ansiedad. Los distribuimos aleatoriamente entre grupos. Esto ya nos indica el número de sujetos. Tenemos 3 niveles y tenemos 7 sujetos en cada uno. Por tanto, diseño equilibrado. N igual a 7. 7 por 3 es 21. Correcto, no hay error. Les suministramos tres dosis distintas a cada uno de los tres grupos. 0,05 miligramos, 0,10 y 0,20 miligramos. Ahora, queremos ver si estas dosis de droga, de fármaco, influyen en el estado de ansiedad de los sujetos. Asumimos modelos de efectos físicos. Nos interesan esos niveles. Se cumplen los supuestos de independencia, normalidad y homocerasticidad. Vale, porque no estamos en ese... Calculamos, nos dan la tabla de la ANOVA y las medias. Nos dicen que tenemos tres grupos, tenemos tres medias. La media del primer grupo, y su 1, la media del segundo, y su 2, y la media del tercero, y su 3. Y además nos dan la tabla de la ANOVA que se ha obtenido. Observen que tenemos una F de 5.06, yo esta F... Y sospecharía que es significativa. Habría que compararla con el valor crítico en las tablas, pero es lo suficientemente grande como para... Recuerden que para ser significativa depende del logrado de libertad. Depende de esto. Bien, tenemos luego la media cuadrática del error, 16.27. El logrado de libertad del error, 21-3, 18. Tenemos tres niveles de difracto. Ya podemos calcular. H se da de 2Ki. Ah, bueno, aquí nos indican... Comparando nuestro resultado con el de las tablas se concluye que rechazamos la hipótesis nula. Debido a que la F mostrada, 5.069, esta F, 5.066, supera a la F crítica. En las tablas encontraríamos una F crítica de 3.55. Como la supera, está en la región de rechazo, hay como mínimo dos medias por la mitad de la hipótesis nula. Y hay dos medias racionales que vigilan entre sí. Pero, ¿cuáles? Si tenemos tres. ¿En dónde está la diferencia que hace que rechacemos la hipótesis nula? Pues para ello tenemos que aplicar Tukey. Entonces, aplicamos Tukey con tres grupos y siete sujetos en cada uno. La MC de error ya hemos visto que es 16.27, que la tenemos aquí. Y los grados de libertad del error son 18, es decir, 21 menos 3. Aplicamos Tukey con, buscamos en las tablas, K, que era el número de niveles del experimento. Tenemos tres niveles, las tres dosis de la droga. Y los grados de libertad del error hemos visto que eran 18 según las tablas de la norma. Por consiguiente, Q es 3.61. Lo hemos puesto en el lugar apropiado. Recuerden también que estamos trabajando al 0.05, por tanto, esto es alfa, esto es K, y 18. Y los grados de libertad del error son 3.61. La MC del error habíamos visto que era 16.27 según las tablas de la norma, y tenemos siete sujetos en cada grupo. Hacemos los cálculos. Hacemos el cociente, 16.26 dividido entre 7. A ese cociente calculamos la raíz cuadrada y multiplicamos por 3.61. Esto nos da 5.50. Vale, ese es el estadístico, el HS de Tukey. Y ahora, 5.50, observenlo, está aquí. Ahora decimos, si la diferencia en volar absoluto entre dos paredes de medias supera ese 5.50, esas diferencias podemos decir al 0.05 que son diferentes entre sí. Si la diferencia entre dos paredes de medias muestrales es inferior a ese valor, Tenemos que aceptar la hipótesis nula en ese caso. Y vemos que hacemos, en este caso, estamos comparando la diferencia entre la media del primer grupo, 11.71, menos la media del segundo, 15.43, en valor absoluto, es decir, sin considerar el signo. Y nos da 3.71. Ese 3.71 es inferior al valor HCD de Tukey. Por consiguiente, esas dos medias no difieren entre sí. No podemos aceptar la hipótesis alternativa en este caso. Ahora, en esta segunda, estamos comparando la primera media con la tercera. La primera media que vale 11.71 con la tercera que vale 8.57. En valor absoluto, la diferencia es 3.14. Que sigue sin superar ese 1. Y nos da un umbral de 5.50 que nos ha establecido HCD de Tukey. Pero como el ANOVA nos dio significativo, quiere decir que de las tres comparaciones posibles en un experimento con tres niveles, alguna tiene que ser significativa. Ya hemos visto dos de ellas. Por consiguiente, forzosamente la tercera tiene que ser significativa. En esta tercera comparación, ponemos a prueba, comparamos la segunda media con la tercera. Su diferencia es 6.86. Y vemos que 6.86 sí es mayor. Es mayor que 5.50. Entonces, deducimos que la f que hemos obtenido en el experimento en la tabla de ANOVA se debe a que los grupos 2 y 3, las drogas 2 y 3, difieren al 0.05 entre sí. Según la comparación en múltiples a posteriori de Tukey. Hemos visto que en las comparaciones de Tukey al final llegamos a comparaciones 2 a 2 manteniendo alfa constante. Pero comparaciones 2 a 2. ¿Y qué pasa si queremos comparaciones más complicadas, más complejas? Pues que tenemos que irnos a Schaeffer. Puede haber comparaciones múltiples de Schaeffer. Es menos potente, por lo tanto más conservadora que la prueba HSD de Tukey. Pero nos permite realizar comparaciones complejas. Permite comparar una media con un conjunto de medias. Antes solamente podíamos comparar una media con otra media. Ahora vamos a ver que eso no se puede solventar. O comparar un conjunto de medias con otro conjunto de medias. Esta prueba obviamente también mantiene la tasa de error tipo 1 en el alfa nominal que hemos previsto en nuestro experimento, independientemente del número de comparaciones que se realicen. Y obtiene un estadístico que en este caso se llama CR, Critical Range, esto lo he dicho en inglés, Critical Range, CR de Schaeffer. Mientras que en este caso, antes era el otro de las de LSD. Por encima del cual diremos que hay diferencias entre las medias, o entre los grupos de medias que estemos comparando. Cuando hemos obtenido CR sucede lo mismo que cuando hemos obtenido HSD de Tukey. Si nuestra comparación supera el valor que hemos obtenido en nuestro estadístico, decimos que hay diferencias y si no, no las hay. CR de Schaeffer, como podemos suponer, un poquito más complicada que esta es la fórmula que tenemos que utilizar para calcular CR de Schaeffer. Vemos que es el producto de dos raíces cuadradas. La primera raíz cuadrada, tenemos K-1. K sabemos que es el número de niveles del factor. No hay ningún problema, le restamos 1. Este componente es la f buscada en las tablas, la f crítica, con k menos 1 grado de libertad y los grados de libertad del error. Esto se busca en las tablas y al nivel alfa que necesitemos y con ese grado de libertad. La segunda raíz cuadrada es el producto de la media cuadrática del error que hemos obtenido en la tabla de la nova multiplicada por un sumatorio, tantos sumandos como niveles allá, como aquí deberíamos haber puesto i, pero el texto está j. Son el número de niveles, no el número de sujetos. Tantos sumandos como niveles allá y esos sumandos son cocientes, cocientes entre unos coeficientes que llamamos c sub j Al cuadrado partido por el número de sujetos que haya en cada nivel. Vamos a explicar esto porque lo que aquí introduce una complicación adicional es este c sub j. Los c sub j son combinaciones, perdón, coeficientes de las combinaciones lineales que podemos establecer entre las medias con una restricción y es que en cada combinación la suma de coeficientes debe ser igual a cero. Vamos a explicar esto un poquito. Vamos a explicar esto un poquito más detenidamente. Por ejemplo, si tenemos tres niveles en el factor y queremos hacer todas las comparaciones posibles dos a dos, en este ejemplo no nos estamos metiendo en comparaciones múltiples, en comparaciones complejas, mejor dicho, tendremos tres comparaciones. Entonces, hemos expresado aquí los tres niveles, a sub 1, a sub 2 y a sub 3, y podemos comparar entonces el... El primer nivel con el segundo, el primero con el tercero o el segundo con el tercero. Son las tres comparaciones de 2 a 2 que podemos realizar. Pero ahora tenemos que introducir unos coeficientes, que son, en este caso, estos valores numéricos que hemos puesto 1, menos 1, 1, menos 1, 1, menos 1. Como queremos eliminar el otro componente, si por ejemplo en el primer contraste estamos comparando la primera media a su 1 con la segunda, la tercera, la tenemos que comparar. Para ello solamente tenemos que ponerle un 0 a ese contraste. Aquí tendríamos el contraste, los coeficientes que determinan ese contraste serían, tendremos un coeficiente por cada nivel del factor, por tanto tenemos c sub 1, en este caso será 1. c sub 2 será menos 1, y c sub 3 será 0. Esto referido a este primer contraste. Esos son los coeficientes que hemos elegido para comparar el primer grupo con el segundo y dejar fuera al tercero. En el segundo caso, en el que queremos comparar el primer grupo con el tercero, los coeficientes serán c sub 1, 1, c sub 2, 0, y c sub 3, menos 1. Que se refirá a este contraste. Y en el tercero, que queremos comparar los grupos 2 y 3 dejando fuera al primero, los coeficientes serán, lo voy a poner aquí, c sub 1 será 0, y dejamos el primer grupo fuera, c sub 2 será 1, y c sub 3 será menos 1. Y de esta forma, vemos que en todos los casos, El sumatorio, tenemos tres contrastes definidos por esos tres conjuntos de valores numéricos, y en cada caso se cumple la condición que hemos visto aquí. La suma de los coeficientes debe ser igual a cero. La suma de los coeficientes da cero. Uno más menos uno más cero, cero. Uno más cero más menos uno, cero. Cero más uno más menos uno, cero. Y de esta forma, las medias que comparamos son estas. En la primera comparación, primero grupo con el segundo, y el tercero no lo ponemos porque está implícito, porque lo hemos eliminado a ponerle el coeficiente cero. Y vemos entonces que es una resta porque la primera media es como si estuviera multiplicada por el coeficiente uno, y la segunda como si estuviera multiplicada Y la tercera como si estuviera multiplicada por el coeficiente menos uno. Y aquí sucede, en el resto de casos, sucede exactamente lo mismo. Entonces, cuando las comparaciones implican a más de un grupo, y es donde empieza ya un poquito la complicación, los valores de los coeficientes, de esos c sub j, de esos valores numéricos que estamos utilizando para comparar, deben reflejar los grupos a comparar y el tipo de comparación. Antes de ver esto, aquí ya tenemos comparaciones complejas, vamos a ver el concepto subyacente a las comparaciones múltiples porque es un concepto sencillo, pero da problemas en el sentido de que muchos alumnos no entienden qué se está haciendo aquí cuando es algo realmente sencillo. Entonces, a ver, luego lo vemos aquí. La situación es similar, estamos tratando de ver qué son estos coeficientes c sub i o c sub j, como queramos denominarlos. Esos C sub J determinan comparaciones entre medias o grupos de medias. ¿Pero qué significan realmente? En la situación similar es cuando queremos evaluar si dos niños tienen el mismo peso. Suponemos aquí Martita y Antonio. Si tienen el mismo peso, los podemos colocar en un tobogán, pero a la misma distancia del punto medio, del fulcro. Obviamente, si no nos ponemos a la misma distancia, estamos falseando. Entonces, bajo la hipótesis nula de que los dos pesan lo mismo, si eso es cierto y los ponemos a la misma distancia del fulcro, ¿cómo le va a mantenerse el balancín? Horizontal. Si pesa lo mismo, es horizontal. Si uno de ellos pesa más que el otro, el balancín se inclinará hacia el lado en donde esté situado el niño con mayor peso. Entonces, en esta analogía, el peso de los niños son las medias de los grupos que queremos comparar. La media del grupo 1. Sería Martita y la media del grupo 2 sería Pablo. Y los pesos, los c sub j, representan la distancia que hemos colocado cada una de esas medias con respecto al punto medio. Por ejemplo, si Hansel y Grether se someten a este experimento y pesan lo mismo, tendríamos esta situación. Hemos puesto a Hansel a un metro del fulcro, a la izquierda, menos 1, y a Grether a un metro, a la derecha del fulcro, coeficiente, más 1. Si pesan lo mismo, el balancín se mantiene horizontal. Sin embargo, en esta situación sabemos que no sería justa. ¿Por qué? Porque Grether pesara más o pesara menos, va a inclinar el balancín, pero no por su peso, no por su media, sino por su distancia con respecto al fulcro, que es mucho mayor que la que tiene Hansel. Esto es lógico, ¿no? ¿Y qué pasa con esta analogía cuando queremos comparar dos medias en relación a una tercera, que es una comparación ya compleja? En este caso lo que tenemos que hacer es ajustar las distancias, los coeficientes, los c sub j, para que la comparación se ajuste. Así, por ejemplo, supongamos que Pablito se une a Hansel y Gretel. Deseamos comprobar si los dos chicos pesan lo mismo que Gretel. En este caso, si colocamos, tendríamos aquí una situación un poco rara, tendríamos que colocar a Pablito y a Hansel, por ejemplo, si los colocamos a un metro de fulcro y uno encima del otro, o bien tenemos un sillín doble, como queramos, es lógico que para que la comparación sea justa no podemos poner a Gretel a un metro del balancín. Tenemos que ajustar la distancia para que si pesan lo mismo, el balancín se mantenga horizontal. Y por ello colocamos a Gretel a dos metros en relación al fulcro. Y en este caso, el producto de un metro por dos veces el peso, es decir, Hansel y Pablito, será lo mismo. Y por ello colocamos a Hansel y Pablito, que es lo mismo que dos metros por una vez el peso de Gretel. La comparación ahora sería justa. Y vemos que la distancia a fulcro, los coeficientes, ahora sería para Hansel y Pablito, sería menos uno, mientras que para Gretel sería dos, para que la comparación sea justa. De esta forma, la distancia de dos pesos a la izquierda, menos uno, menos uno para ambos, para los dos chicos, y coeficiente dos para la chica. Porque la existencia de dos pesos a la izquierda de un metro del fulcro se compensa con la existencia de un único peso a la derecha, pero a dos metros. ¿Y por qué lo ponemos a más uno y dos? Uno a la izquierda y dos a la derecha, menos uno y dos. Podríamos ponerlos a medio metro a Hassel y Gretel y a un metro a... no, a Hassel... yo no me acuerdo los nombres. Hassel y Pablito, podríamos colocar a Hassel y Pablito a medio metro, coincidente 0.5, a la izquierda del fulcro, y en ese caso tendríamos que colocar a Gretel a un metro, coincidente 1, a la derecha. Y la comparación seguiría siendo correcta, porque se está manteniendo que la distancia por el peso es la misma en los dos casos, asumiendo... que el peso es el mismo entre estos niños. Es decir, en este caso la comparación sería un medio para Hassel, un medio para Pablito y menos un medio para Gretel. Los signos se pueden cambiar, porque podemos perfectamente cambiar de posición a los chicos. Estos serían los coeficientes 0.5, 0.5 y menos uno. Podríamos utilizar esos coeficientes o cualesquiera otro. De hecho hay infinidad de coeficientes con los que lograríamos lo mismo. Establecer esa comparación entre los pesos de estos chicos. Y entonces esta comparación sería que la hipótesis simulada afirmaría que H0 postularía que el peso, la media de Gretel, con un valor de 1, implícito, es igual a... La suma de los pesos de Gessler y Pablito partido por 2, es decir, es como si a Gessler y Pablito les tuviéramos dado un peso de 0.5, un medio. Y esto nos indica que teóricamente, técnicamente, hay infinitos contrastes a realizar y todos no tendrían el mismo resultado. Sin embargo, en términos de comodidad matemática, se prefieren contrastes de más 1 menos 1, contrastes en donde el valor absoluto del sumatorio de estos coeficientes nos dé 2, simplemente por comodidad matemática, nada más. Una vez que hemos visto el concepto de qué son las comparaciones múltiples, qué son esos coeficientes C sub J, una vez que hemos visto que uno ejerce un resultado, un ejemplo de la vida real, ya podemos entender las comparaciones que hemos visto anteriormente. Vamos a volver atrás. Aquí tenemos varias comparaciones. Veamos este primer ejemplo. En este primer ejemplo tenemos una hipótesis nula en la que, bueno, en primer lugar, tenemos un experimento con 5 niveles, 5 grupos, y ahora nos dicen los coeficientes que podemos utilizar. Muy bien. Entonces, si queremos comparar el primer grupo con el segundo y el tercero en conjunto, lo que hacemos es que los grupos que no aparecen aquí los eliminamos poniendo 0 en sus coeficientes. El grupo 4 y 5 que no me aparecen en la hipótesis nula los hago desaparecer poniéndoles coeficientes C sub I 0. Es como si no están en el balance. Y ahora, para que la comparación se ajuste, los que pongan las... el sumatorio de los coeficientes que pongo en un lado debe ser igual a lo que pongo en el otro lado. Si en un lado he puesto al primer grupo y en el otro lado he puesto a dos grupos, en valor absoluto esto me tiene que dar igual. 1 más 1 es lo mismo que 2. Y esos son los coeficientes que le doy al a sub 2 y al a sub 3 en relación al a sub 1. El a sub 1 le doy 2 y al a sub 2 y al a sub 3 le doy menos 1 menos 1. También podría perfectamente haber hecho lo siguiente, haberle dado un coeficiente de 1 a a sub 1 y 0.5 a a sub 2 y 0.5 a a sub 3. Perfectamente, porque de nuevo la suma de estos coeficientes que estoy poniendo a un lado del balancing es la misma que la suma de los que estoy poniendo. En el otro lado del balancing. Y el signo lo único que me indica es si uno está a la derecha y otro a la izquierda. Y por consiguiente da igual que ponga 2 menos 1 menos 1, que ponga menos 2, 1, 1. Solamente me indica que uno está en un lado y otros a otro. Vamos a ver el ejemplo número 2. En el ejemplo número 2 observamos que estamos poniendo a un lado del balancing la media 5 y al otro lado del balancing la media 2 y 4. Entonces las que no aparecen aquí. Las elimino con un 0 en los coeficientes. Ahora, las que he puesto a un lado, que es el 5, le doy un valor numérico, aquí le han dado 2. Y ahora, si aquí le he dado 2, a la suma de los otros dos valores que pongo en el otro lado del balancing me tienen que dar lo mismo en valor absoluto que esto, que 2. Entonces al grupo 2 le doy 1 y al grupo 4 le doy 1. Así que al grupo 5 le doy 2. Y para indicar que uno está en un lado y el otro es otro, pues solamente uno tiene que tener valor negativo los pesos, en este caso A5 tiene valor positivo, 2, y los otros tienen que tener valor negativo. Veamos el siguiente contraste. Este contraste estoy comparando a un lado de la igualdad los grupos 1 y 5 y al otro lado de la igualdad el resto de grupos. No estoy eliminando ninguno, por consiguiente no tengo ningún 0. Entre los coeficientes. Ahora, la suma de los que he puesto a un lado me tiene que dar lo mismo que la suma de los que he puesto en el otro lado. Por consiguiente, si a esto le he dado el valor 3, 3 más 3 son 6. Por consiguiente, los que he puesto al otro lado, en valor absoluto también me tiene que dar 6. 2 más 2 más 2 me da 6. A uno le doy, si no positivo, indistintamente cual sea, y a los otros en conjunto le doy. Vale, valor negativo. Entonces, los coeficientes para realizar el contraste de HF, este contraste en concreto, serán 3 menos 2 menos 2 menos 2, 3. Y el resto es lo mismo. Vamos a ver el por último, vamos a ponerlo con rosa. Si quiero realizar este cuarto contraste, observemos que hay un grupo que no aparece, que es el 1, consiguiente 0. Observemos que a un lado del balancín estoy poniendo, el grupo 2, y le he dado peso igual a 3. Por consiguiente, los que pongan al otro lado del balancín, que son el grupo 3, 4 y 5, tienen que valer en conjunto y en valor absoluto, la suma. 3 es lo mismo que 1 más 1 más 1. Y ahora, para indicar que uno está a un lado y otros a otro, a uno de ellos le doy valor positivo, en este caso, al grupo 2 le he dado valor positivo, y al grupo 3, 4 y 5 le he dado valores negativos. Y vemos también que el sumatorio, en todos los casos, de los coeficientes me da cero. Y aquí pasa exactamente, en el último contraste pasa exactamente lo mismo. Tenemos, por un lado, el grupo 2, en relación, lo queremos poner en contraste con el resto de grupos. No dejamos fuera a ninguno. Ahora bien, entonces, el grupo 2, aquí se han equivocado. Pero vamos a verlo, es muy sencillo. El grupo 2, esto no sería correcto, esto sería 4. Y el... Ah, claro, claro, se han equivocado, no se han equivocado en esto, se han equivocado en los subíndices. Este subíndice es 1, mus1. Ahora sí, a la mus1 le damos un peso de 4, y por consiguiente, si el resto de niveles están puestos... Se está comparando con el 1, el sumatorio de los pesos que yo ponga a los 4 grupos restantes tiene que dar su suma, tiene que valer lo mismo que 4. Por tanto, 1, 1, 1 y 1. Para indicar que uno de ellos está en la derecha y otro al izquierdo del balance, a uno de ellos le doy signo negativo y a otro signo positivo. Y ya está. Y esto es... Entonces, los pesos, lo que me gustaría que quedara claro es que los pesos, que aparecen en estas comparaciones, los c sub j, esos pesos son estos valores numéricos que hemos calculado aquí, esos pesos denotados por c sub j indican el peso que tiene cada medida de la comparación. En el ejemplo del balancing, la distancia. Una vez dicho esto, ya es relativamente sencillo calcular el cr de este fe. Pero me estoy pasando de tiempo, así que como me quedan aún unas cuantas transparencias para terminar este tema, lo dejamos para la siguiente videoclase. Entonces, espero que haya quedado claro lo de los contrastes. Nos quedamos entonces en el ejemplo 5.6, transparencia 181. Esto lo digo para que el próximo día sabáis dónde me he quedado. Por último, un comentario, más que existe comentario. El varón de Montesquieu le hizo a Sofía de Hannover el siguiente comentario sobre el matemático y filósofo Gottfried Wilhelm Leibniz. Le dijo, es difícil encontrar un hombre ilustrado que sea limpio, no apeste y tenga sentido del humor. Esto dice... El comentario dirigido a Leibniz me resultó muy curioso, porque Leibniz recuerde que fue el contrincante de Newton, diplomático, muy importante, matemático. Pero además, era un verdadero conquistador, a diferencia de Newton, que murió confesando en la cama que moría virgen. Le pareció el mayor logro de toda su vida. El señor Leibniz era todo lo contrario, era un verdadero Casanova. Esto no me cuadra con el hecho de conocer a Leibniz, pero bueno, curiosidades de la vida.