Hola, buenas tardes. Retomamos hoy el tema... Comenzamos el tema 5. Cambiamos completamente de perspectiva. En los temas anteriores hemos visto diseños de una muestra o de dos muestras, y dos muestras relacionadas e independientes. En todos ellos tenemos una fórmula en la que la aplicábamos al diseño correcto, nos daba un estadístico y acudíamos a las tablas para verificar si ese estadístico era más o menos probable en función de su distribución. Ahora comenzamos cuando tenemos más de dos muestras, es decir, tres o más de tres. Diseños con más de dos grupos. Y el tema 5 se dedica solamente a diseños con grupos independientes. Y la pregunta es ¿por qué no vamos a poder aplicar ahora lo que hemos visto en los temas anteriores? Simplemente que si tenemos más grupos pues hacemos comparaciones 2 a 2 del tipo adecuado y punto. Vamos a ver que eso no es factible. Bueno, no es totalmente cierto. Es factible pero es poco útil. Cuando tenemos más de dos grupos utilizamos otra técnica. Esa técnica se llama ANOVA. ANOVA es un término en inglés que se lee como análisis de varianza. Existen muchas variantes sobre ANOVA. Está el ANCOVA, el MANOVA, el MANCOVA... Todos son variantes de lo mismo. La ANOVA es una técnica de análisis estadístico. Vamos a ver en primer lugar por qué no es posible aplicar lo que hemos visto en los temas anteriores cuando tenemos más de dos muestras. Es decir, el ANOVA es una técnica de análisis estadístico. Es, yo diría, la técnica que se utiliza en el 95% de los artículos experimentales en psicología o en cualquier otra ciencia. Ya sea en geología, en ingeniería, cuando tienes análisis experimentales se utiliza esta técnica, ANOVA. Se utiliza para comparar las medias de dos o más grupos. Mejor dicho, de más de dos grupos. Si estuviéramos en dos grupos estaríamos en los temas anteriores. Pero curiosamente esta técnica hace referencia no a las medias que es realmente lo que vamos a probar sino a la variabilidad observada en los datos. Esto al principio confunde bastante. Porque vamos a poner a prueba hipótesis, contraste de estadísticos que hacen referencia a las medias de tres o más grupos pero fijándonos en las varianzas. De ahí viene el chiste lo vamos a introducir al principio de un investigador novato, ingenuo que se acerca a un estadístico porque querían analizar una serie de datos. El investigador le pregunta cómo comprueba la diferencia entre cuatro grupos entre cuatro medias entre trescientos a cuatro grupos. El estadístico le dice realice una ANOVA, un análisis de varianza y el investigador le responde pero si no quiero comprobar la diferencia en las varianzas de los grupos quiero comprobar la diferencia en las medias. El estadístico está diciendo con ANOVA no estás comprobando las varianzas estás comparando la razón es decir, el consciente entre la variación de las medias grupales entre con la variación combinada dentro de los grupos para ver si hay una si esa razón se aleja más de la se aleja en exceso de lo que sería probable si la hipótesis no fuese cierta. El investigador le vuelve a responder sigues sin entenderme persistes en seguir hablando sobre la variación que no me importa lo más mínimo. Y el estadístico ya enfadado y desesperado le dice OK, tengo un test alternativo al que le llamo el test interocular examina cualquier diferencia en las medias de tus datos y si te salta a los ojos declara significativa. Lo traducido como STRIKE You write between the eyes es decir, si te golpea directamente entre los ojos si te resulta lo ves claramente en los datos la declara significativa por eso se llama el test interocular eso insiste. Pero es un chiste que viene a cuento porque causa confusión el hecho de que la ANOVA utiliza las variantes para hacer inferencias sobre las medias lo vamos a ver durante las siguientes clases empiezan en el texto con el ejemplo 5.1 que a su vez retoma un ejemplo anterior, el 3.3 bueno, dice se trabaja ahora con tres grupos porque además de estar interesados en si el fármaco influye o no en la ansiedad parece que el ejemplo 3.3 era abrir un grupo control con cero miligramos y otro con una cantidad dices que queremos averiguar si influye de forma adicional en función de que se le sumitre 0,05 miligramos o 0,10 miligramos en este caso tenemos tres grupos un grupo sin fármaco un grupo con 0,05 miligramos y un grupo con 0,10 miligramos del fármaco el grupo sin fármaco será el grupo control y los otros serán grupos con distintos niveles de fármaco vemos que son grupos independientes tenemos en el primer grupo cinco individuos que se han sometido a la condición sin fármaco otros cinco individuos distintos a los anteriores sometidos a 0,05 miligramos y otros cinco a 0,10 miligramos son grupos independientes tenemos en total por consiguiente quince sujetos cinco en cada grupo aunque luego lo veremos en otro ejemplo es muy cómodo y útil establecer los siguientes cálculos ya inicialmente en cuanto nos dan los datos y sabemos que se trata de un diseño de medidas independientes el primero es determinar el número de sujetos que hay en cada grupo aquí hay cinco en cada grupo y es lo que le llamamos n sub i l minúscula normalmente indica el número de sujetos la i minúscula indica el nivel aquí tenemos tres niveles tenemos el sin fármaco 0,05 y 0,10 entonces la i se va a referir a esos niveles si decimos n sub 1 se referirá al primer grupo n sub 2 al segundo y n sub 3 al tercero tenemos cinco sujetos en cada grupo en otros experimentos puede ser que no tengamos el mismo número de sujetos en cada grupo entonces n sub i será distinto en función del grupo luego tenemos los n sub i en esta primera fila de datos resumen que hemos calculado luego tenemos el símbolo sigma que vemos aquí normalmente cuando lo hemos visto en la estadística descriptiva este símbolo indica sumatorio aquí no le han puesto sumatorio de nada porque está muy claro que es el sumatorio de las puntuaciones individuales dentro de cada grupo entonces tenemos que si no hay ningún error como este ejemplo no está desarrollado no he calculado estos datos pero inicialmente la suma de estos cinco datos de sujetos sin fármaco ese sumatorio sigma debería dar 190 la suma de estos cinco datos para los cinco sujetos que se han sometido a 0,05 miligramos debería dar 85 y la suma de estos cinco datos de los cinco sujetos que se han sometido a 0,05 miligramos debería dar 90 entonces sigma se refiere al sumatorio luego tenemos que si dividimos el sumatorio por el número de sujetos que hay en cada grupo claramente lo que vamos a tener es la media y es lo que nos viene representado como i sub j debería haberlo representado como i sub i luego lo veremos indica simplemente la media dentro de cada grupo 390 dividido entre 5 debería dar 38 85 dividido entre 5 debería dar 17 y 90 dividido entre 5 debería dar 18 son las medias dentro de cada grupo y luego tenemos otro otro signo que vemos que es una varianza es al cuadrado y como tiene el hat en el centro circunflejo sabemos que es varianza insesgada el subíndice que debería ser i no j luego veremos porque el subíndice hace referencia al grupo primero, segundo o tercero entonces tendríamos que la primera varianza insesgada la del primer grupo debería dar 270 la del segundo 95 y la del tercero 170 como lo vamos a ver luego en otro ejemplo distinto a esto la primera parte del tema es simplemente para aclarar conceptos vamos a pasar de este ejemplo porque lo más importante es lo siguiente para analizar estos datos en que tenemos 3 grupos independientes podríamos utilizar la prueba TED-STUDENT mejor dicho podríamos utilizar la prueba TED-STUDENT para grupos independientes tendríamos que utilizar tres veces esta prueba de tal forma que compararíamos el grupo sin fármaco con el grupo de 0,05 compararíamos estos dos grupos con una prueba TED luego compararíamos el grupo sin fármaco con el de 10 miligramos 0,10 miligramos y tendríamos otra prueba TED y por último compararíamos el grupo de 0,05 miligramos con el de 0,10 miligramos y tendríamos otra prueba TED es decir que intuitivamente podríamos pensar que haciendo tres pruebas TED de grupos independientes podríamos resolver este problema de análisis de datos pero hacerlo así aplicar pruebas TED-STUDENT 2 a 2 tiene una serie de inconvenientes el primero es inconveniente sí pero tampoco tanto simplemente nos indica que el número de comparaciones 2 a 2 que hay que realizar aumenta rápidamente con el número de niveles los distintos tratamientos que tenemos en el experimento aquí tenemos tres niveles tenemos un tratamiento que es fármaco con tres niveles de ese tratamiento cuando tenemos tres niveles vemos que con tres comparaciones sería suficiente porque podemos comparar el primero con el segundo el primero con el tercero y el segundo con el tercero la cosa se complica porque tenemos que comparar el primer nivel con el segundo primero con el tercero primero con el cuarto luego segundo con el tercero segundo con el cuarto y luego tercero con el cuarto si no me equivoco serían seis comparaciones el número de comparaciones que se puede realizar en función del número de niveles nos viene dado por esta formulita así consigo k es el número de niveles multiplicado por k-1 partido por 2 si tuviéramos 4 entonces tendríamos 4 por 3 12 partido por 2 6 comparaciones esto realmente el problema de que aumenta el número de comparaciones muy rápidamente cuando el número de niveles se incrementa es un problema pero con tiempo se soluciona es un problema de tiempo de esfuerzo el segundo inconveniente es un poquito más complicado con el aumento del número de comparaciones con el aumento del número de niveles también aumenta la probabilidad de cometer el error tipo 1 es decir, antes hemos visto que este diseño lo podríamos realizar utilizando tres comparaciones t de grupos independientes vale, en cada comparación tendríamos que establecer alfa a un nivel por ejemplo 0.05 el problema es que al final con las tres esa alfa sería para cada comparación individual pero en conjunto alfa ya no es 0.05 alfa se ha incrementado y es lo que nos indica el segundo inconveniente se incrementa la probabilidad de cometer el error tipo 1 ya no es el individual que habíamos dicho 0.05 para cada comparación 2 a 2 si estamos interesados en trabajar con un nivel de riego por ejemplo el 0.01 sabemos que esta es la probabilidad de rechazar la hipótesis nula siendo cierta pero en cada uno de los contrastes que realizamos es 0.01 en el primer contraste 0.01 en el segundo 0.01 en el tercero si realizamos estas comparaciones 2 a 2 esta probabilidad se incrementa multiplicativamente en el caso anterior si utilizamos alfa 0.01 y asumiendo que los contrastes son independientes entonces la probabilidad de cometer un error en el primer contraste sería 0.01 la probabilidad de cometer un error tipo 1 en el segundo contraste también sería 0.01 al ser independientes se multiplican y la probabilidad de cometer un error en el tercer contraste sería 0.01 que se multiplica al ser independientes con respecto a los anteriores por lo cual tendríamos 3 comparaciones cada una de ellas con una probabilidad de error tipo 1 de 0.01 tendríamos realmente una probabilidad alfa del 0.03 no del 0.01 que es con la que habíamos realizado los cálculos individuales en el ejemplo que hemos puesto de los tres grupos y mantenemos alfa al 0.01 nominalmente para cada contraste individual al final alfa no es 0.01 sino que se nos multiplica por el número de comparaciones a realizar en este caso se nos incrementa al 0.03 bueno, podemos expresar esto tampoco es muy grave porque entonces podemos rebajar alfa en función del número de niveles que tengamos es decir, que tampoco es insalvable es engorroso pero no es insalvable este problema se podría corregir si en lugar de tener tres grupos tuviésemos cuatro grupos la probabilidad de cometer al menos un error tipo 1 sería 0.04 si tuviéramos cinco grupos la probabilidad de cometer un error tipo 1 sería 0.05 vale, a medida que aumentan el número de grupos a comparar nos estamos alejando del nivel de riesgo inicial con el que queríamos trabajar queremos trabajar a un alfa de 0.01 pero al establecer las comparaciones entre cada par de grupos alfa se nos incrementa multiplicativamente y esto, vuelvo a decir se podría corregir haciendo inicialmente las comparaciones individuales a un alfa muy bajo no lo nombran en el texto pero para mí la principal desventaja de hacer las comparaciones 2 a 2 mediante la técnica T anterior es otra el principal problema es que se pierde información porque cuando tenemos dos variables independientes las pruebas individuales no nos permiten determinar si existe interacción o no es un tema que como se ha eliminado los capítulos 6 y 7 en este curso académico del 2010-2011 no lo van a ver pero el concepto de interacción no tiene cabida cuando hacemos comparaciones 2 a 2 solamente tiene cabida cuando hacemos ANOVAs y para mí ese es el principal inconveniente la principal razón para que cuando tenemos más de dos grupos apliquemos una ANOVA y no apliquemos análisis de grupos independientes 2 a 2 entonces, como toda técnica analítica la correcta aplicación de la ANOVA que es la técnica apropiada cuando tenemos más de dos niveles de una variable independiente a partir de este momento a las variables independientes en los diseños cuando estemos en ANOVA no las vamos a llamar variables independientes las vamos a llamar factor el factor es lo que estamos manipulando en un experimento en el ejemplo que hemos visto anteriormente estamos manipulando la cantidad de fármacos 0, 0,5 o 0,10 ese es el factor la variable independiente se dice que tienen distintos niveles el factor es variable independiente y nivel son las magnitudes en las que cada variable independiente se ha manipulado entonces la ANOVA es la técnica correcta a aplicar en estos casos obviamente, como toda técnica estadística la ANOVA nos va a dar información correcta siempre y cuando se cumplan los supuestos de los que depende su aplicación si estos supuestos no se cumplen en una serie en los datos que estemos manejando tenemos que recurrir como siempre a las técnicas no paramétricas entonces vamos a ver los conceptos básicos de la análisis de varianza hemos visto porque cuando tenemos más de dos grupos hay que aplicar ANOVA y no se puede aplicar en las técnicas T 2 a 2 ahora vamos a ver esos conceptos básicos siguiendo con el ejemplo anterior, si comparamos los grupos que han tomado las distintas dosis del fármaco la variabilidad que aparezca entre ellos puede verse tanto a los efectos del fármaco si el fármaco tuviera efecto sobre la variable dependiente ANSIEDAD que creo que es la variable dependiente que se correspondía con las puntuaciones que hemos visto anteriormente si mi fármaco realmente tiene algún efecto de incrementar o decrementar asumimos que sea decrementar la ansiedad aportará variabilidad entonces la variabilidad que aparezca en los datos puede verse básicamente a dos factores a los efectos del fármaco si los tiene o a la influencia de otros factores que no hayamos podido controlar factores variables independientes que yo no haya podido o no sepa controlar o no pueda controlar entonces tenemos dos componentes que me aportan variabilidad a los datos uno de ellos no lo sabemos puede aportar o no que es la variable independiente que estoy manipulando y otro es el resto de factores que yo no controlo variables de personalidad la temperatura en el laboratorio los niveles las distintas hormonas de los sujetos la historia del sujeto entonces la variabilidad total vamos a sumarla dividida en dos partes o componentes una diría que se deba al factor estudiado variable independiente VI en el caso del ejemplo que hemos puesto anteriormente las distintas dosis del fármaco y otra a todos los factores extraños es decir, no controlados yo lo que recibo el nombre de error experimental es error porque no lo controlo no es porque me estoy equivocando sino porque no lo controlo en el ejemplo que hemos visto anteriormente a ver si voy en este ejemplo observamos una cosa si no hubiera variables extrañas dentro de un grupo todos los sujetos de un mismo grupo han sido tratados igual por ejemplo, los sujetos de 0,5 miligramos todos han sido tratados con la misma cantidad del fármaco 0,5 miligramos porque no muestran la misma puntuación en la variable dependiente si han sido sometidos a la misma puntuación hagamos esta pregunta con una pregunta en física supongamos que tenemos un instrumento para medir la velocidad de caída de una bola de 1 kilo caer a un metro del suelo y cuando llega al suelo medimos su velocidad de caída si repetimos este experimento muchas veces y hemos controlado todos los factores todas las variables independientes que pueden aportar variabilidad y repetimos este experimento varias veces ¿cómo creéis que serán esas distintas medidas de velocidad de caída? en el caso extremo porque estamos soltando la bola de 1 kilo siempre a un metro de distancia del suelo y sabemos que y hemos controlado el resto de factores por consiguiente todas las medidas si repetimos esta pregunta 10 veces las 10 puntuaciones deberían ser exactamente la misma porque las condiciones vegetales se mantienen constantes y eso es lo que debería suceder por ejemplo con el segundo grupo o con el tercero o con el primero de esos grupos deberían tener el mismo valor y la razón es sencilla todas han sido tratadas de la misma forma el experimento se ha realizado de forma exactamente igual el mismo laboratorio si se ha controlado la temperatura la misma temperatura el mismo experimentador sin embargo no es eso lo que observamos observamos que hay variabilidad dentro de cada grupo el primer sujeto del segundo grupo tiene una ansiedad por ejemplo de 10 el segundo de 20 el tercero de 30 el cuarto de 20 el quinto de 5 como nos explicamos esta variabilidad interior la única posible bueno la única no una forma de representarnos esta variabilidad es que aparte aunque estamos controlando muchos factores hay otros factores que yo no puedo controlar y que me están afectando a los datos esos factores me están aportando variabilidad dentro del mismo grupo por consiguiente la variabilidad que hay dentro de un grupo me está dando indicaciones sobre los factores que me están aportando variabilidad de error factores extraños entonces el error experimental es la variabilidad de los factores que yo no controlo y el objetivo de la ANOVA va a ser proporcionarme dos estimaciones de la variabilidad debida a mi factor a la variable independiente que estoy manipulando por un lado y la variabilidad debida a todos aquellos componentes que yo no controlo la variabilidad debida al error experimental y las comparamos esto lo vamos a ver más detenidamente en la tecnología de ANOVA las variables independientes que es aquella variable que yo manipulo y quiero ver su efecto sobre la variable dependiente esas variables independientes tienen un nombre se llaman factores y las categorías en las que se dividen esos factores se llaman niveles en nuestro ejemplo tenemos una única variable independiente que es un solo factor y 0,10 que son las distintas dosis suministradas de ese fármaco un concepto importante en ANOVA es el siguiente a veces podemos tratar nuestro interés podría ser probar que a mayor cantidad de fármaco la ansiedad disminuye por otro lado nuestro interés podría ser probar que con 0,10 miligramos los sujetos presentan menos ansiedad y con 0,5 menos que con 0 miligramos estas dos formas de contemplar nuestro experimento nos llevan a dos tipos de ANOVA distintos en el primer caso en el caso en el que nos preguntamos si a mayor cantidad del fármaco la ansiedad disminuye no nos preocupan los niveles concretos del fármaco que hemos utilizado porque los niveles en este caso actúan como una muestra de todos los posibles niveles es decir, porque he elegido 0 miligramos, 0,05 y 0,10 si yo he escogido esos tres niveles del fármaco al azar entre todos los posibles niveles de cantidad del fármaco que yo hubiera podido elegir estamos ante un tipo de ANOVA que se llama diseño aleatorio en este caso podríamos por azar haber utilizado los niveles 0,04 0,06 y 0,011 los niveles se han escogido al azar una muestra de todos los posibles niveles que se puedan establecer entonces cuando establezcamos las conclusiones nos daría lo mismo las dosis que se hayan utilizado lo único que nos importaría sería si a mayor droga menor ansiedad nos interesaría el sentido cuando yo he manipulado la droga de forma ascendente sin importar los niveles que ha pasado con la variable dependiente estos diseños en los que los niveles que yo utilizo del factor son una muestra aleatoria de los posibles niveles del factor he cogido un tambor y he dicho necesito tres niveles del factor droga he cogido un tambor de estos de la ruleta y he extraído tres niveles y son los que utilizo en el experimento sin más en este caso se dice que el diseño es de efectos aleatorios o modelo aleatorio en el segundo planteamiento en cambio nuestras conclusiones están restringidas a los niveles que hemos establecido en el diseño nos interesan solo y exclusivamente esos niveles podríamos haber utilizado otros pero no nos importan nos interesan solamente esos cuando suceda esto hablamos de efectos fijos o de diseño ANOVA de modelos fijos que es el que vamos a utilizar básicamente porque la mayor parte bueno la mayor parte calculo que entre un 60 y un 70% de los experimentos que se realizan en psicología utilizan niveles específicamente unos niveles concretos y establecen conclusiones sobre esos niveles concretos porque es lo más frecuente otra distinción importante cuando estamos en ANOVA se refiere al número de sujetos básicamente si hay igual cantidad de sujetos en cada grupo o no si lo hay se dice que el modelo es equilibrado si no lo hay si una muestra tiene más sujetos que otra se dice que el modelo es no equilibrado es una distinción sencilla hemos visto entonces los principales conceptos hemos visto el tipo de diseño hemos visto el aspecto de factor, de nivel modelo equilibrado, no equilibrado y en qué se va a basar el ANOVA comparar dos varianzas la varianza debida a mi factor mi variable independiente y la varianza debida al error ahora vamos con los fundamentos del ANOVA la hipótesis que se establece en el ANOVA es una hipótesis nula general observo que me está respetando los subíndices parece que un teca ha corregido ese problema porque H0 me lo pone con subíndices la hipótesis que se establece en ANOVA es una hipótesis general que consiste en afirmar como siempre la hipótesis nula que no existe diferencia alguna entre las medias recuerden siempre que en ANOVA establecemos hipótesis referentes a las medias obviamente las medias de la variable dependiente entre los distintos grupos o muestras en el caso anterior la hipótesis nula las medias poblacionales de los sujetos que hubieran sido tratados sin droga con 0,05 miligramos y con 0,010 miligramos no definirían el nivel de ansiedad la hipótesis nula usual sin embargo el modo de contrastar dicha hipótesis sobre las medias va a ser a través de la variabilidad observada en las puntuaciones de ahí viene el nombre de la técnica ANOVA análisis de varianza cuando se diseña un experimento se hace de manera que se intenta minimizar la influencia de las variables extrañas obviamente nunca se va a poder anular la influencia de las variables extrañas se trata de minimizar las variables extrañas son aquellas variables que me influyen en la variable dependiente en este caso por ejemplo en ansiedad pero no son las que yo estoy manipulando que es la única que me interesa si yo estoy manipulando nivel de droga a mi no me interesa el resto de variables momento del día personalidad del sujeto temperatura del laboratorio etcétera, me interesa solamente nivel de droga las variables extrañas las puedo conocer o pueden ser desconocidas es decir si las conozco intentaría controlarlas pero está muy claro que hay muchas que yo no las conozco y por consiguiente me van a afectar los datos y no las puedo controlar si no se realiza un control de estas de estas variables extrañas van a producir sesgos sistemáticos en el resultado del experimento y esos sesgos se van a confundir con los efectos que puedan deberse a la variable independiente al factor que yo estoy manipulando de alguna forma tengo que tratar de separar el efecto que puedan tener esas variables extrañas del efecto que pueda tener mi variable independiente un modo de controlar ese efecto de las variables extrañas es la aleatorización de los sujetos tanto como los obtengo en la forma en que una vez que los he obtenido como los asigno a las distintas condiciones experimentales lo que suele decirse en los libros de texto es muy difícil en la vida real lo he comentado varias veces como lo digo yo a un sujeto al azar que me venga a mi laboratorio a someterse a un experimento de potenciales evocados o de movimientos manuales o de lo que sea entonces la primera parte es bastante difícil en psicología la segunda si esta es sencilla asignar las condiciones experimentales o tratamientos al azar si yo tengo un pool de estudiantes que me vienen a realizar los experimentos y tengo tres condiciones experimentales o diez si los puedo asignar al azar a una condición o a otra sin embargo lo haga de una forma o de otra tenga mas o menos problemas para conseguir sus cuatro experimentales lo importante es que esta aleatorización no asegura no me garantiza en modo alguno la tengo que hacer pero no me asegura no sean fruto del efecto conjunto de la variabilidad independiente y de los factores de azar introducidos en el propio proceso la aleatorización es una condición sin acuánum para realizar experimentos pero la aleatorización me puede fallar por azar puedo hacer que los grupos inicialmente no sean equivalentes al inicio del experimento aunque haya utilizado un generador de números aleatorios la aleatorización es necesaria pero no asegura que esas diferencias se deban a al efecto de la variable independiente una fuente de error en el sentido de variables extrañas variables que no controlo variables diferentes a la variable independiente que estoy manipulando son las características de los sujetos características de personalidad no es lo mismo un sujeto de tipo A o de tipo B no es lo mismo un sujeto dependiente de campo no es lo mismo un sujeto extrovertido con un sujeto introvertido etcétera características biológicas de cualquier tipo esa característica de los sujetos son fuentes de error en los experimentos si tomamos las puntuaciones de todos los sujetos que pertenecen a un mismo grupo es decir, han sido tratados de la misma forma en mi experimento no es lógico esperar que todas las puntuaciones fuesen iguales si no fuese por el hecho anterior de que hay fuente de error que normalmente son las características biológicas de los sujetos que yo no puedo controlar en los experimentos en física, química, etc es mucho más lógico esperar que las puntuaciones sean iguales en nuestro caso no porque no podemos eliminar esas variables que normalmente a los psicólogos generales a los que no estudian la personalidad a los que no estudian las diferencias biológicas son fuentes de error entonces, en ese sentido no es lógico esperar que todas las puntuaciones sean iguales no son lógicos por lo que he dicho anteriormente pues ellos mismos se ven afectados por todas las fuentes de variabilidad no controladas por lo tanto la propia variabilidad de los sujetos sometidos a un mismo tratamiento esa variabilidad nos proporciona una buena estimación del error experimental lo que he dicho anteriormente con referencia a que si no hubieran esos factores de error dentro de un mismo grupo esperaríamos encontrar la misma puntuación para todos los sujetos pero como dentro de un mismo grupo sujetos que han sido sometidos a la misma a la misma condición, al mismo tratamiento nos proporcionan distintas puntuaciones esas distintas puntuaciones dentro del mismo grupo son una buena estimación del error experimental de todos aquellos factores variables independientes que me están aportando variabilidad indeseada dentro del mismo grupo entonces como en principio no podemos suponer que el error sea mayor en un tratamiento que en otro debemos asumir que entre los tres grupos con los que estamos tratando del ejemplo inicial debemos asumir o podemos asumir que el error es el mismo los factores las variables independientes que están afectando al grupo con cero miligramos son las mismas que están afectando al grupo con 0,5 miligramos y estas son las mismas que están afectando al grupo con 0,0 10 miligramos vamos a asumir que se puede obtener una estimación de la variabilidad del error mediando la estimación del error que se obtiene para cada tratamiento en vez de cogernos como una buena estimación del error la variabilidad que existe dentro de un grupo promediamos la variabilidad que existe dentro de los tres grupos lo vamos a ver con fórmulas más adelante así que no se preocupen si ahora no cogen los conceptos completamente hemos estado hablando continuamente de los factores que me aportan variabilidad indeseada ahora pensemos en los tratamientos por separado en los cuales las asignaciones de los sujetos se han hecho de manera aleatoria si teníamos 15 sujetos hemos asignado 5 a cada uno de los tres grupos si la hipótesis nueva fuera cierta aquí no me ha respetado el subíndice es decir, si la hipótesis nueva fuera cierta y recordemos que la hipótesis nueva indica que todas las medidas de los tratamientos son iguales en la población simplemente por efectos del muestreo es poco probable que las medidas de los grupos que usamos en el diseño sean iguales van a variar un poquito siguiendo el supuesto al no ser iguales las medidas en la muestra van a variar un poco por efecto de azar pero asumiendo que H0 es cierta en la población las medidas son todas iguales de nuevo hay que recurrir a explicar estas diferencias entre las medias de los grupos al error experimental es decir, si H0 es cierta las diferencias que vamos a ver en las medias de los distintos grupos se van a deber al error experimental a factores no controlados asumiendo que H0 es cierta entonces todas las fuentes de variabilidad no sistemática que provocan la existencia de diferencias entre los sujetos dentro del mismo grupo también nos van a aportar diferencia de variabilidad entre las medias muestrantes de los grupos asumiendo que H0 es cierta pero ¿qué pasa si H0 fuese falsa? eso significa el factor, la variable independiente que estoy manipulando ahora vamos a asumir que tiene un efecto sobre la variable dependiente por tanto ahora las medias de la variable dependiente van a diferir, no van a ser iguales porque ahora mi factor, mi variable independiente afecta a la variable dependiente ahora, la ansiedad no va a ser la misma cuando tenemos 0 miligramos que cuando tenemos 0,05 miligramos que cuando tenemos 0,010 miligramos ahora, la variabilidad entre las medias muestrales si H0 es falsa va a venir dada por la variabilidad de error más una variabilidad aportada por la variable independiente que estoy manipulando mientras que dentro de los grupos la única fuente de error que existe es la variabilidad de error las fuentes de error si H0 es falsa entre los grupos la diferencia entre las medias que se producen en este caso entre los tres grupos se debe a tanto a los factores de error como a mi variable independiente, a mi factor porque mi factor ahora está aportando variabilidad por consiguiente en el modelo más simple en el de un solo factor una sola variable independiente que es el que estamos viendo, lo que vamos a hacer es dos estimaciones independientes de la varianza general o común vamos a hacer una estimación de la varianza intergrupo que es la varianza que podemos atribuir a los distintos niveles del factor en estudio y por otro lado a la varianza intragrupos este está repetido esta transparencia está repetida ahora, y el otro componente es la varianza atribuible al error le vamos a llamar varianza error o varianza intragrupos, dentro del grupo entonces la varianza general o común va a venir dada en la nueva nos la va a descomponer en dos partes una varianza entre grupos y una varianza dentro de los grupos la varianza intergrupos viene dada por la aportación de los factores de error y mi variable independiente y la varianza que hay dentro de los grupos varianza intragrupos solamente viene generada por los factores de error y en la nueva entonces me va a a proporcionar dos estimaciones de saltos o varianzas y por último compararemos ambas varianzas la varianza intergrupos y la varianza intragrupos para aceptar o rechazar H0 tomemos el ejemplo anterior dado que los sujetos han sido distribuidos al azar en los distintos niveles del factor suponemos que inicialmente antes de someterse al experimento todos son semejantes en la variable estudiada ansiedad realizamos el experimento y si después de suministrarles el tratamiento encontramos diferencias en las medias podemos pensar que es el factor el tratamiento los distintos niveles del fármaco ha influido sobre la ansiedad ahora bien no podemos descartar que las diferencias que encontramos entre las medias no se deban a factores extraños a variables de error ya que la variedad que se presenta entre las puntuaciones de las medias contiene un componente de error ¿cómo lo podemos descartar? pues así de la zona de lanova dentro del mismo nivel dentro del mismo grupo como el efecto del factor es único porque es un único nivel de la variable independiente por ejemplo todos los sujetos han tomado la misma dosis del fármaco en un subgrupo determinado las puntuaciones deberían ser semejantes y deberían presentar una variedad prácticamente nula si no existiesen los componentes de error en tanto en cuanto esta variedad dentro de grupos sea más o menos grande es que están incluyendo factores extraños no controlados del diseño por tanto la varianza dentro de cada grupo o nivel podemos considerar como la varianza de error por otro lado si los distintos niveles del factor los distintos niveles del fármaco que estamos sometiendo a prueba producen distintos efectos sobre la variable independiente entonces la variedad entre los grupos entre los distintos niveles del fármaco debería aumentar y eso es la varianza intergrupos si la varianza intergrupos que tiene los componentes todos aquellos factores extraños y mi variable independiente es mayor que la varianza intragrupos la única posibilidad es admitir que hay diferencias entre la variedad de grupos que mi factor está aportando variabilidad que los distintos niveles del factor o objeto de estudio me están influyendo de forma distinta sobre la variable independiente y por consiguiente voy a concluir que mi factor está afecta a la variable dependiente vamos a dejar el tema aquí lo retomamos en breve porque ya nos metemos en modelos y dentro de poco vamos a ver un ejemplo con los cálculos detallados