Hola, buenas tardes. Comenzamos el tema 3 de análisis de diseño de investigación y análisis de datos. El tema 3, a diferencia del tema 2, comenzamos a ver diseños en donde hay más de una muestra. Por eso es análisis de datos paramétricos en este caso, para diseños de dos muestras, o de dos grupos. En los diseños de una única muestra que hemos visto en el tema anterior, no existe ningún grupo o muestra de comparación. Cogemos un grupo, determinamos su media, su varianza, su proporción, lo que nos interese, y a partir de una hipótesis nula tratamos de verificar si se cumple o si incumple la hipótesis nula. Pero no hay grupo de comparación. Solamente tenemos un grupo. Normalmente, en la mayor parte de los casos, necesitamos un grupo de comparación. En algunos casos, más de uno. En cualquier área de la psicología, por ejemplo, si estamos trabajando con ancianos y queremos ver si un determinado tratamiento mejora la memoria, es obvio que necesitamos un grupo que no haga nada o que haga cualquier otra cosa no relacionada con la memoria para, al final, comparar los resultados entre el grupo experimental y el control. cualquier área de la psicología. Esto sucede en la mayor parte de los trabajos que vayamos a realizar y por eso este tipo de diseños ya realmente son bastante más útiles o aplicados que lo que vimos en el tema anterior, básicamente porque tenemos un grupo de comparación que a igualdad de factores si los dos grupos son iguales al inicio del experimento, cualquier cambio que se produzca en el grupo experimental se podrá atribuir al tratamiento que se le ha aplicado al grupo experimental porque tenemos el grupo de control que no habrá cambiado o si ha cambiado lo ha hecho en una dirección realmente inversa al grupo experimental. Esto es como el chiste, dos señoras, lo pueden cambiar, pueden poner dos señores, dos señoras conversando en el bar le dicen, bueno y tu marido en la cama, ¿qué tal es? ¿qué y la otra le responde, ¿comparado con quién? La comparación es fundamental y en este tema vamos a ver diseños en donde hay dos grupos y normalmente uno de ellos va a ser un grupo control o un grupo placebo. Usualmente a la utilización de las muestras la realizaremos como he dicho anteriormente cuando queremos comprobar si existe diferencia entre un grupo experimental al que se le aplica un tratamiento y un grupo control, los cuales inicialmente debería verificarse que son idénticos en la variable que se está midiendo o al menos estadísticamente no deben diferir entre sí. Si queremos comprobar otra posibilidad de utilizar un diseño con dos muestras es si queremos comprobar la eficacia de un tratamiento. En este caso midiremos la variable dependiente, el efecto del tratamiento, antes y después del tratamiento. Aquí tenemos, en este caso tenemos un solo grupo. El experimental. Pero estamos midiendo dos veces, tenemos dos muestras de puntuaciones antes del tratamiento y después del tratamiento. Y queremos comparar ambas las medias de los tratamientos antes y después para comprobar si la terapia por ejemplo ha sido eficaz. Son los tratamientos pre post. De hecho en el primer caso del que hemos hablado cuando hay un grupo experimental y un grupo control es usual no solamente comparar los dos grupos, al finalizar el tratamiento, sino que dentro de cada uno de ellos es posible comparar antes y después. Estas dos estrategias que hemos visto anteriormente, en las que tenemos dos grupos, uno experimental y otro control, por tanto son grupos diferentes, o un único grupo antes y después del tratamiento, se reflejan en lo que en estadística llamamos dependencia o independencia de las puntuaciones. Es decir, diremos que hay muestras independientes y en el primer caso. En el primer caso teníamos un grupo experimental formado por el primer sujeto, Pepe, el segundo María, el tercero Patricia, etc. Tenemos cinco sujetos que pertenecen al grupo experimental y en la variable dependiente hemos tenido las puntuaciones x1, x2, x3 hasta x5. Y luego tenemos otro grupo, el grupo control, formado por otros cinco sujetos. Son sujetos diferentes a los anteriores, eso es muy importante, son sujetos diferentes y que por tanto sus puntuaciones también son diferentes. La relación que existe entre este conjunto de puntuaciones, por un lado, y este otro conjunto de puntuaciones es de independencia. No existe relación entre ese grupo de puntuaciones porque son grupos distintos. Pertenece a sujetos diferentes. Los sujetos que han sido asignados a dos grupos distintos y los sujetos, los participantes de ambos grupos son distintos. Por eso se dice que son muestras independientes. Las puntuaciones x1, x2, x3, x4 y x5 son independientes de las puntuaciones x6, x7, x8, x9 y x10 por el diseño del experimento. Sin embargo, diremos que tendremos muestras independientes en el segundo caso, cuando tenemos, hemos medido la variable dependiente antes y después del tratamiento. Es decir, para el primer sujeto que se haya sometido a un tratamiento, por ejemplo, para ver si un determinado fármaco disminuye el dolor de cabeza, tendremos que evaluar a ese primer sujeto durante un tiempo determinado, entre varios meses. Evaluar, por ejemplo, la tasa de dolor de cabeza que tiene antes del tratamiento. Luego se le somete a ese tratamiento, sea del tipo que sea, y se le vuelve a medir después de ese tratamiento en otra serie de semanas o de meses, obteniendo otra puntuación. Tenemos entonces para cada sujeto dos puntuaciones, x1a y x1b. El subíndice 1, no lo he puesto como subíndice, pero he puesto con x la variable dependiente que se fuese a medir. 1, 2, 3, 4, 5 representará el sujeto al que pertenece esa variable y el subíndice a y d representa antes y después. De aquí lo más importante es observar así. ¿Qué pasa con esas dos puntuaciones? Esas puntuaciones son independientes. No. Y la razón es muy sencilla. La razón es que esas dos puntuaciones pertenecen al sujeto 1, a un mismo sujeto. Eso significa que si este sujeto era lento, por ejemplo, eso se va a reflejar en ambas puntuaciones. Si este sujeto era inteligente, se va a reflejar en esas dos puntuaciones. Si este sujeto tenía un bajo nivel de categorización, se va a reflejar en ambas puntuaciones. Esas dos puntuaciones tienen algo en común el sujeto. Son muestras dependientes. Lo mismo va a suceder con las puntuaciones pertenecientes al sujeto número 2. Estas dos puntuaciones tienen algo en común el sujeto. Las dos pertenecen al segundo sujeto. Por consiguiente, es probable que covaríen entre sí, que muestren dependencia. Y lo mismo va a suceder con el resto de puntuaciones. En este tipo de tratamiento, se dirá que las muestras son dependientes. Tenemos una única muestra de sujetos, cinco sujetos, pero tenemos dos muestras de puntuaciones. Realmente aquí entonces, con lo de muestras, no se está refiriendo a las muestras como sujetos, sino a la muestra de puntuaciones. Tenemos dos muestras de puntuaciones con dependencia en este caso e independientes en este caso. En cada situación que se les plantee en un ejercicio, tendrán que juzgar de forma muy clara si estamos ante muestras dependientes o independientes. Juzgando no por las muestras de sujetos, aunque es un índice que en la mayor parte de los casos es válido, pero básicamente es en las puntuaciones donde tienen que juzgar si hay dependencia o independencia. En otras ocasiones, el mismo problema que queremos investigar nos obliga a utilizar dos muestras de puntuaciones. Por ejemplo, actividades diferentes entre dos poblaciones diferentes. Si queremos comparar, por ejemplo, hombres y mujeres, es obvio que estaremos ante dos muestras independientes. Si queremos comparar personas que vivan en ambiente rural o urbano, las muestras tienen que ser independientes y tendremos dos muestras. O entre dos clases sociales, clase social alta y clase social baja, por ejemplo. En todos estos casos, en donde la utilización de dos muestras es muy difícil, la utilización de dos muestras nos viene exigida por el tipo de problema en el que estamos implicados, vamos a utilizar dos muestras independientes. También llamado a este tipo de estudios diseños intersujetos. Entonces tenemos diseño de muestras independientes relacionadas, que es el tipo de diseño que vamos a ver su tratamiento estadístico en este tema. En todas las técnicas estadísticas que vamos a ver en este curso, suponemos que las observaciones dentro de una misma muestra son independientes. Es decir, no existe relación estadística entre esas puntuaciones, pero dentro de cada muestra. Vamos a irnos a una de las transparencias anteriores. Aquí tenemos dos grupos de puntuaciones. Desde X1 a X5 son dos muestras independientes. Y aquí tenemos dos grupos de puntuaciones. Desde X1 a X5 son dos muestras independientes. Es un grupo y desde X6 a X10 es otro grupo. Hemos dicho anteriormente que entre las puntuaciones del primer grupo y las del segundo no existe relación, son muestras independientes. Ahora bien, vamos a asumir que las puntuaciones dentro de cada uno de estos grupos son independientes. Que la información, el conocer la puntuación X1, por ejemplo, no me aporta información alguna acerca de X2. O conocer X3, por ejemplo, no me aporta información alguna acerca de X4. O conocer X5, por ejemplo, no me aporta información alguna acerca de X3. Aquí sucede exactamente lo mismo, pero dentro de los grupos. Las puntuaciones dentro del primer grupo son independientes entre sí. En relación a las puntuaciones y las puntuaciones de este segundo grupo son independientes entre sí. Eso no está para que estos pares de puntuaciones, X1a y X1d, por un lado. X2a y X2d, por otro lado. X3a y X3d, por otro lado, etcétera. Sí hay relación entre ellas, pero no dentro de cada grupo. Es a eso a lo que se refiere con que dentro de una muestra vamos a suponer que las observaciones son independientes, dentro. No existe relación entre ellas. Por lo tanto, dentro de un grupo el valor de una determinada puntuación no nos informa en absoluto del valor de otras puntuaciones dentro de la misma. Eso es lo que en términos intuitivos vamos a conocer como independencia. No vamos a utilizar los conceptos de dependencia e independencia estadística, aunque se pueden utilizar, que se vieron en el primer curso. En cualquier caso, para garantizar la independencia de los datos dentro de un grupo, lo mejor que puede hacerse es seleccionar a los elementos de la muestra de forma aleatoria. Siempre que sea posible, obviamente, eso es recomendable. No obstante, la independencia intragrupo de las puntuaciones es un supuesto y lo mejor que puede hacerse es ponerlo a prueba mediante los test adecuados. No vamos a ver aquí cómo se pone a prueba la dependencia e independencia de las puntuaciones intragrupo. Pero, como supuesto que es, todos los supuestos en cualquier trámite, en cualquier trámite, en cualquier trámite, en cualquier trámite, deberían exponerse explícitamente y verificarse si se cumplen o no se cumplen, o como mínimo los supuestos más relevantes para el test que se va a aplicar. Esto es algo que se viene pidiendo de forma insistente por todas las asociaciones de estadística. Por tanto, cuando trabajamos con dos muestras, o con más de dos, las muestras hemos visto que pueden ser de dos tipos, independientes o relacionadas. Vamos a repetir lo dicho anteriormente, son independientes cuando no existe relación entre los sujetos o las unidades de observación de una y de otra, que era el primer caso que hemos visto. Observen lo que he puesto en las transparencias. No existe relación entre los sujetos. En psicología normalmente vamos a trabajar con sujetos, pero no necesariamente. Hemos dicho muchas veces que las unidades de observación pueden ser otras, pueden ser colegios, pueden ser ciudades, pueden ser carreteras, pueden ser escuelas, pueden ser escuelas. El concepto de unidades de observación es más general que el de sujetos. Podemos garantizar la independencia si los sujetos son asignados aleatoriamente a cada una de las muestras, siempre y cuando esto sea posible. Los que hemos trabajado en experimental sabemos que eso, en la medida de lo posible debemos hacerlo, pero no es nada fácil. Por otro lado tenemos muestras relacionadas cuando cada observación en una muestra tiene su pareja en la otra. El caso más evidente, que es el que hemos puesto en el caso anterior, es cuando los mismos sujetos son los que pasan por diferentes condiciones experimentales. Las condiciones experimentales que hemos puesto anteriormente eran muy sencillas. Antes del experimento, después del experimento. Pero podríamos tener más condiciones. El mismo sujeto podría pasar, por ejemplo, por dos condiciones de nivel de droga. Por ejemplo, ¿qué sucede cuando me tomo 5 gramos de aloe? Me tomo 10. Si soy el mismo tendría dos puntuaciones, una para cada condición experimental. En otras ocasiones no son los mismos sujetos los que se repiten en las muestras, pero hay una relación sujeto-sujeto en ambas muestras. Y nos pone un ejemplo que es bastante claro. Si disponemos de 10 parejas de hermanos gemelos podemos formar dos grupos de 5 personas, donde cada dos hermanos son asignados aleatoriamente a un grupo o a otra. En este caso, vamos a medir dos puntuaciones, una para cada par de gemelos, no, dos para cada par de gemelos. Y aunque las puntuaciones sean distintas para el gemelo 1 en relación al gemelo 2, hay algo en común entre ellos. Tienen un componente genético muy similar, lo suficientemente similar como para que, digamos, suponer que las muestras son relacionadas. O, si contamos con padres e hijos, también hay una carga genética, una carga ambiental de educación, de experiencias comunes que nos puede llevar a sospechar que las puntuaciones de padres e hijos no son independientes entre sí. Maridos o mujeres, esto es ya un poquito más difícil. La mayor parte de los casos para determinar si son dependientes o independientes de las muestras van a ser muy claros. Yo, entre maridos y mujeres, ya empezaría quizás a dudarlo. Pero entre padres e hijos, quizás no. También podemos iniciar pares de sujetos que estén equiparados en ciertas variables. En el caso de los ancianos que he puesto anteriormente, puedo formar dos grupos de ancianos, pero antes de realizar experimentos puedo tratar de equiparar a Pedro y Manuel, por ejemplo. De tal forma que escojo a uno para un grupo y otro para otro grupo, pero he escogido a Pedro y a Manuel porque son dos sujetos que tienen el mismo nivel de estudios. Tienen la misma clase social. Tienen la misma edad. En ese caso estoy haciendo un matching, como dicen los ingleses, entre los sujetos. Están equiparados en ciertas variables que me pueden influir en lo que estoy midiendo. Y aunque son sujetos distintos, no son sujetos diferentes. En este caso podemos asumir que el diseño es de medidas dependientes, porque hay relación entre esos pares de sujetos. Otro ejemplo. Supongamos que para probar la eficacia de dos métodos de enseñanza, aquí tenemos entonces, necesitamos dos muestras y son dos condiciones experimentales, método A y método B, queremos controlar la influencia del FEI, del coeficiente de inteligencia. Y para ello tomamos pares de sujetos con un método de enseñanza. Y un CI semejante. Entonces cogemos dos sujetos que tengan 110. Uno de ellos va a un método de enseñanza y el otro va a otro método de enseñanza. Son dos sujetos distintos, sí. Pero como los he equiparado en CI, las puntuaciones y el diseño que tendría que aplicar serán de medidas dependientes porque hay relación entre las puntuaciones de esos dos sujetos. Simplemente porque los he equiparado en esa variable. Y ahora ya comenzamos. Contraste de hipótesis sobre dos medias en muestras independientes. Todo este tema vamos a asumir que las muestras son, bueno, asumirlo no, se verá claramente en los ejercicios. Muestras independientes y vamos a comenzar con contraste de medias. Como tenemos dos grupos tendremos dos medias. En el primer apartado veremos tres contrastes de hipótesis sobre dos medias del grupo A y del grupo B. Y vamos a tener tres casos porque el primer caso es si las varianzas poblacionales las conocemos, si las desconocemos pero asumimos que son iguales o las desconocemos y asumimos que son diferentes. Vamos a ver que los procesos van a ser similares entre ellos, pero los cálculos van a ser diferentes en función de que nos encontremos en uno de estos tres casos. La distribución muestral se realiza sobre una distribución teórica que denominamos distribución muestral. Eso ya lo hemos visto en los dos temas anteriores. Lo que pasa es que en este caso la distribución muestral va a ser de diferencias de medias. Es decir, en este caso nos tenemos que preguntar cómo será o cómo se compondrá, qué forma tendrá la distribución muestral en el caso de dos medias con muestras independientes. Y en el texto nos presentan un ejemplo. Vamos a presentar un ejemplo inicial para que veamos un inicio con un ejemplo muy simple. Veamos cómo vamos a trabajar en el resto del tema. Supongamos que tenemos dos poblaciones y cada una de ellas contiene tres observaciones. Llamar población es un ejemplo de libro. Obviamente una población con tres observaciones en la vida real nunca se puede hacer. Pero como ejemplo viene bien porque nos va a permitir generar la distribución muestral completa de la diferencia de medias. Obviamente si tenemos tres observaciones o tres casos, tres unidades de observación en la población, las muestras van a tener que ser menores de tres. El ejemplo va a ser con muestras de n igual a 2. Denotaremos las puntuaciones mediante la letra latina I. Vamos a ver la media y la potencia de dichas poblaciones. Tenemos la primera población, I1 1, I1 2, I1 3, significa que el primer subíndice representa la población y el segundo representa la unidad de observación dentro de esa población. transparencias están los subíndices bien puestos, pero me los elimina cuando lo paso a esta plataforma. He pedido que lo corrijan, pero todavía no lo han hecho. Luego tenemos otra población, la población 2, también compuesta por tres puntuaciones. Observemos que la primera población tiene media 5 y varianza 6, la segunda población tiene media 5 y varianza 1,5. Todo esto se refiere a la población. Como conocemos los parámetros poblacionales, realmente no necesitaríamos extraer muestras, pero como es un ejemplo queremos ver qué sucederá con la distribución muestral de la diferencia de medias cuando extraemos muestras de esa población. Bueno, esto ya lo hemos dicho, el primer subíndice hace referencia a la población o muestra a la que pertenece esa puntuación, el segundo al orden que esa puntuación ocupa en su muestra. Vamos a coger N igual a 2, muestras de tamaño N igual a 2 y como tenemos un ejemplo muy pequeñito podemos calcular la media aritmética de todas las submuestras posibles de N igual a 2 con reposición para la primera población y formarán la distribución muestral de la media para dicha población, la primera con muestras de tamaño N igual a 2. Aquí tenemos todas las posibilidades. Vemos la primera fila tenemos todas las puntuaciones que puedo extraer de la primera población y la primera columna lo mismo. Entonces, en cada una de las celdas lo que vemos es qué pasaría si extrajese al hacer la unidad de observación representada por la fila y la columna de esa celda. En este caso que está subrayado por ejemplo, tendríamos que en la primera extracción hemos extraído la variable 2 la puntuación 2 de esa población y en la segunda extracción lo mismo. Por tanto, la media será 2. En este caso hemos obtenido en la primera extracción la puntuación 5 y en la segunda la puntuación 5. En este otro caso hemos extraído en la primera extracción la puntuación 5 y en la segunda la puntuación 2. Y en cada una de las celdas vamos calculando la media de esas dos puntuaciones que hemos extraído en cada una de esas celdas. Y entonces vemos todas las posibles puntuaciones medias que se obtendrían con muestras de tamaño n igual a 2. En la gráfica inferior he puesto en frecuencias absolutas todas las puntuaciones que podría obtener en este caso. Vemos por ejemplo que la puntuación 2 la obtendría una única vez. Solamente hay un par de participantes o observaciones en la población que me dan 2 como puntuación y como media 2. Por consiguiente tenemos una frecuencia de 1. En cambio el valor 3,5 vemos que me parece aquí y aquí tenemos 2. Dos posibles puntuaciones 2 posibilidades de obtener la puntuación 3,5. Vemos que la puntuación 5 a poder obtener aquí, aquí y aquí tenemos 3 posibilidades de obtener la puntuación 5 como media de muestra de tamaño n igual a 2 en este ejemplo. Vemos claramente que la distribución es triangular si fuera con n mayor de 2 probablemente esto fuese normal y si calculamos la media de estas puntuaciones de esta distribución obtenemos que tiene como media 5 está muy claro, estaríamos aquí y la variante de esas puntuaciones sería 3. Aquí tenemos lo mismo pero para la segunda población la segunda población recuerden que esta segunda población está formada por las puntuaciones 3,5, 5 y 6,5 el esquema representa exactamente lo mismo representa todas las posibilidades que tendríamos de obtener cada una de las distintas medias que podría obtener en este experimento estas serían todas las posibles medias que podría obtener de la segunda población que hemos visto cuando tenemos n igual a 2 en la parte de abajo tenemos su diagrama de frecuencias absolutas vemos que es parecido a la anterior y tenemos que si calculamos la media de todas las puntuaciones también vale 5 igual que la anterior aunque la variante es inferior creo que en el caso anterior valía 3 y aquí vale 0.3 esto sería considerando la primera puntuación la primera población y la segunda podríamos por ejemplo pensar que son dos grupos de sujetos sometidos a dos condiciones experimentales distintas pero lo que nos interesa es saber si entre las medias de esas dos poblaciones existen diferencias por consiguiente lo que nos deberíamos preguntar sería cuál sería la distribución muestral de las diferencias entre las medias de cada par posible de muestras una muestra de n igual a 2 de la primera población y otra muestra de la n igual a 2 de la segunda población calculamos en cada una de ellas cada una de esas dos muestras su media y calculamos su su diferencia observen aquí que hemos puesto media hemos puesto por consiguiente la barra encima de la letra latina i que representa la variable dependiente que estamos midiendo y los subíndices representan a la primera y a la segunda muestra si no existen diferencias realmente entre las dos poblaciones si asumimos como normalmente hará la hipótesis nula que ambas poblaciones tienen la misma media es de esperar que por término medio estas dos muestras su diferencia sea cero o esté cercana a cero teóricamente podríamos plantearnos otra función de las medias muestrales aquí nos hemos planteado la diferencia entre las dos medias muestrales de la primera muestra y de la segunda y por qué la diferencia podríamos plantearnos su suma o su producto pero utilizamos la diferencia porque aparte de ser la más sencilla es congruente con la idea que se yace a la hipótesis nula que ya habíamos comentado normalmente la hipótesis nula va a proponer que no existen diferencias entre el primer tratamiento y el segundo por consiguiente esto implicaría que su diferencia por término medio será cero y es muy sencillo trabajar con bueno más sencillo que trabajar con la suma o con el producto la distribución muestral de medias cuando utilizamos la diferencia de medias es la más sencilla de los estadistos que podemos utilizar aquí tenemos la distribución muestral de todas las medias posibles aquí veríamos en la parte de arriba la distribución muestral que hemos obtenido para la primera población y aquí tendríamos la distribución muestral de medias para la segunda población observen que algunos valores se repiten 2, 3,5 5, 6,5 y 8 aquí se han diferenciado y eso significa que se ha distinguido entre la primera extracción con respecto a la segunda es irrelevante con respecto a lo que estamos tratando en el cuerpo central de la tabla lo que estamos viendo son las diferencias las diferencias entre las medias de su respectiva columna y su respectiva fila y tenemos en la parte inferior de la transparencia la distribución de frecuencias absolutas de esas puntuaciones vemos que se distribuye alrededor de 0 y por consiguiente la diferencia entre las puntuaciones entre las medias es 0 y tendremos una determinada varianza que no la hemos calculado aquí por ser un ejemplo la distribución muestral de las diferencias de medias en el ejemplo simple que estamos viendo una vez visto entonces que lo que nos interesa es esta distribución de medias de tal forma que por ejemplo nosotros vamos a partir de la hipótesis de que H sub 0 es cierta en la realidad no vamos a conectar la población vamos a asumir como es la población y entonces vamos a poder conocer como la distribución muestral de la diferencia de medias esto significa que si en nuestra muestra obtenemos un valor que es inconsistente con esta distribución de muestras o muy poco probable entonces rechazaremos la hipótesis de partida que es el esquema básico de de contraste de hipótesis aquí nos indican que otra forma para calcular la varianza de las diferencias en términos de la varianza de las poblaciones originales en este caso en que conocemos las varianzas de las poblaciones es utilizar esta esta fórmula vemos hay veces que no me no me hace caso el la plataforma vemos aquí tenemos una expresión sigma al cuadrado significa varianza y como subíndice tenemos que es el una diferencia de medias por tanto leemos que es la varianza de del estadístico diferencia de medias y esta es igual a la suma de dos cocientes el primero es simplemente la varianza original de la población la varianza de la primera población no la primera muestra partido por n es uno el tamaño muestral de esa primera muestra más sigma al cuadrado la varianza de la segunda población partido por n sutros el tamaño muestral de la segunda muestra obviamente para aplicar esta fórmula necesitamos conocer la varianza de las poblaciones originales cosa que vamos a ver a continuación que solamente lo conocemos en el primero de los casos en el segundo y en el tercero no es así por consiguiente en los contrastes que veremos a continuación vamos a suponer que a continuación las poblaciones de las que proceden las muestras que vamos a extraer cumplen o bien que se distribuyen normalmente esto es un supuesto claramente paramétrico o bien que los tamaños muestrales son mayores o iguales que 30 que es un tamaño lo suficientemente amplio como para poder trabajar con aproximaciones como la t o la z esto nos garantiza que se cumplan estas dos supuestos que las distribuciones muestrales de la media en ambos casos también se distribuyan normalmente y si esto es así también se distribuye normalmente la distribución muestral de la diferencia entre las medias y ya comenzamos con el primer caso hacer un contraste de medias cuando conocemos las varianzas de la población y nos lo presentan directamente mediante un ejemplo el ejemplo 3.1 vamos a tratarlo un psicólogo que se llama el psicólogo el psicólogo utiliza un test de comprensión verbal recientemente traducido en inglés la puntuación entonces de cada sujeto en comprensión verbal será la variable la puntuación en la que estamos interesados este test proporciona puntuaciones en un nivel de medida de intervalo por lo tanto podemos utilizar es muy probable que podamos utilizar contrastes paramétricos sigue el enunciado se sabe por inversión de las variaciones anteriores que las varianzas en la población son para niños y niñas esto significa ya que tenemos vamos a tener dos poblaciones distintas con medidas independientes porque vamos a tener puntuaciones para un grupo el de niños y puntuaciones para otro grupo el de niñas y además nos dicen que por inversiones previas conocemos las varianzas nos dicen que la varianza en la primera población la de los niños vale 36 y la varianza en la segunda puntuación para las niñas vale 49 yo usualmente en cuanto me indican la varianza calculo también la deviación típica y lo dejo a constancia en el trozo de papel en el que estoy realizando el ejercicio para no confundirme posteriormente entonces tenemos el supuesto de este primer test varianzas poblacionales conocidas las investigaciones anteriores también indican que la media es la misma en ambos grupos esto es lo que dicen investigaciones anteriores no la nuestra pero este último aspecto no ha sido comprobado con muestras españolas lo se ha hecho en Inglaterra o donde se haya hecho donde se haya valemado ese test el psicólogo considera que la traducción del test no es muy acertada tiene dudas bueno muy bien y puede provocar diferencias que en realidad no se deben a la comprensión verbal es decir si el test no está bien traducido hay términos que se han traducido de forma demasiado difícil, literal con respecto al inglés o ciertas expresiones del inglés que no tienen un término equiparable en castellano por cualquier razón esto puede ser que cuando apliquemos ese test en muestras españolas obtengamos diferencias entre niños y niñas no debido realmente a la diferente comprensión de niños y niñas sino a diferencias de comprensión etc. y probablemente el psicólogo quiere poner a prueba si esto es así para ello selecciona lateralmente una muestra de 100 niños y otra muestra de 200 niñas no sé exactamente por qué cómo se justifica la diferencia del tamaño muestrado pero bueno es un enunciado y lo admitimos y se tiene una media igual a 20 para los niños y una media igual a 17.5 para niñas con un nivel de confianza del 95% y una media podemos afirmar que la puntuación media en el test de comprensión verbal es la misma para niños y niñas en todo el enunciado si no me equivoco no he visto ninguna muestra de que el psicólogo tenga la idea de que los niños tengan mejor comprensión que las niñas o a la inversa eso significa que el test será bilateral y he subrayado los aspectos más importantes del mismo entonces tenemos un diseño de dos muestras y la primera y además son independientes porque tenemos por un lado niños y por otro niñas las puntuaciones duras no notan información en modo uno para la puntuación de los otros la variable dependiente que es la que estamos trabajando es comprensión verbal medida mientras se pesa y la escala es de intervalo con lo cual probablemente el test si se cumple el resto de supuestos va a ser paramétrico aunque no sabemos si las no nos lo han dicho si las puntuaciones las poblaciones se distribuyen normalmente debido a que trabajamos con muestras lo suficientemente grandes en un caso 100 en otro caso 200 más grandes que 30 que era uno de los supuestos podemos aplicar el test que vamos a ver el test Z por último el psicólogo asume que las varianzas de las poblaciones de niños y niñas son las que se reflejan en las investigaciones anteriores por consiguiente los supuestos que se cumplen en este es decir que conoce las varianzas de las poblaciones no conoce las medias conoce las varianzas lo que se está planteando es si las medias en nuestra población española son las mismas que son idénticas entre sí y asume que las varianzas son las mismas que las que me ha dado el test entonces los supuestos son que la variable dependiente tiene un nivel de media de intervalo o de razón se cumple nos lo han dicho en el denunciado las poblaciones no sabemos si se distribuyen normalmente pero el N es mayor que 30 recuerden que la conectiva O significa o una cosa o la otra o ambas es la en lógica por consiguiente o se distribuye normalmente o N es mayor que 30 o ambas no estamos utilizando la O exclusiva tenemos que tener mucho cuidado con las conectivas la O y la I normalmente y conocemos las varianzas poblacionales en consecuencia formulamos las hipótesis en este caso el psicólogo piensa que pueden existir diferencias no lo sabe pero si ha hecho la investigación si ha recogido los datos es porque cree que existen esas diferencias pero no tiene una hipotesis sobre la dirección de la misma sobre si los niños son comprenden mejor que las niñas o la inversa y eso significa que el contraste es bilateral significa que en H sub 0 la hipótesis nula plantea que mu sub 1 menos mu sub 2 es igual a 0 no existe diferencia entre las medias de niños y niñas y la hipótesis alternativa H sub 1 plantea que esa diferencia es distinta de 0 positiva o negativa ambos ambas posibilidades son compatibles con H sub 1 vemos aquí las dos equivalencias aquí hemos planteado en términos de diferencias o aquí en términos simplemente de que las medias sean iguales o diferentes es obvio que o al menos a mí me resulta más más cómodo porque no me no me coge a mí me resulta más cómodo utilizar esta expresión pero formalmente es idéntica a la anterior es más cómodo porque me indica H sub 1 que las dos medias son diferentes no sabe cuál es mayor o cuál es menor y H sub 0 que las dos medias son iguales intuitivamente me resulta más cómoda ahora conocemos la varianza de las dos poblaciones y trabajamos con muestras grandes 100 y 200 esto nos permite asumir la normalidad de la distribución muestra de las diferencias entre las medias la normalidad de la distribución que hemos visto en el ejemplo anterior creíamos que no era normal pero porque el ejemplo no lo permitía pero incluso con ese simple ejemplo ya se acercaba entonces cuanto menos con el tamaño de muestra que tenemos y veamos que el estadístico que se va a utilizar es una puntuación Z es decir el resultado de un cociente un cociente en el que en el numerador tenemos la diferencia entre las medias muestrales las medias que hemos obtenido en nuestros dos grupos partido está analizado por la división típica de la distribución muestral de las diferencias que en este caso viene dada por la red cuadrada de la suma de estos dos cocientes que los hemos visto anteriormente en nuestro caso vamos a bien aquí quizás hay una cosa equivocada y es que no sabemos no nos han dicho en el enunciado que la distribución sea normal en la población como he cogido atrapalencia de una anterior que tenía eso se ha colado aquí están todos los datos que nos han dado en el enunciado tenemos que la variable X en la población es la comprensión verbal medía en una escala de intervalo conocemos la varianza de las dos poblaciones uno niños y dos niñas en la población conocemos la varianza poblacional de esas dos poblaciones 36 y 49 luego tenemos en las muestras hemos dividido para niños y para niñas las dos poblaciones y por tanto las dos muestras que tenemos y nos dicen el tamaño muestral y el tamaño y la media que se ha obtenido en cada uno de los casos 100 y 20 para niños y 200 y 17.5 en el segundo caso y nos han dicho que trabajamos en un alfa de 0.05 en la distribución muestra de la diferencia de medias en el contraste aplicamos de nuevo borramos esto aplicamos el estadístico contraste media del primer grupo 20 media del segundo 17.5 su diferencia partido por la raíz cuadrada de la suma del primer cociente es la varianza para el primer grupo 36 partido por su tamaño muestral 100 más la varianza de la segunda población 49 partido por su N su tamaño muestral 200 y a mi me sale ese cálculo en 3.21 esta sería la Z empírica la Z en mi experimento vamos a repetir la fórmula del estadístico de contraste la fórmula de la Z para este caso concreto es la misma que se ha visto en los temas anteriores nos cuantifica la discrepancia es decir entre la diferencia de medias observada entre las dos muestras la media de la primera muestra menos la media de la segunda muestra frente a una diferencia nula planteada en la hipótesis nula recordemos que en la hipótesis nula planteamos que en la población las medias pal cero entonces ¿qué discrepancia existe entre la diferencia de nuestras dos medias muestrales y la diferencia poblacional entre las dos medias poblacionales? cero es por eso por lo que en esta fórmula no aparece menos mu su uno menos mu su cero pero mu su uno menos mu su dos que serían las medias en la población porque estamos asumiendo según la hipótesis nula vamos a ir otra vez a la misma que esa diferencia es cero lo vemos aquí por consiguiente no nos aparece no es necesario en la fórmula de estadística y contraste y todo ello esa diferencia o discrepancia entre la diferencia de medias observada en nuestras dos muestras y la diferencia planteada en la hipótesis nula todo ello medido en unidades de diversión típica apropiadas para la distribución muestral de esas diferencias entonces en el numerador tenemos la diferencia entre el valor del estadístico en la muestra esa diferencia respecto al valor del parámetro que postula la hipótesis nula que hemos visto que era cero y en el denominador hemos puesto la división típica de la distribución muestral del estadístico ahora como hemos obtenido una zeta de ¿cuánto? 3,21 aproximadamente nos vamos a las tablas 3.21 sería 3.20 y 0.01 la intersección entre ambos nos da 0.9993 es decir que una puntuación zeta de 3.21 me deja por debajo de sí el 99.93 de todo el área por ciento de todo el área pero eso es por debajo nosotros queremos determinar el área que queda por encima el área más extrema igual o más extrema que la puntuación zeta típica que hemos obtenido y por consiguiente sabemos que todo el área de la de la función de la probabilidad de la zeta es 1 por tanto 1-0.993 me da 0.0007 que es el área por encima de la zeta 3.21 es el además como un contraste bilateral tenemos también calcular el área que quedaría por debajo de menos 3.21 pero como sabemos que la distribución z es simétrica no tenemos más que multiplicar por 2 este área y nos da un nivel t crítico de 0.0014 si la hipótesis nula de igualdad de medias en la población es cierta la probabilidad de obtener un valor zeta de 3.21 o superior o más extremo por tanto más extremo quiere decir 3.21 o más elevado o menos 3.21 o inferior más extremo por ambos lados esa probabilidad es de 0.0014 es muy baja si h sub 0 es cierta la probabilidad de obtener una zeta como la obtenida es de 0.0014 es tan bajo que probablemente tengamos que poner en duda que h sub 0 se acierta vaya aquí me han intentado poner aquí un recuadro transparente y lo que ha hecho ha sido ponérmelo opaco en la transparencia se ve transparente bueno vemos esta sería la curva normal pero como 3.21 es una zeta tan extrema si quiero dibujar el área que me queda más extrema que 3.21 en esta aquí no la vería por tanto lo que he hecho ha sido ampliar esa zona con el recuadro en la siguiente transparencia porque aquí ni siquiera se vería observen aquí dibujado simplemente la parte superior vemos que para un valor de 3.21 que aproximadamente sería este ese punto sería en las puntuaciones zeta me deja por encima de sí un área de 0.0007 si la comparamos con alfa medios que como hemos nos han dicho que trabajemos al 0.05 alfa medios será 0.025 estamos viendo solamente un una de las colas de la distribución zeta vemos que es 1.96 me deja por encima de sí un área de 0.025 vemos por consiguiente que vamos a rechazar h sub cero porque el nivel p crítico es inferior a alfa medios o en otros términos podemos la puntuación zeta empírica es más extrema que la zeta correspondiente a alfa medios observen que 3.21 quedaría en esta gráfica de abajo pues aproximadamente 3.5 3 por aquí estoy dibujándolo espero que se vea el área que me aparece en rosa el lado a mano izquierda arriba en verde vemos que es mucho más pequeña que 0.025 en el gráfico del ejemplo del texto también se ve muy claramente si la hipótesis no es cierta la diferencia de medida será cero que es el punto central de una curva normal vemos que menos 1.96 y 1.96 me deja un área de 0.05 más extrema también que tenemos todo el área que voy a dibujar ahora en rojo como el área compatible con H0 de puntuaciones Z cualquier puntuación Z más extrema que 1.96 o más extrema que menos 1.96 es compatible con H1 y como nuestro nuestra Z empírica nos ha salido aproximadamente por aquí 3.21 está en la región de rechazo de H0 es mucho más extrema que la Z crítica más menos 1.96 en otras palabras el estadístico de contraste la Z empírica que hemos obtenido que es una medida de la discrepancia que hemos observado supera el valor crítico de más menos 1.96 en un contraste bilateral en general de forma general mantendremos la hipótesis nula cuando el estadístico contraste Z este Z que vemos aquí el que hemos obtenido con los datos de nuestra muestra no alcanza el valor crítico se encuentra entre la Z de alfa medios y la Z de 1 menos alfa medios lo que hemos visto aquí cuando la Z empírica se encuentra entre menos 1.96 y 1.96 esto en términos algebraicos es lo que vemos en esta situación y la rechazaríamos cuando cuando la Z empírica sea inferior sea más pequeña que la Z de alfa medios o cuando sea superior a la Z de 1 menos alfa medios aquí hay una equivocación no de 1 menos no la equivocación es que esto no debe aparecer cuando Z es inferior empírica y que la Z es inferior de alfa medios y que Z de alfa medios es inferior a la Z de alfa medios es inferior a la Z empírica pero no es igual si o por ejemplo tenemos la porque la P crítica a nivel P crítico, la probabilidad de si H sub 0 es cierta a ver si tenemos una Z tan extrema como la que hemos obtenido es más baja, 0.0014 que la probabilidad de error tipo 1 alfa que aceptamos antes de realizar el experimento, en este caso era 0.05 como la probabilidad a nivel P crítico es inferior a alfa rechazamos H sub 0 ya tomamos la decisión comparando probabilidades o comparando estadísticos de contraste la decisión es la misma esta última decisión se refleja en esta fórmula cuando rechazamos H sub 0 cuando P, el nivel P crítico es inferior a alfa es decir, al comparar el nivel P crítico con el nivel de significación nos proporciona incluso más información que si utilizamos la primera estrategia de comparar simplemente el estadístico de contraste con el valor crítico porque vemos las probabilidades si simplemente comparamos las Z o eres muy lucho con saber que una Z de 3.21 es muy extrema en relación a una Z de 1.96 o no vas a saber muy bien comparar estas Z por eso nos dice que comparar las probabilidades es más, te da más información porque vemos claramente que es muy improbable que siendo la hipótesis no la verdadera obtengamos dos muestras cuyas medias tengan una diferencia como la que hemos observado con un tamaño de muestra tan elevado como el que hemos utilizado el resultado sería significativo incluso con un nivel de confianza superior al 99% por último interpretamos los resultados las sospechas del psicólogo parecen fundadas las diferencias significativas entre niños y niñas en fluidez verbal parecen deberse a una deficiente traducción del test bueno, no lo sabemos sabemos que hay algo malo en el test podría ser a esa deficiente traducción del test y si queremos calcular también el intervalo de confianza en este caso utilizaríamos esta fórmula vemos que es como siempre el estadístico de contraste que en este caso es la diferencia de medias la diferencia entre la media de la primera muestra menos la media de la segunda muestra más bien, la diferencia entre la media de la primera muestra es más o menos más o menos el producto entre dos factores el primero de ellos es el estadístico de contraste que estamos utilizando al nivel alfa apropiado en este caso el valor crítico la zeta que a un nivel de alfa medios al ser bilateral la zeta que nos deja una probabilidad de alfa medios en la curva normal multiplicado por la red cuadrada de recordamos que era esto era la estimación de la distribución de la de la variante en la distribución muestral de la diferencia de medias el producto de estos dos últimos factores de la zeta por la red cuadrada de esta suma de varianzas ponderadas por los tamaños muestrales es el error máximo vemos que el esquema está siendo continuamente el mismo realizamos los cálculos la media de la primera muestra era 20 la segunda era 17.5 esto nos da una diferencia de 2.5 más o menos el producto entre estos dos factores la zeta que me deja por debajo de sí alfa medios vemos en las tablas y vale menos 1.96 y ya habíamos calculado que o nos habían dicho sabíamos en este caso las varianzas poblacionales sabemos que la varianza poblacional de niños es 36 la varianza poblacional de niños es 49 lo dividimos por los tamaños muestrales que hemos utilizado en nuestro estudio 100 y 200 y entonces el producto este producto nos da menos 1.52 aproximadamente entonces 2.5 menos 1.52 y 2.5 más 1.52 nos da este intervalo de confianza la verdadera media la verdadera diferencia de medias poblacional se va a encontrar según vamos a estimar que se encuentra entre 0.97 y 4.024 no incluye el cero sabemos que es ese par de valores nos estiman al 95% que se encuentra la media poblacional de diferencia de medias habíamos postulado h sub cero que esa diferencia de medias varía a cero y observamos que el intervalo de confianza está fuera de ese cero no lo abarca el valor más pequeño es superior a cero es 0.9 no lo abarca por consiguiente desde la perspectiva del intervalo de confianza también vemos que es poco creíble que nuestros datos provengan de una muestra de una población cuya diferencia de medias sea cero el siguiente ejemplo lo dejamos para el siguiente día le voy a contar entonces al final el siguiente chiste no lo he puesto en las transparencias así que lo tengo que contar el marido regresa a casa después de hacer una visita al profesor con cara triste le pregunta a la mujer pero qué te dijo el médico dime ¿qué te dijo mi marido? me ha dicho que tengo discalculia es un desorden matemático le pregunta la mujer y eso es muy malo y el marido le dice el doctor me ha dicho que no me preocupe que 100 de cada 15 personas lo padecen a ver si al final también el profesor el médico padecía discalculia