Hola, me había puesto los cascos. Seguimos con el tema 3, de diseños de dos muestras independientes. Nos habíamos quedado en el ejemplo 3.2. Eran variendas colacionales desconocidas, pero supuestos iguales. Estamos, por consiguiente, en el área del contraste de hipótesis sobre medias. Y empieza, como en el anterior, con un ejemplo. Nos dice el ejemplo. En un estudio sobre depresión en personas mayores, llevado a cabo en un centro geriátrico, es decir, ya sabemos que la variable dependiente es nivel de depresión medido entre algún 3 apropiado. fiable, pálido, etc. que la población son personas mayores en un centro geriátrico se quiere comprobar si las personas ingresadas que no reciben visitas de sus familiares tienen una puntuación media en depresión superior a aquellas personas cuyas familiares las visitan con frecuencia por consiguiente ya vemos que hay dos grupos van a dividir a la muestra en aquellos que reciben visitas de los familiares y aquellos que no las reciben y quieren comprobar si esto afecta al grado de depresión que esos ancianos padecen también es obvio que las poblaciones son independientes las muestras son independientes básicamente porque el grupo de personas que no reciben visitas Tiene que ser un grupo distinto del grupo de personas que sí reciben visitas. Para comprobar esta hipótesis, se seleccionaron al azar a 41 personas que no reciben visitas y en ellos se obtuvo una puntuación de 20 puntos en una escala de depresión. Y la cuasi-varianza de esa muestra de 41 personas que no reciben visitas fue de 100. Mientras que otra muestra de 31 personas que sí reciben visitas con frecuencia, la media fue igual a 15 y cuasi-varianza igual a 90. Usted ve que si esto fuese un estudio real, se está perdiendo mucha información porque la variable visitas es una variable que no es dicotónica. Hay personas que no reciben visitas y hay otras que reciben visitas. Una visita al mes, hay dos que reciben dos visitas, tres, es decir, que es una variable, se podría sacar más jugo, pero para el ejemplo está bien. Para el ejemplo de simplemente dos grupos reciben visitas, sí, y no reciben visitas, y por consiguiente, por eso por lo que indican, pone la expresión, reciben visitas con frecuencia. No se sabe exactamente, no han especificado la frecuencia porque es un ejemplo del libro. Como siempre, los ejemplos reales son lo suficientemente complejos como para que sea difícil exponerlos en un texto. Aparte de que también suelen tener otras particularidades que no se pueden ver aquí. Suponiendo que las variantes de la población son iguales, nos lo dice el enunciado, no las conocemos pero las suponemos iguales, para ambos grupos, a un nivel de confianza del 99% por consiguiente alfa 0.01. ¿Podemos decir que los datos obtenidos avalan la hipótesis de partida? Lo primero que hay que hacer es colocar todos los datos que nos han dado. Tenemos dos muestras independientes. Por un lado tenemos la población, las muestras y la distribución muestra de la diferencia de medias. No conocemos en población las varianzas pero asumimos que son iguales. Por lo tanto, la varianza sigma al cuadrado de la primera población es igual a la varianza sigma al cuadrado de la segunda población. Teniendo en cuenta que esas poblaciones están definidas por los ancianos que no reciben visitas en relación a los que sí reciben visitas. El 1 y el 2 se refiere al grupo y que las variables de presión. Nos han dado también los datos necesarios que se han obtenido en ambas muestras. Tenemos que en la primera hay 41 ancianos que no reciben visitas, de ellos la media de depresión en esa escala es de 20. Asumimos que cuanto mayor sea la puntuación, mayor es la depresión y que la cuasi-varianza en ese primer grupo vale 100. Bien, observen que se ha puesto ese cuadrado que es varianza. n-1 nos indica que se está calculando el estimador insasgado, la cuasi-varianza. No tenemos un índice para poner que esto se refiere a la primera muestra y esta cuasi-varianza a la segunda. Como lo hemos puesto en los dos cuadrados apropiados sabemos cuál pertenece a una u otra. Pero se ven que el símbolo que hemos colocado es exactamente el mismo en ambos casos. Condiciones y supuestos. Los requisitos en este caso son iguales que en el caso anterior. La única diferencia es que no conocemos las varianzas poblacionales, pero las suponemos iguales. Entonces, los supuestos que se tienen que cumplir son que la variable pendiente tenga un nivel de medida de intervalo o de razón. Los dos niveles más elevados. Suponemos que el test de depresión proporciona medidas en una escala de intervalo. Esto nos debería venir dado en el propio test, en el baremo del test. No sabemos cómo se distribuye la variable de la población, no nos lo han dicho. Pero observamos que tenemos en las dos muestras... en una con 41 sujetos y en otra con 31 sujetos en ambos casos el N es superior a 30 que era el punto crítico punto crítico en relación a los tamaños muestrales por consiguiente podemos utilizar este el test que vamos a ver a continuación y las variantes poblacionales ya hemos dicho que son desconocidas pero asumimos que son iguales estos datos normalmente nos los tienen que dar en el enunciado en la vida real tendríamos que justificar porque pensamos que las varianzas son iguales en la población formulamos la hipótesis aquí en este caso la hipótesis que nos han dicho es que la depresión media en ancianos que no reciben visitas Por lo tanto, la depresión media es superior en las personas que no reciben visitas de sus familiares, que lo hemos calificado como el grupo 1, en relación a las personas que sí reciben visitas o visitas frecuentes. La hipótesis entonces, esta es la que le interesa al investigador. Es la hipótesis alternativa, que plantea que la musu 1, la media depresión en los ancianos que no reciben visitas, es mayor que musu 2, la media depresión en ancianos que sí reciben visitas. Es la hipótesis alternativa porque es la que al investigador le gustaría ver confirmada. Para eso ha hecho el estudio. Pero, como siempre va a plantear, que lo que es real, a priori, es H0, que su hipótesis no se cumple. Y esa hipótesis nula, H0, es justamente la... contraria a la anterior. Si en la anterior poníamos que MUSU1 es mayor que MUSU2, H0 entonces cambiamos el signo de desigualdad e incluimos la posibilidad de que sean iguales. H0 es plantería que la media de depresión en ancianos que no reciben visitas es menor o, en todo caso, igual a la media de ancianos en depresión que sí reciben visitas frecuentes. Es obvio, como hemos hecho anteriormente, que si tenemos esta hipótesis no ideal alternativa lo podemos plantear en términos de diferencias de medias. Vemos que si en la H1 planteamos que MUSU1 es mayor que MUSU2, Por consiguiente, su diferencia será mayor que cero y a la inversa en relación a h sub cero. Aquí estamos planteando en h sub cero que la diferencia de medias entre mu sub 1 y mu sub 2 es menor o igual que cero. El estadístico de contraste en este caso se distribuye según la T de Student con n sub 1 más n sub 2 menos 2 grados de libertad. Claramente, cuando no conocemos la varianza poblacional, la Z se nos transforma en una T. ¿Por qué? Porque tenemos que estimarla a partir de los datos que tenemos en nuestra muestra. En concreto vamos a utilizar la coexigente. Muestra como estimador. de la varianza poblacional y ahora el estadístico es el que ven en pantalla, es un poquito más complicado pero muy parecido a lo que ya hemos visto en el numerador tenemos que tenemos la diferencia aquí en error es la media de la puntuación de presión en el primer grupo menos la media de la puntuación de presión en el segundo grupo este subíndice debería ser I2, esto nos refleja la discrepancia entre nuestras dos muestras en las puntuaciones en nuestras dos muestras de ancianos partido por una estimación de la división típica de la distribución muestral de esas diferencias y aquí vemos que es un poquito más complicado pero tampoco es tanto vemos que tenemos en primer lugar Un primer cociente en el que tenemos en el numerador la suma de dos factores que son idénticos. Lo que pasa es que cada uno es referido a una muestra distinta. Vemos que n es 1 menos 1, es 1 menos el tamaño mostrado en la primera muestra, multiplicado por, y observo en el símbolo, s al cuadrado significa varianza. Como s es una letra latina, se refiere a la población. En el subíndice hemos colocado 1 para indicar que se refiere a la varianza de la primera muestra. Pero observen aquí que hemos colocado el hat, el acento circunflejo. Eso significa que... Realmente esto es la mejor estimación que podemos hacer de la varianza poblacional para ese primer grupo. Y el mejor estimador de la varianza poblacional a partir de los datos muestrales sabemos que es la cuasi-varianza muestral. Por consiguiente, ese hat, sombrero en inglés, hat de ese al cuadrado sub 1 es la cuasi-varianza muestral. Más lo mismo pero referido a la segunda muestra, n sub 2 menos 1 multiplicado por la cuasi-varianza muestral de la segunda muestra. Partido por los grados de libertad que son el sumatorio del número de sujetos en cada uno de los grupos, n sub 1 más n sub 2, Menos 2, porque vamos a hacer dos estimaciones. Vamos a utilizar las dos cuasi-varianzas en ambas muestras para estimar las varianzas polacenales. Por consiguiente, hemos hecho uso de parte de la información que hay en nuestra muestra y eso nos elimina dos grados de libertad. Multiplicado todo este cociente por la suma de dos cocientes, los inversos de los tamaños muestrales de ambas muestras. Esto, aplicado a nuestro ejemplo, vemos que la primera muestra tenía media 20, la segunda media 15, partido el tallo por la raíz cuadrada del producto. entre este primer cociente tenemos aquí el producto de estos dos factores entonces tenemos 41 menos 1 41 recordemos que era el tamaño muestral de la primera muestra menos la unidad por el mejor estimador de la varianza poblacional que es la cuasi-varianza muestral para el primer grupo que vale 100 más 31 menos 1 que es el tamaño muestral de la segunda muestra menos 1 por la cuasi-varianza muestral de la segunda muestra 90 partido por la suma de los tamaños muestrales 41 más 31 menos 2 todo ello, este cociente multiplicado por la suma de 1 partido por 41 que es 1 partido por el tamaño muestral de la primera muestra más 1 partido por 31 el tamaño de la segunda muestra este valor, si no me he equivocado este cálculo da 2.14 aproximadamente y hemos dicho que se distribuye según la T de Student con n menos n sub 1 más n sub 2 menos 2 ahora lo que vamos a hacer es buscar en las tablas de la T de Student el valor crítico en un contraste unilateral porque recordemos que la hipótesis que tenemos es unilateral que en este caso será igual a qué puntuación de la T con 70 grados de libertad divide la distribución en dos partes una en la que tenemos el 99% de la distribución y otra en la que tenemos el 1% Y eso lo vamos a comparar con la, y este valor vale 2.381, este valor es el valor crítico, la T crítica, vamos a buscarlo en las tablas, sí, lo puse aquí, tenemos 70 grados de libertad, tenemos entonces esta fila de valores de la T, y buscamos el valor crítico, observemos que en la parte superior de la pantalla tenemos las áreas que me dejan cada uno de los valores de la T que me aparecen en el cuerpo de la tabla, buscamos entonces el 0.99 que lo tenemos aquí, en la intersección entre 0.99 me lo está, sí, creo que es esa 0.99 y 70 grados libertales en la intersección se encuentra la T crítica, que vale 2.381 la tenemos no me deja no me deja subrayarla voy a intentar hacer, se ve que se encuentra aquí hay una un botón aquí en Inteka que me permite dibujar sobre él, me aparece por defecto y no puedo eliminarlo está ahí, 2.381 ese 2.381 es el valor crítico la Z que nos va a separar la región de aceptación de la región de rechazo y hemos obtenido una Z de 2.14 Esta es la T empírica, 2.14 y esta es la T crítica, 2.38 Aquí lo vemos Vamos a ponerlo en rojo 2.381 Este valor en el eje de acisas que representa los valores Estoy con la Z Es una T Son valores de T no de Z Este valor de T que hemos obtenido con 70 grados de libertad y 0.99 vale 2.381 Me deja por encima de sí el 0.01 de la de la distribución y esto deberíamos llamarle a ver si puedo dibujar esto es alfa no p vale, alfa 0.01 ese valor 2.381 me deja por encima así es 0.01 y por consiguiente por debajo sigue 0.99 sin embargo la T empírica la que hemos obtenido en nuestra muestra es de 2.15 que estaría aquí por eso se ha dibujado con una línea el punto donde aproximadamente quedaría la T empírica vemos que queda en la región de aceptación de H0 porque la región de rechazo al 0.01 sería la que estoy dibujando en azul sería la superior a 2.38 que es el valor crítico por consiguiente ya sabemos que vamos a, no podemos rechazar H0, si comparamos las test vemos que 2.15 es inferior a 2.38 es difícil escribir con el ratón aquí lo he hecho separando las gráficas haciendo un poquito más claro, es decir 2.381 me deja, que es el valor crítico deja por encima de sí el 0.01 del área de distribución, alfa vemos que no, este valor sería el 2.38 no viene en las tablas deja por encima así alfa mientras que esa misma gráfica pero ahora graficada para la T empírica que hemos obtenido que es 2.15 vemos ahora que el valor nos queda a la izquierda de la anterior que sería 2.15 esa era rosa, que es el nivel P crítico es de mayor tamaño que alfa que es este área en amarillo por consiguiente el nivel P crítico no lo podemos calcular exactamente en las tablas del apéndice nosotros con calculadoras especiales sabemos que vale 0.0175 si en las tablas no viene todo lo que podemos hacer es realizar una aproximación es decir para 70 grados de libertad nuestro estadístico de contraste se encuentra entre las puntuaciones es decir, el valor que hemos obtenido de 2.15 la T de 2.15 está entre 1.99 y 2.38, que son los valores que sí me vienen en la tabla claramente 2.15 me queda espera, 2.15 ¿verdad? si 2.15 me queda en algún lugar entre 1.99 y 2.38 que es lo que vemos aquí por consiguiente si 1.94 deja por encima de sí el 0.025 y 2.38 me deja por encima de sí el 0.01, podemos razonar que el nivel T crítico se encuentra entre esos dos valores entre 0.025 y 0.01 será El nivel P crítico será más bajo. Aquí los símbolos están equivocados. Esto sería... No, a ver, a ver, a ver... No, está bien, está bien. Se encontraría en tres otros valores. Porque es 0.01. Que son los valores que nos aparecen en la tabla. Este es un valor superior a este. Por consiguiente, P está entre 0.025 y 0.010. En las tablas, trastornaríamos así. Es lo que hemos dicho anteriormente. Esta sería... Los grados de esta. 70. Esa es la fila en la que queremos... la que queremos ver 1.994 me deja aquí no lo veo porque me lo tapa pero lo hemos visto aquí uno menos 0.025 1.994 y 2.381 por consiguiente buscamos sabemos que los niveles de probabilidad esos son los dos niveles de probabilidad que hemos visto anteriormente sabemos que estos dos valores de t 1.994 me deja por debajo de 7 0. 0.975 del área y 2.381 me deja por debajo así de 0.990. Como la T2,15 me queda en algún lugar entre estos dos valores, su nivel T crítico también está entre esos dos valores. Por consiguiente, como el valor del estético contraste T2,15, la T empírica, no supera el valor crítico que es 2.38, la diferencia encontrada entre estas dos muestras no es significativa con un nivel de confianza del 99. Y ahora nos dan la regla general, pero razonando la forma que hemos visto anteriormente es sencillo comprobarlo. Haciendo ese gráfico es más sencillo que memorizar estas fórmulas. pero vamos a hacerlo en un contraste unilateral derecho mantendremos la hipótesis nula cuando el estadístico de contraste T la T empírica es menor, no supera el valor crítico que me vienen las tablas dado 1 grado de libertad n es 1 más n es 2 menos 2 y un nivel de probabilidad 1 menos alfa buscamos esa T en las tablas y si la T empírica es menor que la T crítica no podemos rechazar H0 en cambio la rechazaremos si ese signo se invierte si ahora la T empírica es superior a la T crítica yo lo hago mucho mejor cogiendo este tipo de representaciones gráficas esto dibujo en el eje de arcisas todos los valores posibles de T no es necesario dibujarlos hacemos una línea recta sabemos que el centro es el valor 0 que los valores máximos empíricamente que me pueden salir están entre menos 4 y 4 entonces yo aproximadamente sé cuánto valen estos valores extremos y me dibujo una línea parecida a la campana de Gauss aunque sea una T y entonces ahí coloco de forma aproximada los valores de la T crítica que he obtenido en la tabla y de la T empírica y en función de donde se encuentre una en relación a la otra acepto o rechazo H0 y razono sobre las probabilidades de cada una de ellas en este caso si comparamos el nivel P crítico Aproximado. Bueno, nosotros sabemos que vale 0.0175. Con el nivel de significación alfa 0.01 vemos que 0.0175 es mayor que 0.01. Por lo tanto, no rechazamos H sub cero. Interpretamos el resultado, la fase final, en la que más le interesa al psicólogo normalmente. Al nivel de confianza del 99%, los resultados no indican que la puntuación media de depresión sea mayor en el grupo de sujetos que no reciben visitas respecto de los que sí reciben visitas, de los ancianos. Sin embargo, los estados, si utilizáramos un nivel de confianza del 95%, los estados sí serían significativos. Porque si utilizamos un 95%, la T crítica disminuye mucho en relación al 99%. Entonces ahora la T crítica estaría por encima de la T crítica. Eso es muy importante por consiguiente elegir un nivel alfa apropiado. Aunque normalmente nos viene dado por la revista en la que vayamos a publicar y por los estándares de la misma o de esa área. ¿Qué debería suceder en este caso cuando a un 95% rechazaríamos H0 y a un 99% no? Pues una posibilidad es profundizar... en ese tema profundidad en esa relación porque parece que existe una relación interesante y por consiguiente podríamos incrementar la muestra hacer el test más preciso habrían varias posibilidades en función de lo que estés interesado experimento 8 horas o de sentido común esto lo he puesto con una sencilla razón recuerdo un profesor de la computencia amigo mío de derecho íbamos a clase de karate hace ya unos años juntos no sabía nada de psicología pero una vez salió el tema y me dijo que estaba casado por cierto con una psicóloga y pensaba que los resultados la psicología era sentido común Y obviamente le comenté que en mi opinión eso no era cierto, pero ante este experimento que hemos visto casi le daría la razón en el sentido de que sería de esperar que si un anciano no recibe visitas de sus familiares, eso no le va a afectar a su estado de ánimo. No se va a deprimir más que aquellos que sí reciben visitas, para que le haya sentido común que si un psicólogo ha realizado este experimento, que el resultado fuera positivo o que fuera significativo, que rechazara H0. ¿Para qué sería necesario rechazar este experimento si es de sentido común que la hipótesis alternativa que rechazaríamos H0? Piénsenlo ustedes, ¿qué piensan? Bien, la primera idea que a mí se me ocurre es que el sentido común es muy mal consejero. Es muy mal consejero en cuestiones de ciencia. Es de sentido común, si no lo dijeran los físicos, que el sol es el que se mueve, no la tierra. No tenemos una experiencia personal de que la tierra se mueve a miles de kilómetros por hora. Y sin embargo es así, por experiencias indirectas y por experimentos. Experimento de Foucault, por ejemplo, pero el sentido común no nos lo dice. El sentido común nos indica que somos cualitativamente diferentes a los animales. Tenemos una sociedad, una cultura. Tenemos máquinas, tenemos lenguaje. Sin embargo, Darwin dijo que no. Y los psicólogos cada vez, y los estudios sobre etología, y su propia conducta animal, cada vez nos plantan más en el área de que somos realmente animales. Es decir, ante este tipo de experimentos, lo primero es que el sentido común es muy mal consejero. Hay que ir a la experiencia, a la experimentación. En segundo lugar, muchos experimentos en psicología no son tan evidentes como este. El experimento de Milgram sobre obediencia, no sé si les he hablado ya de él, todo el mundo que rodeaba a Milgram, psicólogos experimentados, psicólogos de la personalidad, psicoanalistas, psiquiatras... todo el mundo predijo lo contrario de lo que sucedió en el experimento. Aunque ahora, con casi 50 años de diferencia con la realización de aquellos experimentos, pues podríamos pensar en lo contrario, pero todos los compañeros de Milgram pensaron que, por ejemplo, su experimento iba a haber resultado contraído al real. No digamos ya los experimentos de Zimbardo. Luego hay muchos experimentos en donde lo que interesa no es el aspecto cualitativo, no es si los ancianos tienen mayor depresión porque no los visitan en relación a los que sí los visitan. La ciencia no avanza si no se realizan... Hipótesis cuantitativas. ¿Cuánto afecta el que no le visiten los familiares a ese anciano? ¿Cuánto? Y lo relaciono con T al cuadrado, con el tiempo al cuadrado. Observen que cuantitativamente ya sabía lo que iba a suceder, pero no cuantitativamente. Y en psicología estamos en esa situación. Los experimentos en la medida de lo posible... Deben tratar de predecir resultados a nivel cuantitativo porque de esa forma posteriormente vamos a poder introducirlos en fórmulas. Si no tenemos resultados, predicciones cuantitativas, no podremos introducir todo eso en una fórmula como cualquiera de las que utilizan los físicos para poder realizar predicciones de nuestra realidad conductual en este caso. Entonces, simplemente he puesto esto porque me chocó mucho lo que me dijo aquel amigo de derecho. Seguimos. Y si queremos realizar el intervalo de confianza, hacemos lo mismo que antes. Cambiamos un poquito la fórmula. Esta sería la fórmula para calcular el intervalo de confianza. De nuevo, la diferencia de medias entre las dos muestras. Más o menos el producto entre dos factores. El estadístico de contraste que estamos utilizando, que es una T, al alfa apropiado, por el grado de libertad apropiada, multiplicado por una estimación de la división típica de la distribución muestral de esa diferencia, que viene dada por la raíz cuadrada de esta expresión. Ya lo hemos dicho, ya lo hemos comentado anteriormente, porque si no recuerdo mal, es similar a la que hemos utilizado en el caso en el que conocíamos la variante poblacional. Entonces, lo único que cambia es que allí utilizábamos la puntuación Z y aquí utilizamos la puntuación T. Pero el resto queda igual. Recuerden de nuevo que el acento circunflejo significa que esto es la cuasi-conexión. la varianza del primer grupo y del segundo grupo. Aplicado a nuestro caso, tenemos que la media del primer grupo era 20, si no me he equivocado, 15 la del segundo, y esto nos da una diferencia de 5 puntos. A esa diferencia de 5 puntos se le suma y se le resta este producto. A 99% el T crítico era 2.381 multiplicado por 41 menos 1, que es el tamaño muestral de la primera muestra menos la unidad, por su cuasi-varianza más 31 menos 1, que es el tamaño muestral de la segunda muestra menos 1, por la cuasi-varianza muestral partido por el grado de libertad. Y este producto nos da 23.20. Y este es el punto 29. 5 más 23 nos da 28. 5 menos 23 nos da menos 18. Aproximadamente, no he dicho los decimales. El intervalo de confianza va de menos 18 a 28. Eso quiere decir que incluye el valor 0. El 0 está entre esos dos valores. Y eso es compatible con la hipótesis nula. Utilizamos el intervalo de confianza. En tanto, la estrategia de calcular el intervalo de confianza como la de contraste de hipótesis nos lleva a la misma conclusión. No podemos rechazar H0 a un alfa de 0.09. Perdón, 0.01. Ejemplo 3.3 Aquí... Ah, no lo he puesto arriba, pero claramente vamos a ver ahora el tercer ejemplo, que es muy parecido a los anteriores, con la diferencia de que ahora vamos a asumir que la varianza poblacional de los dos grupos independientes es distinta. Recuerden que en el caso anterior asumíamos que las dos varianzas poblacionales eran iguales, no las conocíamos, pero eran iguales. Aquí vamos a asumir que seguimos sin conocerlas, pero son distintas. Y en este caso van a cambiar un poquito las fórmulas, pero el resto es muy parecido y por ello voy a ir un poquito más rápido. Un laboratorio desarrolla un fármaco en el que se pretende reducir la ansiedad. Eso es bastante interesante en la actualidad. Para comprobarlo se trajeron dos muestras, aleatorias de cinco observaciones cada una, que suponemos procedentes de poblaciones que se distribuyen normalmente, un supuesto, y con distinta varianza, otro supuesto. Y sabemos que teníamos muy pocas observaciones en cada grupo, cinco observaciones nada más. A los sujetos de la... a ver, quiero que este ejemplo no lo he terminado, voy a... especialmente, no, no lo he terminado. Lo comentamos y seguimos el próximo día hasta donde haya hecho. A los sujetos de la primera muestra se les administró el fármaco. Y a los de la segunda muestra una sustancia placebo. Y una sustancia... esto significa que los sujetos en un grupo y en otro no conocen a qué grupo están siendo asesinados. Todos consideran que están recibiendo el fármaco. Entonces, para evaluar, para hacer un control más exhaustivo, el grupo es placebo. A todos se les dice que la palestinita que se les está dando o el fármaco que se les está inyectando es el fármaco experimental. Hay cinco en los que el fármaco no hace realmente nada. Podría ser una simple dosis de... Posteriormente se le midió la ansiedad a todos los sujetos mediante un test en el que cuanto más elevada la puntuación, mayor es la ansiedad. Estos eran los ejemplos. Tenemos diez puntuaciones del primer grupo, sujetos con fármaco, y del segundo grupo sujetos sin fármaco. Yo, sin más, ya estoy viendo que las puntuaciones del grupo sin fármacos es bastante más elevado que lo del grupo sin fármaco. Luego veremos si los resultados estadísticamente me permiten decir que son diferentes. Pero curiosamente el grupo 2 sin fármaco tiene puntuaciones mayores. Tiene más ansiedad. No, vale, es congruente. Puntuaciones mayores significa mayor ansiedad. Si el fármaco es para reducir la ansiedad, este grupo que tiene puntuaciones menores, entonces quizá el fármaco sí sirva para reducir esa ansiedad de forma significativa. Con un nivel de confianza del 95%, podemos afirmar que el fármaco especialmente reduce la ansiedad, que estas puntuaciones del grupo 1 son inferiores a las del grupo 2. Ya vamos a dejarlo aquí porque ya empezamos con las condiciones de supuestos y me quedo en la... en la 83 si, ya lo dejamos porque esto vale, para el próximo día veamos por último el chiste este chiste tiene relación con nosotros con los profesores de estadística recuerden que yo soy psicólogo no soy profesor de estadística pero no hice la carrera de matemáticas luego te tienes que reconvertir y curiosamente me gustó bueno pues este chiste se ríe un poco de nosotros ha encontrado alguna vez a un profesor de estadística que tiene un borrador en una mano y una tija en la otra y se dedica a ir escribiendo con la mano derecha y al mismo tiempo ir borrando con la mano izquierda de tal forma que lo que escribe se evapora antes de que puedas Bueno, eso no me pasa a mí Pero es la siguiente característica De estadística, sí Que se pasa la mitad del semestre En el primer tercio del contenido del curso Y la última semana del semestre En el último tercio del contenido Pero estoy diciendo porque Voy a grabar todas las clases Pero lo más seguro es que Lo tenga que hacer en Navidad Porque a este ritmo Va a ser completamente imposible Entonces esta característica Es propia de nosotros Al menos en mi caso Otra característica ¿Te has encontrado alguna vez con un profesor de estadística Que de forma regular Se refiere al cálculo Al cálculo Infinitesimal como una explicación de los principios estadísticos continuamente lo estoy diciendo que las tablas es una forma de no exigirles a ustedes que hagan integrales la integral pertenece al cálculo por consiguiente continuamente me estoy refiriendo al cálculo como la explicación de los principios estadísticos pero sabe muy bien que el 90% de la clase jamás ha cursado la asignatura de cálculo y no digamos ya que haya oído la palabra cálculos bueno, después les comentaré otras curiosidades de los profesores de estadística