Hola, retomamos el tema 8, estamos en la cuarta parte. Nos habíamos quedado en las inferencias sobre la regresión. De la misma forma, todo lo que hemos visto hasta el momento, excepto los supuestos, la discusión sobre los supuestos, etc., ha sido descriptivo. Obviamente como tenemos una muestra de datos queremos inferir a la población los resultados que hemos obtenido en nuestra muestra. Nos lleva a la inferencia estadística. Pero aquí la situación se complica un poco porque para una simple recta de regresión tenemos muchos parámetros. Tenemos la correlación entre X e Y, que aunque no pertenece estrictamente a la recta de regresión es muy importante. Entonces tendremos que hacer inferencias sobre R. La correlación entre X e Y. En relación a la recta de regresión tenemos B y B0, la pendiente y el punto de corte con la ordenada. De cada uno de esos parámetros tendremos que establecer su inferencia, su contraste estadístico para ver si podemos asumir una hipótesis nula o no. Tendremos los intervalos de confianza para cada uno de los parámetros B y B0. Y luego tenemos también que para cada valor de X sub Y, de la variable independiente, la recta de regreso nos hace una predicción. Entonces tendremos que establecer también inferencias sobre esa predicción que nos realiza la recta de regresión. Cuanto vale nos va a venir dado básicamente por la recta de regresión, los parámetros se aplican a X y ya está. Pero tendremos también que calcular su intervalo de confianza. Como vemos las inferencias sobre la regresión para un único tema tenemos muchas inferencias que hacer porque hay muchos parámetros. Una vez que hemos construido el modelo de estimación, ese modelo de estimación se refiere a los parámetros B y B0 que hemos extraído, que hemos calculado mediante el criterio de mínimos cuadrados con los datos muestrales que tengamos. Teníamos un modelo inicial y lo hemos concretado al calcular los parámetros B y B0. Ahora tenemos que darle significación estadística, inferencial. De tal forma que las inferencias que hagamos a partir de los datos muestrales sean válidas para el conjunto de la población. Porque los valores B y B0 que hemos obtenido en esta muestra van a diferir si cogemos una muestra distinta. Cada vez que cogemos una muestra distinta vamos a tener un valor de B y B0 distintos por consiguiente necesitamos establecer contrastes inferenciales sobre esos parámetros. Entonces, las inferencias que vamos a hacer sobre la regresión básicamente son tres. En primer lugar vamos a tener que hablar sobre el coeficiente de correlación entre la variable dependiente e independiente entre X e Y que aunque no pertenece estrictamente a la regresión es un contraste sobre la misma. En segundo lugar realizaremos un contraste sobre los coeficientes de la regresión es decir, B y B0 pendiente y punto de corte con la ordenada. Y por último, para cada uno de esos parámetros necesitaremos un intervalo de confianza con una determinada probabilidad tanto para el coeficiente de correlación como para los coeficientes de regresión. Vemos que es, de nuevo, inferencias pero hay muchos parámetros sobre los que hacerlas y por eso el tema se complica un poquito más. Vamos a empezar con el contraste sobre la correlación y la regresión es decir, el parámetro R, perdón, el estadístico RXY que hemos obtenido en nuestra muestra es decir, el valor concreto de correlación que hemos obtenido entre los valores de X y de Y en nuestra muestra tendremos que establecer un contraste normalmente el contraste que se establece es este R es la correlación en la muestra RO en la población, observen, letra latina, letra griega entonces el contraste normalmente que se va a aplicar es que no existe relación entre la variable dependiente y la independiente que RO vale cero por tanto la hipotesis nº1 plantea que RO vale cero y la hipotesis alternativa plantea que RO es distinto de cero si es distinto de cero, ya sea positivo o negativo indica en la hipotesis alternativa lo que plantea es que hay relación entre ambas variables para ver la significación de este contraste estadístico entre H1 y X1 tenemos dos procedimientos el primero es que se puede establecer una razón F ya hemos visto muchas razones F en el ANOVA continuamente trabajamos con razones F aquí también recordemos que F se puede considerar bien como una función continua de distribución de probabilidad y un cociente de varianzas se distribuye según una razón F por consiguiente, también se puede considerar que la razón F es un cociente entre medidas cuadráticas que son las varianzas entonces podemos otra vez tener una razón F un cociente entre medidas cuadráticas entre varianzas, entre el coeficiente de determinación R al cuadrado y el coeficiente de alienación cada uno de ellos dividido por sus respectivos grados de libertad entonces vemos la razón F es el cociente entre el coeficiente de determinación que es la correlación al cuadrado partido por los grados de libertad de la regresión que siempre van a ser la unidad partido por su complementario 1-R al cuadrado el coeficiente de alienación es decir, el numerador representa la parte la proporción de Y que se puede explicar a partir de X y el denominador la parte de Y que no puede explicar a partir de X el coeficiente de alienación dividido por su grado de libertad el grado de libertad de los residuos el grado de libertad de los residuos es N el número de datos que tenemos de pares de datos que tenemos en nuestra muestra menos 2 porque hemos hecho dos estimaciones mientras que la regresión es lograr la libertad vale 1 en definitiva la media cuadrática de vida a la regresión partido por la media cuadrática de los residuos con lo tanto, el ejemplo si recordamos que R al cuadrado nos salió 0.7963 si redondeamos a dos cifras significativas sería 0.80 con tres cifras sería 0.796 hay que tener mucho cuidado los redondeos son inevitables luego recomendaré alguna anécdota sobre lo mismo vamos a seguir con esto R al cuadrado es 0.79 aproximadamente y tenemos 16 sujetos por consiguiente, en el numerador ponemos R al cuadrado partido por 1 R al cuadrado 0.79 partido por su complementario 1 menos 0.79 partido por lo grado de libertad 16 menos 2 tenemos 16 pares de observaciones la F que nos sale es 54.72 o 73 si queremos redondear a simple vista ya me parece una F muy elevada claramente va a ser significativa esto depende de lo grado de libertad siempre, pero intuitivamente me parece una F muy elevada pero vamos a comprobarlo vamos a comprobarlo mediante las tablas para ello buscamos en las tablas el valor crítico con qué grado de libertad pues con lo mismo que hemos calculado la F empírica con 1 en el numerador y 16 menos 2 en el denominador si no nos dicen alfa 0.05 buscamos en las tablas y vemos con 1 grado de libertad en el numerador y 16 menos 2 en el denominador es decir 14 nos sale una F crítica del 4,60 4.60 al 0.05 si lo graficamos vemos el 4.60 este es el valor crítico es un valor en el eje de las de acisas de la curva F la distribución F con 1 y 14 grado de libertad vemos que ese valor del 4,60 me deja por encima de sí el 0.05 de la distribución y por debajo si el 0.95 sin embargo la F empírica que hemos obtenido es tan elevada que ni siquiera aquí nos sale para poder representar un poquito poder visualizar alfa he tenido que limitarme a que el eje de acisas valga como máximo 8 4, 5, 6, 7 y 8 ese sería el valor máximo que he podido representar aquí para representar el 54,72 observen esa misma gráfica la F de 1 con 14 grado de libertad y la F empírica quedaría aquí ni siquiera el gráfico me permite visualizarla porque es tan pequeña tan pequeño el área de probabilidad que deja por encima que visualmente el ordenador me ha tenido que superponer el eje de acisas con la propia línea de la gráfica observen que el 10 está aquí y el 8 estaría aquí esta sería la zona de la gráfica que he podido dibujar en la primera gráfica claramente la F empírica queda en la zona de rechazo de H0 porque 4.60, el valor crítico al 0.05 es menor que 54 el valor crítico es tan bajo que solo lo podemos obtener con un ordenador observen los niveles de probabilidad en esta gráfica 0.004 no son niveles de probabilidad son niveles de Fx recuerden que cuando trabajamos con funciones continuas la probabilidad es el área entre dos valores concretos del eje x por tanto la altura no es estrictamente una probabilidad aunque a veces por exceso de confianza lo digamos es importante observar los grados de libertad asociados a la suma de cuadrados de la regresión tenemos un solo grado de libertad esto indica que el coeficiente de determinación r al cuadrado se distribuye con un grado de libertad este grado de libertad asociado a la suma de cuadrados de la regresión representa la desviación de la pendiente b con respecto a 0 solamente puede variar en una única dimensión un grado de libertad por otra parte el grado de libertad de la suma de cuadrados de los errores o residuos ya hemos visto que era n-2 que esto es el mismo grado de libertad que tiene el coeficiente de alineación 1 menos r al cuadrado el término n el número de pares de observaciones refleja el número de observaciones independientes es decir, el total de sujetos normalmente y el valor 2 representa el número de restricciones que hemos impuesto para construir la ecuación de estimación ¿qué estimaciones han sido esas? pues hemos estimado la pendiente b y el intercepto dos parámetros que son los grados de libertad que eliminamos restamos de n y esto es muy importante todos esos datos se pueden expresar de la misma forma que se hacía en el ANOVA mediante una tabla de ANOVA una tabla con suma de cuadrados, grado de libertad media cuadrada, etc. pero en este caso aplicado al contraste de regresión tenemos lo mismo que vimos en el tema 5 tenemos las fuentes de variación según el modelo que hemos aplicado nuestros datos para el análisis, tenemos solamente dos fuentes de variación aquí debida a la regresión de y sobre x y lo que resta los residuos el total tiene que ser la suma de los dos anteriores las sumas de cuadrados r al cuadrado y 1 menos r al cuadrado los grados de libertad son los mismos que habíamos visto anteriormente y las medidas cuadráticas son las que hemos calculado y esta es la f que hemos obtenido la probabilidad no tardéis en buscar en las tablas porque no van a conseguirlo es 3 por 36 por 10 elevado a menos 6 es un nivel de probabilidad bajísimo y obviamente, como he dicho anteriormente sin ordenadores o calculadoras científicas en las tablas no se puede bueno, si se puede pero no tiene sentido esto es simplemente una forma bonita como dicen los ingleses es una forma bonita de resumir el contraste de la regresión donde expresamos todo lo que conocemos la suma de cuadrados r al cuadrado y 1 menos r al cuadrado los grados de libertad las varianzas insesgadas, es decir, las medidas cuadráticas la razón empírica y la probabilidad de obtener una razón empírica igual o superior a la obtenida hemos dicho que esa era una forma de contrastar la hipotesis nula de que rho en la población es igual a 0 un contraste de medidas cuadráticas entre aquello que me permite explicar x y lo que no me permite el coeficiente de determinación y el coeficiente de alienación la otra manera de contrastar la hipotesis nula de que la correlación en la población, es decir, rho es igual a 0 no existe relación entre x e y es mediante el estadístico T con n menos 2 grados de libertad el estadístico T siempre es un cociente y en este caso el numerador es el producto entre el coeficiente de correlación no de determinación recuerden siempre, cuando es r mayúscula al cuadrado es coeficiente de determinación cuando es r minúscula, es coeficiente de correlación a secas y como subí un detalle las variables sobre las que se ha calculado es el coeficiente de correlación x e y multiplicado por la raíz cuadrada de n menos 2 del grado de libertad y todo ello partido por raíz cuadrada de 1 menos el coeficiente de determinación r al cuadrado aunque aquí no se ha puesto en mayúscula sabemos que r al cuadrado siempre es coeficiente de determinación por consiguiente vemos que en el numerador tenemos la raíz cuadrada del coeficiente de alienación y en el numerador, el producto del coeficiente de correlación por raíz cuadrada de n menos 1 raíz cuadrada de los grados de libertad si esto lo aplicamos a nuestros datos tenemos una T de 7.40 si no me he equivocado el coeficiente de correlación es 0.89 16 menos 2 y este es el coeficiente de correlación al cuadrado 7.40 obviamente ahora tendremos que ir a las tablas para comprobar si esta T empírica que hemos obtenido en nuestro experimento mejor dicho, nuestra observación estamos en correlación es iniciativa a un nivel de probabilidad determinado para ello buscamos la probabilidad o el valor crítico, es otra forma de esta T, es la misma que la del valor del estadístico F calculado anteriormente y esto es curioso pero se produce esto es debido a que existe una relación de igualdad entre la T calculada anteriormente a la fórmula anterior y la F calculadamente el coeficiente entre medidas cuadráticas en determinadas condiciones del grado de libertad es decir, cuando la T tiene n grados de libertad y la F tiene en el numerador 1 y en el denominador n, es decir los grados de libertad del denominador de la F coinciden con el grado de libertad de la T se cumple que el valor de T al cuadrado es el mismo que el valor obtenido de F si le damos al cuadrado una T como la que hemos obtenido de 7.39 esa es la que hemos obtenido, ¿verdad? 7, sí 7.40 le vamos al cuadrado nos da la F que hemos obtenido en la tabla de la NOVA anteriormente obtenida con 1 grado y 14 grados de libertad recuerden que esta relación entre el valor de T y el valor de F solamente se cumple si se respetan la relación de los grados de libertad que se puede ver en pantalla en caso contrario no tiene por qué y nos va a dar no lo hemos hecho no hemos calculado la T crítica pero por una sencilla razón, porque nos va a dar lo mismo que la F intervalo de confianza es decir, para cada contraste estadístico que estemos aplicando en otro caso tendremos que contrastar una hipotesis y otra normalmente que va a ser que la población ese parámetro vale 0 y luego su intervalo de confianza porque el contraste activador simplemente nos dice si es fácil de asumir que la población robo vale 0 o no pero ahora necesitamos una estimación de los valores superior e inferior en relación al coeficiente de correlación que hemos obtenido en nuestra muestra en el cual esperamos encontrar un determinado nivel de confianza en la población el intervalo de confianza que hemos estado trabajando para casi todos los estadísticos sí, casi todos también tenemos que aplicarlo al coeficiente de correlación hemos determinado que el coeficiente de correlación en la población es distinto de 0, es decir, tenemos que rechazar h sub 0 por lo tanto ahora vamos a ver su intervalo de confianza ¿qué valor del coeficiente de correlación a un nivel de confianza asumimos que se encuentra el verdadero valor de rho en la población el problema es que la distribución muestral es decir, recuerden la distribución muestral si repetimos el experimento de obtener una muestra con un n fijo, por ejemplo 16 que es el ejemplo que estamos siguiendo si mantenemos si repetimos ese experimento multitud de veces y en cada muestra extraemos un coeficiente de correlación nos preguntamos ¿cómo se distribuyen todos esos coeficientes de correlación en las infinitas muestras que podemos extraer? infinitas o finitas, depende esa es la distribución muestral del coeficiente de correlación pero esta distribución no es simétrica salvo en el caso de que en la población en la que se están extrayendo esas muestras la correlación sea realmente igual a 0 pero eso ya lo hemos descartado en el paso anterior, en el paso anterior hemos hecho contraste de correlación y hemos descartado que rho en la población sea igual a 0 por consiguiente esto supone que los límites del intervalo de confianza el límite superior LS LI siempre hemos visto que calculábamos los valores numéricos que quedaban de forma simétrica con respecto al estadístico que hemos calculado en nuestra muestra en este caso, si calculáramos el coeficiente de correlación este y sus límites de confianza que nos dan dos valores superiores dos valores, uno superior y otro inferior podríamos encontrar que la distribución es simétrica con respecto a Rx esto en el caso de correlación no se cumple los límites de intervalo de confianza no son equidistantes del valor eso quiere decir que podremos encontrarnos situaciones de este tipo en donde el coeficiente de correlación la distancia entre el coeficiente de correlación muestra que hemos encontrado en nuestra muestra correlación al límite inferior, por ejemplo sea mucho más pequeña que la distancia con respecto al límite superior o a la inversa es decir, los límites del intervalo de confianza no son equidistantes con respecto al coeficiente de correlación muestra obtenido y para ello para resolver este problema Fischer el maestro de la estadística el príncipe de la estadística desarrolló el estadístico Z' ya simplemente por el nombre del estadístico podemos ver que se va a distribuir según la curva norma tipificada le pone Z' para diferenciarlo para identificarlo, mejor dicho como una transformación del coeficiente de correlación esa transformación obedece a esta fórmula es decir, hemos obtenido en nuestro experimento una correlación entre X e Y entre la variable dependiente e independiente y ahora aplicamos esta fórmula un medio de una diferencia entre dos valores numéricos el primero es el logaritmo neperiano de 1 más el coeficiente de correlación obtenido en la muestra menos el logaritmo neperiano de 1 menos el coeficiente de correlación obtenido en la muestra vemos que Z depende solamente podríamos ponerlo también así Z es una función de R, X Y si graficamos ahora en un eje de coordenadas Z con respecto al coeficiente de correlación obtenemos esta gráfica obviamente el coeficiente de correlación no puede ser inferior a menos uno o superior a más uno, por consiguiente ese es el rango en el que podemos graficar nuestra función si graficamos esta función para el coeficiente de correlación entre menos uno a uno obtenemos esta gráfica y esa se ve bien la gráfica vemos que no es lineal en absoluto por los componentes del logaritmo neperiano ahora, si en vez de trabajar con el coeficiente de correlación hemos visto que no es simétrica con respecto al valor obtenido en la muestra trabajamos con una transformación de ese coeficiente de correlación la transformación Z' tenemos una distribución muestral distinta a la de Z' la cual depende únicamente del tamaño muestral, DN y presenta una distribución normal incluso con muestras pequeñas con lo cual Z' ya sí tiene una distribución muestral que va a ser simétrica con respecto al valor central el error típico es uno partido el error típico de la distribución muestral de Z' es uno partido por raíz cuadrada DN-3 entonces, si aplicamos esta fórmula en nuestro ejemplo hemos obtenido un coeficiente de correlación de 0.89 aplicamos la fórmula y nos sale una Z, es decir, a esta correlación le corresponde una Z' de 1.43 si vamos a la gráfica anterior lo veremos gráficamente 0.89 estará aproximadamente 6, 7, 8... 0.89 por aquí graficamos X Y es 1.0 que es efectivamente lo que hemos obtenido en nuestro cálculo 1.4 una vez que tenemos la puntuación Z calculamos un error típico que es uno partido por raíz cuadrada de DN-3 nos sale 0.27 y una vez que tenemos por coincidente el error típico y Z' podemos calcular el intervalo de confianza a un determinado nivel de confianza vamos a hacerlo al 95% entonces, el intervalo de confianza IC al 95% es decir, significa que los otros valores que vayamos a obtener de coeficiente de correlación mediante este cálculo podemos tener una oscilidad del 95% de que el verdadero valor de error en la población se encuentra entre esos valores viene dado como siempre por Z' que es Z' mejor dicho el estadístico que hemos obtenido en nuestra muestra más, menos el producto entre la Z de las tablas de la distribución normal al 95%, al 0.05 que es 1.96 es un valor que nos suena bastante por el error típico obtenido esto es el error máximo ese producto Z' más menos el error máximo y el error máximo es el producto de dos factores, uno que depende solamente de cómo se distribuye el estadístico en este caso Z' se distribuye según la curva normal tipificada multiplicado por el error típico de la distribución mostrar de ese estadístico que en este caso era 1 partido por R' de N-3 esto nos da estos dos valores, límite superior y límite inferior es decir que observamos que como estamos sumando y restando exactamente el mismo error máximo a 1.43 ahora el intervalo de confianza si es simétrico con respecto al valor obtenido si el valor obtenido es 1.43 el valor superior es 1.98 que queda a la misma distancia pero por la zona superior que 0.89 ahora lo que podemos asegurar al 95% es que en la población el verdadero valor de R' se encuentra entre 1.98 y 0.89 y la mejor estimación que podemos darle dado nuestros resultados empíricos es 1.43 pero claro, aquí hemos obtenido el intervalo de confianza de Z' si es simétrico pero si queremos expresarlo en Z Z no es un coeficiente de correlación es una puntuación titificada y sin embargo si yo quiero hablar de la correlación entre dos variables obviamente me resulta mucho más intuitivo hablar de las correlaciones, no de las puntuaciones Z por consiguiente un último paso es estas puntuaciones Z Z superior la Z empírica que hemos obtenido en nuestra muestra y Z inferior me gustaría verlas reflejadas en correlaciones y para ello hay una tabla con la que podemos conseguirlo esta tabla es la tabla de la transformada Z de Fischer en vez de utilizar la fórmula anterior simplemente nos vamos a esta tabla y buscamos los valores de Z que hemos hallado en el paso anterior uno de ellos era 0.89 y otro era 1.94 vemos en su fila correspondiente que se corresponden con coeficientes de correlación de 0.71 y 0.96 el gráfico bien hecho del coeficiente de correlación obtenido creo que era 0.86 y graficamos estos valores 0.89 no, perdón 0.89 es Z 0.71 0.96 el superior 0.71 el inferior estos ya son valores de R de correlación y el valor concreto de la correlación en este ejemplo era 0.89 vemos que no hay la misma distancia entre el valor superior y el coeficiente de correlación que entre el coeficiente de correlación y el valor inferior en concreto este sería más cercano al valor superior es un intervalo asimétrico por consiguiente los límites aproximados del intervalo de confianza del coeficiente de correlación son 0.71 y 0.96 valores que no son simétricos respecto al coeficiente de correlación muestrado 0.89 todo esto para el coeficiente de correlación hemos hecho un contacto estadístico con respecto a R y su intervalo de confianza aplicando la transformada Z de Xc ahora vamos a hacer lo mismo para B y B0 para la pendiente y el punto de encuesta con la ordenada con este contraste lo que queremos entender es si hay evidencia científica o estadística mejor dicho no científica de que la pendiente es diferente de 0 normalmente va a ser este el contraste que vamos a poner a prueba porque si la pendiente es diferente a una línea horizontal B igual a 0 una línea perpendicular al eje de ordenadas significa que X no nos permite predecir Y da igual en qué punto de X se encuentra la puntuación de un sujeto no nos dice nada sobre Y también se puede contestar mediante este contraste el intercepto y también se puede plantear y se va a hacer si el intercepto es distinto o igual a 0 pero en la mayor parte de los estudios en reales suele ser ignorado porque a no ser que tengas una teoría muy clara que te indique que el intercepto va a ser 0 no tiene un significado muy claro en cambio B sí lo tiene porque es la pendiente, es el que te indica si X me sirve para predecir Y sin embargo el punto en el que la recta me cruce el eje de accisas normalmente no tiene una significación interesante entonces estos son los dos contrastes que vamos a poner a prueba Observen que la primera parte es para beta beta ya se refiere como pueden haber supuesto a la pendiente en la población B0 y B0 a la ordenada en la población nosotros lo que tenemos son B letra latina dos valores, dos estadísticos y B0 muestrales el hipótesis nula plantea que la pendiente en la población de la recta de reacción entre X e Y para todos los sujetos polacionales es 0 la población alternativa que es distinta de 0 lo mismo para beta vamos entonces a ver qué contraste podemos utilizar y qué intervalo de confianza podemos utilizar el estadístico de contraste, lo primero ¿qué estadístico de contraste vamos a utilizar? una T con N-2 grados de libertad donde en el numerador tenemos que la diferencia entre el valor planteado el que hemos obtenido en nuestra muestra B menos el valor obtenido menos 0 0 es el valor propuesto en la hipótesis nula planteado por la hipótesis nula la diferencia entre estos dos valores como en la hipótesis nula hemos planteado que beta según la hipótesis nula es igual a 0 es B menos 0 con lo cual muchas veces ni siquiera se pone y simplemente se divide B la B que hemos obtenido en nuestra muestra no beta, B partido por el error típico de beta y ese error típico viene dado por esta expresión la distribución muestral de la pendiente de las pendientes en todas las muestras que pudiéramos obtener de un tamaño determinado viene dado por el producto entre el cociente entre la división típica de Y partido por la división típica de X multiplicado por la recuadrada del coeficiente de alinación 1 menos el recuadrado partido por N-2 a veces en N los he puesto en mayúcula, otros en minúcula como aquí no hay confusión es el número de sujetos que tenemos en nuestra muestra cuando el tamaño muestral es muy elevado se plasma en que N sea mayor o igual que 100 como siempre T tiende a la normal y por tanto podemos utilizar la distribución normal típica en este caso tenemos N igual a 16, con lo cual no se puede hacer si aplicamos este contraste a la pendiente con los datos que nos están sirviendo de ejemplo el valor del estadístico que vamos a obtener va a ser 1.50 de nuevo esto no es beta sino que es B la B empírica que hemos obtenido en nuestra muestra aquí tenemos el estadístico contraste y el error típico de beta lo hemos ampliado en esta fórmula para no hacer muy compleja la primera hacemos los cálculos T igual a la coeficiente entre 1.50 que es el valor que hemos obtenido de B en nuestra muestra, menos 0 partido por 4.64 que era la división típica de Y partido por 2.75 multiplicado ese coeficiente por raíz cuadrada del coeficiente de alineación menos 0.79 partido por 16 menos 2 y esto nos da 7.39 ya estoy viendo que esto es muy elevado a un alfa de 0.05 va a ser significativo seguro pero vamos a comprobarlo esta es la T empírica T.4 aproximadamente el valor crítico según las tablas este no es el valor crítico es la P crítica la P crítica el valor crítico sería un valor concreto de T es 3 por 36 por 10 elevado a menos 6 un valor muy bajo esa es la probabilidad de encontrar un valor igual o mayor que la T que hemos calculado de 7.4 sí obviamente es tan baja que seguro que en las tablas no viene habría que hacerlo con un ordenador la probabilidad de T estadístico bueno, esto no lleva a rechazo al H0 obviamente porque 3.36 por 10 elevado a menos 6 es menor que 0.05 que es el alfa que solemos utilizar si no lo hiciera otra cosa para realizar este tipo de contrastes la probabilidad de T estadístico es la misma que la probabilidad de la F en la tabla de la norma de la regresión de eso no me había dado cuenta bien, hemos visto para el estadístico de contraste la T para B vamos a hacer lo mismo para B0 yo esto lo pondría como B la B empírica que hemos obtenido en nuestra muestra como en la hipótesis nula hemos planteado de nuevo que beta en la población, beta sub 0 es igual a 0 este es el valor que colocamos aquí entonces B0, el valor empírico que hemos obtenido en nuestra muestra, menos 0 partido por su la división el error típico de beta sub 0 y este error típico viene dado en la fórmula que pueden ver en pantalla es el error típico con n-2 grados de libertad es el error típico de la distribución mostral del intercepto que es el producto de la división típica de los errores por raíz cuadrada de la suma de dos cocientes 1 partido por n sabemos que n es el tamaño mostral más la media de x al cuadrado partido por n-1 por la varianza de x esta fórmula es un poquito más complicada que la anterior siendo la división típica de los errores, observen ese epsilon en el subíndice era lo que aparecía en la ecuación de regresión que habíamos planteado b sub 0 más b por x más un epsilon ese es el que se corresponde con ese subíndice obviamente no lo conocemos porque los errores no los conocemos pero una buena estimación una estimación apropiada de los mismos es la raíz cuadrada de la media cuadrática del error, ¿dónde hemos visto esto? en la tabla F que hemos visto previamente de los residuos de la tabla de la NOVA para el contraste de la regresión por eso era tan importante la tabla F que hemos visto anteriormente este valor de sigma sub epsilon representa la varianza residual en la población en el caso de regresión bivariada varianza residual, varianza de los errores después de haber ajustado la recta por consiguiente ahora en la fórmula anterior en vez de poner sigma sub epsilon ponemos la media cuadrática la raíz cuadrada de la media cuadrática del error aquí hemos puesto la fórmula anterior desarrollada y hemos colocado en la parte superior la ecuación de regresión que hemos calculado para que no se nos olvide la ecuación de regresión que hemos obtenido es que I' las puntuaciones pronosticadas para la variable pendiente es igual a B0 4.03 más 1.5 por X y la nueva de la regresión que hemos visto anteriormente nos daba una media cuadrática del error de los residuos de 4.71 colocamos ahora todos los datos, obviamente esto no es beta sub 0 sino es el valor B que hemos obtenido en nuestra muestra B0 el empírico no el que planteamos por la final entonces vemos que 4.03 se corresponde con el valor de la ordenada según la recta de regresión menos 0 que es lo que hemos planteado en la hipotesis nula partido por la raíz cuadrada de 4.70 se corresponde con la raíz cuadrada de la media cuadrática de la nueva por la raíz cuadrada de 1 partido por 16 más la media de X al cuadrado no la hemos puesto por aquí en ningún lado pero tenía que estar en una tabla anterior 6.375 al cuadrado partido por la varianza de X que es 7.58 y esto nos da una T de 2.86 a primera vista me parece elevada pero esto lo vamos a buscar en las tablas porque si podemos buscarlo con 14 grados de libertad vemos aquí que la T que hemos obtenido de 2.86 se queda entre vamos a ponerle otro color entre 2.62 entre esta T y esta T vemos que se queda ahí en medio consiguiente no podemos conseguir su nivel de probabilidad exacto según las tablas pero sabemos que es superior a 0.01 e inferior a 0.05 está entre esos dos valores de las P que limitan las dos que sí conocemos en concreto es 0.125 superior a 0.01 e inferior a 0.05 no, no, a ver al revés 0.01 es mayor 0.0125 es menor en este caso no he puesto los 0.0125 y eso sube a ser inferior a 0.005 vemos por consiguiente que ahora que el valor de probabilidad se encuentra entre 0.01 y 0.005 según las con ordenador se puede saber que es exactamente 0.0125 pero como ustedes no lo van a utilizar saben que se encuentra entre esas dos puntuaciones con 14 grados de libertad por consiguiente se rechaza la hipótesis nula de que el intercepto sea igual a 0 con un alfa del 0.05 0.005 hemos visto por consiguiente los contrastes para B y B0 ahora necesitamos sus intervalos de confianza, lo mismo que hemos hecho antes para la regresión vamos a hacer ahora los intervalos de confianza de ambos estadísticos y la aceptación o el rechazo de H0 mientras los contrastes anteriores producen el mismo resultado que si calculamos el intervalo de confianza yo a veces me he encontrado con situaciones en las que esto no se da el intervalo de confianza me da una información distinta al contraste de hipótesis pero son casos muy extraños, muy raros y también debidos a que existen diversas formas de calcular el intervalo de confianza como lo mismo hay tres pero olviden eso quiere ser con que normalmente el contraste de hipótesis que hemos hecho anteriormente para B y B0 nos lleva a la misma conclusión que el cálculo del intervalo de confianza si hacemos el cálculo del intervalo de confianza para B y los límites superior e inferior no incluyen a 0 nos está diciendo que a un nivel de confianza determinado 0 no es un valor que entre dentro del intervalo de confianza, por consiguiente lo podemos rechazar, que es lo mismo que hemos hecho con el contraste de hipótesis. Hemos puesto a prueba que B fuese 0 Los intervalos de confianza siempre responden a la misma fórmula El estadístico que hemos calculado en nuestra muestra en este caso vamos a aplicarlo a B, más o menos si se suma y se resta el producto de dos factores un primer factor que es el error típico la división típica del parámetro en la distribución muestra sigma del parámetro que sea multiplicado por el estadístico que se haya utilizado en el caso anterior en este caso es la t Este es un valor que nos viene dado por las tablas y este es un valor que nos viene dado por la distribución muestra de ese estadístico Hemos dicho que el producto de esos dos factores se conoce como el error máximo y este es el error típico mientras que T el estadístico de contraste A veces se le llama también a este error máximo la precisión porque cuanto mayor sea este producto el resultado de este producto sea mayor quiere decir que el intervalo de confianza es mayor y por tanto la precisión para localizar B en la población es menor es decir, si yo tengo un intervalo de confianza de este tipo aquí estaría B y se le suma y se le resta la misma cantidad La precisión con la que yo puedo localizar en la población este B es mucho mayor que si yo tuviese este otro intervalo de confianza El intervalo de confianza es mayor y tengo menos precisión a lo largo de localizar B en la población Por consiguiente esta es la fórmula general Aplicado en concreto AD intervalo de confianza a una alfa determinada siempre tiene que ser bilateral por eso alfa medios ya que estamos calculando por encima y por debajo el tipo de estadístico con el que estamos trabajando es el estadístico en este caso B más menos el producto del estadístico contra T en este caso es una T y su error típico sabemos que para este caso esta es la fórmula B más menos T y el cálculo más complicado es el error típico de B ya lo hemos visto previamente en este caso con T de 1 menos alfa medios que vale 2.145 según las tablas es este componente que vemos aquí multiplicado por sigma del error típico de B vemos que si no hemos cometido ningún error esta es la división típica de Y partido por la división típica de X por la red cuadrada de coincidente de alineación 1 menos 0.89 al cuadrado partido por 16 menos 2 el número de sus vectores menos 2 y este es el valor B que hemos obtenido para la resta de reversión 1.50 si hacemos este cálculo obtenemos un intervalo de confianza para B que va de 1.94 como valor máximo y 1.07 como valor mínimo vemos que ese intervalo no contiene al valor 0 entre al no contener el intervalo de confianza al valor 0 entre sus límites se llega a la misma conclusión a la que hemos llegado a través del estadístico T rechazamos H0 ahora vamos a hacer lo mismo pero para el resto de estadísticos ahora para el intercepto el intercepto es B0 más menos su feliz contraste, en este caso una T y su error típico vemos que es exactamente lo mismo que antes, el producto de dos componentes el estadístico y su distribución la división típica de su distribución mostrar y ya hemos visto anteriormente que sigma de B0 viene dado por esta expresión raíz cuadrada de la media cuadratica del error por raíz cuadrada de la suma de dos coeficientes 1 al divido por n y la media dx al cuadrado partido por el producto entre n-1 por la varianza dx buscamos en la tabla bueno, aquí de nuevo he puesto la recta de regresión ahora como queremos hacer un contraste sobre el intercepto el intercepto es 4.03 más menos el producto del estadístico y contraste que es T con 14 grados de libertad alfa medios nivel de confianza es 0.975 es decir, 0.025 multiplicado por 2.145 que es lo que hemos puesto aquí multiplicado por para el segundo término necesitábamos la tabla de la ANOVA raíz cuadrada del MC de error de la media cuadratica de los residuos va a ser un poco torcida por la raíz cuadrada de 1 partido de 16 más la media en di, si no me equivoco al cuadrado partido por 16-1 por la varianza dx y esto nos da entonces no lo he puesto vale nos tiene que dar dos valores numéricos simétricos con respecto a 4.03 y si no incluyen 0 podemos también rechazar la hipótesis nula de que beta, su cero en la población valga 0 si lo incluyen no podemos rechazarla estamos calculando los números de confianza para B0 por último tenemos el intervalo de confianza no sé si hacer el cálculo aquí y probar una herramienta que me ofrece INTECA no, la voy a facilitar seguimos por último intervalo de confianza de los valores estimados y' es de nuevo para la recta de regresión que vemos en la gráfica anterior esta es la recta de regresión que hemos calculado al inicio del tema esta recta de regresión nos permite para cada valor de x nos da un valor de y' y ese valor es único pero también tenemos que calcular su intervalo de confianza alrededor de ese valor predicho por consiguiente tenemos que calcular el intervalo de confianza acerca de los valores estimados y' para ello los intervalos de confianza siempre tienen la misma forma pero necesitamos conocer lo único que nos falta, el error típico de la distribución mostral de los pronósticos es decir, sigma de y' y este viene dado por la fórmula que pueden ver en pantalla este valor a diferencia de lo que hemos visto anteriormente es una función de x' si nosotros hemos cogido para un determinado valor de x' por ejemplo para x' igual a 10 ¿cuánto vale la y' estimada para ese 10? como tenemos un valor concreto al que le hemos aplicado la recta de regresión lo podemos poner en esta fórmula x' si la predicción es con respecto a otro valor el error típico de las y' cambia no es constante depende de xy entre otros factores el valor sobre el que yo estoy calculando la y pronosticada entonces vemos que ese producto de sigma de los errores ya sabemos que eso va a ser la raíz cuadrada de la medida cuadrática de los residuos según la tabla de la NOVA por recta cuadrada de 1 partido por n más sería un objeto muy parecido a lo que hemos visto anteriormente excepto por el término xy hemos visto que depende del valor para el que esté realizando el pronóstico entonces aplicado los datos del ejemplo anterior, por eso no tenemos un solo intervalo de confianza tenemos tantos como x tengamos y tenemos entonces que calcular para x igual a 1 según la recta de regresión anterior la y predicha según la recta de regresión para una persona que en x tuviera 1, la y predicha es 5.53 y el error típico de esa y predicha aplicando la fórmula anteriormente es 1.22 y por consiguiente calculamos su límite inferior para ese valor de x si ahora cogemos otro valor de x, por ejemplo 4 ahora el error típico de y prima es distinto ahora para x igual a 4 la y progresificada según la recta de regresión es 10.04 pero su error típico ya no vale 1.22 sino aplicando la fórmula anterior 0.72 y su límite inferior y límite superior será 8.49 y 11.60 relativo a esa x y el nivel de confianza del 95% se lo tenía hecho más desarrollado vamos a expresarlo vamos a verlo más claramente esta es la recta de regresión que hemos calculado con un b sub cero que es el intercepto y un b que es la pendiente observemos que y es función de x para cada valor de x tenemos una y predicha entonces para x igual a 1 la sustituimos en la fórmula y hacemos los cálculos 4.03 más 1.50 por 1 y nos da una y pronosticada de 5.53 ahora calculamos el error típico de y que es sigma de los errores hemos visto que era recuadrado del medio cuadrante del error por recuadrado de 1 partido por n vemos que es todo muy parecido a lo que hemos visto anteriormente excepto que ahora la x y sobre la que estamos calculando esta predicción vale 1 1 menos la media de x la diferencia entre x y menos la media al cuadrado partido por n menos 1 por la varianza de x y esto nos da 1.22 que es este valor excepto variaciones de rondeo entre un ordenador y otro de las variaciones cuando yo meto en un ordenador el dato 4.03 o 4.02 o meto 4.02747 o hago 1.50 o 1.50549 los resultados que se van a obtener estas variaciones en la precisión con la que yo introduzco los datos o con la que trabajo me producen variaciones finales en los resultados como las que se pueden ver aquí es 1.2209 o 1.22086 obviamente por el rondeo está muy claro que es así el problema es que este tipo de variaciones cuanto más cálculos se realicen con las mismas cuanto más transformaciones hagamos más se incrementan y puede llegar un momento en que veamos discrepancias entre lo que calculamos nosotros con 2 dígitos de precisión o lo que calcula el SPSS con 8 dígitos de precisión o lo que calcula la matemática con 16 dígitos de precisión hay que tener un poquito de sentido común desde mi punto de vista ante este tipo de variaciones entonces aquí esta variación me resultaría trivial este es el error típico de la Y predicha para X igual a 1 y por último aplicamos el intervalo de confianza que es como siempre el estadístico en este caso Y' pronosticada 5.53 más o menos el estadístico contraste que es una T cuando hemos hecho el contraste para las Y' por su división típica recuerden que ahora esta división típica depende de X, es distinta para cada valor de X en este caso para X igual a 1 tenemos que el límite inferior es 2.91 y el límite superior es 8.15 si ahora cambiamos de X y lo hacemos con X igual a 2 o X igual a 3 el único problema es que nos va a variar sigma sub Y' y tendremos que recalcularla en cada momento aquí se ha hecho se ha vuelto a hacer ya de forma más rápida para X igual a 2 es decir los intervalos de conciencia para X igual a 2 calculamos su predicción según la recta de regresión no tenemos más que este X lo sustituimos en la recta de regresión hacemos los cálculos nos sale 7.03 este valor que es sigma de Y' 1.22 me sale a mi aquí hay un pequeño error este cálculo debería dar lo mismo que esto este cálculo es simplemente el mismo que hemos hecho anteriormente pero con X igual a 2 porque es sobre la que estamos calculando su límite de confianza inferior y superior el resto es exactamente el mismo la misma T la Y predicha es la que nos da la recta de regresión y sigma de Y' es la que nos da esta expresión entonces obtenemos un intervalo de confianza de 4.80 como límite inferior y 9.27 como límite superior y eso lo tendremos que hacer para todos y cada uno de los valores de X si lo queramos hacer si no ya hemos visto el procedimiento no hay que complicarse si ahora graficamos esos límites de confianza para cada valor de X obtendríamos una situación como esta vemos que en verde se ha dibujado la recta de regresión definida por los parámetros B y B' y la línea roja aunque me salga mal esa línea roja representa los límites superiores para cada valor de X y la línea azul representa los límites inferiores para cada valor de X y observamos que en relación al punto medio que es la línea verde la recta de regresión los intervalos de confianza son más estrechos en la media de X y conforme nos alejamos de los mismos se van abriendo tenemos mayor precisión cerca del punto media de X media de Y que cuando nos alejamos con respecto a los mismos es decir cerca de las medias de X y de Y encontramos la menor anchura de intervalo de confianza de las puntuaciones estimadas por el procedimiento anterior la parte más estrecha del intervalo se sitúa en el punto y se va abriendo a medida que las estimaciones se alejan de este punto debido a este factor ese factor nos provoca lo que hemos visto en la gráfica que la precisión no sea la misma en toda la recta de regresión dejamos ya este capítulo en la transparencia 170 para la próxima clase ah, les había comentado algunos asuntos curiosos anécdotas sobre la precisión en los cálculos la primera es la de un listo un listillo o un informático al que le pidieron hacer un software para controlar todas las transacciones bancarias que se producían en un banco muy bien, le hizo su programa pero introdujo una pequeña línea de código en la que como él sabía que en el banco no te van a dar una centésima de céntimo o una décima de céntimo los ordenadores de los bancos redondean y te dan un céntimo o dos céntimos o tres céntimos, pero no dijo bueno, como yo estoy haciendo los cálculos voy a hacer que esas pequeñas décimas o centésimas de céntimo que el usuario no ve porque redondea las voy a meter en mi cuenta bancaria les voy a decir al ordenador el software que estoy realizando que las meta en la cuenta bancaria con mi nombre con lo cual nadie se va a dar cuenta porque esos son redondeos pero se dieron cuenta no porque alguien revisara el código que había escrito sino porque un cajero observó en la atención personalizada que una cuenta corriente tenía un crecimiento exponencial la de este informático el informático no tuvo la precaución de considerar de no hacer demasiado visible esas pocas centésimas o décimas de céntimo iban a ser muy poquita cosa pero eran tantas las transacciones bancarias que se producían que su cuenta empezó a engordar de una forma exagerada y lo pillaron bueno, ya sabemos que esto tiene sus consecuencias en este caso el informático fue a la cárcel y otro caso también muy sonado fue con un cohete de la NASA la trayectoria también venía definida por una serie de cálculos que realizaba el ordenador mediante un programa que alguien había escrito el problema era que para los cálculos de velocidad, de posición etcétera de aceleración de ese cohete el programador había reservado espacios en la memoria del ordenador de 18 dígitos una precisión con 16 dígitos una precisión usual con la que él consideraba que iba a ser suficiente para que los cálculos cupieran en esos 16 dígitos el problema es que no fue así y cuando hubo un número lo suficientemente elevado que no cabía en una posición de memoria de 16 dígitos, el ordenador lo pone todo a cero todos esos 16 dígitos lo pone todo a cero y comienza la cuenta parte de nada resultado un cohete de no se cuantos miles de millones perdido hasta el próximo día