Hola, bienvenidos. Seguimos con el tema 8, la tercera parte. Nos habíamos quedado ayer en los supuestos para aplicar la regresión en lineal simple o múltiple. Estos supuestos son casi como siempre en estadística paramétrica. El primero de ellos es independencia de las observaciones. Normalmente las observaciones suelen ser independientes. Siempre hay que verificarlo. No obstante, en términos prácticos solamente se contrasta si el proceso de selección de la muestra no ha sido aleatorio, que en psicología suele ser. Entonces, los supuestos desde mi punto de vista siempre habría que ponerlos a prueba, que evaluarlos. Independientemente porque es lo que da firmeza a cualquier análisis estadístico. Siempre se oyen las críticas a la estadística. Como que la estadística, no sé quién decía, que estaban las mentiras, las grandes mentiras, y la estadística. Es una forma, desde mi punto de vista, negativa de ver la estadística. La estadística simplemente es una técnica de análisis matemático. Lo que pasa es que trata con incertidumbre. Y eso es muy difícil de capturar para la mente humana. Normalmente necesitamos certidumbre. Cosa que la estadística no nos da. Siempre hablamos de probabilidades. Y uno de los fundamentos de la estadística, como de cualquier edificio, es que se cumplan los supuestos. Si se cumplen los supuestos, la estadística nos da información valiosísima. Por eso los supuestos hay que ponerlos a prueba desde mi punto de vista siempre. Porque son los que te garantizan que los resultados del análisis estadístico, aunque se pueda equivocar, ya lo sabemos, pero son válidos si los supuestos se cumplen. No hay más. Entonces, para la relación simple, independencia de las observaciones, homocelasticidad, lo mismo que sucedía en el análisis de varianza. Su cumplimiento supone que las varianzas de las distribuciones de los errores condicionadas a los diferentes valores de la variable independiente de X deben ser iguales. Vamos a ver qué es esto. No, no estaba aquí. Vamos a ver. Para cada valor de la variable independiente, la recta de regresión nos permite predecir una puntuación en la variable dependiente. Es I'. Es obvio que en situaciones reales, ya hemos visto incluso en este ejemplo, en el ejemplo del que parte el texto, que la puntuación predicha por la recta no coincide con la puntuación observada. Se aproxima, pero no coincide. Esa diferencia es el error. Si tenemos a varios sujetos que tengan la misma puntuación en la variable independiente, por ejemplo, creo que en el texto la variable independiente era vocabulario, si nos cogemos a varios sujetos, diez sujetos, veinte sujetos, todos con la misma puntuación en vocabulario... Voy a ir un momento a cerciorarme que era vocabulario la variable con la que estábamos trabajando... Porque ya no lo recuerdo... Estaba al principio... A ver, eso está más sencillo de ir a... Ah sí, efectivamente. Una prueba de vocabulario X es vocabulario. Imaginemos que nos cogemos a veinte sujetos que tengan la misma puntuación en vocabulario 10. Después de ajustar la recta de regresión, vamos a obtener una determinada puntuación pronosticada para esos veinte sujetos que tienen la misma puntuación en la variable independiente. Pero la puntuación en la variable independiente no va a ser la pronosticada, va a ser algunos un poquito superior, algunos un poquito inferior a esa pronosticada. La diferencia para cada uno de los veinte sujetos entre lo pronosticado y la puntuación real observada en Y será el error. Ese error debe ser... La variante de esos errores debe ser la misma para los diversos niveles de la variante. La variable independiente. Si antes hemos dicho que nos habíamos cogido veinte sujetos en vocabulario que puntuaban en 10, la variante de los errores en ese grupo de sujetos debería ser la misma que la variante de otros veinte sujetos que puntuaran en vocabulario 12 o 15 o 20. Eso es a lo que se refiere con condicionada. Recordemos que en estadística, en análisis de datos sudo, se vio el concepto de condición cuando se vio el tema de probabilidad y se hablaba de probabilidad condicionada. ¿Cuál es la probabilidad de... Perdón, el ejemplo puede ser un poco... no era apropiado para estas fechas, pero es el que me viene a la mente ahora. ¿Cuál es la probabilidad de una persona de 60 años muera? La condición es 60 años. Y entonces de ese grupo de personas de 60 años evaluamos la tasa de defunciones, por ejemplo. Esa probabilidad va a ser distinta si decimos cuál es la probabilidad de que una persona fallezca a los 15 años. Entonces la condición es 15 años. La tasa de fallecimiento para... o la probabilidad de fallecimiento para el grupo de personas de 15 años condicionada a ese valor de edad. Esa era la condición. Y lo poníamos como así. Probabilidad de que se produzca algo, de que la variable dependiente y valga algo, dado, y esto se representaba mediante una línea inclinada, que x, la condición, vale tanto. La probabilidad de y condicionada a x. Hemos determinado el valor de x. Aquí pasa lo mismo. Para cada valor de x del vocabulario vamos a tener una distribución de errores en y. Esa distribución de errores va a tener una varianza. Y lo que planteamos es que la varianza de los errores sea la misma independientemente del valor de y en el que estemos realizando el pronóstico. Eso es lo que se llama homocelasticidad. En el contexto de la realidad, en el caso de la regresión lineal. Otro supuesto es normalidad de las distribuciones, de nuevo, condicionadas a los diferentes valores de la variable independiente. Creo que hay un gráfico que lo explica todo muy bien. Luego vuelvo a este... Aquí está el gráfico. Observen. Aquí tenemos la recta de regresión dibujada en negro. La volveré a dibujar en rojo para que... Son unos datos hipotéticos. Esa es la recta de regresión. Entonces, observamos que para un determinado valor de x, para ese valor de x, condicionada a ese valor de x, la recta de regresión predice que la variable independiente valdrá y'. Como no hay valores numéricos en y es... Vale eso. Ahora bien, todos sabemos que si cogemos a sujetos que tengan esta puntuación de x, a varios sujetos que tengan esa puntuación en x, no todos van a, ni mucho menos, a coincidir en esa puntuación y'. Algunos van a estar aquí, otros van a estar aquí, otros... Va a haber una dispersión de valores todos en la misma recta de x, porque todos puntúan lo mismo en x, pero y va a ser distinta. Lo importante es que los errores, la distancia entre el valor pronosticado y el valor observado de todas estas puntuaciones, esos errores se distribuyen normalmente, como se puede ver en la pantalla. Y además sean idénticas esas varianzas independientemente del valor de x que escojamos. Esa varianza debe ser la misma que la varianza para... Este x, estas puntuaciones que se van a observar, que se van a medir aquí, van a tener unos errores, es decir, una diferencia con respecto al valor pronosticado por la recta de regresión, pero esas varianzas todas deben distribuirse normalmente y las variantes no deben diferir en función del valor de x. Esto es lo que se conoce como la... La condición. Y es lo que aquí se refleja en y barra x. Lo que está detrás de la barra es la condición. Entonces, lo que nos está indicando este supuesto es que la distribución de los errores debe ser idéntica. Si no fuese idéntica, estas distribuciones tendrían unas mayor variabilidad y otras menos variabilidad. Unas serían más apuntadas, otras menos. La división típica sería diferente. Pero vemos que no. Vemos que en este caso, estamos asumiendo que se cumplen los supuestos, todas las distribuciones, independientemente del valor de x a que lo estemos condicionando, independientemente del valor de x a que lo estemos condicionando, las distribuciones tienen la misma forma normal y además no difieren en deviación típica. Esos son los dos supuestos que hemos visto anteriormente. Es decir, homogedasticidad, todos los errores de ese gráfico valían lo mismo independientemente de que x fuese mayor o menor y dentro de una misma condición para un mismo valor de x la distribución era normal. Las distribuciones condicionadas de los errores eran normales. Un último supuesto es la independencia entre los valores estimados, las i' estimados obviamente por la red de regresión i' y los errores de estimación la diferencia entre el valor observado y el valor predicho. Debe haber independencia estadística entre esos dos términos i' y el error. Eso se expresa en términos de que el coeficiente de correlación el coeficiente de correlación r que es como normalmente expresamos la correlación y tenemos dos subíndices i' que nos expresa, nos indica las puntuaciones predichas por la red de regresión y los errores. Entonces la correlación entre esas dos variables debe ser cero. Ese es uno de los supuestos es decir, el saber la puntuación pronosticada para un determinado valor de x no puede indicar nada sobre la magnitud del error. De tal forma que el error es el mismo independientemente de que x sea muy grande, pequeño, mediano da igual. No hay información de i' con respecto al error o al inverso. Esto es así debido a que los errores se distribuyen, o deben distribuirse para que la regresión lineal la aplicación de esta técnica nos proporcione resultados correctos los errores deben distribuirse de manera aleatoria. Pero obviamente los pronósticos no. Los pronósticos, las estimaciones que hacemos a partir de la red de regresión estimada previamente son una función de la variable independiente una función lineal no son aleatorios. Por consiguiente una serie de puntuaciones i' que no son aleatorios no debe correlacionar con una serie de puntuaciones de error que sí son aleatorias. Ese es el cuarto supuesto. Y en esta gráfica se expresa claramente lo que se ha dicho anteriormente no me deja borrar lo que he hecho anteriormente así que lo dejamos. Es importante observar que se estima que la distribución de los errores debe ser idéntico independientemente del x en el que nos situemos deben ser normales que los errores no son esta gráfica que se muestra aquí. Los errores son la distancia entre la puntuación predicha por la red de regresión y el valor observado es esa distancia a la que se deben distribuir normalmente y se dibujan se representa normalmente mediante esta gráfica en la que todas las distribuciones normales están su media está sobre la red de regresión porque lo que nos plantea el análisis de regresión es que la media mu de la variable independiente i a un determinado valor de x es alfa bueno alfa, nosotros alfa le hemos llamado beta sub cero y a beta le hemos llamado b, b sub cero y b es simplemente porque esta gráfica la he cogido de otro texto y simplemente los parámetros les llamaba de forma diferente es una cuestión pura de simbología no hay más en eso no hay no tiene ninguna importancia el caso es que la media de cada una de estas distribuciones de i condicionada a un valor de x es b sub cero más b por x lo que pasa es que obviamente eso si no hubiera error como hay error los supuestos nos indican que el error debe distribuirse normalmente con esa media mu la media de i condicionándote a un valor de x y con una determinada variabilidad sigma al cuadrado de la variable dependiente i condicionada a un determinado x y eso nos indica que las medias las mu que estamos llamando aquí están centradas en la línea de regresión este es un gráfico que el otro lo modifique y este no al revés, el otro no lo modifica y este si, aquí vemos b sub cero b vale es un gráfico similar al anterior pero en el anterior no teníamos tenemos simplemente la recta de regresión y los supuestos que deberían cumplirse en este tenemos un caso más claro donde tenemos todos los datos con los que hemos tratado tenemos el intercepto b sub cero que es la distancia entre cero y el punto en el que la recta corta al eje de abscisas esa distancia b sub cero el error para este valor de x vemos que la recta de regresión para ese valor de x predeciría esta puntuación de i sin embargo la verdadera puntuación observada es esta vemos aquí el punto que representa esa observación la distancia entre y' y es el error para esa puntuación luego hemos también representado lo que es la slope la pendiente nosotros le hemos llamado b en vez de beta beta normalmente representará el parámetro en la población bien recordamos que cuando nos movemos una unidad en el eje de las x ¿cuánto subimos en el eje de las y? eso es beta y el modelo lineal postula que la media de la distribución de valores de i para cada condicionada a un valor concreto de x es una función lineal de b sub cero más b por x una vez que hemos visto todo esto pasamos a la bondad de ajuste incluso en estadística tenemos bondades como siempre la bondad en estadística se refiere a qué tal de bueno es el ajuste nada más no es que sea un gandhi la recta de regresión y sea muy bondadoso sino simplemente es una forma de llamar a si el ajuste es bueno o malo mediocre y obviamente esto no en términos cualitativos de bueno, malo o mediocre no, en términos cuantitativos tenemos que determinar algún índice estadístico que nos indique la bondad de esa recta de regresión es decir, la bondad de ajuste se refiere a en qué lado la recta de regresión explica los datos sobre los que se ha ajustado al hacer un ajuste utilizando el criterio de ajuste por mínimos cuadrados que es el que estamos viendo en el temario hay otros ajustes, por ejemplo uno de los que al menos debe sonarles aunque no lo van a estudiar es el ajuste de máxima prosimilitud MLE en inglés si alguna vez ven estas siglas es un ajuste mediante otro criterio distinto al de mínimos cuadrados ajuste por máxima prosimilitud pero nada más que le suele nada más si hacemos un ajuste por mínimos cuadrados conseguimos un conjunto de valores es decir, un conjunto de i' valores predichos para cada valor de x que están obviamente situados en la recta cuyos parámetros b y d' utilizando como criterio para su cálculo el ajuste por mínimos cuadrados el promedio de i' coincide con el promedio de la variable dependiente de los valores observados es decir, el promedio de i' coincide con i y que minimiza la suma de los errores al cuadrado eso ya lo hemos visto ahora, las estimaciones i' van a diferir normalmente va a ser extraño el caso en que i' coincida con i es decir, i' e i van a diferir de los valores de la variable dependiente realmente observados en la muestra normalmente estamos poniendo aquí el subíndice para indicar algún sujeto determinado va a ser distinto a la puntuación pronosticada la magnitud de esa diferencia entre lo que pronosticamos y lo que realmente observamos es el error de estimación es el error que estamos cometiendo aun después de haber ajustado la recta a los datos y es un indicativo que vamos a utilizar para determinar si el ajuste es bueno o no cuanto mayor error haya el ajuste es peor es el criterio básico no es el único pero es el criterio básico es que el error sea lo mínimo posible que la diferencia entre estos valores sea lo más baja posible es por eso por lo que nos indican que tomar la magnitud de los errores sin más de forma aislada sin considerar otros factores sin poner esta magnitud del error en relación con alguna otra magnitud no resuelve totalmente el problema de determinar la bondad del ajuste es decir, la bondad del ajuste está obviamente en función de los errores pero no solamente en función de los errores aunque no viene en el texto ningún ejemplo de por qué es así me he permitido la libertad de traer un conjunto de datos que provienen de Anscombe de 1973 aquí tenemos los datos originales de este señor son tres conjuntos de datos diferentes que los representamos en estas cuatro gráficas y observen lo curioso veamos, en el primer caso en el primer caso tenemos creo que eran 11 datos 1, 2, 3, 4, 5, 6 7, 8, 9, 10, 11 11 datos para cada conjunto de datos hay cuatro conjuntos obviamente hay 11 puntos en cada uno de ellos se ha ajustado la recta de regresión lo más interesante es que en los cuatro conjuntos la recta de regresión tiene exactamente los mismos parámetros b sub cero y b los parámetros cuando los ajustamos mediante la recta de regresión son los mismos en los cuatro casos pero no sepan que hay algo extraño la recta de regresión ajustada en los cuatro casos es el mismo pero yo si me piden juzgar visualmente lo que estoy viendo solamente admitiría esta recta de regresión para el primer caso el que he señalado en rosa el resto me parecería incorrecto utilizar la recta de regresión porque, observen aquí la recta de regresión no la aplicaría porque parece que la regresión es curvilínea, no es lineal en el tercer conjunto de datos vemos que casi todos los datos están sobre una recta excepto este último que es un outlaw un valor atípico y observen como ese simple dato me ha derivado la pendiente de forma inapropiada porque si todos los datos los diez datos se ajustan a esa recta de regresión este valor atípico probablemente sea un error de codificación de datos o algo pasa en ese valor atípico la recta de regresión, en este caso yo eliminaría este dato la recta de regresión sería la que he dibujado aquí en rosa, la voy a dibujar en rojo yo en este tercer conjunto de datos utilizaría como esta región la roja y eliminaría ese punto atípico con lo cual esta recta de regresión la pendiente es incorrecta simplemente debido a un valor anómalo ¿y qué decir de la situación cuarta? la situación cuarta el problema es que tenemos todos los datos condicionados a un único valor de x todos los casos excepto este todos los casos tienen el mismo valor de x, no hay variabilidad en x bueno hay una pequeña variabilidad dividida que vale 8 en 10 casos y otro caso vale pues 18 la variabilidad es mínima de x vemos que hay variabilidad en y si hay variabilidad pero no en x entonces vemos tres gráficas en donde el ajuste de la recta de regresión no solamente depende de la magnitud de los errores aquí por ejemplo en la tercera gráfica tendríamos muy pocos errores tendríamos solamente si ajustamos con esa recta tendríamos todos estos errores pero si ajustamos con la recta roja tendríamos solamente un error si solamente utilizamos como criterio de la bondad de ajuste la magnitud del error en la tercera gráfica es perfecta tiene muy poco error pero hay otros aspectos que tenemos que considerar cuando establezcamos índices de bondad de ajuste yo como esta mañana cuando estaba preparando las transparencias me lo estaba todavía difícil de creer que el ajuste de la recta a estos cuatro conjuntos de datos produjese los mismos de B0 y B lo he comprobado y efectivamente lo produce estos son los cuatro resultados que me da el SPSS que es el software de análisis estadístico por excelencia para las ciencias sociales y vemos que me da un valor de 3 para B0 y un valor de 0.5 para B en la pendiente en el segundo conjunto de datos me da lo mismo en el tercer conjunto de datos me da lo mismo excepto errores de redondeo y en el cuarto conjunto de datos con lo cual efectivamente llegamos a la conclusión que para el concepto de bondad de ajuste tenemos que tener en cuenta la magnitud de los errores pero no solamente la magnitud vamos a hablar más en este tema estableciendo que está compuesta la varianza de la variable de pendiente de I tanto antes de ajustar la recta de regresión como después de haber hecho el ajuste para ello veamos este gráfico en este gráfico hemos representado una única puntuación de I vamos en amarillo esta puntuación es la única que habrá más pero solamente se va a trabajar con esa vemos la línea negra en amarillo realmente es una línea pero es un único punto la media de I y se ha dibujado una recta de regresión supuesta para un conjunto de datos que no aparecen aquí se han dado por de forma implícita vemos entonces que entre la media de I y la puntuación observada de I se encuentra la puntuación pronosticada de I y por consiguiente podemos considerar que toda esta distancia la distancia entre la media de I e I esa distancia viene explicada o viene dada por la suma de dos distancias la distancia entre I más la distancia entre I y la media que es lo que vienen a representar esta fórmula para esa puntuación la distancia entre I y la media es decir, lo que hemos dibujado toda la distancia general es la suma de dos distancias la distancia entre la puntuación observada predicha y la distancia entre la I y la media esto para esta observación pero es que esto se va a cumplir para todas las observaciones por consiguiente en vez de tener simplemente una suma de tres valores vamos a hacer sumatorios para todos los datos que tengamos y luego dividimos por los grados de libertad n menos las restricciones y entonces conseguiremos las varianzas la varianza de I la varianza total de I viene dada por la distancia entre cada puntuación y su media esa varianza viene dada por la suma de la varianza de las puntuaciones predichas más la varianza del error vemos que cada uno de estos componentes pertenece a uno de los componentes de la suma que hemos visto anteriormente vamos a ver algunos casos en nuestro ejemplo en el ejemplo con el que se ha estado trabajando en el texto tenemos el punto 1.7 X vale 1 e I vale 7 y ese es el punto que representa esa observación para ese sujeto vemos que la recta de regresión no coincide en la puntuación pronosticada con 7, sino que la puntuación pronosticada para la recta de regresión es donde X es igual a 1 corta la recta de regresión nos vamos al eje de ascisas y resulta que para un X igual a 1 la recta de regresión en azul nos predice un valor de 5.53 por consiguiente la distancia entre 7 y 5.53 es el error para esa observación y vemos en el caso anterior solamente estamos viendo el error 5 es la I observada 5 es la I predicha para ese X y nos falta la media la media del conjunto total de datos es 13 lo hemos dibujado aquí mediante la línea verde entonces, para esa observación vemos que la distancia entre I1 menos la media vamos a dibujarla en algún color distinto de lo que estamos dibujando hasta el momento vale la distancia entre I1 7 y la media se puede considerar como la suma de la distancia entre I1 menos la puntuación pronosticada esa distancia más la distancia entre la I pronosticada y la media observen que en este caso al estar la puntuación por debajo no es exactamente lo mismo que hemos visto en el caso anterior pero, observemos que los datos cuadran 7 es la puntuación observada menos la media global de los datos 13.62 es igual a 7 menos 5 esa distancia más 5 menos 13.65 1.46 el primer valor más menos restamos en este caso menos 8.09 si esto lo hacemos para el segundo punto tendremos exactamente lo mismo tendremos que en el segundo punto para x igual a 2 el valor observado de I es 6 sin embargo, el valor pronosticado no es 6, sino que el valor pronosticado por la recta de regresión es 7.04 si ahora hacemos los mismos cálculos que hemos hecho anteriormente vemos que de nuevo los datos cuadran la distancia entre I2 que en este caso es 6 está por debajo de la recta de regresión 6 menos 13.65 es igual que la suma de la distancia entre 6 y 7.04 es decir, la distancia entre 6 y su valor pronosticado más la distancia entre el valor pronosticado y la media y así lo podríamos hacer para todos los puntos del eje de todos los datos del diagrama de dispersión hemos visto que esta ecuación se cumple para todos y cada uno de los datos entonces lo que se hace es que sumaremos haremos esta ecuación pero en términos de sumatorios para todos los datos luego dividimos por su grado de libertad y nos contraeremos con que la varianza de las puntuaciones observadas en este caso por este factor es la suma de estas dos varianzas la varianza debida a el pronóstico que me ha mejorado la estimación de la recta de regresión el pronóstico que me ha introducido la recta de regresión más la varianza de aquello que sigue todavía sin explicar la varianza de los errores no obstante vamos a seguir indagando en esto ¿qué sucedería si solo dispusiéramos media y varianza? si no ajustamos los datos a una recta de regresión ¿cuál sería la mejor estimación que podríamos hacer para los valores de i? pues si no tenemos recta de regresión la mejor estimación que podemos hacer es la media si deseamos hacer una estimación para un sujeto concreto sin utilizar la recta de regresión lo correcto sería otorgar a ese sujeto la media del grupo si yo sé que los finlandeses tienen como altura 1,76 de media y me piden que estime ¿qué altura crees que tendrá fulanito que va a venir aquí de Erasmus a la UNED? como no lo tengo ni idea estimo que tendrá la media de su grupo y sería correcto porque si hago esa estimación de la media será la que minimiza el error de predicción ningún otro valor distinto a la media va a hacer que los errores de predicción utilizando la media sean más pequeños lo siguiente es una elección más que correcta es juiciosa sin otra información la media de los datos de i, de la variable dependiente sería la mejor predicción que podemos realizar a cualquier elemento poblacional si no tenemos otra información ahora bien y observamos que si utilizamos la media hacer una estimación sin tener ninguna otra información sobre un sujeto concreto el error que vamos a obtener va a ser la diferencia entre la puntuación real de ese sujeto menos la media si nos piden hacer muchas estimaciones la suma de estos errores será el valor mínimo será un valor mínimo pero para un conjunto de errores por consiguiente si para un conjunto de sujetos utilizamos la media como estimador podemos obtener el error en términos del cuadrado es decir, en términos como siempre del cuadrado de esa diferencia ese sumatorio de errores al cuadrado utilizando como único estimador la media es el mínimo que podemos obtener ningún otro valor distinto a la media me va a conseguir un error más pequeño con esta expresión entonces este es el término de error global utilizando la media y observen que se corresponde con el primer término de de esta suma y subir menos la media por consiguiente podemos considerar que ese término en términos de error al cuadrado representa la variabilidad total de los errores utilizando como único estimador la media y ahora lo que vamos a ver es y qué pasa si en vez de utilizar la media como estimador ajustamos una recta de regresión es decir si disponemos de otra información distinta a la media si disponemos de la información que me proporciona una recta de regresión que he construido utilizando los conceptos que hemos visto anteriormente de b sub cero y b el método de mínimos cuadrados habré reducido el error en relación a si utilizar sólo la media ¿en qué cantidad? ese es el segundo paso si disponemos de información sobre la relación que hay entre la detección de errores es decir, i en nuestro ejemplo y la prueba de vocabulario x en nuestro ejemplo y sabemos por consiguiente cuál es la recta de ajuste entre ambas variables podemos utilizar más información distinta a la media mejorar la predicción o tratar de mejorar la predicción en relación a simplemente utilizar la media y la pregunta es ¿esa nueva predicción que realizo utilizando la ecuación de regresión ¿es mejor? ¿difíciles concretamente a si solamente utilizo la media? normalmente va a ser que sí depende del caso es lo que queremos juzgar para resolver si ahora deseamos hacer una estimación de la puntuación de un sujeto una estimación para un primer sujeto en la prueba de errores lo razonable es que aprovechemos la nueva información de que disponemos es decir, esa recta de regresión y veamos qué puntuación ha tenido el sujeto en x apliquemos la recta de regresión b0 más b por x la x que ha tenido el sujeto en vocabulario y eso nos va a dar un valor de i' para ese sujeto es decir, estamos haciendo una estimación mediante la ecuación de la recta a esa puntuación, a esa nueva estimación le vamos a llamar, como ya hemos dicho repetidamente i' y ahora, la diferencia va a ser con respecto a la puntuación realmente observada va a ser distinta normalmente esta estimación utilizando la recta de regresión se va a aproximar más al valor original a la i observada que lo que hacía la media no obstante, eso no está para que aún te asista cierto error la distancia que va entre la i observada y la i predicha sigue sin ser cero pero es menor que la que había entre la i observada y la media es decir, en resumen el error original que cometíamos originalmente utilizando como único estimador la media lo hemos reducido en parte utilizando la recta de estimación porque ahora el error va a ser distinto ahora, la estimación va a ser i' y lo vamos a comparar con la media esto es la parte del error que hemos reducido y no obstante la distancia entre la i observada y la i predicha es la parte de error en nuestros datos entonces lo importante es comparar este error que cometíamos anteriormente con este nuevo error que ha resultado de utilizar la recta de Renshaw como estimador entonces la variable original expresada en puntuaciones diferenciales con respecto a la media global es la suma de estas dos puntuaciones diferenciales que son dos variables la i observada que es la pronosticada por la recta de Renshaw menos la media y la i observada menos la predicha además estas dos son independientes entre sí su correlación entre ellas es cero de nuevo volvemos a la fórmula que hemos visto anteriormente para una única puntuación para puntuación i sea la que sea la reducción del error que hemos conseguido mediante la línea mediante la regresión y esta es la parte de error que todavía queda en los datos que la recta de Renshaw sigue sin explicar ahora, si a este conjunto de datos lo elevamos al cuadrado como siempre para castigar fuertemente las deviaciones elevadas castigarla mucho más fuerte que las deviaciones pequeñas y sumamos para todos los datos es decir, en este caso para todos los sujetos hacemos el sumatorio del primer sujeto hasta el último he puesto como subíndice j y aquí he puesto i los subíndices tienen que coincidir sucede en todos los aquí también sucede obviamente si es un cruz sumatorio el subíndice tiene que coincidir con respecto a lo que se ve en la parte interior del paréntesis en esta transparencia si a los sumatorios de cuadrados es decir, a esta estos son los sumatorios de cuadrados los dividimos por su grado de libertad n-1 es decir igual que pasa en la ANOVA aquí siempre que se habla de varianzas van a ser insergadas si dividimos por su grado de libertad lo que tenemos en cada apartado es una varianza el primero es la varianza global de i el segundo es la varianza debido a los pronósticos i' y el tercero la varianza debido a los errores por consiguiente llegamos a la fórmula básica que la varianza de las puntuaciones observadas es la suma de dos componentes la varianza de las puntuaciones predichas por la recta de regresión que hemos ajustado mediante más un componente de error una varianza de error que es un componente que todavía queda sin explicar después de haber realizado ese ajuste en resumen cuando hay una relación lineal entre dos variables y eso significa que la pendiente b de la recta de regresión es distinta de cero porque si fuese cero x no tiene valor predictivo la varianza de la variable dependiente es decir, de i se puede descomponer en dos varianzas la de los pronósticos que es una mejora con respecto al pronóstico que me hacía la media sin más la de los pronósticos debido a la relación lineal de la variable dependiente con la variable independiente y la de los errores o residuos esta ecuación se va a cumplir tanto para la regresión lineal simple como para aquí vemos un esquema global de los cálculos que son obviamente si no se hacen con el coordenador son pesados pero tampoco tienen gran dificultad tenemos en primer lugar x e i la variable predictora x y la variable predicha i en la tercera columna tenemos la media de i como la media de i es una única 13,62 es el mismo valor para todos los sujetos es el valor que si no tuviera otra otra información sería que utilizaría para predecir algún sujeto concreto de i el caso del sueldo que he dicho que he comentado anteriormente ahora bien si he realizado el ajuste entre x e i durante una regresión lineal creo que son los datos que teníamos anteriormente para cada sujeto ahora tendré una puntuación pronosticada según aquella recta de regresión que podemos ver en pantalla aquí abajo no se ve muy bien porque siempre hay aquí un icono que me quita parte de la información pero vemos que esto es i la puntuación i pronosticada es igual a 4.027 más 1.50 por x para cada valor de x de la primera columna aplicamos esta recta de regresión y obtenemos un nuevo valor de i para x igual a 3 el valor de i que me da esta recta de regresión es 8.54 para x igual a 1 el valor de i que me da esta recta de regresión es 5.53 para x igual a 7 lo sustituyo en esta ecuación de aquí abajo y el valor pronosticado es 14.56 y así sucesivamente son los valores pronosticados para cada valor de i y vemos que para x igual a 3 la puntuación pronosticada es 8.5 mientras que la puntuación observada es 9 hay una diferencia por consiguiente ahora tenemos aquí tres nuevas columnas en la primera columna calculo la desviación entre cada puntuación original y menos la media y estas son las puntuaciones de desviación con respecto a la media en la siguiente columna calculo las desviaciones de cada puntuación pronosticada i' menos la media y en la tercera calculo la puntuación desviación entre la i observada y la pronosticada observen que estos tres componentes son los que veíamos anteriormente en la fórmula a continuación estas tres últimas columnas elevamos cada uno de estos valores al cuadrado y hago el sumatorio de cada uno el sumatorio es el numerador de la varianza vemos entonces que si a estos sumatorios los divido por 16 menos 1 16 es el número de datos menos una restricción nos da la varianza debida la varianza total de i la varianza debida a la regresión y la varianza de error y vemos que 21.58 es igual a 17.18 más 4.39 se cumple el teorema que hemos visto anteriormente y observamos que de la varianza total que teníamos inicialmente 21.58 que era la varianza que tendríamos si utilizamos la media como mejor estimador es una varianza de error pasamos a una varianza de error de 4.39 y hemos reducido una cantidad sustancial de varianza hemos reducido 17.18 en términos absolutos utilizando la recta de regresión ahora, observamos también nos han puesto la correlación entre x e y, ya se calculó en el primer tema y el cuadrado de esa correlación r al cuadrado es el coeficiente de determinación hablaremos de él más adelante también nos han indicado la correlación r subíndice i' errores ¿qué es i' ? esta columna estoy intentando ponerle otro color el amarillo la correlación entre este conjunto de datos i' y los errores cometidos ajustando la recta de regresión que sería lo voy a poner en que otro color no he utilizado todavía este, el rosa lo que se ve sería la puntuación observada menos la predicha esta columna en rosa la correlación entre la columna en rosa y la columna en amarillo vale 0 lo he confirmado esta mañana también y efectivamente la correlación entre estas dos variables vale 0 no hay relación entre los errores pronosticados y los errores que cometemos que es una de las características que hemos visto previamente en el tema una característica teórica y ahora vamos a ver una serie de índices dependientes todos de esa composición de varianzas son muy sencillos al principio pueden parecer sacados de la manga pero no lo son, son muy sencillos la primera es nos informa de la proporción recuerden, un porcentaje es una relación entre 0 y 100 una proporción es esa relación entre 0 y 1 por consiguiente si la varianza global es ese cuadrado de i este es el total de la proporción 1 que proporción de esa de esa varianza me explica la recta de regresión s al cuadrado de i' estableciendo la regla de 3 x es igual a la varianza de los pronósticos por 1 partido por la varianza de i esto lo podemos eliminar porque 1 por la varianza de los pronósticos es la varianza de los pronósticos y nos quedamos con este simple cociente en el denominador tenemos la varianza total debida a la regresión y ese valor es simplemente nos indica en qué grado en qué proporción me está reduciendo la varianza de error el introducir la recta de regresión es lo que hemos puesto aquí esta es la ecuación que hemos visto anteriormente y el valor esta es otra forma de obtenerla utilizando la tabla que hemos visto anteriormente porque vemos que es un sumatorio en el numerador tenemos la suma de cuadrados de la predicción y en el denominador tenemos la suma de cuadrados total como en el partido por 1 era el mismo en ambas varianzas se elimina es decir, que el numerador es la suma de cuadrados debido a la regresión esta es otra forma de decir de exponer este el numerador de la segunda expresión mientras que el denominador es la suma de cuadrados de y y si hacemos este cociente observaremos que es el cuadrado del cociente de correlación entre x e y el cociente de determinación la cualquiera de la proporción en la que la recta de regresión me disminuye la varianza de error en relación a utilizar solamente la media es el cuadrado del cociente de correlación entre variable dependiente e independiente en la ecuación anterior hemos puesto en relación estos dos componentes de varianza la varianza total y la varianza pronosticada que me genera la recta de regresión por consiguiente el resto de la proporción o lo que es lo mismo la relación entre la varianza total y la parte de varianza que queda sin explicar incluso después de haber introducido la recta de regresión es 1 menos el cociente de determinación en este caso el numerador es la suma de los cuadrados de los residuos es decir, del error que queda incluso después de haber ajustado la recta de regresión partido por la suma de cuadrados total y como la suma de este componente más la varianza al cuadrado de i' partido por la varianza de i que es lo que hemos visto anteriormente esa suma me tiene que dar la unidad porque estamos hablando de proporciones y por consiguiente se deriva esta expresión de ahí se deriva esta expresión en resumen el coeficiente de determinación r al cuadrado cuando no haya confusión se va a poner r al cuadrado sin subíndices que indiquen de qué variables estamos tratando nos indica la proporción no porcentaje porcentaje va de 0 a 100 proporción de 0 a 1 la proporción de la variabilidad de la variable dependiente de ese total es decir de s al cuadrado de i de ese total que podemos imputar a la variable independiente a la mejora de predicción que me produce x su complemento 1 menos r al cuadrado se llama coeficiente de alineación alineación es un concepto que se utiliza mucho en sociología aquí simplemente se refiere a aquella parte que no está asociada a x en sociología yo recuerdo cuando estudiaba de esto y si recuerdo bien era la percepción subjetiva de una persona en su trabajo eso lo utilizaban mucho los marxistas considerarse que él era una cosa en su trabajo un obrero que está poniendo chapas todo el día en su puesto de trabajo se considera una cosa él no se identifica con su trabajo está alienado aquí no se refiere a eso aquí se refiere a la parte de la variable independiente que no está asociada a la variable independiente es la parte residual de la variabilidad de la variable independiente por consiguiente atribuible a otros factores distintos a la variable independiente además de esta interpretación de r al cuadrado hay otra se puede interpretar de varias formas que tiene que ver con la reducción del error en vez de la media para establecer la inferencia y en este sentido r al cuadrado es la proporción en que reducimos el error cuando empleamos la recta de regresión para estimar los valores de i en relación a cuando sólo utilizamos la media de i podemos observar en el ejemplo que el error cuadrático inicial era 21.58 era el error total aquí estaba la reducción no me había equivocado cuando puse anteriormente no se veía la i prima recuerdan anteriormente que puse aquí i prima era porque tenía otro gráfico que me lo tapaba obviamente es i prima como función de x igual a esa recta de regresión vimos aquí la varianza total 21.58 en vez de ajustar la recta y hacer la estimación de cada puntuación mediante la misma nos queda un error cuadrático de 4.39 que es el que veíamos en este diagrama por consiguiente 21 que era la varianza global haciendo la estimación mediante la media menos el error me da la parte de error en relación a ese total que me elimina la recta de regresión y en términos de proporción dividimos lo que me elimina la recta de regresión 17.18 en relación a total 21.58 me da una proporción del 0.79 es bastante alto y este es precisamente el valor r al cuadrado que aparece en la tabla del consiguiente de determinación que se calculó previamente y que vemos estas dos fórmulas son las que hemos visto anteriormente son las fórmulas para el consiguiente de eliminación y el consiguiente de determinación y por último tenemos aquí una fórmula, otra medida de variabilidad distinta a las anteriores y que se va a utilizar mucho en psicometría se trabaja poco en el texto pero en psicometría les aseguro que la van a utilizar muchísimo es la división típica de los errores teníamos una columna que eran los errores que persisten después de haber realizado la recta de regresión multiplicando la división típica de i por la raíz cuadrada de 1 menos el consiguiente de determinación este s sub e es la división estándar o típica de los errores recuerden esta fórmula porque la van a utilizar bastante por último una forma gráfica de representar la varianza explicada la varianza explicada por mi variable independiente por x que es en definitiva la recta de regresión varianza explicada o compartida mediante un diálogo de vn en el cual la varianza de cada variable se representa mediante círculos el área de ellos debería ser igual a la unidad y para indicar para establecer una estandarización de la misma y la intersección de ambos círculos representaría la proporción de varianza compartida es decir el cuadrado en nuestro caso veríamos en otro color la varianza de y sería esta la varianza de x sería esta y el área que está subrayada en gris vendría a representar el coeficiente de determinación r igual a 0.796 si vemos de y vamos a utilizar por ejemplo el verde del total de variabilidad de y hay una parte que es la que está en gris explicada por x y hay una parte que no viene explicada por x y como el área de este círculo en verde es la unidad significa que 0.796 más lo que queda en blanco tiene que dar la unidad esta magnitud es el coeficiente de alineación 1 menos r al cuadrado 0.204 es una forma visual simplemente de ver el ajuste que me introduce y por último un último indicador del ajuste es lo que se conoce como el error típico, observen vamos a ir a una anterior esta es la división estándar de los errores y esta expresión es el error típico que es una estimación realizada sobre la población a partir de la muestra ya esto es una estimación ya es inferencia viene dada por la raíz cuadrada de la suma de cuadrados de los errores y menos la i predicha son los errores por consiguiente su sumatoria al cuadrado partido por los grados de libertad en este caso es n-p-1 n el número de sujetos p en este caso es el número de variables independientes tenemos solamente una y un grado de libertad porque hemos estimado la media por consiguiente n-2 la raíz cuadrada de esto se conoce como el error típico y viene en puntuaciones de la muestra griega porque se refiere a una estimación con respecto al error típico en poblacional y ahora ya si nos meteríamos en las inferencias pero esto ya lo tenemos que dejar para el último día hemos quedado por la 121 vamos a ver si tengo algo preparado bueno cuentan los amigos de Dirilach un matemático del siglo XIX que no era muy amigo de escribir cartas a mí me lo pasa con el email y de una excepción cuando nació su primer hijo Dirilach mandó un telegrama a su suegro con el siguiente mensaje a buen entendedor