Buenas tardes. Seguimos con el tema 8 y comenzamos con la parte 6 del tema 8. Nos habíamos quedado en el modelo de regresión múltiple. Habíamos visto que al ajustar dos variables independientes, dos variables predictoras, para predecir una tercera variable y la variable predicha o dependiente, lo que obteníamos era un plano de regresión. Y necesitábamos, para obtener ese plano a partir de los datos empíricos, de los datos obtenidos en nuestra muestra, necesitábamos tres parámetros. B0, B1 y B2. Es decir, las dos pendientes para cada una de las variables independientes y el intercepto, el punto de corte con la ordenada. Habíamos visto las fórmulas de su cálculo y ahora nos pasamos al ajuste del modelo. De la misma forma que vimos, cuando estábamos en regresión simple, no es suficiente con que calculemos una serie de parámetros en función de los datos muestrales. Tenemos que ver si ese ajuste, si ese plano, tengamos en cuenta que B0, B1 y B2 nos van a definir un plano absoluto, un plano matemático, sobre el que no se van a encontrar exactamente dos variables. Y si no se van a encontrar exactamente los puntos que hemos medido en nuestra muestra, tenemos que ver qué tal grado de ajuste tiene ese plano con respecto a los datos empíricos para aceptar el modelo o rechazarlo. Es como antes el ajuste del modelo. Y por consiguiente, para ajustar el modelo necesitamos tener una serie de índices matemáticos, una serie de valores numéricos, que nos indique si el ajuste es mejor o peor. En regresión simple, el ajuste del modelo vimos que venía dado por el cuadrado del coeficiente de correlación, el coeficiente de determinación. Ese coeficiente nos informaba acerca de la proporción de la variabilidad en la variable dependiente, es decir, de la varianza de i, que podía ser explicada o atribuida a la variabilidad en la variable predictora o variable independiente. Eso era en regresión simple. En el caso de la regresión múltiple, las preguntas básicas son similares. Variables, en primer lugar, ¿estiman bien la variable dependiente el conjunto de variables independientes que estamos utilizando? En nuestro caso, las dos variables independientes que estamos utilizando, ¿estiman bien a la variable dependiente? Y la segunda pregunta, ¿cuánto añade cada variable por sí sola con independencia de la otra, una vez que las otras variables han aportado su parte de explicación? Es decir, podemos tener... una buena predicción a partir de dos variables, x1 y x2. Pero puede ser que no las dos aporten la misma proporción de explicación. Podría ser que una aportara el grueso y la otra muy poquito. Por eso es por lo que nos vamos a preguntar si individualmente las dos variables ¿qué añaden a la predicción de la variable dependiente? Independientemente de la otra. Esto... Esto va a traer complicaciones. Va a traer complicaciones porque entonces tenemos que separar las correlaciones que observamos empíricamente, aquella parte empírica, de los efectos espúreos que pueden producirse no por esa variable sino por otras. Lo vamos a ver a continuación. Entonces, en primer lugar, para la primera pregunta que hace referencia a la ecuación, en general, ¿estima bien la variable dependiente el conjunto de variables independientes? El conjunto, no una u otra. Las dos. Para ello lo que podemos utilizar es el coeficiente de correlación múltiple. R. Y entonces, observemos que ponemos dos subíndices. y para indicar que es la predicha punto y a continuación ponemos las predictoras y por eso hemos puesto 1 y 2 no 12 son la primera variable independiente y la segunda variable dependiente lo que estamos diciendo aquí es la r nos indica en qué grado el conjunto de esas dos variables independientes me explican o predice y realmente entonces aquí tenemos solamente dos componentes la predicha y las dos predictoras es el coeficiente de correlación múltiple o subcuadrado que es el coeficiente de determinación como sucedía en el caso de reacción simple al igual que r la correlación no si es un coeficiente un índice numérico que nos señala el grado de relación de correlación entre dos variables r y punto 12 nos indica ese consciente que correlaciona la variable dependiente y con una combinación óptima ya hemos visto lo que era óptima criterio de mínimos cuadrados variables independientes y con una combinación de esas dos variables es la correlación entre i e i prima y esa i prima aportada por las dos variables independientes el consciente correlación múltiple múltiple precisamente por lo que estamos diciendo porque estamos incluyendo para predecir y dos variables independientes viene dado la raíz cuadrada de un consciente en el que numerador tenemos la correlación al cuadrado entre la variable predicha y x1 más La correlación al cuadrado entre la variable predicha e i sub 2. Sabemos que es la suma de dos cuadrados y cada uno de ellos es una correlación. Una correlación entre la variable predicha y las predictoras que haya, como i2, i1 e i2. Si hiciéramos nada más que esto, esto sobreestimaría el verdadero coeficiente de correlación múltiple. Y para ello se le elimina, mediante esta resta, el doble del producto entre el coeficiente de correlación entre i1 por el coeficiente de correlación entre i2 por el coeficiente de correlación entre la primera variable independiente y la segunda. Y todo ello se divide por... 1 menos r al cuadrado, la correlación al cuadrado, pero tomando ahora las dos variables predictoras. La 1 y la 2. Una forma más simple, vemos que esta está basada en los coeficientes de correlación. Si tenemos tres variables, tenemos tres coeficientes de correlación. Tenemos el coeficiente de correlación entre i y x1, que es lo que aquí denominamos siempre con el subíndice. Los subíndices i1, el coeficiente de correlación entre i y x2, que es lo que denominamos los subíndices que aparecen aquí como i2 y el coeficiente de correlación entre x1 y x2, que es lo que aquí denominamos como 1, 2. Estos son los subíndices que aparecen en las correlaciones anteriores, porque tenemos tres conjuntos. Y por tanto tenemos tres correlaciones. Y aquí estamos trabajando con las correlaciones directas. Otra forma de obtener este mismo dato, o mejor dicho, este mismo resultado, la correlación múltiple, es mediante la raíz cuadrada de la suma de dos productos. En donde vemos, aquí tenemos beta, beta sub 1 era, lo habíamos visto, el coeficiente de regresión parcial estandarizado, es decir, el plano en puntuaciones tipificadas tenía dos pendientes, una para x1 y otra para x2. Y a esas dos pendientes les llamamos beta sub 1 y beta sub 2. Pues el producto de beta sub 1 por la correlación entre la variable predicha y x1 más lo mismo para la segunda variable, es decir, beta sub 2 por la correlación entre la variable predicha y x2 nos da el mismo valor, el coeficiente de correlación múltiple. Que es un índice del grado en el que nuestro plano está más o menos cerca de los datos empíricos. En el caso de aplicar a los datos del ejemplo, aplicamos la fórmula, tenemos 0.469 era beta sub 1, lo habíamos calculado previamente porque era más sencillo, por el coeficiente de correlación entre la variable predicha y x1. x1 más 0.649 que era beta sub 2, el coeficiente de regresión tipificada para x2 por el coeficiente de correlación entre la variable predicha y x2. Y esto nos da un coeficiente de correlación múltiple de 0.78, es muy alto. Eso nos indica, por sí solo. Solo que ya podemos suponer que el ajuste es bastante bueno. Tenga en cuenta que, como todo coeficiente de correlación, el máximo es la unidad y nos hemos quedado al 0.78. Es alto. No obstante, el coeficiente de otro índice más adecuado para establecer ese ajuste es el coeficiente de determinación, tal y como sucedía en reversión lineal simple. El coeficiente de determinación es el cuadrado del coeficiente de correlación múltiple, el anterior al cuadrado. Es decir, podríamos simplemente coger 0,78 y elevarlo al cuadrado y tendríamos el coeficiente de determinación. Pero otra fórmula para calcularlo, o más que para calcularlo, para interpretarlo, es la que ven en pantalla. La razón entre la varianza de los pronósticos y la varianza de la variable dependiente. Es decir, observen, en el denominador tenemos la varianza de i, de la variable dependiente, de la variable que queremos predecir. Y en el numerador tenemos la varianza de los pronósticos, que conseguimos mediante el plano de regresión que hemos visto anteriormente. Es decir, utilizando x1 y x2, para cada valor de x1 y de x2 nos predice una puntuación en i. Esa puntuación predicha, para todos los datos que tengamos, en nuestro caso va a tener una determinada varianza. El coeficiente entre esas dos varianzas es... ...el coeficiente de determinación. En nuestro caso, la tabla muestra los valores de i, los pronósticos... ...bueno, vamos a verlos. Los sujetos, teníamos 15 sujetos. Aquí teníamos la variable x1, tenemos la variable x2, era las horas de estudio de los chavales, y un test de razonamiento abstracto. A partir de estas dos puntuaciones, queremos encontrar el plano que mejor ajuste las puntuaciones observadas en matemáticas, en un test de matemáticas. Y habíamos encontrado esta... Esta ecuación, en puntuaciones directas, b sub 1 por x sub 1 más b sub 2 por x sub 2 más b sub 0. Entonces, por ejemplo, si queremos predecir para los valores 8 en x sub 1 y 19 en x sub 2, nosotros aplicamos esta ecuación, simplemente tenemos que sustituir 8 en x sub 1 y 19 en x sub 2. Hacemos los cálculos y nos da una y predicha de 50.56. Esta sería la y predicha para ese primer sujeto, mientras que la puntuación realmente pronóstica observada es 54. Si seguimos trabajando con el... a ver, 8, 19... Ah, aquí lo que he calculado, esto era... estas tres líneas son las que hemos visto en la transparencia anterior y lo que vemos a continuación es el error. Si para el primer sujeto la puntuación observada es de 54 y la predicha por el plano de regresión es de 50.6, la diferencia entre ellos, el error que cometemos con nuestro plano de regresión, es de 3.46. Y 4, aproximadamente. Por consiguiente, si hacemos este cálculo para todos y cada uno de los sujetos, es decir, nos cogemos sus puntuaciones en x sub 1 y en x sub 2, las introducimos en la fórmula que hemos calculado, que nos define un plano de regresión, vamos a tener puntuaciones predichas y prima. Y como tenemos las... Observadas. Porque son las que hemos medido, la diferencia entre la observada y la prevista nos da el error. Esto realizado para todos y cada uno de los sujetos nos daría un conjunto de puntuaciones pronosticadas y prima sub 1-2 para indicar que estamos utilizando dos variables predictoras. Aquí vemos que hemos colocado simplemente el primer pronóstico, que ya lo hemos visto en la apariencia anterior, 50.6, y el error que cometemos con ese primer pronóstico, error o residuo. Ahora lo hacemos con el segundo. El segundo tiene x1, 9, lo ponemos en esta fórmula, y x2, 18, lo ponemos en esta fórmula. Hacemos los cálculos correspondientes y nos sale una y predicha de 50.87. Sin embargo... Sin embargo, la puntuación observada, aunque está cerca, no es idéntica, es 52. Por consiguiente, tenemos un error, en este caso, de 1.13. Y la colocamos en la tabla anterior, la puntuación predicha, el plano de regresión y el error, el residuo, para ese sujeto. Y así vamos haciéndolas todas. Es obvio que esto es pesado, y lo más adecuado sería disponer de un ordenador y un software adecuado. Hay muchos para ello, intentaremos verlo más adelante. El caso es que al final tenemos un conjunto de puntuaciones en i, que son la variable en la que estamos interesados. Es decir, la puntuación en matemáticas, ¿de qué depende? De que un chico saque mejor nota o peor en un test de matemáticas, o en los exámenes... ...de matemáticas del colegio. Tenemos estos 15 sujetos... Y utilizando las variables tiempo de estudio, la x1, y razonamiento abstracto, como dos variables predictoras, vemos que conseguimos estimaciones bastante cercanas a la puntuación real. Hemos obtenido 54 en el primer caso y 50 en el segundo, en la puntuación estimada. La puntuación observada para el segundo caso ha sido 52, y 50.8, casi 51, la puntuación estimada. 34 la observada para el tercer sujeto, y 38.8 para el segundo, como puntuación pronosticada. Vemos que este conjunto de puntuaciones son bastante aproximadas. Y esto lo que nos está indicando es que la estimación que estamos haciendo con x1 y x2 parece que es bastante buena. Y hemos visto anteriormente que el coeficiente de correlación múltiple era bastante elevado. Luego veremos los contrastes estadísticos para aceptarlo o rechazarlo. Pero el caso es que ahora tenemos también un conjunto de puntuaciones de i estimadas, de i prima. Como tenemos la puntuación observada i y la puntuación pronosticada i prima, su diferencia nos da otro conjunto de puntuaciones que son los errores o residuos. Una vez que tenemos todas estas puntuaciones, podemos calcular las varianzas de cada una de ellas. Vemos que la varianza total en i es de 60.23. La varianza en la i pronosticada es de 36.9, y 23.2 la de los residuos. Como siempre, las varianzas son ensalgadas. Entonces, estimar bien el conjunto, la variable dependiente i, el conjunto de esas variables independientes, aunque... A siempre vista parece que sí, porque hay un acuerdo bastante importante entre la puntuación observada y la predicha. Necesitamos un índice numérico que nos lo cuantifique. ¿Qué grado de aproximación? Y ese grado, ese índice numérico, normalmente es el coeficiente de determinación múltiple en este caso. R al cuadrado. Entre las puntuaciones predichas por la recta de regresión, las puntuaciones i y las puntuaciones predichas por la recta de regresión. En este caso, habíamos visto previamente que este coeficiente de correlación se puede calcular mediante el coeficiente entre dos varianzas. La varianza de las puntuaciones predichas partido por la varianza de las puntuaciones observadas. Y vemos que esto nos da 0.76. Es un índice bastante correcto. Y nos quiere decir que la combinación de las dos variables, x1 y x2, que eran tiempo de estudio y razonamiento abstracto, nos permite explicar el 61,4% de la variabilidad de las puntuaciones obtenidas en matemáticas. Y solamente nos deja un 38,6 debido a otros factores que no conocemos, que no están relacionados lindamente con dichas puntuaciones. Simplemente que no se han metido en la recta de regresión, que no las conocemos. Pero observen que de un 100% de variabilidad en las puntuaciones de i, estas dos puntuaciones x1 y x2 nos han explicado el 61,4. Es bastante elevado. Y esto es lo que... Bueno, vemos que se cumple lo que han denominado aquí el teorema de Pitágoras. De la regresión lineal. Se puede expresar como que la varianza... De las puntuaciones observadas, es decir, la varianza de i, es igual a la suma de la varianza de las puntuaciones estimadas más la varianza de los residuos. En el gráfico anterior... Mejor dicho, en la... En esta tabla que vimos anteriormente, lo que nos está diciendo es que la varianza total en i es la suma de la varianza de los pronósticos y la varianza de los residuos, que es lo que han expresado 60.23, es lo mismo que 26.9 más 23.2. Este coeficiente, r al cuadrado, coeficiente de determinación múltiple, que nos informa de la proporción de la variabilidad en la variable dependiente, que es explicada por la combinación lineal de las dos variables predictoras, mediante los resultados obtenidos en la muestra, sin embargo, no es un estimador insesgado de r al cuadrado del coeficiente de determinación múltiple en la población. Pasaba lo mismo que la varianza poblacional con respecto a la varianza muestral. La varianza muestral estaba sesgada. Y tenemos que recordar que la variabilidad de la variabilidad en la variable dependiente, que es la variabilidad que utiliza la cuasi-variante, pues aquí pasa lo mismo. Tenemos otro estimador sesgado. R al cuadrado no acierta en la diana de r al cuadrado. Se debe a las fluctuaciones del proceso de muestreo. Esto se debe a que debido a las fluctuaciones del proceso de muestreo, raramente se observa una situación en la que no haya contribución de una variable independiente a la varianza de la variable dependiente. Bueno, independientemente de por lo que se deba este sesgo. Lo que nos está diciendo en esta segunda parte es que simplemente por la variabilidad en el proceso de extracción de la muestra, cogemos una variable independiente que no esté relacionada con la variable dependiente y es posible que por esa variabilidad observemos que cuando calculamos r al cuadrado que esa variable independiente aporta, explica parte de la variabilidad de Y, incluso aunque realmente no sea así, simplemente por proceso de mostreo. Entonces, cuanto menor sea la muestra, es decir, cuanto menos sea más pequeño, mayor será la contribución de esas variables independientes extrañas, variables independientes que realmente no afectan a la variable dependiente. Obviamente, esto provoca un aumento artificial de R al cuadrado y eso no se corresponderá con R al cuadrado en la población. Por ello, tenemos que ajustar, tenemos que calcular no R al cuadrado, sino un R al cuadrado ajustado que nos corrija ese sesgo. Es lo mismo que cuando hemos hablado de que la cuasi-varianza es un estimador insesgado de la varianza, no podemos considerar la cuasi-varianza, la cuasi-varianza como una varianza ajustada. Es lo mismo. Pues es lo que vamos a hacer aquí. Para tener una estimación más ajustada y realista de R al cuadrado en la población, realizaremos un ajuste que se llama, ese índice lo denominamos R al cuadrado ajustado. Por eso le he puesto aquí el... el acento circunflejo, el HAT, para indicar que está insesgado. Vemos que el resto es lo mismo. R al cuadrado de las puntuaciones de la variable predicha por una combinación lineal de las dos variables predictoras. Y para hacerlo, para conseguirlo, ese R ajustado, aplicamos esta fórmula. Uno, una constante, menos el producto entre todos los factores. El primer factor es uno menos el coeficiente de correlación, el coeficiente de determinación múltiple, no ajustado. Multiplicado por el coeficiente entre... n-1, recordemos que n era el número de sujetos que tenemos, partido por n-p-1. p es el número de variables independientes que estamos utilizando. En este caso son dos, x1 y x2. Aplicando estos datos al ejemplo, habíamos obtenido una r al cuadrado de 0.614. Si aplicamos este ajuste, 1-1-0.614, tenemos 15 sujetos, menos 1 partido por 15, menos 2 porque tenemos dos variables independientes, esto es p, menos 1 menos una constante. Y ya tenemos el resultado. Y esto nos da 0.55. Observemos que, aunque hemos obtenido 0.61 en la muestra, el ajuste normalmente va a ir a la baja. Es decir, nos va a disminuir el grado de explicación de la variable de i debido a la combinación de las dos variables independientes. Es una combinación, es un ajuste. Y nos va a disminuir normalmente la baja. No obstante, 0.55 sigue siendo elevado. Hemos visto entonces r al cuadrado y r al cuadrado ajustado con índices de ajuste entre nuestros datos empíricos y los datos predichos mediante el plano de regresión utilizando x1 y x2. Pero no son los únicos índices que nos informan de ese ajuste. Otro valor numérico que nos informa del grado de ajuste es el error típico, de los errores. Y está relacionado con r al cuadrado. Si son índices que miden lo mismo, están relacionados. obviamente, pero en el sentido de que cuando aumenta R al cuadrado el error típico disminuye, lo cual es lógico porque si nos vamos a una de las tablas anteriores a esta tabla, podemos decir que R al cuadrado está considerando estas dos primeras columnas mientras que sigma del error está considerando los residuos por consiguiente, cuanto mayor sea R al cuadrado, significa que las estimaciones derivadas de nuestro plano de regresión se acercan mucho ahí, es bueno el ajuste si es bueno el ajuste, significa que sigma de los errores, el error típico, es pequeño y es por eso por lo que nos indican que cuando R al cuadrado aumenta, el error típico disminuye aquí tenemos la fórmula para calcular el error típico raíz cuadrada de un cociente, en el numerador tenemos el sumatorio al cuadrado suma de cuadrados de i menos las i predichas es decir, de los errores, de la tercera columna que hemos visto suma de cuadrados de los errores 325.45 partido por número de sujetos que tenemos número de variables independientes, menos 1 tenemos 15 sujetos, dos variables independientes entonces la raíz cuadrada de este cociente nos da 5.20 es el error típico de esos errores y como hicimos en la nova y como hicimos en revisión simple, vamos a hacer una revisión múltiple podemos trabajar con las sumas de cuadrados la suma de cuadrados total La suma de cuadrados de los residuos y la suma de cuadrados de la reversión. Tenemos la suma de cuadrados total es el sumatorio, para todos los sujetos, de las puntuaciones observadas menos la media al cuadrado. Y en este caso nos da un total de 843. Los residuos es, de nuevo, el sumatorio para cada uno de los casos de esos residuos. Y esos residuos son la puntuación observada y menos la pronosticada al cuadrado. El valor de esa suma de cuadrados de residuos es 325. Y por último, la suma de cuadrados que aporta el plano de regresión. Tenemos un sumatorio de puntuaciones al cuadrado. Y esas puntuaciones al cuadrado son las puntuaciones predichas y prima menos la media. Suma de cuadrados de la regresión. Y nos da, en este caso, 517. Bien, ahora estamos hablando del grado de índices, conciencia de determinación múltiple ajustado, el error típico. Todos estos índices nos miden el grado en el que x1 y x2 nos permiten predecir y, en qué grado. Pero de forma conjunta. Y es por eso por lo que se introducen los conceptos de correlación semiparcial y conceptos de correlación parcial. Que lo que pretenden es ver esos índices de ajuste de una variable independiente, independientemente de la otra. Entonces, porque hemos... Hemos dicho que el ajuste, por ejemplo, antes era bueno. Pero podría ser que toda la voluntad del ajuste se debiese a una sola variable y la otra estuviese ahí de acompañante. Y no aportará nada. Estamos midiendo la contribución conjunta en los índices anteriores, la contribución conjunta de las dos variables independientes. Vamos a verlo ahora de forma separada. Es decir, ¿cómo podemos determinar la contribución de cada variable independiente a la explicación de la dependiente? De forma, aquí es, no la contribución conjunta, sino cada variable independiente independientemente una de la otra. Otra. X1 por un lado, sin considerar a X2, y X2 por su lado, sin considerar a X1. La respuesta a esta pregunta la proporciona la correlación semiparcial. Le vamos a llamar SR, la vamos a simbolizar como SR. Y su cuadrado, SR al cuadrado. Correlación R, como siempre, S de semiparcial. Ya lo vemos después porque es semiparcial. Y tendremos entonces que calcular también la parcialidad. Es decir, cuando en un modelo intervienen más de dos variables, las correlaciones que se calculan entre las variables 2 a 2 no son correlaciones puras. No mide la relación entre esas dos variables al margen del influjo que las otras variables del modelo puedan tener sobre ellas. Si yo calculo la correlación entre Y y X1, como ya he hecho anteriormente, esa correlación, ese valor numérico, no es la correlación entre Y y X1, es la correlación pura, sin más, del grado en que correlacionan Y y X1. En esa correlación, en ese índice numérico, hay parte de lo mismo, o puede haber parte de lo mismo, debido a X1. En ese sentido, no son correlaciones puras. He realizado este gráfico que es muy similar a lo que se está haciendo actualmente Ecuaciones estructurales, aunque estos son análisis de vías, como una forma gráfica de representar la situación que tenemos es que tenemos una variable y que la hemos medido, la hemos observado predicha y la hemos tratado de predecir mediante x1 y x2 en el grado en que estas dos variables afecten a y y eso lo hemos representado por las flechas habrá una correlación entre esas variables que es la que vemos en pantalla, la correlación entre x1 e y y la correlación entre x2 e y el problema es que entre x1 y x2 también hay correlación, o puede haberla que es la correlación entre x1 y x2 o como se ha puesto anteriormente r1 y 2 cuando estamos midiendo esta correlación no estamos midiendo esta flecha por si sola ya que x2 a través de este de esta vía me está aportando también su influjo para medir y por consiguiente esas correlaciones no son puras y necesitamos o queremos índices más puros estas correlaciones que se calculan entre dos variables, las bivariadas se denominan correlaciones de un valor de x1 y x2 en orden cero y a través del valor obtenido en las mismas, es decir, el valor numérico que obtenemos cuando calculamos esas tres correlaciones que vemos en pantalla no podemos saber de forma pura qué parte de la variante de la variable independiente es capaz de explicar cada una de las variables independientes por si sola ya que entre estas también puede haber relación ya que tenemos ese componente Por lo tanto, para saber qué parte de la variable independiente, es decir, de Y, explica cada variable independiente sin considerar las otras variables independientes, necesitamos eliminar el influjo que sobre cada variable independiente tiene el resto de variables independientes. Es decir, aquí vemos que sobre X1, X2 tiene un efecto, y X2 tiene un efecto sobre, y X1 tiene un efecto también sobre X2. Y eso se ha representado mediante esta línea de doble flecha entre las dos predictoras. Queremos eliminar ese influjo para establecer de forma pura las correlaciones entre las variables predictoras y la predicha. Esta relación entre cada variable independiente. Y la dependiente, habiendo eliminado el influjo del resto de las variables que existan, variables independientes, sobre cada variable independiente es lo que se llama como coeficiente de correlación semiparcial. Entonces, en un modelo de regresión múltiple, como estamos en este caso, hay una proporción de varianza explicada, la varianza debida a las puntuaciones predichas de Y, y una proporción de varianza no explicada. Los errores o residuos. La explicada, la proporción de varianza explicada, lo es en función de que hemos combinado ciertas variables para predecir Y. Por consiguiente, si en un modelo, por ejemplo, con dos predictores X1 y X2, ajustamos una recta de regresión de la 1 sobre la 2, por ejemplo, observen aquí el gráfico que lo estoy inventando. Lo importante es simplemente que... La regresión simple que vimos en la primera parte de este tema, la podemos aplicar también a las variables independientes. Y si hacemos esta regresión... Vemos que estamos utilizando x1 como predicha y x2 como predictora. Si x2 me permite predecir algo de x1, ese algo ya me viene dado por la recta de regresión simple. Y ahora, ¿qué podríamos hacer ahí? ¿Qué parte de esta regresión no está asociada con x2? Los residuos. Los residuos de esta regresión, que los he dibujado aquí en rojo, son aquella parte de las puntuaciones de x1 que no viene explicada por x2. Y por consiguiente, si ahora correlaciono estos residuos de la regresión anterior, que no tienen parte alguna de la variable predictora x2, estoy utilizando residuos de x1 y los correlaciono con la variable dependiente. En este caso habré calculado el coeficiente de correlación semiparcial entre x1 y la variable dependiente y, habiendo eliminado el influjo que sobre x1 tiene x2. Ese influjo lo he... Lo eliminamos porque nos estamos quedando solamente con los residuos de la anterior regresión. Estoy ajustando una regresión simple entre x1 y x2, extraigo los residuos y esto lo correlaciono con la predictora, con y. De esta forma habré calculado la correlación entre uno de los predictores, el que antes servía de variable predicha y la variable dependiente, habiendo eliminado el influjo del otro predictor, en este caso de x1 y x2. Al correlacionar esto... Estos residuos con las puntuaciones de la variable dependiente habré calculado el coeficiente de correlación semiparcial entre x1 e y. He eliminado el influjo del otro predictor. Al haber eliminado el influjo de x2 sobre x1, el cálculo de la correlación ahora entre x1 e y será pura. No tendrá componentes de x2. Y es lo que he intentado reflejar en este gráfico. Hemos hecho la recta de regresión simple entre x2 y x1 y obtenido una recta de regresión. Ahora me quedo con los residuos de x1, perdón, x2 y x1 para el caso que tenemos en pantalla. Hemos hecho la recta de regresión. Y por consiguiente los residuos de esta regresión son valores de x1 de los que he eliminado el influjo que puede tener x2. He eliminado esa, estadísticamente he eliminado ese influjo, esa flecha que va de x2 a x1. Y ahora correlaciono los residuos de x1 con y. Y eso me dará la correlación semiparcial. Correlación pura entre x1 e y. Que es sr1r. Correlación s semiparcial, correlación semiparcial para la variable predictora 1. Que es sobre la que he calculado los residuos y viene dada por esta ecuación. Obviamente será... La correlación semiparcial... De x1 sobre y. Será una función directa proporcional a la correlación entre y y x1, pero le eliminamos este influjo. Estadísticamente, ese influjo viene dado por la correlación entre x1 y 2, x1, 2, por la correlación entre las dos predictoras. Y lo divido por la raíz cuadrada de 1 menos el coeficiente de determinación entre 1 y 2, que es... ...un factor de escala. Para llevar a cabo este cálculo, tenemos fórmulas. A partir de las correlaciones de orden 0, ya las hemos visto anteriormente, elevando al cuadrado estos valores de correlación semi-imparcial, lo que tenemos es la contribución en porcentajes, igual que el r al cuadrado que hemos visto anteriormente, que cada variable independiente tiene sobre la variable dependiente, habiendo eliminado el influjo de las otras variables independientes. Hemos corregido. Gráficamente, también se puede representar mediante un diagrama de Venn, en el que tenemos todo el área, todo el primer círculo que hay debajo de y, se refiere a la varianza de y. El círculo que hay por encima de x1 se refiere a la varianza de x1, y este se refiere a la varianza... ...de x sub 2. En cada caso, la intersección entre estos tres círculos... Va a diferir, pero siempre se va a representar de la misma forma para, en los casos concretos con datos, con muestras, A, C y B no tienen por qué ser exactamente las áreas que se pueden ver en el gráfico. Pero se deja siempre así como muestra. Es decir, A, C y B en cada caso que son las intersecciones entre esas varianzas, en los casos reales van a diferir en cada caso real, pero siempre se dibujan con la misma área. Pero que no nos equivoque que las áreas reales pueden diferir de los valores que aquí aproximadamente... El caso es que A, este área, es la parte común que tienen Y y X1 independientemente de X2. Y en ese sentido representa a la correlación semiparcial al cuadrado, en términos porcentuales, de la primera variable independiente X1 con Y. Y se puede calcular mediante esta otra fórmula. Vemos aquí el coeficiente de determinación múltiple, que ya lo hemos visto, y al cuadrado, menos R al cuadrado entre la variable predicha y la segunda variable, X1. Y esto ya lo hemos visto, se están repitiendo algunas de las transparencias. En el ejemplo numérico los cálculos del coeficiente de correlación semiparcial son los siguientes. Aquí tenemos la... Las correlaciones de orden 0. Y teníamos que el coeficiente de determinación múltiple era 0.614. Aplicamos la primera fórmula que hemos visto, 0.446. Que era la correlación de orden 0 entre x1 e y menos el producto entre la correlación entre la otra variable predictora e y, 0.628, por la correlación entre x1 y x2, que en este caso es menos 0.043, partido por 1, por la red cuadrada de 1, menos el cuadrado de menos 0.0431. Y esto nos da 0.47. Observemos entonces que la correlación de orden 0 inicial que teníamos para x1 e y valía 0.44, y ahora al calcular la correlación semiparcial se ha elevado, se ha producido una mejora. Los datos en reales, la correlación de orden 0 infraestimaba la verdadera correlación. ¿Por qué? Y eso solamente se puede deber a la influencia que tenía x2, en este caso concreto, claro. Lo mismo podemos hacer para el segundo caso. Y entonces esto tendría que ser 2. La correlación semiparcial de x2 con y. Para ello lo que hacemos es la correlación de orden 0 de esa vía, que es 0.628, menos el producto de las otras vías, que es... 0.441, multiplicado por menos 0.043, y dividido por el mismo factor que hemos visto anteriormente. Esto nos da una correlación semiparcial de x2 con respecto a y de 0.65. De nuevo se ha producido que la correlación de orden 0 estaba infraestimando la verdadera correlación entre x2 e y. En este caso concreto. En otros casos podría ser al contrario. Estas correlaciones semiparciales. elevadas al cuadrado nos informa sobre la proporción porcentaje de varianza de i explicada por cada variable predictora habiendo eliminado el flujo de la otra variable. En este caso, la correlación semi-parcial de la primera variable predictora 1 con respecto a i es 0.46 al cuadrado 0.21 el porcentaje sería entonces del 21,9 para la primera variable y para la segunda 0.62 al cuadrado 0.42 y se han puesto aquí los símbolos. que se utilizaron en el diagrama de Venn para representar A y B. Vemos en este caso que A, la contribución por sí sola que hace x1 para explicar i es el área en amarillo y vale 0.22, mientras que 0.42 es la aportación que tiene x2 para explicar i independientemente de x1. Si no hubiéramos我 video hecho esto las correlaciones habrían estudiado la intersección entre las tablas de variabilidad. Por eso se dice que en este caso titulas son puras. La porción C es la proporción del modelo que representan las atribuciones de las tres variables hasta Nuria 1,7 y haciendo x2 antiguamente. Proporción de varianza de la variable independiente estimada conjuntamente, de forma redundante, por las dos variables. Esta proporción C es difícil de interpretación y normalmente no se realiza porque lo que nos interesa es la correlación siniparcial de X1 con Y y de X2 con Y. Porque representa... correlaciones puras eso era la correlación semiparcial y vamos a ver ahora la correlación parcial de nuevo R para indicar correlación y P para indicar parcial el coeficiente de correlación parcial nos sirve para determinar cual es la primera nos va a servir para determinar cual es la primera variable que se incorpora al modelo cuando se realiza variable a variable esto si no nos vamos a meter en otro y no nos vamos a meter en más variables independientes cuando tenemos 4, 5 o 6 variables independientes si es importante saber si las metemos todas al unísono en los cálculos o primero nos cogemos aquella variable que mejor pediga ahí de las 5 cual la segunda, la primera que metemos y una vez que hemos metido esa tenemos una regresión simple y luego de las 4 restantes vamos, escogemos de nuevo en un segundo paso aquella que realice una mejor aportación a la predictoria entonces tendremos una regresión doble y nos quedarán otras 3 variables independientes y así sucesivamente pero esto solamente es necesario tenerlo en cuenta cuando tenemos más de 2 variables y aquí lo han dicho como información pero yo no me metería mucho más con esto porque esto básicamente se utiliza cuando tenemos muchas variables tenemos que considerar si es necesario incluirlas todas o qué criterio utilizamos para ir metiéndolas hasta que la predicción sea lo suficientemente buena lo importante es el concepto de correlación parcial la diferencia con ese mi parcial con la diferencia entre PR y SR es que en el parcial en el coeficiente de correlación parcial eliminamos el influjo de los predictores tanto de la variable independiente objeto de correlación como de la variable dependiente es decir Es una correlación entre residuos. Vamos a verlo más detenidamente. El modelo de dos variables, que es el que tenemos en este momento. Tenemos x1 y x2 para predecir y. Si ajustamos una recta entre la variable predicha y x2, y de esa recta quiere decir que hay una parte de y que viene explicada por x2. Y hay una parte que no viene explicada. Son los residuos de esa regresión. Y a continuación, ajustamos lo mismo que hemos visto anteriormente. Una recta entre x1 y x2 y nos quedamos también con los residuos. Y ahora correlacionamos ambos residuos. Lo que tenemos es la correlación parcial entre y y x1. Hemos visto anteriormente que en la correlación siniparcial, básicamente de la variable x1, trabajamos con residuos. Hay un denominado en el flujo de x2. Entonces, esto eran los residuos. Pero de y, no trabajamos con los residuos, trabajamos con la puntuación directa. Lo que hace la correlación parcial es que de y, también eliminamos la parte de x2 que la puede explicar. Y entonces aquí también vamos a trabajar con residuos. De tal forma que ahora eliminamos tanto de x1, como de y, la aportación que pueda tener x2 en cualquiera de ellas. Y ahora correlacionamos los residuos de esas dos regresiones simples. Que es lo que dice un gráfico efectivamente. Es decir, primero ajustamos una recta entre y, variable predicha, y x2. Esa recta, esa línea de regresión, ya hemos visto que lo que nos permite es explicar parte de x2, parte de x2, parte de x3, parte de x4, parte de x5, parte de x6, parte de x7, parte de la variabilidad de y, y entre x2. Por consiguiente, si nos cogemos solamente los residuos, De esta recta de regresión estamos cogiendo parte de y que no está asociada a x sub 2. Es decir, nos quedamos con los residuos valores de y de los que x sub 2 no tiene nada que decir ya que todo lo que tiene que decir viene dado por la recta de regresión. Y luego hacemos lo que hemos hecho anteriormente entre x sub 1 y x sub 2 utilizando x sub 1 como predicha y x sub 2 como predictora. Y nos quedamos también con los residuos, con lo cual lo que tenemos son puntuaciones de x sub 1 de los que se ha eliminado todo el influjo que x sub 2 pueda tener sobre ellos. Y por consiguiente si ahora disponemos de dos conjuntos de residuos, residuos de x sub 1 habiendo eliminado el influjo de x sub 2 y residuos de y habiendo también eliminado la aportación de x sub 2. Por consiguiente esos dos conjuntos de residuos, los residuos de x sub 2 no dependen para nada de x sub 2 mientras que la correlación semiparcial al menos en y, x sub 2 tenía algo que decir. Por consiguiente la correlación entre ambos residuos nos proporcionará la correlación parcial entre y y x sub 1 sin interferencia ya en modo alguno de x sub 2, por ningún lado. Ni por el lado de x sub 2 hacia x sub 1 ni por el lado de x sub 2 hacia x sub 2 Es lo que vemos aquí. Hemos eliminado el influjo que tenía x sub 2 sobre y quedándonos simplemente con estos residuos. Y hemos eliminado el influjo que tenía x sub 2 sobre x sub 1. Y por consiguiente ahora la correlación que calculemos entre esos residuos de x sub 1 e y es la correlación parcial. Y esta sí es ya una correlación pura entre x sub 2 y x sub 1. x sub 1 e y. Puesto que de ambas se ha extraído el influjo de una tercera variable, en este caso x sub 2. Lo que hemos hecho para establecer la correlación pura entre x sub 1 E I se podría hacer lo mismo, obviamente, con X utos. Y calculamos la correlación parcial con I, eliminando el influjo que pueda tener sobre ella, sobre X1. Entonces, al igual que la correlación semi-parcial, estos cálculos de correlaciones semi-parciales y parciales serían complicados si tuviéramos que calcular los residuos para cada una de las regresiones simples que hemos visto anteriormente. Porque tenemos fórmulas en las que, a partir de las correlaciones de orden cero, entre cada par de variables, correlaciones bivariadas, podemos obtener estas correlaciones parciales. Compárense las fórmulas. Vamos a ver aquí, correlación parcial, vale. Aquí esto sería semi-parcial. Si no me equivoco, efectivamente, esa P sería S. Por eso he dicho comparar las fórmulas. Estas serían las fórmulas. Hemos visto previamente la correlación semi-parcial y estas son las nuevas fórmulas para calcular la correlación parcial. Vemos que son muy parecidas. Los numeradores son idénticos. Y lo único es que en el denominador hemos incluido para la correlación parcial este término. Ya que este otro coincide con el denominador. Y este término es idéntico al anterior, raíz cuadrada de uno menos la correlación al cuadrado entre y, la variabilidad predictora, y uno. Es decir, la correlación al cuadrado de la vía que quiero eliminar para calcular la correlación parcial de la segunda variable independiente con respecto a la otra. Y aquí pasa lo mismo. Si quiero calcular la correlación parcial de I de la primera variable predictora 1 respecto a I, el término me incluye la otra correlación al cuadrado, la correlación entre I y la segunda variable predictora independiente. Es una fórmula de ver la relación que existe entre las fórmulas. El cuadrado de estos coeficientes se interpreta como la proporción de la varianza de I que no está asociada con X2, pero para PR1, para la correlación parcial 1, es la proporción de la varianza de I que está asociada con X1, pero no con X2. Para PR2, al contrario. Otra manera de calcular esta proporción de varianza es por medio de las porciones representadas en el diagrama de Venn, que hemos visto anteriormente. Para calcular la correlación al cuadrado, entonces la determinación parcial simple entre la primera variable independiente 1 e I, lo que se hace es que se divide el área A partido por la suma. El denominador siempre incluye el mismo componente del numerador más otro componente. En términos numéricos, la fórmula sería el coeficiente de determinación múltiple, sin más, menos, le eliminamos el influjo, de la otra variable que tiene sobre I, por eso es R al cuadrado de la correlación entre I y X2 partido por 1 menos esa misma correlación al cuadrado. Para PR2, justamente a la inversa en este caso, es B partido por B más D. B es el área en gris y D, perdón, antes me he equivocado, D es simplemente el área en amarillo. Y en este gráfico lo he dibujado como el área rosa más amarillo. No, D es simplemente el amarillo. Aquí está, en este gráfico está mejor, mejor representado. Las áreas, cuando la hemos dividido entre D, A, C y B, no se solapan. Entonces, sería B, el área en gris partido por el área en gris más el área en amarillo. En términos numéricos, coeficiente de determinación, múltiples y más. Y le restamos, como ahora queremos calcular, eh... PR2 para la segunda variable, le restamos lo que aporta la otra. R2 de I, la variable vectora, y X1, partido por su complementario. En el ejemplo, PR1 aplicando los cálculos con las correlaciones de orden 0, vemos que la correlación entre I1, 0.441, 1 menos el producto entre las otras dos, 0.728 por menos 0.043, partido por el producto entre esas dos raíces cuadradas. En donde la primera tenemos R2 de I2, es decir, la que no queremos que nos influya, por la raíz cuadrada de 1 menos R2 de I2. 2 predictoras. Y me da una correlación parcial. de la primera variable independiente con y de 0.60 y subcuadrado es 0.36 lo mismo aplicado a la correlación parcial entre la segunda variable predictora e y eliminando el influjo de x1 en este caso sería la correlación de x2 con y menos el producto de la otra vía de la correlación entre la otra vía sería esto y esto partido por el producto entre las dos raíces cuadradas esta es la que ya hemos visto que debida a la correlación entre las dos variables predictoras y 1 menos r al cuadrado es la vía que nos está afectando a los datos que hace que la correlación entre las dos variables predictoras entre x2 e y no sea pura hacemos los cálculos y nos sale 0.72 este valor pr al cuadrado es decir, la correlación parcial al cuadrado de x2 con respecto a y nos da 0.52 y estas sí son correlaciones puras en resumen por los resultados de los dos coeficientes de correlación parcial y semiparcial al cuadrado en el modelo que hemos obtenido está clara la contribución de ambas variables x1 y x2 para explicar la puntuación en matemáticas y aunque es mayor la aportación del razonamiento abstracto que la del tiempo de estudio ya que en un caso tenemos el 36% de aportación y en otro un 34% posteriormente tendremos que ver la significación estadística por medio de los contrastes apropiados Y aquí dejamos por hoy el tema, ya nos quedan solamente esos contrastes. No sé si tendría algún... parece que hay de por aquí nada más. Bueno, esto es una simple anécdota, el huevo de la discordia. El señor Regnier de Graaf descubrió los folículos femeninos, es decir, el envoltorio de los óvulos en mujeres, en una época en la que se pensaba que las hembras tenían testículos. Esto hoy día puede parecer, pero en el siglo XVII se pensaba eso. Y se pensaba que de estos testículos producían unos huevos que iban a parar al útero. La idea de que las mujeres ponían huevos trajo por la caída de la amargura a de Graaf. Bueno, el único pensamiento que me trae esta anécdota es... que muchas cosas que actualmente damos por asentadas, por ciertas, pues el día de mañana nos parezcan tan ridículas como las que nos parece en este momento lo que le sucedió a este investigador. Yo, por ejemplo, me he criado, digamos, en la tradición cognitivista. No veía otra forma de considerar la conducta, de contemplarla. Sin embargo, actualmente está surgiendo algunas nuevas... visiones, algunas perspectivas nuevas que yo hace diez años jamás hubiera sospechado. Y es posible que con estas nuevas perspectivas, ciertos conceptos que ahora tenemos como algo claro y obvio que existen, quizá el día de mañana tengamos que ponerlos en cuarentena o reformularlos completamente. Esto es parte del trabajo científico. Lo que nos sirvió ayer es posible que hoy no, o que lo veamos con otros ojos. Hasta el próximo día.