En esta conferencia vamos a ver el tema 8, regresión y correlación. Vamos a dar una variable aleatoria bidimensional, xi eta. Supongamos que las variables xi y eta no sean independientes, es decir, que exista cierta relación entre ellas. Entonces en este tema nos vamos a plantear dos objetivos básicos. Primero, vamos a determinar la función eta igual a h sub 1 de xi o xi igual a h sub 2 de eta que exprese dicha relación y que llamaremos función de regresión. Y además también vamos a medir la intensidad de esa relación a la cual llamaremos la correlación entre xi y eta. Primeramente vamos a ver qué entendemos por esperanza condicionada. Consideremos una variable aleatoria bidimensional. Entonces para distribuciones de tipo discreto llamamos esperanza condicionada la variable xi condicionada porque eta sea igual a i al sumatorio del producto de x sub i por la probabilidad de que xi sea igual a x sub i condicionado porque eta sea igual a i. Y eso para todos los valores de la x sub i. Que son los valores que toma la variable xi. Por ejemplo, vamos a ver un ejemplo. Aquí tenemos una tabla de correlación, una distribución bidimensional discreta. Los valores de xi que son el 1, el 2 y el 3. Y los valores de eta que toma eta que son el 1 y el 2. Y tenemos aquí las probabilidades. Por ejemplo, la probabilidad de que el par xi eta valga 1, 1. Si vale 1, eta vale 1. Es 0,13. La probabilidad de que xi sea 1 y eta sea... 2, es 0,25, etc. También en la tabla esta se han sumado, hemos sumado por filas las probabilidades, por ejemplo, de que xi sea igual a 1, que nos dan las probabilidades marginales de la variable xi y también hemos sumado por columnas y tenemos las probabilidades marginales de la variable eta. Podemos observar que ambas, la última columna y la última fila, ambas suman 1. Bien, pues entonces se tiene que el valor esperado de xi condicionado porque eta sea igual a 2 será, bueno, tenemos que multiplicar cada uno de los valores de xi, que son el 1, 2 y el 3, por la probabilidad de que ese valor esté condicionado porque eta sea igual, en este caso, a 2. Entonces la probabilidad de que eta sea igual a 2 era, será 0,2. 0,25, que es la probabilidad condicionada de que xi sea igual a 1 y eta sea igual a 2, será 0,25, que es la probabilidad conjunta, partido por la probabilidad de que eta sea igual a 2, que es 0,52, la probabilidad marginal. Esto sería 0,25 partido por 0,52. Eso va multiplicado por 1, que es el valor de la x. Ahora, ahora, lo que... El otro valor de la variable xi, que es 2, multiplicado por la probabilidad condicional de que xi sea igual a 2 condicionado de que eta sea igual a 2, es decir, que sería 0,15 partido por 0,52, aquí lo tenemos, ¿no? Y más 3 multiplicado por la probabilidad de que xi sea rescondicionado porque eta sea 2, es decir, que sería 0,12 partido por 0,52. Aquí lo tenemos. Vamos a los cálculos y eso será 1,75. Es el valor esperado de la variable xi condicionada porque eta sea igual a 2. Bien, en distribuciones del tipo continuo se define el valor esperado de que xy esté condicionado, el valor esperado de xy condicionado porque eta sea igual a y, como la integral del campo de variación de xy y de que eta sea igual a y, o sea, del par xy eta igual a y. Bueno, pues sería la integral en ese campo de variación del producto de x por la función de densidad condicionada f de x condicionada por y. El recinto sería cero menor o igual que x menos o igual que dos y cero menos o igual que y más o igual que tres, o bien cero en el resto. Bueno, pues necesitamos para hallar la función de densidad condicionada de x condicionado por y, necesitamos la función de densidad marginal f sub 2 de y. Entonces la vamos a calcular. F sub 2 de y sería la integral para todo el recorrido de la x que va desde cero hasta dos. De la función de densidad 2x más y partido por 21 diferencial de x. Eso evidentemente es una función de y, es la función de densidad marginal de la y. Bueno, resolvemos esta integral y nos queda 4 más 2y partido por 21. Entonces, ya escribimos el valor esperado de xi condicionado porque ta sea menor o igual que 2 va a ser la integral en el recinto de los valores de x y de los valores de xi menor o igual que 2. Por tanto, sería la integral desde 0 hasta 2 diferencial de x y la integral desde 0 hasta 2 respecto de la y del producto de x por la función de densidad que sería 2x al cuadrado más xy partido por 21. Y eso va partido por la función f2d que acabamos de calcular que es 4 más 2y partido por 21. El 21 del numerador. Y el 21 del denominador se cancela y sería esta la fracción que nos queda aquí. Bueno, esta integral, bueno, hay que hacerla con cierto detenimiento. Es una integral racional. Primeramente la integramos respecto de y. O sea, y aquí primeramente lo que tendríamos que hacer sería dividir y bueno, vamos a verla. Está hecha aquí. Vamos a verla. Es decir, que se trata de hacer la integral. Desde 0 hasta 2 diferencial de x integral desde 0 hasta 2 de 2x al cuadrado más xy partido por 4 más 2y diferencial de y. Hacemos primeramente la división. X lo escribimos en ordenado en función de la y puesto que la integral es respecto de y. Entonces pondríamos xy más 2x al cuadrado dividido por 2y más 4. Y bueno, cabe a x partido por 2. x partido por 2 multiplicado por 2y es xy. Para gastar. Ponemos menos xy y luego x partido por 2 por 4 que sería 2x para restar 2x. Hacemos la suma esta y nos quedaría 2x al cuadrado menos 2x. Ya está hecha la división. por lo tanto la integral quedaría integral desde 0 hasta 2 diferencial de x y después integral desde 0 hasta 2 de cociente x partido por 2 más el resto, es 2x al cuadrado de 9x partido por el divisor que es 2y más 4 y diferencial de y bueno esta integral ya si que la hacemos es inmediata, pues sería igual a integral de 0 a 2 diferencial de x y la segunda integral que sería integral de x partido por 2 le estamos integrando respecto de y, pues sería xy partido por 2 más y luego la integral de esta fracción es el numerador 2x al cuadrado menos 2x bueno claro, por el logaritmo neperiano de 2y más 4 y por un medio el logaritmo de esa derivada sería un 2, bueno entonces le quitamos el 2, 2x al cuadrado menos 2x, luego nos quedaría x al cuadrado menos x por el logaritmo neperiano del denominador de 2y más 4 y eso entre 0 y 2, entonces sustituimos el 2 y sustituimos el 0 en la fórmula de barro y entonces nos quedaría la integral desde 0 hasta 2 bueno, queda aquí dentro sustituir el 2, la y por 2 nos quedaría una x más bueno, aquí quedaría x al cuadrado menos x por el logaritmo de 8 sustituir la x por 2 y luego menos sustituir la y por 0 x y partido por 2 no aparece y nos aparecería x al cuadrado menos x por el logaritmo de 4 de aquí podemos sacar factor común el x al cuadrado menos x del logaritmo de 8 menos logaritmo de 4 que es logaritmo de 8 partido por 4 que son todos luego finalmente pues nos queda la integral de esta expresión Y, que es inmediata, sería la integral de x respecto de x, x al cuadrado partido por 2, y menos la integral, que es una constante, por lo tanto sería la integral de x al cuadrado, que es el cubo partido por 3, menos la integral de x, que es x al cuadrado partido por 2, y todo eso desde 0 hasta 2. Y, bueno, simplemente sustituimos, para x igual a 2 sería 4 partido por 2, que son 2, más 8 tercios menos 4 partido por 2, que son 2, por el logaritmo de 2, y luego para x igual a 0, pues queda 0. Y bien, y que 8 tercios menos 2, que son 2 tercios, luego este sería el resultado. Bien, bueno, por aquí tenemos el resultado del ejercicio. Bueno, vamos a ver ahora qué entendemos por regresión. Entre dos variables aleatorias, y hay dos tipos de este concepto de regresión. En primer lugar vamos a ver la regresión, que llamamos regresión 1. Entonces consideremos la variable aleatoria bidimensional, si eta, y llamamos función de regresión 1 de eta sobre xi, y que escribiremos m sub 1 de x, a el valor esperado de eta condicionado por xi igual a x. Y análogamente llamamos función de... ...de regresión 1 de xi sobre eta, al valor esperado de xi condicionado porque eta es igual a y, que escribiremos m sub 2 de y. Vamos a ver un ejemplo. Aquí tenemos esta tabla de correlación. Bueno, la misma de antes, ¿no? Y vamos a calcular m sub 1 de x. Por lo tanto, tenemos esperanza de eta condicionado porque xi sea igual a 1. Bueno, será el producto de multiplicar todos los valores de eta que son el nivel 2 por la probabilidad condicionada de que en el primer caso de que eta sea igual a 1 y si sea igual a 1 y en el segundo caso de que eta sea igual a 2 y si sea igual a 1. Por tanto, en el primer caso tendremos valor de eta 1 por 0,13 partido por 0,38. 0,38 es la probabilidad de que sí sea igual a 1. Es la probabilidad marginal de que sí sea igual a 1. Y después tendremos más 2, que es el otro valor de eta, multiplicado por 0,25 partido por 0,38. Bueno, eso en las operaciones sería 60. 60 y 3 partido por 38. Y vamos a hallar la esperanza ahora de eta condicionado porque sí sea igual a 2. Y actuamos de la misma forma, o sea que tendríamos el primer valor de eta, que es 1, multiplicado por la probabilidad de que eta valga 1 y si valga 2. La probabilidad condicionada de que eta valga 1, condicionado a que sí valga 2, que sería 0,17. 0,17 partido por 0,32. Bueno, aquí vemos a la tabla que 0,32 es la probabilidad de que sí sea igual a 2. Y más 2 por 0,15 partido por 0,32. Bueno, aquí hacemos las operaciones y sale 47 partido por 32. Y finalmente, la esperanza de que eta condicionado porque sí sea igual a 3 sería 1 por... A ver, ¿quién es la probabilidad condicionada? Condicionada de que eta sea igual a 1 y si sea igual a 3, pues sería 0,18. partido por 0,30, que es la probabilidad de que sí sea igual a 3, más 2 por la probabilidad condicionada de que eta sea 2 y sí sea 3, que sería 0,12 partido por 0,30. Bueno, eso hace con las operaciones y se obtiene 7 quintos. Bueno, entonces, la función de regresión, bueno, pues aquí la tenemos, tenemos, tiene por tabla de valores, es discreta, la hemos obtenido, tenemos, de hecho, la tabla de valores de esa, de la función de regresión. O sea que para xi igual a 1, vale 63,38 agos, para xi igual a 2, 47,32 agos y para xi igual a 3, 7 quintos y, bueno, aquí la tenemos representada y que observamos, claro, puesto que hemos calculado, es el valor esperado de cada valor de eta condicionado por cada valor de xi. Entonces, pues nos sale un punto, claro, ¿está ahí? Un punto intermedio, ¿eh? Entre los puntos, entre los dos puntos para, por ejemplo, para eta igual a 1 y para eta igual a 2, pues salían estos dos puntos por el medio, nos sale este punto, ahí están las coordenadas, ¿no? Nos sale aquí este otro punto, ¿eh? Y nos sale aquí este otro punto para cada uno de los valores de xi, ¿eh? O sea, para xi igual a 1, para xi igual a 2, para xi igual a 3 y nos ha salido, claro, un punto intermedio, podríamos decir, entre los dos puntos que teníamos, ¿eh? De la nube de puntos. Bien, esa sería la regresión. Vamos a ver ahora otro ejemplo, ¿eh? De variable de densidad continua. Vamos a usar la, bueno, la variable del ejemplo anterior, ¿no? Que teníamos ya la función de densidad anterior. Entonces, ¿eh? Aquí tenemos que calcular también las funciones marginales. Entonces tenemos f sub 1 de x, que sería la integral para todo el recorrido de la y, integramos ahora respecto de y desde 0 hasta 3, de la función de densidad. Bueno, aquí se hace esta, así que es inmediata, nos queda esta expresión de aquí. Por lo tanto, m sub 1 de x, la función de regresión, sería esperanza de eta, condicionado porque x sea igual a x, será la integral desde 0 hasta 3, de la función de densidad multiplicada por y, multiplicada por y, que es el valor esperado de eta, sería 2xy más y cuadrado, partido por 21, y eso partido por f sub 1 de x, pues lo que estamos condicionando porque sí sea igual a x, que es 6x más 9 medios partido por 21. El 21 pues también desaparece, se simplifica, y bueno, nos queda esta integral. Bueno, esta integral pues se resuelve y este es el resultado. Y análogamente, m sub 2 de y, pues lo que ya teníamos calculada, la f sub 2 de y, pues sería el valor esperado, xy condicionado porque eta sea igual a y, entonces sería la integral desde 0 hasta 2, para todo el recorrido de la x, de la función de densidad f de xy multiplicada por x, sería 2x al cuadrado más xy, partido por 21, y partido por la función f sub 2 de y, que es la que teníamos antes, que era 4 más 2y, partido por 21. El 21 también se simplifica, y bueno, solo con la integral nos queda este resultado. bien y vamos a ver ahora lo que entendemos por regresión 2 mínimo cuadrática ideal de eta respecto de xi bueno por aquí la regresión mínimo cuadrática en general lo que se pretende es encontrar una función eta asterisco que dependa de xi eta asterisco de xi de un tipo previamente fijado por ejemplo puede ser polinómica o exponencial etcétera y que haga mínima el valor esperado de xi menos xi asterisco elevado al cuadrado y buscamos una función de xi que restara la variable eta y elevada al cuadrado el valor esperado esa variable aleatoria sea mínimo bien vamos entonces a ver vamos a ver el caso de que eta asterisco sea lineal vamos a ver exclusivamente ese caso es decir que por lo tanto eta asterisco va a ser una función del tipo que es beta sub cero más beta sub uno xi donde beta sub cero y beta sub uno vamos a determinarlos y lo vamos a determinar con esa condición para que sea mínima la varianza o sea para que sea mínima perdón la media cuadrática de las diferencias de las diferencias eta menos eta asterisco que sería beta sub cero más beta sub uno xi elevado al cuadrado para que sea mínima el valor esperado de del error que es una diferencia entre el valor de eta y el valor estimado podríamos decir bueno, entonces escribimos que la esperanza del error al cuadrado sería esperanza de eta menos veamos, ¿no? beta sub cero más beta sub uno sí eso elevado al cuadrado y para hallar el valor que hace que esta expresión sea mínima lo que vamos a hacer es igualar a cero las derivadas parciales de esta expresión, de la esperanza de cuadrado respecto de beta sub cero y de beta sub uno que son nuestras tómicas, ¿no? bueno, primeramente la derivada de la esperanza de cuadrado respecto de beta sub cero pues es, bueno aquí la tenemos derivamos aquí en el valor esperado este si derivamos respecto de beta sub cero observamos que la derivada de esto que hay aquí dentro sale menos uno por lo tanto, puesto que está al cuadrado la derivada sería dos por el valor esperado eta menos beta sub cero más beta sub uno sí así elevado al cuadrado por menos uno, por lo tanto ese dos por menos uno lo sacamos factor del valor esperado y nos queda menos dos por la esperanza de eta menos beta sub cero menos beta sub uno sí esto lo igualamos a cero simplificamos el menos dos y entonces nos queda que la esperanza de sí será igual pasamos al segundo miembro, el resto no y será igual a la esperanza de beta sub cero que es beta sub cero, que es una constante más la esperanza de beta sub uno sí, que es beta sub uno por la esperanza de sí y esto recordamos que la esperanza de eta la representamos en las distribuciones bidimensionales en la distribución bidimensional de una variable si-eta la esperanza de eta era alfa sub cero uno en el momento de primer orden respecto de la variable eta por lo escribimos así alfa sub cero uno, lo que hemos obtenido será igual a beta sub cero más beta sub uno por la esperanza de xi, que es alfa sub uno cero o sea, vamos a obtener una relación de beta sub cero y beta sub uno en función de los momentos relacionados con los momentos de primer orden, la variable bidimensional. Bien, análogamente hacemos la derivada ahora respecto de beta sub 1, entonces, otra vez derivando aquí en la esperanza que teníamos de la e cuadrado, pues la derivada del eta menos beta sub 0 menos beta sub 1, sí, respecto de beta sub 1 sería menos 2, sí, el menos 2 lo podemos sacar afuera del valor esperado y nos quedaría entonces menos 2 por la esperanza de eta menos beta sub 0 menos beta sub 1, sí, multiplicado por sí, eso es igual a cero. Entonces, bueno, aquí el menos 2 también lo simplificamos y nos quedaría que la esperanza de xi eta, multiplicamos ya por sí, pasamos al segundo miembro el resto de lo que nos queda y sería igual. Es igual a beta sub 0, o la esperanza de beta sub 0, sí, el beta sub 0 lo podemos sacar afuera, pues sería beta sub 0 por esperanza de xi, más beta sub 1, la esperanza de beta sub 1 por xi cuadrado, luego el beta sub 1 lo sacamos delante también y nos quedaría beta sub 1 por la esperanza de xi cuadrado. Esta expresión también la podemos poner en función de los momentos y tenemos la esperanza del producto, que sería alfa sub 1,1, es igual a beta sub 0 por la esperanza de xi, que es alfa sub 1,1, cero, más beta sub 1 por la esperanza de xi cuadrado, que es el momento de segundo orden, alfa sub 2,0. Bien, aquí tenemos un sistema y lo que vamos a resolverlo por reducción, vamos a eliminar beta sub 0 entre las dos ecuaciones y para eso multiplicaremos la primera ecuación por alfa sub 1,1,0 y restaremos, restaremos a la segunda, con lo cual nos quedaría alfa sub 1,1, menos alfa sub 1,0 por alfa sub 0,1, estamos multiplicando la primera ecuación por alfa sub 1,0, Y igual, el beta sub cero por a sub uno cero se cancelaría con el beta sub cero por a sub uno cero, claro. Y luego nos quedaría beta sub uno, que lo sacamos factor común, de a sub dos cero menos alfa sub uno cero por alfa sub cero, o sea, alfa sub uno cero al cuadrado también. Bueno, nos quedaría esta expresión. Bien, y esto pues también reconocemos, tenemos que reconocer aquí que la expresión alfa sub uno uno menos alfa sub uno cero por alfa sub cero uno, la media de la esperanza del producto menos el producto de los valores esperados, eso era la covarianza de la variable bidimensional eta xi. Y en el segundo miembro tenemos alfa sub dos cero menos alfa sub uno cero al cuadrado, que no es otra cosa que la varianza de la variable xi, sigma cuadrado sub xi. Claro, lo escribimos aquí, ¿no? De aquí ya podemos despejar beta sub uno y nos agrega eso. Beta sub uno sería la covarianza partido por la varianza de la xi, que también lo podemos poner con la nomenclatura que utilizábamos de los momentos respecto de las medias, ¿no? Que la covarianza era mu sub uno uno y la varianza de la variable xi que era mu sub dos cero. Tanto eso es beta sub uno. Bien, entonces ya de la primera ecuación podemos despejar beta sub cero. Entonces beta sub cero pues sería alfa sub cero uno menos beta sub uno. Lo hemos calculado por alfa sub dos cero, con lo cual pues ya tenemos los dos valores. Bien, entonces estos valores maximizan o no, maximizan, ¿no? Se trata, bueno, maximizan o minimizan, ¿eh? Lo que... lo que queríamos era que minimizara, pero entonces tenemos que comprobarlo entonces vamos a calcular el gesiano de la esperanza de cuadrado que lo vamos a hacer haciendo las segundas derivadas entonces la segunda derivada de la esperanza de cuadrado respecto de beta sub cero sería dos, bueno lo tenemos aquí arriba lo podemos comprobar porque la derivada respecto de beta sub cero que hay dentro del operador de esperanza sería menos uno entonces la esperanza de menos uno es menos uno multiplicado por el menos dos sería dos, vale o sea que sería la derivada segunda respecto de beta sub cero y la derivada segunda respecto de o sea, respecto de, sí, de beta sub cero y la derivada segunda sería respecto de de beta sub cero, o sea, perdón ahora de beta sub uno, perdón la derivada segunda de la esperanza de cuadrado respecto de beta sub cero y respecto de beta sub uno eso sería menos, menos, sí multiplicado por el menos dos sería la esperanza, sería dos por la esperanza de sí, lo tenemos y en la segunda fila del gesiano pues ponemos ahora las derivadas segundas de la derivada de la esperanza de cuadrado respecto de beta sub uno entonces primeramente respecto de beta sub cero puesto que sería sería menos uno por sí o sea, sería, por tanto sería la esperanza de menos sí como está multiplicado por menos dos pues sería la esperanza, dos por la esperanza de sí y después derivando ahora respecto respecto de beta sub 1, pues la derivada respecto de beta sub 1 es xi cuadrado, menos xi cuadrado, por tanto sería 2 por esperanza de xi cuadrado. Bueno, esto lo calculamos en determinante y sería 4 por esperanza de xi cuadrado menos la esperanza de xi al cuadrado que nos pregunta que la varianza de xi, luego esto es 4 multiplicado por la varianza de xi, que esto es mayor que 0, por lo tanto lo que hemos obtenido era un mínimo, minimizaba al valor esperado de cuadrado. Bien, así pues la recta de regresión la podemos escribir en la forma punto pendiente puesto que sabemos que un punto, un punto de la recta de regresión es el punto de coordenadas alfa sub 0, 1, o sea alfa, perdón, alfa sub 1, 0 alfa sub 0, 1, para la xi es alfa sub 1, 0, para la eta es alfa sub 0, 1 entonces pasa por ese punto ahí y su pendiente es mu sub 1, 1 partido por mu sub 1, 0, luego aquí simplemente es colocar la ecuación de la recta punto pendiente con ese punto y esa pendiente, entonces aquí tenemos la recta de regresión 2 de eta sobre xi y anualmente la recta de regresión 2 de xi sobre eta sería así asterisco menos alfa sub 1, 0 igual a mu sub 1, 1, esto simplemente mirando la anterior y en vez de poner, por ejemplo, bueno, alfa sub 0, 1 podríamos alfa sub 1, 0, en vez de poner sigma sub 2, 0 podríamos sigma sub 0, 2 y en vez de alfa sub 1, 0 pues alfa sub 0, 1. Claro, si la curva de regresión 1 es lineal, la que hemos hallado anteriormente es lineal, en ese caso coincide con la recta de regresión 2 mínimo cuadrática. Bien, y vamos a ver qué entendemos por correlación. Pues denominamos correlación al grado de asociación que existe entre las variables sí y en esa regresión que hemos calculado, pues esa asociación que existe entre las dos variables, ¿en qué grado? ¿Cómo lo podemos medir? Bueno, nosotros en el caso particular de la correlación lineal, interviene la variable eta que queremos explicar, se usa esa expresión, queremos explicar mediante la regresión. Lo que queremos es una variable eta asterisco que de alguna manera explique las variaciones que experimenta la variable eta, pero que dependerá del valor que existan. Entonces, por eso llamamos a eta asterisco, le damos variable explicada. Entonces, lo que llamamos el error es la diferencia entre ambas variables, la variable eta y la variable explicada. La variable explicada es la recta, en el caso de la recta de regresión, pues es la que hemos dado antes. Entonces, por una parte, tenemos que la varianza de la variable explicada, la varianza de eta asterisco, será la varianza de beta sub cero más beta sub uno sí, que es la recta de regresión, bueno, pues la varianza de esta suma es una constante más, beta sub uno por sí, la varianza de una constante es cero, por tanto, aquí aparecería la varianza de beta sub uno sí, y la varianza de beta sub uno sí, el beta sub uno sale fuera, elevado al cuadrado, pues sería beta sub uno cuadrado, varianza de xi, que es beta sub uno cuadrado por mu sub dos cero. Como el beta sub 1 ya lo conocemos, ¿no? Era 1 sub 1 partido por 1 sub 2 0, pues como está al cuadrado, pues 1 sub 1 al cuadrado partido por 1 sub 2 0 al cuadrado y multiplicado por 1 sub 2 0, simplificamos y este sería el valor de la varianza, de la variable explicada. Bueno, y, bueno, por otra parte la esperanza, la esperanza de la variable explicada que sería el valor esperado de beta sub 0 más beta sub 1 sí, que sería beta sub 0 más beta sub 1 por la esperanza de sí. Bueno, que sería, sustituimos los valores que tenemos de beta sub 0, bueno, beta sub 0 que sería alfa sub 0 1 menos beta sub 1 por al cuadrado. Beta sub 1 0 más beta sub 1 por el valor esperado de sí, que es alfa sub 1 0. Y claro, aquí se nos cancela esto y por lo tanto nos queda que es igual a alfa sub 0 1. Por lo tanto, o sea que la esperanza, hemos dicho que la esperanza de la variable explicada es alfa sub 0 1, es decir, la misma que la variable, sí, que la variable eta. Bueno, entonces la esperanza de E, que es el... Residuo, ¿no? La esperanza de residuo, la esperanza del error, que es esperanza de eta menos eta asterisco, pues sería la esperanza de eta menos la esperanza de eta asterisco y la esperanza de eta, pues ya la hemos calculado, ¿eh? Y, o sea, la esperanza de eta, perdón, es alfa sub 0 1 y la esperanza de eta asterisco, que acabamos de calcular, que es lo mismo, por lo tanto sería cero. El valor esperado de E sería cero. así que la varianza de E que es lo que queremos calcular sería por tanto la esperanza de E cuadrado sería la esperanza de E cuadrado menos la esperanza de E al cuadrado pero la esperanza de E es cero, por tanto sería solo la esperanza de E cuadrado que es la esperanza de Eta menos eta asterisco al cuadrado y eso simplemente tenemos que ponerlo Eta menos la recta de regresión Eta menos alfa sub 0,1 menos mu sub 1,1 para que pongamos un 2,0 por si menos la sub 1,0 y eso elevado al cuadrado entonces aquí desarrollamos este cuadrado consideramos esto como primer término es como una resta, este sería el diminuendo y el resto el sustraendo entonces elevado al cuadrado sería la esperanza de Eta menos alfa sub 0,1 al cuadrado más la esperanza del segundo cuadrado mu sub 1,1 al cuadrado para que pongamos mu sub 2,0 al cuadrado sale factor común y pues sería esperanza de Si menos la sub 1,0 al cuadrado luego menos el doble del producto bueno la esperanza doble del producto el menos 2 y la constante mu sub 1,1 para que pongamos un 0 sale fuera y nos quedaría la esperanza del Eta menos la sub 1,0 por si menos la sub 0,1 entonces, aquí tenemos que la esperanza de Eta menos a sub 0,1 elevado al cuadrado al cuadrado, eso no es otra cosa que la varianza de eta, que es el mu sub cero dos, lo ponemos. La esperanza de xi menos sub uno cero al cuadrado, no es otra cosa que la varianza de xi. O sea, es el mu sub dos cero. Puesto que va multiplicado por mu sub uno uno al cuadrado partido por mu sub dos cero al cuadrado, simplificamos el mu sub dos cero al cuadrado del denominador o nos quedaría mu sub uno uno al cuadrado partido por mu sub dos cero. Y el valor esperado, este que tenemos aquí, el valor esperado del producto eta menos alfa sub cero uno por siete menos la sub uno cero, nosotros sabemos que la covarianza es mu sub uno uno. Por tanto, aquí nos quedaría menos, a ver, bien, nos quedaría menos dos veces mu sub uno uno al cuadrado partido por mu sub dos cero. Puesto que lo teníamos, o sea, que tenemos aquí más mu sub uno uno al cuadrado partido por mu sub dos cero menos dos veces mu sub uno uno al cuadrado partido por mu sub dos cero, pues lo restamos y finalmente nos queda mu sub dos cero menos mu sub uno uno al cuadrado partido por mu sub dos cero, que eso es la varianza de eta menos la varianza de eta asterisco, que es la que habíamos calculado antes. Por lo tanto, tenemos esta relación. Es decir, tenemos que aquí desplazamos la varianza de eta, resulta que la varianza de eta es la suma. De la varianza de eta asterisco más la varianza de la variable residual, el error, ¿no? Es decir, la varianza de la variable explicada, o sea, perdón, la varianza de la variable i es igual que la varianza de la variable explicada más la varianza residual, que llamamos así. Entonces, en esta igualdad dividimos por la varianza de eta, nos quedaría que uno es igual a la varianza explicada partido por la varianza de la variable eta más la varianza residual partido por... ...por la varianza de la variable eta. Bueno, esta reducción, pues conviene recordarla. Entonces, precisamente, llamamos coeficiente de determinación rao cuadrado a la fracción de la varianza total que está explicada por la regresión. Es decir, al sumando, ¿eh?, de la relación anterior, al sumando varianza de eta asterisco partido por varianza de eta. El valor de esa fracción la llamamos coeficiente de determinación. Lo podemos describir, por lo tanto, de esta manera. La varianza de eta hasta x, que era mu sub 1, 1 cuadrado partido por mu sub 2, 0. Y la varianza de eta, que es mu sub 0, 2. Entonces, tendría esta expresión de aquí. Y, claro, se cumple 0 menor o igual que r cuadrado menor o igual que 1, porque era uno de los dos sumandos en que se descomponía la unidad que hemos visto antes. Entonces, y llamamos coeficiente de correlación lineal a la expresión mu sub 1, 1 partido por la raíz cuadrada de mu sub 2, 0, mu sub 0, 2. El cuadrado de este error sería el coeficiente de determinación. Claro, se cumple que este cociente ya puede ser negativo, evidentemente. El coeficiente de determinación no lo es, claro. Estaba todo elevado al cuadrado, por eso va entre 0 y 1. Pero este sí, este sí, el mu sub 1, 1. Puede ser negativo, por lo tanto. Pero bueno, el valor absoluto no pasa de 1, claro, va entre 0 y 1. El rho, ¿no? Por lo tanto, se cumple que el rho está compuesto entre menos 1 y 1. Bueno, si el rho toma cualquiera de estos dos valores, más o menos 1, entonces, lógicamente, el rho cuadrado es igual a 1. Y en ese caso, la varianza residual es 0. Toda la suma de las dos varianzas es igual a 1. Si una de ellas ya es 1, pues la otra es 0, claro. Entonces, en ese caso... En ese caso, los valores de eta coinciden con los de eta asterisco. Y entonces decimos que hay una correlación perfecta. La variable explicada explica, podemos decir al 100%, a la variable. Y en el caso de que rho sea igual a 0, pues entonces no existe correlación. Y entonces las variables, pues están incorreladas linealmente. Bien, vamos ahora a ver un ejercicio. Tenemos aquí una variable bidimensional, si eta, cuya función de densidad, bueno pues aquí la tenemos, es 2 por x más y en el recinto determinado por 0 menor o igual que y, menor o igual que x, menor o igual que 1 y 0 en el resto. Bueno, el recinto lo tenemos aquí coloreado en este dibujo. Entonces vamos a ver las regresiones 1 y 2 y el coeficiente de correlación. Bueno, pues entonces vamos a empezar con la regresión 1. La regresión 1, para eso necesitamos calcular las funciones marginales, de densidad marginales. Entonces f sub 1 de x, pues integramos para todos los valores de x, la x va desde, perdón, para todos los valores de y, perdón, para todos los valores de y, la y va desde 0 hasta x. Lo tenemos, por tanto sería integral desde 0 hasta x de la función de densidad. Que es 2 por x más y diferencial de y. Y, bueno, resolvamos este integral, es inmediata, ¿no? Y sale 3 por x elevado al cuadrado. Porque, bueno, el integral sería 2xy más y cuadrado. Sería 2xy más y cuadrado y eso desde 0 hasta x sustituimos, nos queda 3x al cuadrado. Y la x está entre 0 y 1. ¿Eh? Y la x está entre 0 y 1. Y la f sub 2 de y, en la función de densidad marginal de la y, que sería, sumamos para todos los valores de la x, que la x va desde y hasta 1. Luego sería la integral desde y hasta 1 de la función de densidad, 2 por x más y diferencial de x. Bueno, resolvemos esta integral y nos queda 1 más 2y menos 3y cuadrado y ahora la y va desde 0 hasta 1. Bien, por lo tanto... f de y, condicionado por x, sería f de xy, la función de densidad conjunta, 2 por x más y, partido por la función f sub 1 de x, sería 2 por x más y, partido por 3x al cuadrado, y puesto que está condicionado por x, el recorrido sería 0 menos igual que y, esto es como una función de y, es una función de y condicionada por x, luego sería 0 menos igual que y, menos igual que x, y f de x condicionado por y, sería la función de densidad conjunta, f de xy, partido por la f sub 2 de y, bueno, aquí lo tenemos, y es una función de x condicionada por y, luego el recorrido sería, la x va desde y hasta 1, lo que valga y está condicionado. El recorrido de la x va desde y hasta 1. Por tanto, las curvas de regresión 1 serían esperanza de eta condicionado por xi, es sumar para todo el recorrido de la y, y multiplicar, o sea, f, la función de densidad conjunta, perdón, sería la función de densidad de eta condicionado por y, o sea, sería multiplicar, y por la función de eta condicionado por y. Bueno, lo hemos llamado de y condicionado por x, lo tenemos aquí, ¿no? O sea, sería el 2 por x más y, partido por 3y al cuadrado, eso multiplicado por y, ¿eh? Aquí lo tenemos, sería 2 por y por x más y, partido por 3y al cuadrado, diferencial de y, bueno, resolvemos esa integral y queda 5 no menos dx, y, abrogamente, la recta de regresión 1, ahora, esperanza de xi condicionado por eta. ¿Qué sería? Multiplicar x por la función de densidad de x condicionado por y. El factor sería 2x por x más y, para que por 1 más 2y menos 3y cuadrado, diferencial de x, resolvemos bien terálico, porque queda esta expresión. Bueno, tenemos los propósitos esperados. Observemos que la recta de regresión de eta sobre xi ha salido lineal, y ha salido 5 novenos de x, no ha ocurrido así lo mismo con la otra. Y ahora vamos a hacer la regresión 2. ¿Qué? Vamos a hacer la regresión 2 lineal. Entonces, bueno, calculamos los momentos, ya tenemos hecho simplemente, vamos a colocar las rectas de regresión, para eso necesitamos saber todos los momentos, ¿no? Alfa sub 1, 0, la esperanza de xi, bueno, pues sería 3, por la integral desde 0 hasta 1, la integramos ahora para todo el recorrido de la x, o sea, vamos a utilizarla. Función de densidad, la f sub 1 de x, ¿eh? Que teníamos antes, pues aquí la tenemos, la f sub 1 de x, que era 3x al cuadrado. Bueno, pues entonces, hacemos la integral de 3x al cuadrado multiplicada por x, que sería 3x al cubo desde 0 hasta 1. Bueno, eso sería esta integral, ¿no? Bueno, eso es inmediata y son tres cuartos. Bueno, ahora solamente calculamos alfa sub 0, 1, que sería la esperanza de eta, con su función de densidad, con su f sub 2y, ¿eh? Expresión multiplicada por y, ¿eh? Y bueno, ahora resolvemos y dan 5 doceavos. Calculamos alfa sub 2, 0, que sería la esperanza de xi al cuadrado, para eso vamos a utilizar la función de densidad marginal de la x, ¿no? De la xi. Multiplicamos por x al cuadrado, que sería 3 por la integral de 0 hasta 1, que es 4, diferencial de x, bueno, eso da 3 quintos. Análogamente hacemos alfa sub 0,2, que es la esperanza de eta al cuadrado. Bueno, aquí tenemos la integral, que es 7 partido por 30. Y alfa sub 1,1, que es la esperanza del producto, que tenemos que multiplicar xy por la función de densidad conjunta, que era 2 por x más y. Y, bueno, aquí hacemos la integral doble en todo el recinto. La función de densidad conjunta, bueno, aquí nos queda un tercio. Hacemos eso de la integral, queda un tercio. Entonces, de aquí ya podemos sacar los momentos respecto de las medias. Entonces tenemos en primer lugar que el mu sub 2,0, que sería alfa sub 2,0 menos alfa sub 1,0 al cuadrado, ya tenemos todos los momentos respecto del origen. Pues vamos poniendo y nos quedaría 3 partido por 80. El mu sub 2,0. El mu sub 2,0, la varianza de la eta, que sería esta expresión. Lo tenemos ya simplemente sustituir. Y el mu sub 1,1, la covarianza, pues esto es lo que vale. Lo sustituimos y nos queda al final 1 partido por 48. Luego entonces tendremos que la recta de regresión de eta sobre xy sería eta asterisco menos alfa sub 0,1, que son 5 doceavos, igual a mu sub 1,2. 1 partido por 48, partió por el mu sub 2,0 por xy menos tres cuartos. Y bueno, esto lo simplificamos y nos queda que eta asterisco es 5,1 menos 3xy, que coincide con la regreso de eta. Claro, es lineal, este es lineal. Con la regresión 1 de eta partido por xy, claro, por aquí ya da la lineal. Y la regresión de sí sobre eta, pues simplemente sustituir, o sea que sería sí asterisco menos la alfa sub 1 cero, que son tres cuartos, igual a la covarianza, 1 partido por 48, por mu sub 0.2, que lo tenemos aquí, que son 43 partido por 320, utilizado por eta menos media, alfa sub 0.1, que son 5 doceavos, que igual a esto lo significamos y queda pues esta otra ecuación lineal también. Entonces finalmente el coeficiente de correlación, que es mu sub 1,1 partido por la raíz cuadrada de mu sub 2 cero mu sub 0.2, bueno, sustituimos, nos queda esta expresión, y aproximadamente 0,4402. Bien, bueno, vamos a ver ahora, aquí entendemos por reversión, o sea, que es la distribución normal bidimensional. Y, variables, ¿no? Sería x menos su, menos la media, o sea, mu sub, menos el valor medio de la variable xi, mu sub xi, partido por sigma, por su desviación típica elevada al cuadrado, menos dos rho por x menos mu sub xi, partido por sigma, sub xi, por y menos mu sub eta, partido por xi. O sea, que es como si tuviesen las variables tipificadas, ¿eh? O sea, que restamos la media y dividimos por la desviación típica. Recordemos que eso era lo que iba en el exponente, precisamente, de la variable normal bidimensional, ¿no? Bueno, aquí tenemos esto, y luego más y menos mu sub eta, porque sigma es beta, al cuadrado. Esta es la función de densidad de la normal bidimensional. Bien, entonces sabemos... Bueno, esta sería la representación gráfica. Es una superficie, claro, bidimensional. Sabemos que si dos variables son independientes, su coeficiente de correlación lineal es cero. Y que en general el recíproco no es cierto, pero ahora bien, en el caso de la distribución normal bivariante, sí que se cumple el recíproco. En efecto, si rho es cero, bueno, si rho es cero, eso sustituimos en la fórmula anterior, sustituimos la rho por el valor cero. Entonces nos queda, pues... Esta expresión de aquí. Uno partido por dos pi, sigma sub si, sigma sub eta, y elevado, pues esta expresión, ¿no? Menos un medio por x menos mu sub si, porque por sigma al cuadrado, más, y menos mu sub eta, porque por sigma sub eta, al cuadrado. Claro, ha desaparecido. Esta expresión, lo que tenía el rho, claro, ha desaparecido, y donde pone rho, pues ponemos cero, y queda esta expresión de aquí. No, esta expresión que tenemos ahora la podemos separar en dos factores. Uno sería uno partido por sigma sub si. Raíz de dos pi, ¿eh? Raíz de dos pi, ponemos. Raíz de dos pi, separamos. por e elevado a menos un medio por x menos mu sub si partido por sigma sub si al cuadrado esto no es otra cosa que la función de densidad la normal de la variable si con su media, su si y su barra definición típica sigma sub si y luego el otro factor que es uno partido por sigma sub eta por e elevado a menos un medio y menos mu sub eta partido por sigma sub eta al cuadrado que no es otra cosa que la función de densidad la normal de la variable eta con parámetro mu sub eta sigma sub eta bien, por tanto las variables efectivamente son independientes, si el valor es cero las variables son independientes porque la función de densidad conjunta se descompone en el producto de las funciones de densidad de las funciones de densidad marginales bien, vamos a ver algunos ejercicios propuestos en los exámenes en primer lugar el coeficiente de correlación lineal toma valores, es una cuestión teórica bueno, primero entre cero y uno b entre menos uno y uno y c entre menos uno y cero ninguna de las anteriores, bueno, está claro es trivial, la solución es b otro ejercicio tenemos aquí una pugna que contiene cinco bolas rojas y cuatro negras Entonces se realizan dos extracciones sin reemplazamiento y llevamos si y eta a los resultados obtenidos aleatoriamente de la primera y de la segunda extracción. Entonces primero se pide la covarianza de la variable dimensional si eta y segundo el coeficiente de correlación. Bueno, entonces vamos a ver, vamos a precisar un poco las dos variables si eta. Entonces vamos a definir si como el número de bolas rojas en la primera extracción. Bueno, podríamos hacerlo análogamente por el número de bolas negras. Pero bueno, yo cuando hago una extracción saco una bola, la primera extracción es roja o negra. Voy a llamar si al número de bolas negras, el del bolo rojo, perdón. Si sale roja, si vale uno y si sale negra, si vale cero. Por lo tanto los valores de si son uno y cero. Aquí lo tenemos. Y eta va a ser el número de bolas rojas en la segunda extracción. Pues hacemos dos extracciones sin reemplazamiento. Sacamos una primera bola. Y luego la segunda. Entonces eta es el resultado de la segunda extracción. El número de bolas rojas en la segunda extracción. Puede ser también uno o cero. Bien, entonces completamos la tabla. O sea, aquí tendríamos la tabla conjunta. Por ejemplo, probabilidad de que si sea igual a uno y eta sea igual a uno. Que aquí pone cinco dieciochavos. ¿Por qué? Porque la probabilidad de que si sea igual a uno sería cinco novenos. La probabilidad de que la primera sea roja, cinco novenos. Por la probabilidad de que la segunda sea roja también. Eta vale uno. Por tanto, si la primera es roja, la segunda... O sea, porque la probabilidad de que ocurran ambas situaciones... La probabilidad de que la primera sea roja y la probabilidad de que la segunda lo sea, a condición de que no haya sido la primera, claro. Será cuatro octavos. Cuatro octavos es un medio, lo crea. Cinco novenos multiplicado por un medio son cinco dieciocho altos. Bueno, de forma análoga se calcula esto. Es sencillo, se van calculando las probabilidades de cada par, si eta. Entonces, salen estos valores de aquí, estas probabilidades. Comprobamos, suman un número más. Y aquí construimos las probabilidades marginales sumando por filas y sumando por columnas. Tenemos las probabilidades marginales de la variable sí y de la variable eta. Y para hallar los valores esperados, multiplicamos cada valor de sí por la probabilidad marginal. O sea, que sería uno por diez dieciocho avos, sería diez dieciocho avos. O cero por ocho dieciocho avos, que sería cero, claro. Eso lo sumamos y se suma diez dieciocho avos. Análogamente, en columna, o sea, para cada valor de la eta, uno por su probabilidad marginal, sería diez dieciocho avos, o cero por su probabilidad marginal, sería cero. Sumamos y da diez dieciocho avos. Bueno. Y también calculamos el producto de cada valor de la variable por la otra y por una probabilidad conjunta. O sea, variamos uno por uno por cinco dieciocho avos. Que son cinco dieciocho avos. Uno por cero por cinco dieciocho avos, que es cero. Cero por uno por cinco dieciocho avos, que también es cero. Y cero por cero, por tres dieciocho avos, que es cero. Esto de aquí lo sumamos y... Bueno, está, lógicamente, cinco dieciocho avos. Entonces tenemos que el valor esperado de xi será diez dieciocho avos, que teníamos aquí sumado. El valor esperado de eta será diez dieciocho avos, que no lo teníamos aquí sumado. Y el valor esperado del producto, que será cinco dieciocho avos, que sería la suma de estos cuatro números que hay aquí. Por lo tanto, bueno, ya tenemos, podemos decir, los momentos respecto del origen. Luego, entonces, la covarianza, que sería la esperanza del producto menos el producto de las esperanzas, ¿no? Porque sería 5 y 18 agos menos el producto, 10 y 18 agos por 10 y 18 agos, esto se calcula y da menos 2,5 partido por 80. Bien, y ahora vamos con el coeficiente de correlación. Bien, observemos que la esperanza de sí cuadrado es igual que la esperanza de sí, que al elevar al cuadrado el 1 y el 0 se obtienen los mismos valores, como la esperanza de sí cuadrado es la esperanza de sí y, análogamente, la esperanza de eta cuadrado es la esperanza de eta. Por lo tanto, las varianzas, además, van a ser iguales, van a ser igual a la esperanza de sí, que es la esperanza de sí al cuadrado, por lo tanto, que es 10 y 18 agos, menos la esperanza de sí elevada al cuadrado. Por lo tanto, bueno, quedaría esto, 20 partido por 81. Ambas varianzas son iguales, ¿no? Las desviaciones típicas. Son la raíz cuadrada, sería 2,5 partido por 9. Por lo tanto, el coeficiente de correlación sería la covarianza, menos 2,5 partido por 81, partido por el producto de las desviaciones típicas, que sería 20, el producto sería 20 partido por 81. Bueno, pues todo. Ese resultado es decimal, es menos 0,135. Bien. Bueno, tenemos aquí otro ejercicio, ¿no? Dadas sí y eta, variables letras. Ambas con varianza sigma al cuadrado y coeficiente de correlación entre ellas, rho. ¿Cuál será la varianza de la media aritmética de dichas variables? Y eta, bueno, aquí hay varios resultados. Bueno, tenemos que rho es la covarianza partido por sigma al cuadrado, puesto que, o sea, las desviaciones típicas, puesto que ambas tienen varianza sigma al cuadrado, pues también sus desviaciones típicas son iguales. Por lo tanto, aquí el denominador aparecería sigma por sigma, sigma al cuadrado. De aquí desplegamos la covarianza, por tanto será Rho por sigma cuadrado. Luego la varianza de sigma zeta partido por 2, que será la varianza de sigma zeta partido por 4. Sacamos el 4 afuera. Ahora la varianza de sigma zeta es la varianza de sigma, la varianza de eta más dos veces la covarianza. Por tanto esto sería sigma cuadrado más sigma cuadrado más dos veces la covarianza, que es 2 sigma cuadrado por Rho. Y bueno, esto lo calculamos, sacamos factor común sigma cuadrado y simplificamos. Nos quedaría sigma cuadrado por 1 más pi partido por 2, que es el resultado del apartado. Bien, vamos a ver otro ejercicio. Tratas dos variables aleatorias, si eta tal es que existen sus esperanzas y son positivas, se puede asegurar que existe el coeficiente de correlación si eta y es positivo. O existe ese coeficiente de correlación y es negativo. O existe ese coeficiente de correlación y es cero. O ninguna de las anteriores. Bueno, aquí lo que... Bueno, no sé, hay, existen ejemplos, aquí tenemos tres ejemplos, donde... Bueno, en este primer caso los valores de la variable son 1 y 2 en cada caso, ¿no? Pero había las probabilidades, por ejemplo, un primer ejemplo donde las probabilidades son todas iguales a un cuarto. En ese caso el valor esperado de si es 3 medios, el valor esperado de eta es 3 medios también. Y si calculamos... Si el coeficiente de correlación es cero. Si las probabilidades, pues en las de aquí, el segundo ejemplo, ¿no? Que serían... De que si eta sea igual a 1 es un medio, si igual a 1 es igual a 2 es cero, o si igual a 2 y eta igual a 1 es cero, o si igual a 2 y eta igual a 2 es un medio. En ese caso, también, los valores esperados son igual a 3 medios, y en ese caso el rho es igual a 1. Bien. O bien, tercer ejemplo, donde estas son las probabilidades que vemos aquí. Bueno, en ese caso también los valores esperados son los mismos, tres medios, pero en ese caso el fluyente de correlación es menos uno. ¿Qué quiere decir eso? Pues que no se cumple ni A ni B, puede ocurrir cualquiera de las tres cosas. Por lo tanto, la respuesta sería de ninguna de las anteriores. Y bien, pues hasta aquí, aquí ya dejamos el tema.