La sesión ya está empezando ahora a grabar y vamos a mostrar pantalla. Si me confirmáis que estáis viendo la presentación, Cipri. Sí. Vale. Bueno, pues vamos ya con esta. La página web. Vamos con la segunda sesión del Seminario de Econometría Aplicada, edición 2022. Ya nos habíamos presentado, evidentemente, la semana pasada y os habíamos planteado que, bueno, además de seguir en directo las sesiones a través de Teams, que aquí veis el enlace de la aplicación, también los vídeos van a ir estando disponibles. Hay una amplísima colección ya de vídeos en este enlace que veis en la página web y a medida que vayan avanzando el seminario, pues irán apareciendo más vídeos. Pero si ahora mismo abrimos esa página, veis que hay un montón de materiales y si vais navegando por la página, pues iréis viendo esos materiales. Incluso desde ahí se pueden bajar las aplicaciones de Gretel y de R. Hay una primera introducción en la que hablamos de la definición de econometría por varios autores, etc. Y a medida que vais avanzando, pues van apareciendo los conceptos básicos. En el bloque 1, que empezamos el otro día, modelos econométricos uniecuacionales, que es un poquito de lo que estamos empezando a hablar, e incluso aquí ya van apareciendo los vídeos. Ahí veis vídeos de otras ediciones que están perfectamente disponibles y que los podéis utilizar sin ningún problema. A medida que vayamos avanzando un poco más, pues irán apareciendo nuevos vídeos complementarios de estos que aparecen. Que aparecen por aquí. Bueno, y como veis tenéis también un programa en la propia página web. Hoy estamos a día 2 de marzo y por tanto, a ver porque no estoy en la página correcta de la actividad. Estamos a 2 de marzo y por tanto lo que nos toca por ver, aquí ahora sí. Sí, en 2 de marzo lo que nos toca por ver pues es modelos econométricos uniecuacionales, segunda sesión, que es en lo que vamos a centrarnos ahora. A partir de las 5 con Cipriano iremos a la parte práctica ya con el software Gretel y ahora yo voy a mostraros ya la presentación que veníamos usando la semana pasada y vamos a seguir con esta presentación. Bueno, seguimos en el... Bloque 1, fundamentos de análisis de regresión, modelos uniecuacionales, modelos y datos, análisis de regresión lineal, estimación, aspectos avanzados del análisis de regresión. Veremos más adelante aspectos de inferencia, etcétera. Bloque 1. Estos son los datos con los que habíamos empezado a trabajar la semana pasada. Que lógicamente, pues los vais a introducir. Los vais a introducir. Los vais a introducir en Gretel y vais a empezar a cacharrear con Cipri y con estos datos en Gretel para ver el funcionamiento básico de este sistema. Habíamos visto la evolución gráfica de las variables, habíamos comentado que la metodología es la de mínimos cuadrados ordinarios, habíamos hablado de la regresión lineal simple y también habíamos hablado de la regresión lineal múltiple ya introduciendo... Siempre hay que ir aceptando a la gente que está en la sala de espera, ir introduciendo las nuevas variables, por ejemplo, la variable X2, etc. Y habíamos quedado exactamente aquí, exactamente aquí. Habíamos dicho que es muy habitual en la práctica trabajar con datos no tanto en sumatorios, como veis en esta diapositiva, sino es mucho más habitual trabajar con varianzas, con covarianzas y con medias, tal como veis en esta diapositiva. Y en este sentido, claro, pues os había dicho que hay que repasar conceptos de introducción a la estadística, de estadística probabilística, de inferencia estadística, en fin, nos pusimos una serie de tareas de repaso de conceptos para poder avanzar. Aquí estáis viendo los conceptos que necesitamos ahora, las definiciones. Entonces, de esperanzas matemáticas, ahí las veis, de varianzas y de covarianzas, ahí las veis. A partir de estos conceptos se ve claramente la relación que existe entre los sumatorios, las esperanzas, las varianzas y las covarianzas y por tanto es evidente cómo pasar de este concepto, de este enfoque de varianzas, covarianzas y medias, a este otro en el que aparecen los sumatorios. Bien, vamos a seguir avanzando un poquito más. Y vamos a empezar ya con estos conceptos que son muy importantes. Damos por hecho, insisto... que tenemos claro lo que son las esperanzas matemáticas, las varianzas y las covarianzas y que por tanto tenemos claro lo que habíamos explicado la semana pasada de este enfoque de regresión lineal múltiple basado en las matrices x'x y x'y definidas a través de los sumatorios, sumatorio de x1, sumatorio de x2, sumatorio de y, sumatorio de x1 al cuadrado, de x1 a x2, etcétera, etcétera, de x2 al cuadrado, etcétera. O, con la relación que existen entre varianzas, covarianzas, medias y los sumatorios podríamos pasar a este otro planteamiento con la matriz x'x de dos filas por dos columnas en la que aparecen las varianzas y covarianzas. Fijaros bien, varianza de x1 pero multiplicado por n, covarianza de x1, x2 multiplicado por n, es una matriculación, y simétrica, como veis aquí, y la varianza de x2 multiplicado por n. Es una matriz de dos filas por dos columnas. Y la x'y sería covarianza de x1 multiplicado por n, covarianza de x2 multiplicado por n. Evidentemente, a partir de estas dos matrices podemos estimar los parámetros b1 y b2 que multiplican a las variables x1 y x2. ¿Cómo? Pues con la expresión matricial habitual de mínimos cuadrados ordinarios inversa de la matriz de x1 y x2 a la matriz de x'x multiplicado por la matriz de x'y que al final, cuando se hace la inversa y se multiplican estas dos matrices, fijaros bien en este detalle, las n van a desaparecer. Porque al hacer la inversa, sale de la matriz inversa 1 partido por n y al multiplicar por la matriz x'i, en la que aparece una n dentro multiplicando, el 1 partido por n y la n se van, se simplifican. Pero insisto, al hacer este cálculo de inversa multiplicado por x'i. Si no estamos haciendo ese cálculo, la matriz x'x tiene la n como veis en los diferentes, ¿verdad? Factores en los diferentes puestos de la matriz, en la fila 1 columna 1, en la fila 1 columna 2, y en la fila 2 columna 1, en la fila 2 columna 2 aparece la n multiplicando. Y también en la matriz x'i, en la fila 1 columna 1 aparece la n multiplicando y en la fila 2 columna 1 aparece la n multiplicando. Solo se van las n cuando hacemos el cálculo inversa multiplicado por x'i, que es un detalle importante. Si hemos calculado el estimador del parámetro b1 y el estimador del parámetro b2 a partir de este cálculo matricial con las varianzas y covarianzas, podemos calcular también el estimador del parámetro alfa, que es el término independiente, es la constante, a partir de esta fórmula que veis aquí abajo, esperanza matemática de i menos el parámetro beta1 que hemos estimado por la esperanza matemática de x1 menos el parámetro beta2 que hemos estimado. Por la esperanza matemática de x2. Sería otra forma de proceder. Alternativa a esta, esta nos daría directamente las estimaciones de alfa, beta1 y beta2 usando esta matriz de 3 por 3 x'x en la que aparecen sumatorios y esta matriz de 3 filas 1 columno de x'i en la que también aparece el sumatorio. Insisto, son las dos formas alternativas de proceder. Y la relación entre ambas, evidentemente, es a partir de las definiciones, de esperanzas, de varianzas y de covarianzas que veis en esta diapositiva y que todos debemos conocer de un curso de estadística descriptiva o de introducción a la estadística. Bien, dicho eso, vamos a introducir ahora los conceptos muy importantes de suma de cuadrado residual que es la que veis aquí arriba, SCR, que es igual a I'I menos beta' que multiplica por X'I. También se le puede llamar a esa suma de cuadrado residual discrepancias de SCR o D. ¿Qué es I'I? Pues I'I es el sumatorio de I al cuadrado. I'I, si tenemos un vector columna que es I, que lo veis aquí, que tiene 12 filas por una columna, el I' sería el traspuesto de este vector, una fila por 12 columnas y el I'I, evidentemente, es un número. Es un número. Una fila. Una fila por una columna. Es el sumatorio de I al cuadrado. Sumatorio de I al cuadrado. Esto es un número. ¿Qué era el X'I? Pues el X'I era, aquí lo veis por ejemplo, es un vector que tiene tres filas y una columna. Ese es el X'I. Tres filas por una columna. ¿Qué será este beta' que aparece aquí multiplicando por x'i? Pues el beta' será el vector traspuesto de este vector que tenéis aquí, este vector columna que tenéis aquí, y que hemos estimado por mínimos cuadrados ordinarios aplicando esta fórmula que estáis viendo. Inversa de x'x multiplicado por x'i. O sea, el vector B tiene tres filas y una columna, alfa, beta'1, beta'2, estimadores por mínimos cuadrados ordinarios, y si hacemos su traspuesta será de una fila por tres columnas y sería alfa, beta'1, beta'2. Si multiplicamos ese vector beta' traspuesta, alfa, beta'1, beta'2, por este vector x'i sumatorio de i, sumatorio de x'1i, sumatorio de x'2i, evidentemente nos queda un número. Queda un vector de una fila a una columna, o sea, una constante. Concretamente el valor que tomaría sería alfa por sumatorio de i, más beta'1 por sumatorio de x'1i, más beta'2 por sumatorio de x'2i. Ese sería el resultado de multiplicar beta' por x'i. Si a este número i'i, que es el sumatorio del cuadrado, le restamos este otro, beta'x'i, evidentemente queda un número que se denomina suma de los cuadrados de los errores o suma de cuadrado residual o discrepancia. Muy importante, la de que aparece. Bien, vamos a definir otro concepto muy importante que es la suma de cuadrados explicada por la regresión. En la suma adecuada explicada por la reacción, partimos de este número que ya habíamos calculado, el beta'x'y, aquí lo veis, beta'x'y, insisto, es un número que se obtiene de multiplicar este vector traspuesto por este vector que está aquí, y el número es alfa sumatorio de y más beta1 sumatorio de x1y más beta2 sumatorio de x2y. Y a ese número hay que restarle otro número, que es el resultado de multiplicar n, tamaño de la muestra, en este caso 12, por el cuadrado de la esperanza matemática de y, el cuadrado de la media de la variable y. Si a este número le restamos este otro, nos da la suma de cuadrados explicada. Por último. Por último, si sumamos la suma de cuadrados explicada más la suma de cuadrado residual, que son dos números, dos constantes, nos da la suma de cuadrados total de la regresión. ¿Qué quiere decir esto? Pues esto lo que quiere decir, mirad, esta expresión que está aquí, y igual a alfa más beta1 x1 más beta2 x2, eso, en términos gráficos, sería un plano de regresión. Sería un planteamiento bidimensional, sería un plano de regresión. Porque hay tres dimensiones, la dimensión de la variable x1, la dimensión de la variable x2 y la dimensión de la variable y. Es un plano en el espacio tridimensional. Pero esto es la ecuación de un plano en ese espacio tridimensional. De la misma forma que todos sabemos que I sub T igual a alfa más beta que multiplica por X1T es una recta, es una recta de regresión en el espacio bidimensional, pues aquí solamente hay dos dimensiones, la que está definida por la variable X1 y la que está definida por la variable Y, solo dos dimensiones y esta expresión es una recta de regresión. En ambos casos, tanto si estamos en el espacio bidimensional trabajando con rectas de regresión o en el espacio tridimensional trabajando con planos de regresión, como veis siempre introducimos una variable error o una variable discrepancia de su T. Ahí la veis, de su T. O sea, sea la recta que veis aquí o sea el plano que veis aquí, se... ajustarán mejor o peor a la nube de puntos original del problema. Evidentemente, estos datos que nos están dando del problema, si los representamos gráficamente en el espacio bidimensional, pues es una nube de puntos y si estuviésemos en el espacio tridimensional, pues también sería una nube de puntos gráficamente expresado. Y esa recta y ese plano se ajustarán mejor o peor a esa nube de puntos. A veces pasarán exactamente por el punto concreto, con lo cual no habría error, pero otras veces pues no pasarán por el punto concreto, con lo cual habrá errores por defecto o por exceso que serán, digamos, definidos por esas variables discrepancias de su T, discrepancia o residuo o perturbación aleatoria o error, que de todas estas formas podemos referirnos a la variable error. Esa es la variable de su T. Sí, pero hay gente esperando en la sala de espera. Entonces, como veis, la discrepancia siempre está en el modelo y precisamente esto quiere decir que si yo pretendo explicar a la variable Y, en realidad me estoy planteando dos cosas. Si pretendo explicar a la variable Y, hay una parte de las variaciones de la variable Y que viene explicada por el modelo de regresión, en este caso, por ejemplo, por el plano de regresión alfa más B1 por X1 más B2 por X2 y hay otra parte que no viene explicada por ese plano de regresión y que es un error, una discrepancia, una perturbación aleatoria en definitiva y que eso vendría representado por la B suje. Exactamente lo mismo cuando tengo un modelo como este que es más sencillo, que es una recta de regresión, yo puedo afirmar que si pretendo explicar la variabilidad global, los movimientos globales de la variable Y, habrá una parte que venga explicada por esta recta de regresión, alfa más beta por X y otra parte que no venga explicada por la recta y que sencillamente es un error, discrepancia o perturbación aleatoria, que es lo que aquí viene representado por B suje. Por eso, en términos generales podemos decir que la suma de cuadrados totales, representa el global, el global de la variabilidad de la variable Y, de la variable dependiente o explicada o si queréis endógena. Y de ese global de variaciones hay una parte que viene explicada por el propio modelo, sea esto una recta o un plano o lo que sea, esa parte que viene explicada por el modelo es la S-C-E suma de cuadrados explicada y hay una parte de esa variabilidad, de la variable dependiente o explicada o endógena Y que no viene explicada por el modelo, que no viene explicada ni por la recta ni por el plano y es la SCR, es la suma de cuadrados residual o suma de cuadrados de los errores. Bien, una vez que tenemos definida la suma de cuadrados total, la suma de cuadrados explicada y la suma de cuadrados residual, el siguiente paso, lo tenéis aquí abajo, es muy sencillo y yo creo que lo conocemos todos porque también se ve en los cursos de introducción a la estadística o estadística descriptiva, es definir el coeficiente de determinación. El coeficiente de determinación R al cuadrado es simplemente el cociente entre la suma de cuadrados explicada y la suma de cuadrados total. Evidentemente, ese cociente ha de estar comprendido entre 0 y 1. Si toma el valor 0 es que la suma de cuadrados residual es 0, es decir, no hay ningún error, la suma de cuadrados de los errores es 0 porque no hay ningún error y eso quiere decir que la resta y el plano pasa exactamente por todos los puntos de la nube. Sin cometer absolutamente ningún error, con lo cual, si la SCR vale 0, voy a explicarlo bien porque ahí he cometido un pequeño error. Si la SCR vale 0, la SCE es igual a la SCT, repito. Si la SCR vale 0 y si no hay errores, entonces la suma de cuadrados explicada coincide con la suma de cuadrados total y el cociente vale 1. El cociente vale 1 cuando el ajuste es perfecto. El R cuadrado valdrá 1 cuando el ajuste sea perfecto, cuando la suma de cuadrado residual sea 0 y cuando la resta o plano de regresión pasen por todos los puntos. Sin embargo, la R cuadrado valdrá 0 cuando la SCE valga 0 y la SCR coincida con la suma de cuadrados total. Es decir, cuando el modelo que estamos utilizando no se ajuste en absoluto a la nube de puntos, cuando la nube de puntos sea completamente aleatoria y ese modelo que nosotros utilizamos no sirve en absoluto. Para explicar lo que pasa entre las variables explicativas X y las variables explicadas Y, entonces la SCE será 0, el modelo no servirá para nada en absoluto, la SCR coincidirá con la SCT, toda la suma de cuadrados total será error, será suma de cuadrado residual, toda la variabilidad de la variable Y será puramente aleatoria y en ese caso el R cuadrado valdrá 0. Y el ajuste será un ajuste muy malo, un ajuste pésimo. O sea que el modelo no se adaptará para nada a la realidad de los datos, a la realidad estadística o a la realidad de los datos empíricos. Bueno, en definitiva, el R cuadrado es el coeficiente de determinación y es una medida de la bondad de ajuste a nivel muestral. a nivel muestra. En definitiva, lo que nos sirve si yo tengo una nube de 12 puntos 12 puntos en la muestra, lo que nos sirve es para saber si esta recta, si esta recta que está aquí igual a alfa más beta por x, se ajusta mejor o peor a esa nube de los 12 puntos que tengo en la muestra. Se ajustará perfectamente cuando r cuadrado valga 1 y por tanto la recta pasará por todos los puntos por los 12 puntos, y el ajuste será pésimo será pésimo cuando en realidad la recta no pase por ningún punto y en realidad la nube sea una nube completamente aleatoria que para nada responda al comportamiento de una recta de relación. Bien Por otra parte, os recuerdo también que hay un concepto que todos conocemos, que es el concepto de coeficiente de correlación lineal o correlación de Pearson, que se obtiene dividiendo dividiendo la covarianza la covarianza entre el producto de las desviaciones típicas. Vamos a ver yo tengo solamente la variable explicativa x1 y la variable explicada y es decir, si estoy con este modelo variable explicativa x1 variable explicada y entonces yo tengo una covarianza entre las variables y y x1 que viene dada por esta definición que veis aquí. Sumatorio de X1 por Y que divide N, menos esperanza matemática de X1 que multiplica por esperanza matemática de Y. Esa es la covarianza entre las dos variables. Si esa covarianza la divido, la divido por, en el denominador pongo el producto de las dos desviaciones típicas, es decir, la desviación típica de Y que multiplica por la desviación típica de X1, el resultado es el coeficiente de correlación lineal de Pearson. ¿Qué es eso de la desviación típica? Pues la desviación típica es la raíz cuadrada de la varianza. Si hemos hablado de la desviación típica de X1, pues sería, aquí tenéis la varianza de X1, aquí la tenéis, sumatorio de X1 al cuadrado partido por N menos el cuadrado de la esperanza de X1, la desviación típica de X1 sería la raíz cuadrada de esta varianza. ¿Cuál sería la desviación típica de X1? La desviación típica de Y, pues tendríamos que definir la varianza de Y, en esta diapositiva en principio no aparece, pero ¿cuál sería? Vamos, por andología, la varianza de Y sería el sumatorio de Y al cuadrado partido por N menos la esperanza de Y elevada, o sea, el cuadrado de la esperanza de Y. Y aplicándole a esa varianza... ...la varianza de Y, la raíz cuadrada, obtendríamos la desviación típica. Conclusión, os recuerdo que el coeficiente de correlación de Pearson es el cociente entre la covarianza dividido por el producto de las desviaciones típicas. Otra forma de calcular el coeficiente de determinación es como cuadrado del coeficiente de correlación de Pearson. El coeficiente de correlación de Pearson, insisto, cociente entre la covarianza y el producto de las descripciones típicas, varía entre menos uno y más uno. Entre menos uno y más uno. Si tomo el valor menos uno, hablamos de una correlación perfecta negativa. Si tomo el valor más uno, hablamos de correlación perfecta positiva. El que la correlación perfecta sea negativa es que, en realidad, la recta de regresión es decreciente. El decreciente quiere decir que a medida que la variable X crece, la variable Y decrece. Una crece y la otra decrece. Correlación perfecta negativa implica una recta de regresión decreciente que pasa por todos los puntos de la nube, por los doce puntos de la nube. En el sentido contrario, si la correlación... ...de Pearson toma el valor más uno, o sea, positivo, correlación perfecta positiva, quiere decir que la recta de regresión pasaría por los doce puntos de la nube, pero sería una recta creciente. A medida que la X crece, la Y también crece. Bueno, un concepto es en realidad de repaso de una estadística descripciva o introducción a la estadística. Y sólo mide el coeficiente de correlación perfecta negativa. Y sólo mide el coeficiente de determinación, la bondad de ajuste a nivel muestral. Es decir, sólo mide si dada una nube de puntos como esta de doce puntos, que por cierto es una muestra muy pequeñita, si esa recta de regresión se ajusta mejor o peor a esos doce puntos de la muestra. Otra cosa diferente es, lo veremos más adelante, cuál es la población objeto de estudio Nosotros vamos a suponer que la población objeto de estudio, evidentemente, es más grande que la muestra y que nosotros cuando obtenemos una muestra a partir de una población decidimos un tamaño de la muestra que sea operativo, que sea práctico, que podamos manejar, que sea suficientemente significativo, o sea, un tamaño que realmente nos permita llegar a interpretaciones estadísticas y económicas y econométricas que sean significativas, que sean fiables. Pero ya digo que esa muestra, en este caso de tamaño 12, está extraída de una población mayor. Claro, nosotros realmente lo que nos interesaría no es un modelo que explique a la muestra. Lo que realmente estamos interesados es un modelo. Un modelo económico y econométrico que explique la relación entre las variables X e Y a nivel de la población, no solamente a nivel de la muestra, y por tanto, pues no es suficiente con disponer de medidas como el R cuadrado, que es una medida de bondad de ajuste a nivel muestral. Tendremos que más adelante, y eso lo veremos también ahora, en ver el proceso que se denomina de inferencia estadística. Ver si una vez que tenemos datos e informaciones a nivel muestral, eso realmente lo podemos trasladar a nivel poblacional. Precisamente para dar ese paso a lo que es el proceso de inferencia estadística, para dar ese paso de la parte muestrada a la parte poblacional, ya aparecen aquí dos conceptos relevantes. Aparece aquí una expresión que pone, como veis, sigma cuadrado que multiplica por la inversa de la matriz x'x y por cierto, justo debajo se nos dice para estimar sigma cuadrado aquí tenemos una definición, dice se puede estimar sigma cuadrado como el cociente entre d dividido por n-k bueno, vamos a explicar esto con cierto detalle porque es muy importante bueno, para empezar, sigma cuadrado se refiere a la varianza de las perturbaciones aleatorias o errores cuando nosotros en un modelo sea muy simple como esta recta o sea, no tan simple como este plano de regresión decimos que siempre incorporamos una medida del error de su t de su t error, perturbación aleatoria, discrepancia, etcétera, etcétera hay que tener en cuenta que esa discrepancia o perturbación aleatoria o error o residuo es una variable aleatoria repito igual que las x variables explicativas o variables exógenas son variables aleatorias y la y variables explicativas variables explicadas o variables dependientes o variables endógenas también son variables aleatorias también la variable de su t que aparece ahí en pantalla también es una variable aleatoria que en este caso representa el error la perturbación aleatoria, la discrepancia o el residuo más adelante veremos que esa variable aleatoria error, discrepancia, residuo La perturbación aleatoria tiene un comportamiento, va a ser una serie temporal, que tiene un comportamiento que vamos a definir como ruido blanco. Eso lo veremos más adelante. De hecho, lo veremos muy a fondo en el tercer bloque temático del seminario en el que trabajemos con series temporales. De hecho, en ese tercer bloque temático, cuando trabajemos con series temporales, precisamente una serie temporal crítica para nosotros es la que definimos como ruido blanco o serie puramente aleatoria, que en realidad un ejemplo de serie puramente aleatoria es efectivamente el comportamiento teórico de un error, de una discrepancia, de un residuo o de una perturbación aleatoria. Son variables aleatorias cuya explicación... La esperanza matemática es cero, cuya varianza es constante, que no tienen que estar correlacionadas los errores que se cometan en distintos momentos en el tiempo, por tanto hablaremos más adelante que el coeficiente de autocorrelación es cero, etc. O sea, ya profundizaremos mucho más más adelante en ese concepto de ruido blanco. De momento, como primera aproximación, quedaros con la idea que es muy intuitiva, muy sencilla. Habrá errores por defecto, habrá errores por exceso. Es decir, a veces la recta de regresión o el plano de regresión pasará por debajo del punto, del punto que está en la nube empírica o en el dato estadístico con el que estamos trabajando, y otras veces pasará por encima. Y a veces no habrá error. El error será cero cuando la recta o el plano pasen justamente por el punto de la nube. Pero habrá errores por defecto. Habrá errores por exceso. La media de esos errores será cero. Será cero porque los errores por exceso compensarán a los errores por defecto. Es una idea muy intuitiva, ¿no? Bueno, entonces, en definitiva, esa variable aleatoria o error de la que estamos hablando tendrá de esperanza matemática cero y tendrá de varianza una constante distinta de cero. Esa constante distinta de cero, en principio, nosotros la desconocemos. No sabemos cuánto vale. Pero la podemos estimar con esta fórmula que veis aquí. Y esto es importantísimo. Una estimación insesgada de la varianza de las perturbaciones aleatorias o errores o discrepancias o residuos sigma al cuadrado se puede obtener dividiendo la suma de cuadrado residual, que ya la hemos definido antes, aquí la veis arriba, entre n menos k. Siendo n. El tamaño de la muestra. Y siendo k el número de regresores del modelo incluyendo el término independiente. Es decir, en este modelo hay tres regresores, que son x1, x2 y el término independiente. Y en este otro modelo, pues hay dos regresores, que son x1 y el término independiente. Luego aquí k vale 2. Y aquí k vale 3. En todo caso, pues n valía 12. Si n vale 12 y aquí k vale 2, pues n menos k sería 12 menos 2, 10. Y si aquí k vale 3, pues n menos k sería 12 menos 3, 9. Y aquí tenemos, como digo, muy importante, una estimación insesgada de la varianza de las perturbaciones aleatorias o errores que se obtiene dividiendo la suma de cuadrado residual entre n-1. Bueno, ¿qué es eso de estimación insesgada? En un curso de estadística que ya no es descriptiva, ya es un curso más serio de estadística, un curso de estadística teórica o de estadística probabilística o de estadística teórica o de inferencia estadística, porque a veces a estos cursos ya de un nivel un poquito intermedio de estadística se les denomina de distintas formas. Claro, se explica con toda claridad qué es un estimador, qué es un estimador en estadística, los diferentes tipos de estimación, estimación puntual, estimación por intervalos. Dentro de la estimación puntual hay varios métodos de estimación como puede ser la máxima de los similitudes o los métodos de momentos u otros métodos de estimación. Y se definen las características de un buen estimador. Y se habla de la insesgadez, de la eficiencia, de la consistencia y de la suficiencia. Me remito, tenéis que repasar todos estos conceptos de un curso de estadística ya teórica o probabilística. ¿Qué es eso de la insesgadez? Pues la insesgadez se da cuando la esperanza matemática del estimador coincide exactamente con el parámetro, el parámetro de la estimación. El parámetro que estamos estimando a nivel poblacional. Cuando el estimador que estamos utilizando, su esperanza matemática es exactamente igual al parámetro poblacional que pretendemos estimar, entonces el estimador es insesgado. Pues bien, si hemos conseguido una estimación insesgada de la varianza de las perturbaciones aleatorias o errores y más cuadrado, ¿para qué queremos? ¿Para qué queremos? Esa estimación de la varianza de las perturbaciones aleatorias o errores o discrepancias o residuos. Pues lo ves aquí arriba, lo que haremos para, es muy importante, para obtener esta matriz que veis aquí, esta matriz que es el resultado de multiplicar sigma cuadrado estimado por la inversa de la matriz x'x. Claro, esto es una matriz evidentemente, si x'x es por ejemplo esta matriz de tres filas por tres columnas, evidentemente x'x a la menos uno es la inversa de esa matriz que también tendrá tres filas por tres columnas. Y si esa matriz inversa de x'x la multiplicamos por un número, pero una constante que es esta que veis aquí, la estimación insesgada de la varianza de la perturbación aleatoria o error que se ha obtenido con este cálculo, pues evidentemente lo que obtenemos al multiplicar este número por esta matriz de 3x3 es una nueva matriz de tres filas por tres columnas que se llama, y esto es importantísimo, matriz de varianzas y covarianzas de los estimadores. Estimadores de los parámetros del modelo. Repito, repito, si multiplicamos sigma cuadrado por x'x a la menos uno, obtenemos una matriz. En nuestro ejemplo, que es este, una matriz de tres filas por tres columnas. Y a esa matriz se la denomina matriz de las varianzas y covarianzas, de los estimadores, de los parámetros del modelo. Bueno, voy a hacer aquí un pequeño paréntesis y nos vamos a ir a la página que tenéis web del seminario. La tenía por aquí a mano, me parece. Esta es la página web del seminario. Os había dicho antes que en esta página web están casi todos los contenidos. Están casi todos los contenidos y precisamente están casi todos. Se irán enriqueciendo a medida que vayamos grabando más sesiones. De hecho, estamos grabando la sesión de hoy. Pero en este enlace están los contenidos. Ya hay muchos contenidos. Voy a avanzar un poquito a ver qué me encuentro. Es muy recomendable que trabajéis bien estos contenidos. Bueno, estoy recogiendo los contenidos. Y fijaros. Tenemos de modelo... ...contenidos econométricos uniecuacionales. Pues hasta aquí. Contenidos que ya están subidos a la página. Incluso hay trabajos econométricos subidos, etcétera, etcétera. Con lo cual este material ya está todo a vuestra disposición. Hay un montón de vídeos. Hay un montón de casos ya subidos, la demanda o oferta de tabaco, la curva de Philly, son todos modelos uniecuacionales en el que se resuelven con Greta y los con R. Aquí tenéis ya... También tenemos supuestos de copduglas, supuestos básicos de regresión lineal simple, supuestos de regresión lineal múltiple, bueno, hay un montón de contenidos. Temas de inferencia estadística irán apareciendo, aquí lo veis. Tipos de errores que podemos cometer, esto lo veremos más adelante también. Todo ese material está disponible. Y nos podemos descargar, evidentemente, pues nos podemos descargar una serie de denunciados de los contenidos, de los casos prácticos que vamos a ver, etc. Incluso denunciados. Y entonces nos podemos descargar hasta presentaciones del seminario. El material que yo estoy manejando ahora, pues lo podéis descargar también aquí. O sea, el que yo os estoy enseñando ya lo podéis descargar sin ningún tipo de problema. En definitiva, pues hay un montón de material disponible a vuestra disposición. Todo este material, que es el que yo más o menos estoy manejando ahora, pues lo vais a poder también descargar sin ningún tipo de problema. A vuestra disposición, todo ello. ¿De acuerdo? Entonces, volviendo al punto en el que estábamos, este punto, ya tenemos definida... la matriz de varianzas y covarianzas de los estimadores de los parámetros estructurales del modelo. Es decir, las varianzas y covarianzas ¿de qué estimadores? Del estimador de alfa, del estimador de beta1 y del estimador de beta2. Claro, cuando nosotros estamos estimando alfa y beta1 y beta2 obtenemos unos estimadores que se calculan por esta metodología de mínimos cuadrados ordinarios y nos dan, pues, unos resultados empíricos. Estimador que hemos calculado alfa a partir de la muestra concreta, estimador que hemos calculado de beta1 a partir de la muestra concreta y estimador que hemos calculado de beta2 a partir de la muestra concreta. Y estos son tres números, tres constantes que hemos sacado de una muestra concreta. Pero en términos más amplios, más generales, estos estimadores de los parámetros también se comportan como variables aleatorias. Esto es importante. Alfa, como estimador, va a ser una variable aleatoria. Beta1, como estimador, va a ser otra variable aleatoria. Y beta2, como estimador, pues va a ser una tercera variable aleatoria. Se puede demostrar que estas variables aleatorias, alfa, beta1, beta2, como estimadores de los parámetros del modelo a nivel poblacional, nosotros buscamos el verdadero valor de alfa en la población, el verdadero valor de beta1 en la población y el verdadero valor de beta2 en la población, no solamente a nivel de la muestra con la que estamos trabajando. Son variables que se comportan desde el punto de vista estadístico Con una distribución T de Studen con n menos k grados de libertad. Repito, alfa, beta 1 y beta 2 son estimadores de los parámetros a nivel poblacional en los que estamos interesados para definir este modelo explicativo de la relación que existe entre las variables x1 y 2, que son variables explicativas y la variable y es una variable explicativa. Esos estimadores de los parámetros alfa, beta 1 y beta 2 a nivel estadístico son variables aleatorias con un comportamiento de T de Studen con n menos k grados de libertad siendo n el tamaño de la muestra y siendo k el número de variables explicativas incluyendo el término independiente. En este modelo k vale 3. Y en este modelo k vale 2. Claro, si yo digo que alfa es una variable aleatoria T de Studen con n menos k grados de libertad podemos calcular la esperanza matemática de dicha variable y podemos calcular la varianza de dicha variable. De hecho, si el estimador de alfa es un buen estimador pues será un estimador que cumpla las propiedades de un buen estimador. Será un estimador insesgado, será un estimador eficiente, será un estimador consistente y será un estimador suficiente. Y exactamente lo mismo le ocurrirá a beta 1 como estimador y a beta 2 como estimador. Será insesgado, eficiente, consistente y suficiente si queremos que sean buenos estimadores. ¿Qué quiere decir que el estimador alfa sea un estimador insesgado? Pues quiere decir que la esperanza matemática de dicho estimador coincide con el parámetro que pretendemos estimar a nivel poblacional. ¿Qué quiere decir que sea un estimador eficiente? Pues quiere decir que la varianza de dicho estimador alfa sea mínima. Un estimador es eficiente cuando su varianza es mínima. Hablando de la varianza de los estimadores, esas varianzas y esas covarianzas de los estimadores de los parámetros alfa, beta y nobita 2 salen de esta matriz que veis aquí, insisto. De la matriz de varianzas y de covarianzas de los estimadores de los parámetros. De hecho, esta es una matriz de tres filas por tres columnas y en la diagonal principal de esa matriz de tres filas por tres columnas están la varianza de alfa fila 1, columna 1 la varianza de beta 1 como estimador fila 2, columna 2 y la varianza de beta 2 como estimador fila 3, columna 3. Las varianzas están en la diagonal principal de esta matriz que veis aquí. Y por encima y por debajo de esa diagonal principal lo que hay son las covarianzas. Es decir, covarianza de alfa respecto a beta 1, covarianza de alfa respecto a beta 2... covarianza de beta 1 respecto a beta 2, etc. Estas covarianzas no nos interesan. Lo que sí nos interesa en estos procesos de inferencia estadística y de estimación son los elementos que en esta matriz están en la diagonal principal. Repito, fila 1 columna 1, varianza del estimador alfa. Fila 2 columna 2, varianza del estimador beta 1. Fila 3 columna 3, varianza del estimador beta 2. ¿De acuerdo? Esta es una matriz, por tanto, muy importante que tenemos que estimarla y trabajar con ella de una manera razonada y adecuada. Vamos a avanzar un poquito más. El siguiente paso. Y no os agobíéis. El siguiente paso sería este. Sería este. Vamos a ver. Si yo acabo de decir, acabo de decir, que quiero estimar, estoy trabajando con este modelo, y quiero estimar a nivel poblacional el parámetro alfa, el parámetro beta 1 y el parámetro beta 2. Y acabo de afirmar que alfa, beta 1 y beta 2 como estimadores, hay que interpretarlos como variables aleatorias cuyo comportamiento es, es lo que definimos estadísticamente, es lo que se llama la distribución en el muestreo. La distribución en el muestreo de estas variables alfa, beta 1 y beta 2 tiene un comportamiento de una T de Studen con n-k grados de libertad. Claro, si vosotros os vais a un curso de estadística teórica o probabilística y buscáis qué es una distribución TED-STUDEN con n menos cada dos libertad, pues vais a descubrir pronto que es una distribución que tiene algo que ver, tiene algo que ver, se deduce de una distribución normal. También tenéis que repasar qué era eso de una distribución normal. Bueno, pues si es una distribución TED-STUDEN, si nosotros sabemos eso, ese conocimiento nos va a permitir plantear no solamente estimación por intervalos y estimación por intervalos para los parámetros alfa, beta1 y beta2, sino que sobre todo nos va a permitir establecer contrastes de hipótesis acerca de... ...de los verdaderos valores de los parámetros alfa, beta1 y beta2 a nivel poblacional. Porque, insisto, este alfa, beta1 y beta2 que tenemos aquí abajo y que salen de este cálculo matricial no es más que una estimación puntual a partir de una muestra. Es una estimación muestral. Estimación puntual muestral. A partir de una muestra concreta con la que estamos trabajando. Solo es eso. Pero nosotros estamos interesados... ...en la estimación a nivel de la población. Y para poder hacer la estimación a nivel de la población, lo vamos a poder hacer, por ejemplo, con un contraste de hipótesis y para poder resolver ese contraste de hipótesis necesitamos saber cuál es la distribución en el muestreo de los estimadores. Y os acabo de decir que la distribución en el muestreo de los estimadores es TED-STUDEN con n menos k. Tanto para alfa como para beta 1 como para beta 2. Ese conocimiento permite dar este paso. Que es el paso ya de la inferencia estadística. Es un paso muy importante. ¿Qué quiere decir esto? Esto lo que quiere decir es que sabiendo que un estimador del parámetro beta se comporta como una T de Studen con n-k grados de libertad. Que por cierto, nosotros deberíamos saber que gráficamente una T de Studen, como veis aquí abajo, tiene un comportamiento gráfico parecido a la curva normal. Ya lo veis aquí. Parecido a la curva normal. Que a todos nos suena, ¿verdad? Con ese conocimiento nosotros podemos hallar lo que se llama el... ...el T empírico. Lo veis aquí arriba. El T empírico. El T empírico, vamos ya a la derecha, vamos al resultado final a la derecha. El T empírico se va a obtener como un cociente. Como un cociente. En el numerador aparece el valor que hemos obtenido para el parámetro P. O beta, si queréis. En esa muestra con la que hemos trabajado. Este BI que veis aquí, es la estimación que hemos obtenido a través de la muestra. O sea, este número que veis aquí, que sale de esta multiplicación matricial. De esta multiplicación matricial sale un número, y ese número pues es el estimador... del parámetro alfa obtenido a partir de la muestra. O este beta 1 es el estimador del parámetro beta 1 a partir de la muestra. O este beta 2 es el estimador de beta 2 obtenido a partir de la muestra. Esos números son los que se colocan aquí, lo que sale a partir de la muestra. Ahí. A esa estimación muestral le vamos a restar lo que diga una hipótesis nula. Vamos a ver, ahora tendríamos que recordar de un curso de estadística teórica o de estadística probabilística o de inferencia estadística qué es eso de un contraste de hipótesis. Y tendríamos que recordar que en todo contraste de hipótesis hay una hipótesis nula y hay una hipótesis alternativa. Por ejemplo. Por ejemplo, la hipótesis nula referida al parámetro beta a nivel poblacional esta hipótesis se refiere no a la muestra sino a la población nos está diciendo que suponemos que el valor del parámetro beta a nivel poblacional es 0. Si esta es la hipótesis, aquí pondríamos un 0. Aquí, arriba a la derecha. Claro, podremos plantear cualquier otra hipótesis. Podemos suponer que el beta es 0 o que es 1 o que es 2 lo que sea, nos da un poco igual. Por ejemplo, si suponemos que el verdadero valor de beta a nivel poblacional es 0 aquí pondríamos un 0. Que es lo que dice la hipótesis nula. Claro, siempre que hay una hipótesis nula hay una alternativa. La alternativa a la hipótesis nula, pues claro es, digamos, hay distintas posibilidades por ejemplo, una posibilidad sería Negar la hipótesis nula en el sentido beta distinto de cero. Podríamos plantear otro tipo de alternativas, beta mayor que cero o beta menor que cero. En este caso, el planteamiento es beta distinto a cero. Estamos negando la hipótesis nula y este beta distinto de cero incluye tanto que sea mayor que cero como que sea menor que cero. Por último, en este T empírico que veis aquí arriba, en el denominador aquí lo que pone es desviación típica, esta D significa desviación típica del estimador que estamos utilizando para el parámetro beta I. ¿Esa desviación típica de dónde sale? Pues sale de la diagonal principal de esta matriz, porque si os dije antes, y con esto acabo por hoy, que en esta matriz, en la diagonal principal, están las varianzas de los estimadores al alfa, beta I y beta II, las raíces cuadradas de esas varianzas son las desviaciones típicas de los estimadores alfa, fila I, columna I, beta I, fila II, columna II y beta II perdón, beta I fila... sí, beta II, columna II y beta II fila III, columna III. Las raíces cuadradas de las varianzas son las desviaciones típicas. Y ésta es la desviación típica que pondremos en el denominador de ese T empírico. Una vez que hemos definido un T empírico de una manera tan sencilla como ésta, porque sólo hay que restar y dividir, ¿para qué queremos el T empírico? Pues lo que haremos para sobre la base de unas hipótesis que ya hemos definido, hipótesis nula e hipótesis alternativa, que ya esas hipótesis automáticamente definen una región crítica. El próximo día volveré sobre este punto porque es muy importante. Tenéis que repasar estos temas esta semana, evidentemente, de los contrastes de hipótesis. Si yo tengo estas hipótesis, automáticamente se define lo que se llama una zona de aceptación de la hipótesis nula, cuyo nivel de confianza, por ejemplo, en este caso sería el 95%, y está comprendida entre menos TC y más TC. Menos TC y más TC son los valores críticos de la TED-STUDEN con n menos k grados de libertad que van a salir de unas tablas con los niveles de confianza y niveles de significación con los que queramos trabajar en la práctica. Esto el próximo día volveremos sobre ese punto. Gracias. Y claro, si esta zona intermedia es la zona de aceptación de la hipótesis nula, cuyo tamaño es del nivel de confianza en el 95%, a la izquierda y a la derecha del menos TC y del más TC se va a definir una región crítica o zona de rechazo de la hipótesis nula. Y por último, nosotros comprobando dónde cae este TEC empírico en comparación con esa zona de rechazo y zona de aceptación, pues podríamos resolver el contraste. Vamos a dejarlo aquí, porque yo creo que ya... Son muchos conceptos los que hemos visto hoy y ya os he planteado, por lo tanto, unas cuantas cuestiones que tenéis que repasar en esta semana que empieza. Ya paso la palabra a Cipri. Yo dejo la grabación aquí. Voy a parar mi grabación. Y ahora ya, Cipri, cuando quiera, en unos pocos segundos, pues ya acuérdate de empezar.