Bien, en este momento ya estamos grabando. Se trata del seminario de Econometría del grado de Economía correspondiente a la sesión de datos de panel tal como estaba prevista en el cronograma del curso. Ahí estáis viendo en pantalla cómo vamos a distribuir el tiempo que vamos a dedicar hoy a esta sesión. Será aproximadamente una hora y tocaremos los siguientes temas. En primer lugar, vamos a hacer una introducción a lo que es el tema de datos de panel. Después pasaremos a hablar de lo que son datos de panel con dos periodos. En tercer lugar, la regresión de efectos de panel. En cuarto lugar, veremos el algoritmo de mínimos cuadrados ordinarios en desviaciones respecto de su media. En quinto lugar, y de manera muy breve, trataremos el tema de la inferencia en el modelo de efectos fijos. Después, en sexto lugar, pasaremos a ver la regresión con efectos fijos transversales y temporales. Y lo más importante de la... de la sesión, ya digo, durará una hora aproximadamente, es por supuesto el caso práctico. El caso práctico, la función de consumo europea, pues va a ser lo esencial de la sesión. Por último, y de manera también muy introductoria, hablaremos de los modelos de efectos aleatorios. Vamos a seguir, aunque podríamos usar también el manual de Ujarati, vamos a seguir uno de los manuales que están recomendados por el equipo docente, concretamente el manual Econometría y Predicción de los profesores Mariano Matilla, Pedro Pérez y Basilio Sanz. Esa va a ser nuestra referencia, fundamentalmente. Empezando ya con una breve introducción a lo que son los datos de panel, decir que es una técnica que, como veréis en el manual, se encuadra en el análisis de regresión, incluida en el conjunto de raíces. Herramientas multivariantes destinadas al análisis de la dependencia entre variables endógenas. Y exógenas, todas ellas, medidas preferentemente en una escala estrictamente cuantitativa. El modelo de datos de panel se aplica genéricamente a aquel modelo de regresión que utiliza para la estimación de los parámetros de interés tanto la variabilidad temporal como la variabilidad transversal. Generalmente los paneles de datos se distinguen unos de otros según su amplitud transversal y su profundidad temporal. De esta manera podemos hablar de paneles con un número muy amplio de observaciones transversales, un número muy alto de individuos, podemos decir, y a estos se denominarían paneles cortos o también denominados paneles micro. Mientras que los paneles centrados en una amplia dimensión temporal se suelen determinar paneles largos o también denominados paneles macro. En el caso de que tuviésemos muchos datos, una amplitud grande de datos, tanto en el ámbito individual o de la dimensión transversal como en el ámbito temporal, hablaríamos de campos aleatorios. Asimismo resulta habitual hablar de paneles de datos equilibrados cuando el número de observaciones transversales es el mismo. Es el mismo para cada periodo de tiempo. Cuando ocurre esto hablaríamos de datos equilibrados. Y hablamos de paneles completos cuando el número de observaciones temporales es el mismo para cada individuo o para cada elemento del panel. Es importante también dejar claro que en sentido estricto no son datos de panel los paneles rotatorios, es decir, la mera agregación de cortes transversales. Para construir un elemento verdaderamente útil de cara a la diferencia se trata de que la variabilidad temporal y transversal corresponda a una misma muestra de individuos para todas las observaciones. En la parte práctica de este tema podemos comentar que disponer de paneles suele ser complicado cuando hablamos de individuos, unidades familiares o empresas y es un poco más sencillo cuando nos referimos a magnitudes más agregadas como pueden ser regiones, países, En cualquier caso, disponer de datos de tipo transversal independientes permite también hacer análisis que son interesantes debido a disponer de observaciones temporales y transversales como, por ejemplo, analizar la incidencia del paso del tiempo en el efecto de una variable exógena de interés o realizar, por ejemplo, un análisis de evaluación de políticas utilizando el determinado modelo de vizareas. Bueno, eso era simplemente un par de comentarios para introducirnos al concepto de datos de panel y vamos a entrar ya un poco en un tema un poquito más práctico en referencia a lo que son los datos de panel con dos periodos. Aquí veis una ecuación que nos permitirá explicar lo que son los datos de panel con dos periodos haciendo comparaciones antes y después. Pues tenemos una variable y o variable endógena o variable dependiente y su IT quiere decir que toma valores tanto de corte transversal, que sería el subíndice Y, como en el ámbito temporal, que sería el subíndice T. Y a la derecha pues tenemos una variable explicativa, una variable exógena o una variable independiente, que sería XT, que también el subíndice Y, por supuesto, se refiere a cada individuo, cada corte transversal, mientras que el subíndice T se refiere a cada periodo en el ámbito temporal. Y aparece una variable que en principio es una variable no observable, la variable ZI, que no varía con el paso del tiempo, por eso no tiene subíndice T y que sin embargo sí cambia para cada individuo, para cada elemento, vamos a decir, transversal. Podría tratarse, por ejemplo, de variables relativas a hábitos culturales. Habituales, personales, etcétera, que suponemos que no cambien con el paso del tiempo. En este sentido, un aspecto muy interesante de los datos de panel, tal vez la mayor virtud, es que nos permiten estimar algunos tipos de variables omitidas, que de hecho no se observan, como podría ser la variable ZI, que podría ser una variable no observable. Por supuesto, como siempre, como de costumbre, épsilon subite se refiere a la perturbación aleatoria o error. También recogemos los subíndices I y T referidos en este caso, tanto al individuo o copia transversal como al tiempo o a efectos temporal. Y después, por supuesto, Como ya es habitual, tendríamos que estimar los parámetros estructurales beta0, beta1 y beta2. Este sería el planteamiento de nuestro problema. Si tenemos solo dos periodos, lo que podemos hacer es definir la ecuación, por ejemplo, para el primer periodo. Si damos a t el valor 1, esa ecuación se convirtiría en i sub i1 igual a beta0 más beta1 x sub i1 más beta2 z sub i más e épsilon sub i1. Es decir, periodo número 1, t igual a 1. Y también podemos definir, digamos, para hacer esa comparación antes y después, definir los parámetros estructurales beta0 y beta2. T igual a 2, con lo cual nos quedaría la ecuación de la siguiente forma, naturalmente. i sub i2 igual beta0 más beta1 que multiplica x i2 más beta2 z i más épsilon sub i2. Hemos hecho simplemente t igual a 2. Si ahora hacemos la diferencia, restamos lo que es el periodo temporal 2 menos el periodo temporal 1 para hacer esa comparación antes y después, lógicamente el resultado es el que aparece en la siguiente expresión, que daría i sub i2 menos i sub i1 igual a beta1 que multiplica, hacemos un paréntesis, x i2 menos x i1 más épsilon sub i2 menos épsilon sub i1. Es decir, la variación en la variable endógena i sub i se puede expresar como beta1 que multiplica por la variación en la variable exógena o explicativa x sub i, más la variación que se produce en la perturbación aleatoria o erra. Es decir, que los cambios de i sub i provienen de los cambios en la variable explicativa x i al pasar de ese periodo t igual a 1 al periodo t igual a 2 del antes al después, y de los cambios en otros factores que determinan la variable i sub i t pero que no hemos hecho explícitos y por tanto están incluidos dentro de lo que son, esos errores, épsilon sub i, dentro de esa variación de épsilon sub i. Esta es una forma, por tanto, muy práctica de estimar el parámetro beta1 y de tratar adecuadamente a esa variable no observable que es la variable zi. Es una variable que no cambia con el paso del tiempo pero que sí que cambia. para cada uno de los individuos. Naturalmente, podemos pasar ahora a la regresión de efectos fijos. Aquí tenemos una expresión parecida a la anterior. Aquí estaríamos sobre todo interesados a analizar aquellos casos en los que ya no solamente tenemos dos periodos de tiempo, el periodo 1 y el periodo 2, sino que podemos tener más periodos de tiempo. O sea, para generalizar el análisis en el ámbito temporal. De nuevo, esa expresión que veis ahí es y sub i t igual a beta 1 que multiplica por x i t más alfa i más epsilon sub i t. Sería ahora el alfa i ese efecto fijo, sería esa variable, digamos, que realmente no cambia con el paso del tiempo, pero que sí cambia para cada uno de los individuos, a lo que se refiere al corte transversal. Y, por tanto, es esta variable a la que vamos a llamar ese efecto fijo que depende de cada individuo y que no cambia con el paso del tiempo. Una forma de tratar a estos efectos fijos es introduciendo variables de tipo binario. Variables de tipo dicotómico, de tipo binario, como pueden ser la variable de 2, o puede ser la variable de 3, o puede ser en general la variable de n. En definitiva, respecto del modelo anterior, seguimos teniendo la variable endógena y sub i t igual a beta 0 más beta 1 por la variable exógena x i t. Pero ahora, para definir cada uno de esos efectos fijos que van cambiando en función del individuo, en función de lo que es ese elemento transversal, vamos introduciendo estas variables. Variables de tipo binario que toman valor 0 o 1. Por ejemplo, d2 tomaría el valor 1 cuando estemos trabajando con el individuo número 2 y tomará el valor 0 en todos los demás casos. d3 tomará el valor 1 cuando nos refiramos al individuo número 3 y tomará el valor 0 en todos los demás casos. Y dn, o d sub n, la misma lógica, tomará el valor 1 cuando nos refiramos al individuo número n y tomará el valor 0 en todos los demás casos. Y aparecen aquí también una serie de parámetros. que habría que estimar como pueden ser el gamma2, el gamma3, el gammaN, que son parámetros que están multiplicando a estas variables de tipo binario, que nos permiten definir ese efecto fijo que va cambiando para cada uno de los individuos, aunque no cambia en función del tiempo, por eso no aparece el subíndice P. Esta idea, por supuesto, se puede generalizar, es decir, ¿qué ocurre si tenemos más variables explicativas? Si además, o variables exógenas, si queréis, si además de x1 tenemos x2, x3, etc., etc., xk, ¿qué podríamos hacer? Pues simplemente podríamos generalizarlo sin ningún tipo de problema, es decir, tendríamos a la izquierda la variable endógena, tendríamos a la derecha cada una de estas variables exógenas, x1, x2, etc., xk, y seguimos teniendo, por supuesto, los efectos fijos, los efectos que son, que van cambiando en función de, de cada elemento de corte transversal de cada individuo, pero que no cambia en función del tiempo. Y, por supuesto, también siempre estará presente la perturbación aleatoria o errada. Ya por último, como acabo de decir, el análisis de esos efectos fijos que van cambiando en función de los individuos, también lo podemos hacer introduciendo las variables de tipo binario, es decir, esta expresión que está aquí abajo, pues ya un poco resume todo lo que estamos diciendo. La expresión que está aquí abajo, no solamente aparecen distintas variables explicativas exógenas, como puede ser x1, como puede ser x2, etc., etc., xk, sino que además para plantear esos efectos fijos alfa sub i, hemos introducido las variables binarias de 2, de 3, etc., de n, que tomarán el valor 1 cuando la variable de 2 tomará el valor 1 cuando nos refiramos al individuo. D3 tomará el valor 1 cuando nos referimos al individuo número 3 y 0 en todos los demás casos, bueno, y así sucesivamente. Dn tomará el valor 1 cuando nos refiramos al individuo número n y tomará el valor 0 en todos los demás casos. Bien, vamos a avanzar un poquito más en esta exposición, vamos a llamarle conceptual o teórica, yo creo que lo relevante es llegar a un caso práctico, que es el objeto de la sesión. Vamos a hablar ahora del algoritmo de mínimos cuadrados ordinarios en desviaciones respecto de su media. Y esto es un tema muy interesante porque los software especializados en temas econométricos suelen utilizar esta forma de trabajar que es más eficiente a la hora de resolver estas problemáticas de datos de panel. Aquí tenemos para empezar a describir cómo funciona este algoritmo de mínimos cuadrados ordinarios en desviaciones respecto de su media para empezar con la expresión a la que nos venimos refiriendo. Una variable endógena y su IT es explicada por la variable exógena X, su IT que está multiplicada por el parámetro beta1 aparece ahí alfa I, alfa su I que son esos efectos fijos que van cambiando no en función del tiempo sino en función del tiempo. De los distintos individuos ese aspecto transversal y tenemos por supuesto el epsilon su IT que es la perturbación aleatoria de error. Y aquí se han definido las medias para cada entidad individual, lo que llamaríamos las medias intergrupos. Tendríamos así por ejemplo la media para la variable I. La variable I, la media se obtendría sencillamente sumando los T valores que toma esa variable I y dividiendo por T. Y exactamente igual podríamos hallar la media para la variable X también sumando los T valores que tomaría la variable X y dividiendo por T e incluso podemos hallar también la media de la perturbación aleatoria de error. Exactamente lo mismo, ¿no? Sumamos los diferentes valores de esa perturbación aleatoria de error y dividimos por T. Siendo T el número de periodos. Si, hace referencia a PQB2 y Gretel podría ser uno de estos software especializados y efectivamente podría ser un software que utilizaría esta técnica a la que nos estamos refiriendo. Naturalmente una vez que hemos definido estas medias a las que estábamos haciendo referencia ahora podemos también expresar la ecuación, la ecuación de regresión. En términos de las medias, de las estratos matemáticas. Sería simplemente partir de la ecuación inicial y a ambos lados de la igualdad pues hallar las estratos matemáticas o medias. Y quedaría la expresión que está moviendo en pantalla, ¿no? Media de y igual a beta1 por la media de x más alfa y más la media de la perturbación aleatoria o error. Y por supuesto también lo que podemos hacer ahora es restar a la expresión inicial, a la ecuación inicial, restarle la expresión referida a las medias. Si hacemos esto, si hacemos la resta, pues nos queda la expresión que veis un poquito más abajo. O sea, nos queda y sub t menos la media de y sub i igual a beta1 que multiplica, abrimos un paréntesis, x sub t menos la media de x y más, abrimos otro paréntesis, epsilon sub t menos la media de epsilon sub i. Y por supuesto esto lo hemos explicado ahora con una sola variable explicativa x, x y, pero lo podemos generalizar, puede haber una variable, una variable explicativa x1, puede haber una variable explicativa x2 o puede haber tantas variables explicativas como queramos, en general xk. Y si hacemos esta generalización a xk variables explicativas, pues este plantamiento del algoritmo de desviaciones respecto a la media quedaría finalmente, pues como aparece aquí abajo en esta, en este recuadro que acabo de hacer, ¿no? Quedaría y sub t menos su media igual a beta1 x sub t1 menos su media más beta2 x sub t2 menos su media más etcétera, etcétera. Beta sub k que multiplica y sub tk menos su media, etcétera, etcétera. La diferencia de las perturbaciones a la vez. Lo anterior, fijaros bien, habíamos planteado las medias dividiendo por t, la media para cada individuo, para cada entidad transversal, podemos decir. Sin embargo aquí estamos haciendo el planteamiento llamado intragrupos. En la anterior pantalla era un planteamiento intergrupos, pero ahora hacemos un planteamiento intragrupos en la que estamos calculando y planteando las medias para cada periodo temporal, es decir, en lugar de dividir por t, que es el número de periodos temporales, dividimos por l, n, que es el número de individuos, es el número de elementos que tenemos en ese corte transversal, por así decir. Con lo cual, la media de i.t sería el sumatorio desde igual a 1 hasta n de i sub i t partido por n, o la media de x sub punto t sería el sumatorio de i igual a 1 hasta n de x y t partido por n, o exactamente igual, la media de epsilon sub punto t sería igual al sumatorio desde i igual a 1 hasta n de epsilon sub i t partido por n. Todas estas medias, naturalmente, nos van a permitir plantear la ecuación La ecuación de regresión que estamos analizando, que os recuerdo que es la que tenéis ahí en el recuadro, i sub i t igual a beta 1 que multiplica por x y t más alfa i, que sería el efecto fijo, más epsilon sub i t que sería la perturbación aleatoria de error, perturbación aleatoria de error que, por supuesto, sí cambia en función del periodo de tiempo t, pero efecto fijo alfa i, que no cambia en función del tiempo, sino que simplemente cambia en función del individuo, en función del cota de regresar. Y bueno, y una vez que hemos definido de esta forma las medias para cada periodo temporal, que es el planteamiento que denominamos de intragrupo, pues podemos también, por supuesto, expresar la ecuación de regresión en las medias, ¿no? De la expresión original, si tomamos a ambos lados de la igualdad, la media para cada periodo temporal en esta dinámica integral. En este grupo tendríamos que la media de i.t sería igual a beta 1 por la media de x.t más alfa i más la media de epsilon.t. Si hacemos lo que hicimos antes, es decir, restando la ecuación original menos esa ecuación en medias, pues nos quedaría i sub i t menos i, i media punto t igual a beta 1, x sub i t menos, la media de x.t más epsilon sub i t menos la media de epsilon punto t. Y en definitiva, por supuesto, aquí estamos trabajando con una sola variable explicativa x1, pero esto lo podemos generalizar. Podemos considerar x1, x2, etcétera, etcétera, xk. Y si hacemos esto, pues llegaríamos fácilmente a una expresión de este tipo que veis aquí. Una expresión en la que tendríamos y subit menos la media b.t igual a beta1 que multiplica, abrimos un paréntesis, x y t1 menos la media de x.t1, cerramos paréntesis, más beta2, x y t2 menos la media de x.t2, más puntos suspensivos, beta k o beta sub k que multiplica, abrimos un paréntesis, x y tk menos la media de x.tk, cerramos paréntesis, más, por supuesto, ya para finalizar, la diferencia referida a los términos de la perturbación aleatoria o error, los épsidos. Y trabajando de esta forma, ¿cómo se determina, cómo se estiman los efectos fijos alfa y? Que al final es un tema muy importante. Pues hay que fijarse, vamos a poner esto con un recuadro muy remarcado, en la expresión que tenemos aquí abajo. Para estimar con esta metodología basada en las medias parámetros, para cada periodo temporal o intragrupo, para estimar, como digo, los alfa y que son los efectos fijos, lo que tendríamos que hacer es simplemente trabajando por mínimos cuadrados ordinarios, a la media de y.t le iríamos restando, pues el beta1 que hemos estimado, que multiplicaría por la media de x.t1 menos el beta2 que hemos estimado, que multiplicaría por la media de x.t2, menos el beta3 que hemos estimado, que multiplicaría por la media de x.t3, podría ser sucesivamente, etcétera, etcétera, etcétera. El último término que tendríamos que restar sería beta sub k que multiplique el beta sub k que habríamos estimado por mínimos cuadrados ordinarios y que multiplicaría por la media de x.tk. Y bueno, como ya he dicho, Gretel y otros programas especializados proporcionan estimaciones por el procedimiento que estamos comentando. Ahora, por el procedimiento intragrupos. Puesto que la estimación intergrupos que vimos en la pantalla anterior proporciona efectos fijos sesgados cuando están correlacionadas los efectos fijos con las variables explicativas x y. Sí, los betas son estimadores, por supuesto. Los betas son estimadores. Estimadores por mínimos cuadrados ordinarios. Muy bien. Bien, de manera muy breve ya, un comentario rápido porque esto viene perfectamente en el manual y por tanto no pretendo aquí hacer un desarrollo teórico de la cuestión. La injerencia del modelo de efectos fijos en el manual veréis que para el modelo que nos estamos planteando hay como cuatro hipótesis que tenemos que considerar. La primera es que la esperanza matemática de los errores epsilon suite condicionados a x y 1, x y 2, etc. A x y t y a los efectos fijos alfa suite, esa esperanza matemática condicionada es cero. La segunda hipótesis es que x y 1, x y 2, x y t, coma, o sea no solamente todas las variables exógenas sino también todas las perturbaciones aleatorias epsilon suite 1, epsilon suite 2, epsilon suite etc. Para i igual a 1, 2, n son extracciones de la distribución conjunta. La tercera hipótesis. La tercera hipótesis es que x y t, epsilon suite, tienen momentos de orden 4 finitos y la cuarta hipótesis que tenemos que considerar es que no hay multicolinealidad perfecta. Un brevísimo comentario, no voy a extender más en esta parte teórica, vamos a pasar ya al ejemplo práctico. Bajo todos estos supuestos los estimadores de efectos fijos son insesgados y la estimación adecuada, como veremos ahora en el ejemplo práctico, la que vamos a utilizar, es mínimos cuadrados ordinarios utilizando, y esto es muy importante, errores robustos a la autocorrelación y a la heteroscedasticidad. De hecho veremos ahora mismo en el ejemplo práctico que debajo de las estimaciones aparecerán como dos estimadores de las desviaciones típicas o errores y la segunda que aparecerán conscientes es la adecuada, es una estimación robusta a la autocorrelación y a la heteroscedasticidad. Heteroscedasticidad. Bien, pues antes de pasar ya a lo que es el caso práctico de la función de consumo en Europa, vamos a hacer una breve referencia a lo que sería la regresión con efectos fijos transversales y temporales, que en definitiva es una generalización de todo lo que he comentado hasta ahora. Simplemente pues ya esa generalización. Aquí veis la expresión que nos interesa en este caso, que ya vimos es una generalización con efectos fijos transversales y temporales. Tenemos en la parte izquierda la variable endógena que queremos explicar y su IT, donde ahí se refiere al coste transversal a los diferentes individuos y T al ámbito temporal a los diferentes periodos. Y a la derecha pues tenemos el parámetro a estimar beta cero más beta. Beta uno que multiplica por X y T más beta dos. Esta es la variable a la que nos referíamos antes, una variable no observable. Es una variable que no varía con el tiempo pero sí que varía con los individuos. Es el efecto fijo transversal en definitiva. Y ahora añadimos un efecto fijo temporal. Es decir, otra variable que también sería no observable, que en este caso no varía con cada individuo o con cada elemento del coste transversal, sino que varía con cada ámbito temporal, con cada periodo. Por eso aparece el subíndice T y no aparece el subíndice I. Naturalmente aquí tendríamos que estimar el parámetro beta dos relacionado a ese efecto fijo transversal y el parámetro beta tres relacionado con ese efecto fijo temporal. Por supuesto, como siempre, como ya es habitual, aparece en todo caso también la perturbación aleatoria o error, que ésta sí que varía tanto en el ámbito transversal como en el ámbito temporal. De nuevo, estos efectos fijos transversales y temporales los podemos reescribir de otra forma. Es decir, podemos definir los efectos fijos transversales a través de esta expresión alfa I y los efectos fijos temporales a través de esta expresión. Y también, como decíamos antes, tanto para los efectos fijos transversales como para los efectos temporales, transversales como para los efectos fijos temporales podemos introducir, para hacer su tratamiento estadístico unas variables de tipo binario por ejemplo, d2 d3, etc. dn son variables binarias que nos van a permitir tratar adecuadamente ese efecto fijo transversal, es decir, ese alfa i es decir, la variable d2i es una variable binaria que tomaría el valor 1 solamente para el individuo número 2, en todos los demás casos tomaría el valor 0 la variable d3i tomaría el valor 1 para el individuo número 3 en los demás casos valor 0 y la variable dni tomaría el valor 1 para el individuo número n y en los demás casos valor 0. El tratamiento de los efectos fijos temporales también lo podemos hacer a través de variables de tipo binario que serían en este caso la b2, b2t b3t o bt sub t minúscula. Estas b2, b3, etc. también son variables binarias que exactamente igual que antes tomaría el valor 1 o 0 por ejemplo, b2 tomaría el valor 1 para el periodo de tiempo 2 y en todos los demás casos el valor 0. b3 tomaría el valor 1 para el periodo de tiempo 3 y en todos los demás casos el valor 0 y así sucesivamente. Y ya, por supuesto, podemos decir que entonces se trata de términos constantes en todo caso y que la observación ijésima ese término constante que le correspondería siendo el subíndice i al referido al efecto fijo transversal y siendo el subíndice j al referido al efecto fijo transversal temporal, pues al final no sería más que esta expresión que veis aquí. Sería beta sub 0 más gamma i más sigma j siendo, digamos el término que realmente correspondería a esa observación ijésima. Por supuesto tampoco tenemos por qué limitarnos a una sola variable explicativa x1 sino que podemos generalizar a más variables explicativas. Ahí lo ves ahora. Ahí tenemos las variables x y t1 x y t2, x y tk. Hemos generalizado acá variables explicativas o acá variables... exógenas y además de esas k variables explicativas tenemos también el efecto fijo transversal, el efecto fijo temporal y por supuesto la perturbación aleatoria de error. No solamente podemos generalizar a k variables explicativas x1, x2, xk sino que podemos como dije antes introducir también pues todas estas variables binarias tanto la d2, d3, etc, etc, dn para el efecto fijo transversal como la beta 2, beta 3, beta t para el efecto fijo temporal. Y nos quedaría pues ya dicho todo esto pues nos quedaría como última expresión la que aparece o expresión más general la que aparece pues en el recuadro que acabo de poner ahora en pantalla en color rojo, ¿verdad? Muy remarcada. k variables explicativas y n variables de tipo binario para reflejar o representar o tratar el efecto fijo transversal y t mayúscula variables también binarias para reflejar o tratar el efecto fijo temporal. Y por supuesto todo esto también se puede aplicar lo que es el algoritmo de desviaciones con respecto a la media que es insisto, insisto lo que se haría con los software específicos. Que solemos manejar, ¿no? Por lo cual todo lo que acabo de decir ahora si trabajamos con desviaciones respecto a la media la expresión finalmente resultante que es la buena porque es la que manejaríamos con estos software específicos nos diría por ejemplo para la variable endógena tendríamos que i sub i t le restaríamos la media la media de i sub i punto menos la media de i punto t o sea tanto la media con respecto al efecto transversal como la media con respecto al efecto temporal claro y al restar las dos medias pues tenemos también que sumar la media general que sería la i punto punto, ¿no? Y esto exactamente lo mismo lo haríamos para cada una de las variables explicativas x1, x2, xk. Es decir, tendríamos que beta 1 multiplicaría abrimos un paréntesis y a x i t 1 habría que restarle tanto la media i punto 1 transversal como la media de x punto t 1 que es la media temporal y al restar estas dos medias sumaríamos la x punto o punto 1, ¿no? La x media punto punto 1. Exactamente igual para la segunda variable explicativa x2 tendríamos que beta2 multiplicaríamos, abrimos paréntesis, xuite2 menos la media de xui.2 menos la media de x.t2 más la media de x.2. Cerramos paréntesis, más, etcétera, etcétera, etcétera, beta2k que multiplica, abrimos paréntesis, xuitek menos la media de xui.k menos la media de x.tk más la media de x.k y así sucesivamente. Ya digo, basta hacer lo mismo con la perturbación aleatoria o error que aparece en ese último término que veis ahí. Bueno. Bueno, en definitiva, este es el planteamiento, digamos, que vamos a utilizar para resolver el siguiente caso práctico referido a la función de consumo europea. Que es un caso que he seleccionado del manual de los profesores Matilla, Pérez y Sanz, de un conjunto de ejemplos que aparecen en ese tema 10 del manual y que podrían haber sido ejemplos útiles. Por ejemplo, aparecen ahí la relación entre delincuencia. Aparecen la demanda de electricidad para uso doméstico. Aparece la demanda de tabaco con datos de panel. Pero bueno, me ha parecido el más completo el ejemplo relativo a la función de consumo europea. Que por supuesto es un ejemplo con datos de panel que se refiere a los datos anuales de renta disponible y consumo de los hogares entre 1997 y 2010 para 22 países europeos cuya fuente es el de la economía. Sería Eurostat. En principio, si nosotros con esos datos de panel estimamos la función de consumo que aparece en la pantalla y fijaros bien en lo siguiente. Hablamos de datos de panel, que bueno, la fuente de datos que sería Eurostat nos proporcionaría los 22 individuos. Ese aspecto transversal, ese corte transversal. Son los 22 países utilizados. Bueno, y aparecen en Emanuel, Alemania, Austria, Bélgica, etcétera, etcétera, Reino Unido, República Checa y Suecia. Un total de 22 países. El conjunto de periodos temporales analizados son 14 periodos temporales entre 1997 y 2010, con lo cual nos da un total de tamaño de la muestra de n igual a 308, que sería el resultado de multiplicar 22 por 14. Esos son, digamos, los datos de panel que manejaría. Un total de 308 datos, 22 individuos a nivel transversal, 14 periodos a nivel temporal. Aquí estamos analizando, en este resultado que tenemos aquí presentado, los efectos fijos tanto individuales como temporales. Efectos fijos tanto de índole transversal como de índole temporal. Y la ecuación que se ha estimado con estos datos... Es una ecuación en la que la variable dependiente, como podéis ver ahí, es la primera diferencia del logaritmo del consumo, I sub t, en función de la primera diferencia o de la variación del logaritmo de la renta, I sub i dp. Tanto el consumo como la renta disponible están en términos per cápita y euros constantes de 2005 destructados por el IPC armonizado. Y el hecho de que estemos utilizando las diferencias de los logaritmos equivale a utilizar tasas de variación en tanto por 1. ¿Y qué resultados se han obtenido? Pues se ha obtenido un estimador para beta 0, que sería 0,004, y un estimador para beta 1, que sería 0,867. Obviamente es este estimador para beta 1 el que... Realmente nos interesa, ¿no? Nos estamos refiriendo, por supuesto, a tasas de variación y nos estamos refiriendo en este caso a la relación que existe al parámetro que nos permite analizar la relación que existe entre la renta disponible y el consumo. Obviamente el que sea positiva esta estimación quiere decir que es una relación creciente al aumentar la renta disponible, obviamente aumenta el consumo. Pero aquí hay que tener en cuenta lo que llamaríamos el sesgo. De simultaneidad, porque nosotros sabemos que no solamente la renta disponible afecta al consumo, sino que también el consumo como componente de la demanda, que es un equilibrio macroeconómico. que podríamos definir como oferta agregada, es decir, nivel de renta o producción igual a demanda agregada donde estarían los diferentes componentes de la demanda, entre ellos el consumo, además de la inversión, del gasto público, etc. Obviamente el consumo también afecta a la renta, por tanto, la renta disponible también deberíamos considerar la variable endógena y aquí en realidad deberíamos también considerar el sesgo de simultaneidad. Sí, el texto del caso, ya digo, vamos a ver, esta presentación que estamos manejando la vais a poder bajar de la grabación y yo la voy a dejar también disponible en el curso virtual para que tengáis toda esta información a vuestra disposición y ya digo, la referencia para sacarla de la grabación es la que os voy a dejar en el curso virtual. Para sacar los datos originales que tampoco están en Matilla, los datos originales para que nosotros pudiésemos introducirlos, por ejemplo, en Gretel y poder probar a ver si somos capaces de obtener estos resultados, la fuente es Eurostat. Bueno, pues fijaros que os decía antes que aparecen las desviaciones típicas de los estimadores aparecen debajo en paréntesis, la desviación típica del estimador beta0 sería 0,001 y la desviación típica del estimador beta0 sería 0,0001. La desviación típica del estimador beta1 sería 0,029, pero hemos quedado que la estimación más adecuada, la más correcta, es la estimación robusta a heteroscedasticidad, lo dijimos antes. Y eso es lo que aparecen esas estimaciones de las desviaciones típicas que son robustas en las que aparecen entre corchetes, que serían para beta0 sería 0,001 entre corchetes y para beta1 sería 0,0048. El que aparezca en los tres asteriscos es el que aparece entre corchetes, y los asteriscos lo que quiere decir es que son significativas, es decir, que si nosotros ahora cogemos la inferencia estadística a nivel individual y resolvemos el tema, por ejemplo, con la TED-STUDENT y hacemos la típica comparación de la TED-STUDENT empírica con la TED-STUDENT crítica o de las tablas nos recetaría significativo, o los niveles de significación que consideramos habitualmente que ya sabéis que son del 5% o incluso del 1%. Eso quiere decir que los test empíricos son más grandes. Entonces, que los test críticos. Quedaros también muy importante con el análisis... de la bondad de ajuste a nivel muestral que nos lo da el R cuadrado o coeficiente de determinación que en este caso toma el valor y quedaros con el R cuadrado igual a 0,8598 y quedaros con la idea, esto lo comentaré un poquito más adelante de que esta ecuación que tenemos aquí es la ecuación irrestricta ¿irrestricta en qué sentido? es la ecuación que al explicar el consumo en función de la renta disponible considera tanto los efectos fijos individuales como los efectos fijos temporales es decir, que nos tendríamos que retotraer a la ecuación que hemos visto hace un momentito con efectos fijos tanto individuales como temporales todo ello lo trabajaríamos en el algoritmo de desviaciones en las medias que es lo que usaría el software econométrico, por ejemplo Grepel y esta es la ecuación irrestricta consideramos como efectos explicativos tantos los individuales como los temporales y nos da un R cuadrado o coeficiente de determinación de 0,8598 el R cuadrado corregido que ya sabéis que matiza el tema de este problema de los modelos anidados el problema de que el coeficiente de determinación crece por la mera inclusión de variables explicativas problema al que me refería en la sesión que grabé hace unas semanas referida a los errores y a los temas de especificación pues ahora no le vamos a prestar mucha importancia y vamos a poner el foco en el R cuadrado 0,8598 relativo a esta ecuación irrestricta bien, es interesante tener en cuenta que bueno, nosotros sabemos que para tratar este problema el problema del sesgo de la simultaneidad al que nos hemos tratado al que nos hemos referido en este tema de la función de consumo europea hay un tratamiento tradicional que es esa identidad contable de los hogares que nos dice que la renta es igual al consumo más el ahorro y por tanto el ahorro lo podríamos tomar como una variable instrumental pero Davidson y McKinon en 1981 hacen un tratamiento muy interesante para utilizar como variables instrumentales el consumo y la renta retardadas precisamente para hacer frente a este problema al que me he referido del sesgo de la simultaneidad ¿Qué quiere decir introducir el consumo y la renta disponible retardada? Pues es lo que estáis viendo aquí en la pantalla. Aparece como variables explicativas la primera diferencia del logaritmo del consumo retardado de un periodo y la primera diferencia del logaritmo de la renta retardada de un periodo. Y como variable explicada pues aparece la primera diferencia del logaritmo de la renta disponible. Bueno, y esta estimación que hacen Davidson y McKinnon en el año 81 si la aplicásemos a los datos que provienen de Eurostat para los 22 países considerados y en los 14 periodos de tiempo considerados, con lo cual nos quedaría un tamaño de la muestra de 286 y considerando tanto los efectos fijos individuales y temporales, pues nos darían lugar a las siguientes estimaciones. La estimación de beta 0 sería 0,017, beta 1 parámetro que multiplica el consumo retardado de un periodo 0,634 y beta 2 parámetro relativo a la primera diferencia del logaritmo de la renta disponible retardada de un periodo pues 0,444. Debajo están también las desviaciones típicas que corresponden a cada parámetro y sobre todo en corchete las desviaciones típicas que corresponden a cada parámetro. Y también las desviaciones típicas pero estimadas con esas estimaciones robustas a la heteroscedasticidad. Todos estos estimadores son significativos porque aparecen los tres asteriscos, es decir, que los... Si hacemos la inferencia estadística a nivel individual, por ejemplo con la T de Studen, los T empíricos son sensiblemente mayores a los T críticos de las tablas. Seguimos adelante. Y tenemos aquí ahora la estimación utilizando en un sistema de estimación de mínimos cuadrados en dos etapas, en dos etapas utilizando como instrumentos el consumo y la renta retardados un periodo. Justamente este enfoque al que nos referíamos ahora. Utilizamos como instrumentos el consumo y la renta retardados un periodo. Consideramos tanto efectos fijos individuales o transversales como efectos fijos temporales. Por tanto estamos trabajando... con en corte transversal 22 individuos, 22 países de la Unión Europea, en el ámbito temporal con 13 periodos de tiempo, una muestra de 286 y en este caso nos quedaría finalmente la ecuación estimada, primera diferencia del logaritmo de consumo igual a 0,02 más 0,983 por la primera diferencia del logaritmo de la renta disponible. En este caso sólo es significativo el estimador beta 1 de la primera diferencia del logaritmo de la renta disponible, ya no es significativo el estimador del término independiente beta 0. Esta sería la estimación que hemos hecho por variables instrumentales en este sistema de dos etapas. Y ahora fijaros bien en este detalle, es muy importante. Antes nos referíamos a una ecuación. Una ecuación irrestricta, que era la que contemplaba los efectos fijos individuales y temporales. Y voy a retroceder un poco, porque os dije, ecuación irrestricta que tenía como coeficiente de determinación r al cuadrado igual a 0,8598 y es ecuación irrestricta porque considera tanto los efectos fijos individuales como los temporales. Y ahora fijaros bien lo que hacemos. Ahora lo que hacemos es definir una ecuación. Una ecuación restringida. ¿Qué quiere decir la ecuación restringida? La ecuación restringida quiere decir que solamente consideramos los efectos fijos temporales, ya no consideramos los efectos fijos transversales. Al considerar sólo los efectos fijos temporales, esta ecuación restringida nos va a permitir contrastar si los efectos fijos individuales o transversales son o no son significativos. Es decir, si aquellas alfa sub i, que veíamos en la teoría, alfa sub 1, alfa sub 2, alfa sub n, son igual a 0 o son distintos de 0. Entonces plantearíamos también por mínimos cuadrados ordinarios y también con el algoritmo de indiferencias a las medias y incorporando nada más los efectos fijos temporales, ya que es una ecuación restringida, calcularíamos ahora la ecuación incremento del logaritmo de consumo en función del incremento de los efectos fijos temporales. Este es el logaritmo de la renta disponible. Estos son los resultados que obtenemos para beta 0,0,04, para beta 1,0,78, las desviaciones típicas y sobre todo las desviaciones típicas estimadas con una metodología robusta a la heteroscedasticidad. Y la clave aquí, lo que es muy importante, es fijarse en dos cosas. Mirad. Es clave, es crítico fijarse en cuál es ahora el coeficiente de determinación para esta ecuación que denominamos restringida que sólo considera los efectos fijos temporales. Y veis ahí que el coeficiente de determinación toma el valor r cuadrado igual a 0,8549. Este 0,8549 vamos a trabajar con él juntamente con la ecuación irrestricta que consideraba tanto los efectos fijos individuales o transversales como los efectos fijos temporales, cuyo r cuadrado o coeficiente de determinación o medida de la bondad de ajuste a nivel muestral tomaba el valor 0,8598. Entonces este 0,8598 y este... 0,8549 los vamos a utilizar para contrastar esa significatividad conjunta de los efectos fijos individuales para averiguar si alfa 1, alfa 2, etcétera, etcétera, alfa n son igual a 0 o no. Y para eso utilizamos una técnica que podemos llamar desde el tipo de la causalidad en el sentido de Granger es una técnica en la que definimos, fijaros bien ahí un estadístico F de Snedeker y de Fischer que tiene q grados de libertad en el numerador y n-k-1 grados de libertad en el denominador y aparece, y por eso he hecho tanto énfasis en la definición de este estadístico F aparecen esos coeficientes de determinación de las ecuaciones a las que me he referido como irrestricta y restringida. Acordaros, uno de los coeficientes de determinación era 0,8598 y el otro coeficiente de determinación era 0,8549. Esos son datos que vamos a utilizar para estimar este estadístico F de Fischer o de Snedeker. Mientras que q, acordaros, tiene que ver con el... son grados de libertad en el numerador y tiene que ver con los elementos de corte transversal de esos 22 países. De hecho, hemos perdido un grado de libertad en este caso. Ya no son 22 sino que sería 21 y abajo tenemos n-k... n menos k menos 1, donde n es el tamaño de la muestra que es el resultado de multiplicar en esos datos de panel los elementos de corte transversal o los elementos de temporales de ahí saldría el 308 y después lo del k que aparece ahí, lo del 36 menos 1 pues es lo que sacaríamos también, es el número de términos explicativos en la ecuación incluyendo el término independiente bueno, en definitiva efectivamente siempre se pierde un grado de libertad tal como comienza ahí j o 0, ya digo que en este cálculo que aparece ahí 308 menos 36, el 36 sería el resultado de sumar los 22 más los 14 que serían los 22 países y los 14 periodos temporales que estamos analizando en este caso bien, bueno, si no hay errores aquí en los cálculos tendríamos la final un eje empírico 0,453 que tiene 21 grados de libertad en el numerador 172 grados de libertad en el denominador este eje empírico tendríamos que compararlo con el eje de las tablas el eje crítico de las tablas de Fisher o de Snedeker con esos grados de libertad en el numerador y en el denominador y si lo comparáis vais a poder comprobar que el eje empírico el 0,453 es muy bajo es mucho más bajo que el eje crítico lo cual no nos permite rechazar la hipótesis nula la hipótesis nula sería que los efectos tijos individuales o transversales si queréis alfa 1 igual a alfa 2 igual a alfa 3 igual puntos suspensivos alfa suene es igual a 0 como no se puede rechazar esa hipótesis nula pues tenemos que aceptar la hipótesis nula y acabamos por tanto concluyendo que los efectos tijos individuales son nulos este sería digamos la interpretación de nuestro contraste de significatividad conjunta de los efectos tijos individuales Vamos ahora, ya para acabar este análisis de este caso práctico, a contrastar lo que nos queda por contrastar. Si hemos hecho el contraste para efectos fijos transversales o hay que hacer el contraste para efectos fijos temporales. Entonces, para contrastar si los efectos fijos temporales son nulos o son significativos, ¿cuál es la ecuación restringida? Pues fijaros bien, la ecuación restringida consiste en considerar solamente efectos fijos individuales y no considerar efectos fijos transversales. Lógicamente, además de la ecuación restringida, hay una ecuación irrestricta. ¿Cuál será la ecuación irrestricta? Volvemos hacia atrás y la ecuación irrestricta, insisto, es aquella que incluía a la derecha como variables explicativas o como términos que estaban sumando a la derecha. Tanto los efectos fijos individuales como los efectos fijos temporales. Es decir, los efectos fijos transversales y los efectos fijos temporales, cuyo R cuadrado, insisto, era 0,8598. Ahora, para hacer este contraste, la ecuación restringida, para contrastar si los efectos fijos temporales son nulos, consiste en considerar a la derecha solamente los efectos fijos individuales. ¿Qué obtenemos en este caso? En este caso, cuando trabajamos con esta ecuación restringida, pues fijaros, 22 países, 14 periodos temporales, una muestra que en principio tiene 308 elementos, un R cuadrado que va a ser muy importante, está como dije antes, lo vamos a utilizar. Ya veréis ahora, al definir ese F como estadístico de contraste, vamos a utilizar este valor del R cuadrado 0,8156 en la ecuación restringida. Y además, bueno, decir que en este caso la variable dependiente o a explicar es la primera diferencia del logaritmo de consumo. La variable explicativa es la primera diferencia del logaritmo de la renta disponible. Aquí la estimación de beta 0 sería 0,003. La estimación de beta 1 sería 0,948. Desviaciones típicas de los estimadores y sobre todo desviaciones típicas obtenidas mediante, sean robustas a la heteroscedasticidad. Pues bien, con estos resultados construimos también exactamente igual que antes un estadístico F de Fisher para comparar, fijaros bien aquí ahora. Los R al cuadrado de la ecuación restringida versus el R al cuadrado del modelo irrestricto. Acordaros, el 0.8598 y el 0.8156 a los que nos hemos referido. Ahora Q, claro, ya no se refiere al corte transversal, no se refiere a los 22 países, sino que se refiere al ámbito temporal. Se refiere a los 14 perigodos de tiempo. Perdemos 1, se pierde un grado de libertad, luego 14 menos 1 son 13. Y también, de nuevo, tendríamos aquí debajo el N-K-1, que sería en este caso N308, K sería 35, que en realidad ahí perderíamos, sería 36 menos 1, es decir, serían los 22 más los 14, pero perderíamos ahí un grado de libertad en relación a este análisis. Vale. Bueno, operando con estos datos obtendríamos un F empírico, un F empírico que sería 6,614, que ahora deberíamos compararlo con el F crítico o F teórico que sale de unas tablas de Fisher o de Snedecor con 13 grados de libertad en el numerador y 272 grados de libertad en el denominador. Y resulta que si vamos a las tablas podemos comprobar que en este caso, a diferencia de la anterior, el F empírico... 6,614 es sensiblemente mayor que el F crítico o F teórico. Por tanto, dado que el valor empírico es mayor que el valor crítico, tenemos que rechazar la hipótesis nula. En este caso, aquellas expresiones N-1, N-2, N-3 y en general N-T que describían los efectos temporales, los efectos físicos temporales, no van a ser cero. Tenemos que rechazar esa hipótesis. La hipótesis nula. Y como no van a ser cero, van a ser significativamente distintos de cero. En definitiva, aquí ya tenemos un resultado final que estáis viendo en pantalla, que es una estimación por variables instrumentales teniendo en cuenta sólo los efectos fijos temporales y en un modelo en el que tratamos de explicar la primera diferencia del logaritmo del consumo a través de la primera diferencia. ya del logaritmo de la renta disponible con un sistema de mínimos cuadrados en dos etapas en los que los instrumentos han sido el consumo y la renta retardados un periodo y considerando sólo efectos fijos temporales, una estimación por variables instrumentales sólo efectos fijos temporales que es a resulta de todo lo que hemos concluido en los apartados anteriores con 22 individuos o 22 elementos de corte transversal que son los 22 países de Europa que han sido objeto de análisis. A nivel temporal son 13 periodos de tiempo porque hemos perdido uno en este análisis y nos sale finalmente un R cuadrado 0,8348 y fijaros bien que la conclusión a la que hemos llegado es que los 22 países considerados presentan una función de consumo que estadísticamente es igual para todos ellos o sea, porque no hay diferencias individuales entre ellos. Si ha tenido importancia, ha sido significativo el efecto fijo temporal pero no ha sido significativo el efecto fijo individual por tanto no hay diferencias individuales entre ellos por tanto concluimos que las funciones de consumo serían estadísticamente iguales para los 22 países objeto de análisis. Y ya para finalizar, no me quiero extender mucho más el modelo de efectos aleatorios que ya veréis que es el último epígrafe que se considera en el temario en este sentido voy a hacer una pequeña reflexión comparándolo con el modelo de efectos fijos que acabamos de ver ahora. El modelo de efectos aleatorios, le digo, voy a dedicar solamente 5 minutos por tanto es simplemente un pequeño esquema de la cuestión. El modelo de efectos aleatorios en principio es esencialmente el mismo o sea, la idea básica que estáis viendo en pantalla nos diría que tenemos a una variable dependiente o endógena y su IT que la vamos a explicar a través de un parámetro beta 0 más beta 1 que multiplica por X y que es el parámetro de la variable X1 y T más ahí tendríamos el efecto A sub i que en este caso ya no sería un efecto fijo, sino que tiene que ser aleatorio y también tendríamos una perturbación aleatoria de error que sería u sub i t. O sea que se puede representar en el caso de una sola variable explicativa x1 se puede representar de una manera muy similar a lo que acabamos de decir. Bueno, veo que pregunta que veo con que en el modelo de Maquino del coeficiente de la renta retardada es negativo. Bueno, ahí efectivamente esa interpretación cuando en una estimación con mínimos cuadrados ordinarios nos da efectivamente un coeficiente negativo lo que nos vendría a decir es que estadísticamente vamos a echarle un vistazo a esto, os voy a dedicar un minuto, disculpadme para que lo veáis a lo que se refiere la pregunta. Vamos a ver. Aquí te refieres a esto, ¿no? A S menos 0,442, entiendo. ¿A lo que te refieres? ¿No? Te refieres al valor negativo del menos 0,442 Bien, claro. Aquí lo que nos está diciendo es que la primera diferencia de logaritmo de la renta disponible estaría explicada por la primera diferencia de logaritmo de la renta disponible retardada a un periodo y ahí el valor negativo de ese estimador que además es significativo porque los tres asteriscos no dicen que es significativo lo que quiere decir es que estos datos, los datos estadísticos lo que nos indican es que si se produce un aumento en la renta disponible del periodo T menos 1 exactamente en la primera diferencia de logaritmo de la renta disponible del periodo T menos 1 esto provoca una disminución en la primera diferencia de logaritmo de la renta disponible del periodo T. Pero bueno, tampoco esa es la interpretación estadística pero tampoco digamos que este es un tema demasiado relevante o sea, eso tampoco tenéis que, digamos agobiaros por buscar una explicación de índole económica es más bien, vamos a quedarnos con el tema estadístico Lo que sí que es relevante lo que es relevante, por eso yo he puesto el poco para que entendáis cuál es, digamos el planteamiento de estos ejercicios de datos de panel lo que sí es relevante es un poquito la conclusión de la que hemos llegado al final hemos visto que al final los efectos fijos temporales sí son significativos, mientras que los efectos fijos transversales no eran significativos. O sea, en los paneles están estas dos perspectivas, la temporal y la transversal, y aquí la transversal no muestra diferencias significativas, por tanto, sí que es muy importante para nosotros y eso tiene un interés económico, por supuesto, a la hora de interpretar los resultados que los 22 países considerados tendrían estadísticamente una misma función de consumo. Eso sería lo relevante, no tendría relevancia o no pondríamos el foco en el aspecto anterior. Ya digo, para terminar, y en tres minutos, una brevísima alusión a los efectos aleatorios desde un punto de vista más bien conceptual y comparativo con los efectos fijos. Fijaros que ambos modelos, el de efectos fijos y el de efectos aleatorios, suponen la existencia... ...de ese término AI o alfa-I que se refiere a una heterogeneidad transversal inobservable, es decir, a un término AI que no es observable y que va influyendo a los distintos individuos, no a los periodos temporales, sino a los distintos individuos. Es un elemento transversal que puede marcar diferencias entre unos individuos y otros, heterogeneidad entre unos individuos y otros. Y claro, y si lo incluimos en la ecuación es que es un aspecto fundamental de la especificación, o sea, es que nos interesa este asunto. Es que no queremos omitir ese aspecto. Por tanto, la diferencia no es la presencia y necesidad del control de ese término AI, sino la existencia o no de independencia o correlación entre ese término AI y los regresores X. O sea, es en esta existencia, vamos a ver si lo dejo esto claro, es en la existencia o no de correlación o independencia entre el término AI, que es el término transversal o de cota transversal, y los regresores XI, X1, X2, etc., es ahí donde va a estar, digamos, la diferencia entre los efectos fijos y los efectos aleatorios. De tal forma... Ok. Si los efectos individuales AI o alfa-I se consideran correlacionados con las variables exógenas X1, X2, Xk, optamos por un modelo de efectos fijos. Es decir, que lo que hemos visto antes en el ejemplo concreto del consumo de la Unión Europea, hemos optado por un modelo de efectos fijos porque en realidad estábamos considerando que los alfa-I como elementos, digamos, transversales o efectos individuales transversales sí correlacionaban con las variables exógenas, usando de esta manera las primeras diferencias para la estimación del flambo. Sin embargo, si no existe correlación entre los términos alfa-I y los regresores X1, X2, Xk, entonces no procede a utilizar la metodología. La metodología de efectos fijos y optaríamos por una estimación de efectos aleatorios. Ahí está la clave. Por tanto, en este modelo de efectos aleatorios se supone una sola ordenada en el origen común a todos los individuos, que sería la ordenada A, lo que por otro lado implica que el conjunto de estos efectos alfa-I específicas tendrán media cero, media nulo. Esa es la aleatoriedad a la que nos estamos refiriendo. En tanto, de las semiaordenadas específicas alfa-I. Las sumas correspondientes a cada individuo del panel se integran en la perturbación aleatoria. Es decir, conclusión. Podemos definir una nueva perturbación aleatoria Vsuit como la suma de Epsilonsuite más ese término A o alfa-I que representa ese efecto transversal. Y de esta manera, pues, a la ecuación, la ecuación objeto de análisis, pues quedaría de la siguiente forma. Isuit, siendo I la variable endógena, igual a beta0 más beta1 que multiplica por X1 Isuit, siendo X1 la variable exógena, más esta nueva perturbación aleatoria Vsuit que se obtiene sumando la perturbación Epsilonsuite a la que nos habíamos dicho referencia antes, más este término alfa-I al que nos estamos refiriendo continuamente. Por eso, a estos modelos de P2P. Efectos aleatorios también se le llaman modelos con errores compuestos. A diferencia del modelo de efectos fijos y del modelo de efectos aleatorios, no se realiza ningún tipo de transformación para eliminar el término. AI o alfa I de cada la estimación. En realidad, esa heterogeneidad alfa sui se considera parte de la propia perturbación aleatoria como acabamos de ver. La estimación de los parámetros de un modelo de efectos aleatorios no requiere, por tanto, como en el caso de efectos fijos, de diferencias o desviaciones o cualquier otra transformación que elimine la presencia del efecto fijo AI o alfa I. Muy al contrario, junto con la estimación de los parámetros interesa la estimación diferenciada de la varianza debida a los efectos aleatorios dentro de la estimación global de la varianza de la perturbación aleatoria, por lo que no conviene que el efecto AI o alfa I sea obviado en el procedimiento de estimación. La estrategia de mínimos cuadrados plenarios simple no resulta válida ya que la presencia de un efecto temporalmente constante en la perturbación aleatoria I provoca, obviamente, autocorrelación residual. modifica la expresión tradicional de la varianza de la perturbación aleatoria. Por tanto, si mínimos cuadrados ordinarios no es adecuado, ¿qué haríamos para resolver un problema de efectos aleatorios? Pues utilizaríamos mínimos cuadrados generalizados sobre el modelo en niveles utilizando una estimación adecuada de la matriz, en el caso de mínimos cuadrados generalizados. Simplemente comentar que a este estimador se le denomina estimador de la letra Merlobe o estimador entre grupos. Nombre este último que proviene de la equivalencia entre estos resultados y los que se obtendrían planteando la estimación mínimos cuadrados ordinarios entre las medias grupales temporales de la variable endógena y de la variable exógena. Si el estimador obtenido por el algoritmo en desviaciones respecto de las medias intragrupos que hemos explicado anteriormente en el modelo de efectos fijos, permite controlar el efecto de la heterogeneidad inobservable en el modelo de efectos fijos. ¿Qué puede motivar entonces el uso de un modelo alternativo como efectos aleatorios? Es decir, ¿por qué efectos aleatorios y no efectos fijos? ¿Dónde recibe esa comparación? ¿Cuáles son las ventajas? Además de lo que ya he explicado, que es el concepto de correlación o independencia entre los términos alfa, i y los propios regresores. Pues hay cuatro ideas con las que tenemos que quedarnos en esta comparativa entre efectos fijos y efectos aleatorios. La primera idea es que lo más importante Es que, en caso de no existir correlación entre los términos alfa y, que son esos efectos transversales, y las variables explicativas o exógenas x1, etc., etc., xk, la estimación del modelo de efectos fijos usando el algoritmo o el algoritmo de diferencias, de desvisiones a las medias o las primeras diferencias, supondría una innecesaria pérdida de eficiencia en la estimación de los parámetros beta. Y, por tanto, no sería adecuado, evidentemente, por si perdemos eficiencia. En este caso, efectos fijos no serían adecuados. Efectivamente, en este caso, al eliminar las variables alfa y usando el algoritmo o primera diferencia, renunciamos innecesariamente al poder explicativo de esas variables sobre la variable endógena. Entonces, primera cuestión que tenemos que considerar. Son cuatro en total. Segunda cuestión. Por otro lado, es posible que interesase cuantificar la influencia de ese aspecto transversal alfa y permanente sobre la variable endógena. En este sentido, usando un modelo de efectos aleatorios, resultará posible distinguir qué parte de los aspectos inobservables u de suite influye en la variable endógena con carácter intertemporal alfa y t y qué parte es esencialmente transitoria. Que sería la u sub i t. Algo que efectivamente puede obtenerse usando la metodología de efectos aleatorios y que no podría, evidentemente, hacerlo, hacerse mediante efectos fijos. La tercera idea de la comparativa es que una importante razón adicional de carácter técnico, pero especialmente importante desde el punto de vista práctico, es que la estimación del modelo de efectos aleatorios no, como acabamos de decir hace, digamos, hace un minuto, no implicará la transformación del algoritmo de desviación en respecto a los efectos aleatorios. Y esto es algo que se puede cambiar en términos de la distribución, en términos de la distribución de las variables explicativas, ya que es una variable que puede incluirse entre las variables explicativas variables con poca o ninguna variabilidad temporal, que con los ejemplos que veíamos, por ejemplo, para el alfa i, esas variables que eran no observables, que no variaban con el tiempo y que se referían en el ejemplo que poníamos antes a cuestiones idiosincrásicas, por ejemplo, la cultura o rasgos de la personalidad de los individuos que no cambian con el tiempo. Cambian con el tiempo, ¿no? en función de los diferentes elementos, recorte transversal de los diferentes individuos, pero no cambia con él. Y por último, una diferencia conceptualmente interesante Aunque esto en la práctica se usa poco, es que el modelo de efectos aleatorios supone que los individuos que componen la muestra son una extracción aleatoria de todos los individuos poblacionales existentes. Si la muestra no es una extracción aleatoria, lo coherente sería utilizar efectos fijos. Bueno, yo creo que con estos comentarios es suficiente para ver, en fin, lo esencial de efectos aleatorios y su comparativa con efectos fijos. En definitiva, una vez admitido que la decisión de efectos fijos frente a efectos aleatorios debe ser analizada conceptualmente en función de esa relación, insisto, entre las variables exógenas y esos efectos de tipo transversal, vamos a llamarla así, es cierto que existen algunos recursos técnicos para ayudarnos a decidir entre una especificación, estimación u otra. El más conocido, y simplemente citamos este, es el test de Hausmann. Bueno, en definitiva y para acabar, nos hemos alargado un poquito, pero el tema obviamente lo ha requerido porque es un tema bastante denso, pues nos hemos referido a los modelos de datos de panel y sobre todo hemos querido poner al énfasis en un ejemplo concreto que se ha planteado a través de la metodología de efectos fijos, que es la función de consumo europea. ¿Por qué la metodología de efectos fijos? Bueno, porque hemos partido de la idea o del supuesto de que sí existía correlación entre esos términos alfa y esos efectos fijos, en este caso transversales, y los regresores, el x1, etc. Y eso nos ha llevado a utilizar esa metodología de efectos fijos. Bueno, ya veis que es un tema muy interesante, muy importante. En la práctica con grandes ventajas, insisto, la gran ventaja de los, gran virtud de los modelos de paneles que nos permiten estimar algunos tipos de variables divididas, que de hecho pueden ser no observables, y obviamente en lo que ya es la dinámica de trabajo, la dinámica de cálculo, pues hemos requerido, por claro, de conocimientos que son bastante generales de la econometría. Bueno, hemos echado mano, pues ahora, pues de, por ejemplo... ...sobre todo, de ese estadístico F, ese estadístico de Fisher, que nos permitía comparar... los coeficientes de determinación de unas ecuaciones que hemos llamado restringidas respecto a otras ecuaciones que hemos llamado irrestrictas y que nos han permitido, bueno, en definitiva llegar a una serie de conclusiones en función del tema que nos planteamos. Bien, espero, os dejamos aquí por hoy espero que os haya resultado útil por supuesto esta presentación la vais a poder descargar, el propio vídeo que va a estar, lo vamos a subir inmediatamente al curso virtual, lo vamos a, espero que en las próximas fechas, que mañana mismo esté ya la grabación disponible en el curso virtual y vais a poder también bajaros el PDF por lo cual yo creo que es casi casi autosuficiente el PDF y utilicéis el manual de Unjarati o utilicéis el manual del profesor Esmatilla, Pérez y Sanz porque yo creo que os va a ser os va a ser útil. Por otra parte espero que hayáis seguido sin problemas técnicos, que el audio haya sido adecuado y también por lo que es la presentación la hayáis visto sin problemas y nada más, os dejamos aquí por hoy y simplemente comentaros si tenéis alguna duda de última hora, de acuerdo creo que veo entonces, entiendo que sí os ha resultado de utilidad y os ha ayudado un poco a acercaros a este tema tan interesante de datos de panel por supuesto en la práctica, en la práctica naturalmente el uso de los software a los que nos hemos referido, los software específicos de tipo econométrico, por ejemplo Gretel, que como ya he repetido de manera reiterada suele usar ese algoritmo de desviaciones respecto de las medias con esa metodología además de intragrupo pues eso, pues claro, en la práctica va a ser esencial en lo que podamos ayudarnos de esos software para poder llevar esto a la práctica. Muy bien, pues nada, muchas gracias a vosotros por asistir y seguimos en contacto. Hasta la próxima.