Bueno, pues vamos a retomar el seminario Sony 40. Estamos otra vez grabando. De hecho, cada sesión van a ser dos vídeos para que no sean demasiado largos. La hora y media inicial ya es un vídeo y a partir de este momento estamos grabando ya un segundo vídeo. Bien, pues vamos a seguir en el punto en el que lo habíamos dejado. Habíamos repasado, estábamos repasando muy despacito conceptos estadísticos. Aquí en pantalla veis un poco ese repaso que hemos hecho de los conceptos estadísticos de medias, varianzas y covarianzas. Y a partir de ahí, volviendo a nuestro caso, habíamos dicho que es fácilmente demostrable que el parámetro estructural alfa se puede demostrar que... es igual a la esperanza matemática de Y menos beta que multiplica por la esperanza matemática de X mientras que el parámetro beta, también denominado coeficiente de regresión es la covarianza de Y respecto a X dividido por la varianza de X. Esto en un caso muy sencillito en el que hay una sola variable X1 explicativa. Si tuviésemos más variables, imaginaros... un poquito más amplio, damos un paso más en esta lógica y pasamos de la regresión lineal simple a la regresión lineal múltiple. En este caso tenemos dos variables explicativas, la variable X1 y la variable X2 y una variable explicada que es la variable Y. También para no complicarnos la vida, de momento vamos a suponer que X1 y X2 son variables exógenas. Son variables que incluyen pero no pueden ser incluidas y la variable Y es una variable endógena que a la vez que es incluida por este modelo que tenemos aquí planteado, también podría influir a otras variables. Alfa, beta1 y beta2 son los parámetros estructurales que tenemos que estimar y d sub t es la perturbación aleatoria o error de este modelo. De nuevo, todas las variables tienen un subíndice t y sub t, X1 t, X2 t y d sub t. Son todas series temporales, son todas variables aleatorias que podríamos definir como procesos estocásticos, procesos en el tiempo. Bueno pues si generalizamos los resultados a los que hemos llegado en el caso anterior a un caso un poquito más ampliado como éste, resulta que ahora la matriz X'x partiríamos obviamente, imaginaros, cada que tuviésemos una muestra como la anterior de sólo 12 casos y tendríamos como tres columnas, tres columnas, la columna de unos, 12 unos, la columna de 12 datos de X1 y la columna de 12 datos de X2. O sea que X es una matriz que tiene tres columnas y 12 filas. Entonces, X' hacemos la traspuesta, tiene sólo tres filas y 12 columnas. Y al multiplicar X' por X, ¿qué resulta? Pues una matriz de tres filas por tres columnas. Y al multiplicar X' por Y, ¿qué resulta? Pues una matriz, un vector columna de tres filas y una columna. Y concretamente, esto se puede comprobar de manera muy sencilla, la matriz X'X, como veis ahí de tres filas por tres columnas, tiene como elementos integrantes en la fila 1 columna 1N, en la fila 1 columna 2 sumatorio de X1, en la fila 1 columna 3 sumatorio de X2. Es simétrica, es simétrica. En la fila 2 columna 1 sumatorio de X1, en la fila 2 columna 2 sumatorio de X1 cuadrado, en la fila 2 columna 3 sumatorio de X1 y X2. Es simétrica. Como es simétrica, al hallar la transpuesta, va a quedar exactamente igual que la matriz original. Mientras que X'Y sería el sumatorio de Y, el sumatorio de X1 por Y y el sumatorio de X2 por Y. De nuevo, habría que calcular el determinante de la matriz X'X. X'X, ahí también se podría aplicar la regla de Sarrus. Hay varias maneras de calcular el determinante, pero una de ellas sería, por ejemplo, utilizando la metodología de Sarrus. Y a partir de ahí, después del determinante, la transpuesta es la propia matriz original porque es simétrica. Haríamos la adjunta de la transpuesta. Fijaros, la adjunta de la transpuesta. ¿Cuál sería el adjunto correspondiente al elemento? El elemento correspondiente a la fila 1, columna 1. Ocultamos fila 1, ocultamos columna 1 y queda un determinante de 2 por 2. ¿Cuál es el determinante de 2 por 2? Sumatorio de X1 cuadrado, sumatorio de X1, X2, sumatorio de X1, X2, sumatorio de X2 cuadrado. Tenéis que repasar los adjuntos. Y esa adjunta de la transpuesta la dividimos por el determinante, que tendrá que ser distinto de 0. Y esa ya es la matriz inversa resultante. La matriz inversa resultante la multiplicáis por X' y ¿qué os saldría como resultante final? Lo veis en la parte inferior. Pues un vector columna de tres filas por una columna. Es el vector alfa, beta 1, beta 2. Es el vector en el que ya hemos obtenido la estimación de los parámetros estructurales del modelo. En todo ejercicio que puede caer en el examen o que nos tenemos que plantear nosotros en este planteamiento de econometría, siempre hay un primer paso. Un primer paso que es la especificación del modelo. El primer paso es analizar la ecuación. La especificación. En este caso, la ecuación era igual a alfa más beta X1 más D. En este otro caso, la ecuación es... Es igual a alfa más beta 1 X1 más beta 2 X2 más D. Eso es lo primero. Definir la ecuación. Definir la especificación. Reflexionar de qué tipos de variables estamos hablando. Si son exógenas, si son endógenas, si son discretas, si son continuas, por todo lo que he estado comentando. Eso es lo primero. La especificación. Y a partir de ahí, una vez que está especificado, si tenemos... Si tenemos ecuaciones de este tipo, ecuaciones lineales, sea una regresión lineal simple o una regresión lineal múltiple, no habría ningún problema en aplicar mínimos cuadrados ordinarios, que son estas expresiones que estáis viendo en pantalla. Y por mínimos cuadrados ordinarios estamos ya estimando los parámetros del modelo. Es la fase de estimación. Los parámetros estructurales. En este caso, alfa beta 1 beta 2. O en este otro caso, alfa y beta. ¿Vale? Ahora bien. X 1 t variable aleatoria. Proceso estocástico aleatorio. D su t variable aleatoria. Y su t variable aleatoria. X 2 t variable aleatoria. Esto no era más que una muestra posible de las diferentes... Digamos, muestras que podríamos haber obtenido. Dicho todo esto, como estamos en el terreno de lo aleatorio, os voy a trasladar ahora dos ideas muy importantes. Dos ideas muy importantes. Son conceptos estadísticos que deberíais conocer. Primera idea. La perturbación aleatoria de su t, tanto en este modelo de regresión lineal simple como en este otro, como en cualquier modelo que nos planteemos, es una serie temporal. Es un proceso... Es un proceso estocástico para el que nosotros vamos a plantear cuatro hipótesis de trabajo. Cuatro hipótesis de trabajo. Que son las equivalentes a lo que se conoce en análisis de series temporales en el ámbito probabilístico con el concepto ruido blanco. Ruido blanco. ¿Cuáles son esas cuatro hipótesis de trabajo para que esto realmente represente un error? Un error, un residuo. Lo que llamamos ruido blanco. Ruido blanco. Las cuatro hipótesis son, primera, comportamiento normal. Todos sabéis lo que es una función de densidad normal y una función de distribución correspondiente a una variable aleatoria normal. Comportamiento normal. Segunda hipótesis. Esperanza nula. O sea, la media de los errores es cero. Tercera hipótesis. Varianza constante. Es decir, lo que llamamos homocesismo. Homosedasticidad. Homosedasticidad quiere decir varianza constante. Y cuarta y última hipótesis. No autocorrelación de los residuos. Es decir, la variable aleatoria de su J, la variable aleatoria errores cometido en el momento temporal J, no tiene relación con la variable aleatoria de su I latina. No tiene correlación con la variable aleatoria que representa los errores cometidos en otro momento del tiempo que sería ilatino. A eso se refiere la no autocorrelación de los residuos. Estas cuatro hipótesis, repito, normalidad, esperanza nula, homosedasticidad, el que la varianza sea constante, la varianza de los errores constante y la no autocorrelación de los residuos son críticas para nuestra metodología. De hecho, nosotros si aplicamos mínimos cuadrados ordinarios sobre un planteamiento en el que sí se cumplen esas cuatro hipótesis, sobre una ecuación lineal como la que vemos en pantalla y en la que se cumplan esas cuatro hipótesis, se puede demostrar, se puede configurar. Y esto es muy importante, que los estimadores que obtenemos, el estimador de alfa, el estimador de beta 1, el estimador de beta 2, son lo que denominamos estimadores helio, en inglés blue, en castellano helio. ¿Qué significa helio? Estimadores lineales, porque las ecuaciones son lineales, pero no solamente lineales, lineales insesgados. Y eficientes. Estimadores lineales, insesgados, óptimos. Helio, óptimo, es que es eficiente. O sea, son buenos estimadores. Hemos obtenido buenas estimaciones aplicando mínimos cuadrados ordinarios sobre la base de ecuaciones lineales, sea esta o sea esta otra, pero sobre todo sobre la base de que hay cuatro hipótesis que se cumplen en la perturbación aleatoria o error, que tienen que ver con el concepto de... ...de ruido blanco. Normalidad, esperanza nula, homoscedasticidad y no autocorrelación. De nuevo, hay unos cuantos conceptos que tenemos que recordar. Mirad, vosotros en un curso de estadística, de estadística ya no la estadística introducción, no la estadística descriptiva, sino ya un curso de estadística, podemos llamarle teórica o probabilística, o en la primera parte de un curso de estadística diferencial, de un poquito del plan de estudios que hayáis seguido. Os voy a pedir, por favor, que cerréis el micro porque tenemos con algún micro abierto y tenemos un pequeño retorno. Os pido, por favor, que cerréis el micro. Entonces, os decía que en la parte de estadística nos ha tocado hacer estimación, estimación de parámetros en estadística. Y las estimaciones de parámetros en estadística se pueden hacer o bien estimaciones puntuales o estimaciones por intervalos. Son las dos grandes metodologías, estimación puntual, estimación por intervalos. Os recuerdo algunas cosillas. En las estimaciones puntuales, vosotros estudiasteis en estadística varias metodologías de cálculo. Por ejemplo, la metodología de la máxima verosimilitud o la metodología de los momentos. Podemos estimar por momentos, podemos estimar por máxima verosimilitud. Hay varias metodologías para hacer una estimación puntual. Y después tenemos la... La estimación por intervalos. Y además de aprender cómo se hacen esas estimaciones, sean puntuales o por intervalos, también se os explicó en un curso de estadística, pues cuáles son las propiedades de un buen estimador. Y se os explicó cuatro propiedades básicas de un buen estimador. Que son la insesgadez, la eficiencia, la consistencia, y la suficiencia. Esto lo estudiasteis en estadística, deberíais revisarlo. Repito. Insesgadez, eficiencia, consistencia y suficiencia. Esto es muy importante. Nosotros vamos a trabajar sobre todo este curso con las dos primeras propiedades. La insesgadez y la eficiencia. Aunque también son muy importantes la consistencia y la suficiencia. De hecho de consistencia haremos unas cuantas alusiones. Hablamos del curso. ¿Qué es eso de la insesgadez y de la eficiencia? Vamos a ver. Hay que volver a la idea, que es una idea que merece mucho la pena reflexionar, de lo que es una muestra y de lo que es una población. Una cosa es una población, una población global o total, de una variable aleatoria cualquiera. Y otra cosa es que nosotros ponemos a partir de esa población una muestra de un ciclo. Un cierto tamaño. Por ejemplo, n. De hecho podemos tomar muchas muestras. Podemos tomar una primera muestra, una segunda muestra. O sea, podemos tomar muchas muestras diferentes. Y obtener en las distintas muestras distintas observaciones muestrales. Y todas esas muestras salen de una misma población general o global mayor. El tamaño de la población es n grande y el tamaño de cada una de las muestras es n pequeño. Y podemos tener distintas muestras de tamaño n pequeño. Bien. Nosotros, claro, cuando estamos estimando este alfa, este beta 1, este beta 2, o cuando estimamos... ¿Verdad que me he saltado aquí? O cuando estimamos en la cocción de antes el alfa y el beta, lo estamos haciendo a partir de una muestra concreta. Son los datos que vimos al principio. A partir de esa muestra concreta, que es una de las posibles muestras, de tamaño n pequeño, que se pueden sacar de una población mayor de tamaño n mayúsculo, a partir de esos datos, aplicando esta metodología, hemos obtenido unos resultados concretos para los parámetros alfa y beta. Por tanto, lo que hemos obtenido con estas fórmulas que hemos explicado hoy son estimaciones de los parámetros alfa y beta. A partir de una muestra concreta. Hemos obtenido estimaciones a partir de esa muestra. ¿De acuerdo? Otra cosa distinta es, pero, ¿cuál es el verdadero parámetro a nivel poblacional? A esas estimaciones que estamos obteniendo con esta metodología les vamos a poner un capuchito encima, un simbolito, que es una especie como de sombrerito encima de alfa y encima de beta. Eso es la estimación que hemos obtenido con esta metodología de mínimos y cuadrados a partir de una muestra concreta que es la que nos dieron en evidencia. Pero una cosa es la estimación muestral concreta que hemos obtenido y otra cosa es el verdadero valor del parámetro a nivel poblacional, a nivel global de cualquiera de las muestras que pudiésemos haber obtenido. Son dos conceptos diferentes. ¿Cuándo decimos que un estimador es insesgado? Decimos que un estimador es insesgado cuando la esperanza matemática de ese estimador coincide con el parámetro poblacional. ¿Me explico? Cuando la esperanza matemática del estimador de beta coincida con el parámetro beta a nivel poblacional, entonces y sólo entonces decimos que ese estimador es insesgado. Pero es que ese estimador, ese estimador de beta, que sería el beta con el capuchito encima, o el estimador de alfa, que sería el alfa con el capuchito encima, esos estimadores también son variables aleatorias. Los estimadores también son variables aleatorias con sus correspondientes funciones de densidad y funciones de distribución. Por ejemplo, se puede demostrar que tal como estamos desarrollando aquí hoy este planteamiento, el estimador de alfa y el estimador de beta se comportan como variables aleatorias con una distribución en el muestreo T de Studen, T de Studen con n-k grados de libertad. Siendo n el tamaño de la muestra y siendo k el número de regresores incluyendo el término independiente. ¿Qué es eso del número de regresores incluyendo el término independiente? En esta ecuación que tenéis aquí en pantalla hay dos regresores. El x1 y el término independiente alfa. Hablamos de regresores incluyendo el término independiente. Luego k valdría 2. Y en este otro ejemplo, k valdría 3. x1, x2 y alfa. Incluyendo el término independiente. k igual a 3, k igual a 2. Pues en este ejemplo alfa y beta serían dos variables, el estimador de alfa y el estimador de beta serían dos variables aleatorias que tienen una distribución en el muestreo que es una T de Studen con n-k grados de libertad. En este caso 12 menos 2, 10. Y en este caso 12 menos 3, 9. Claro, os acabo de hablar entonces y tenéis que también repasar lo de estadística. Os acabo de poner dos ejemplos que vamos a utilizar mucho de funciones de densidad que nosotros conocemos de un curso de estadística. Hemos hablado de la normal y hemos hablado de la T de Studen. Y eso lo conocéis de un curso de estadística. Que es una distribución normal y que es una distribución T de Studen que por cierto es una distribución que se deriva de una normal. Tenéis que repasarlo, ¿eh? Tenéis que repasar a fondo el concepto de variable que tiene una función de densidad normal y variable que tiene un comportamiento de función de densidad T de Studen. Os recuerdo la perturbación aleatoria o error de su T según nuestra hipótesis de trabajo se comporta como una distribución normal. Mientras que los estimadores de los parámetros alfa, beta1 y beta2 se comportan en el muestreo con distribuciones T de Studen con n-k grados de libertad. ¿Vale? Si estamos hablando de estimadores sin sesgados ¿Qué quiere decir? Que la esperanza matemática del estimador alfa capuchito o sea, el estimador de alfa es igual a alfa. La esperanza matemática del estimador es igual al parámetro poblacional. Oye, ¿y cómo se calcularía si alfa tiene una distribución en el muestreo T de Studen con n-k grados de libertad? Variable aleatoria continua igual que la normal. La normal y T de Studen se refieren a variables aleatorias continuas. ¿Cómo se calcularía esa esperanza matemática? En términos estadístico-econométrico-matemáticos. integral integral desde menos infinito a más infinito de x que multiplica donde está f que pondríamos la función de densidad correspondiente a ese parámetro alfa. Es decir, la función de densidad correspondiente a una T de Studen con n-k grados de libertad. No sé si me estáis siguiendo o no. Bueno, vamos a ver. Estoy intentando explicar de manera minuciosa los conceptos y de manera rigurosa para que tengáis una visión general. Claro, si queremos aprender Econometría tiene que ser así, claro. Y después aplicar esto a la práctica. En el examen no os preocupéis. No vamos a preguntar tantas cosas. No os vamos a exprimir tanto. A lo mejor se os han olvidado algunas cosas de estadística y salváis por los pelos. ¿Me explico? Yo hoy sí que estoy recordando los conceptos clave que tenemos que tener en la cabeza pero eso no quiere decir que os tengáis que agobiar y que os vayáis a encontrar en el examen con decenas de preguntas de álgebra lineal o de cálculo infinitesimal o de estadística o de teoría económica que se supone que las sabéis pero las tenéis medio olvidadas. ¿Me explico? ¿Verdad que sí? Pero hoy sí estoy queriendo ir hilvanando conceptos para que os situéis con claridad. Por tanto, nosotros hay una primera fase de estimación en la que hemos estimado los parámetros hemos estimado alfa, beta1 y beta2 o sea, hemos obtenido estimaciones concretas a partir de una muestra concreta y sabemos que esas estimaciones ahora van a tener un comportamiento en el muestreo un comportamiento como una variable aleatoria T de Steven con n menos cada dada de la libertad. ¿Vale? Y a partir de ahí eso va a ser muy importante porque a partir de ahí no sólo nos permitirá saber el por qué afirmamos que el estimador es insiesgado esperanza matemática de alfa capuchito igual a alfa sino podremos también afirmar que el estimador es eficiente es decir, óptimo es decir, que tiene una varianza mínima un estimador es óptimo cuando su varianza es mínima decimos entonces que su eficiencia es máxima cuando su varianza o desviación típica sea mínima Claro, toda variable aleatoria que se comporta por ejemplo con una T de Steven con n menos cada dada de la libertad tendrá su media y su varianza la media era integral de x que multiplica por f de x y la varianza que es integral de x cuadrado que multiplica por lo que sea vale entonces ya digo, si la varianza es mínima decimos que entonces el estimador es eficiente tiene una eficiencia que es óptima una eficiencia que es óptima bueno, además de esto podríamos hablar de consistencia y de suficiencia que también os pido que vayáis un poco repasando qué eran esos conceptos en relación con los buenos estimadores pero quedémonos vamos a resumir una idea muy muy importante muy importante si nosotros tenemos un modelo ideal como este que veis en pantalla o como este otro modelos lineales y sabemos que las perturbaciones aleatorias o errores de su T cumplen las cuatro hipótesis de las que me he referido es decir, se configuran como ruido blanco proceso espocástico, ruido blanco normalidad esperanza nula homosedasticidad y no autocorrelación entonces la aplicación de la metodología de mínimos cuadrados ordinarios nos da lugar a unas estimaciones helio lineales, insesgadas y óptimas o sea que estos resultados que tenemos aquí para alfa para beta 1 y para beta 2 son buenos resultados son buenas estimaciones lo mismo que tendríamos en el modelo más sencillo para alfa y para beta vale bien, siguiente paso regresión lineal múltiple en desviaciones a las medias vamos ahora nosotros hasta ahora como veis hemos trabajado con los sumatorios que veis ahí en pantalla verdad o sea, a partir de las matrices originales a partir de las muestras iniciales hemos ido construyendo con esos datos originales o iniciales hemos ido construyendo la matriz X'Y la matriz X'X y como veis aparecen muchos sumatorios que veis ahí sin embargo en la práctica es muy habitual trabajar no con ese tipo de datos, con esos sumatorios sino trabajar en lo que denominamos desviaciones respecto de las medias respecto de las medias en ese caso dentro de las matrices ya no están los sumatorios dentro de las matrices como estáis viendo en esta diapositiva que son diapositivas muy resúmenes una diapositiva que nos da mucha información nos da ya resultados finales para aplicar dentro de las matrices ya no hay sumatorios ¿qué hay? varianzas y covarianzas en la práctica de cara al examen es mucho más habitual que los datos nos los den en varianzas y en covarianzas que nos den los datos en sumatorios original nosotros tenemos que ser capaces de trabajar de las dos formas evidentemente de las dos formas obviamente es posible pasar de una forma a la otra porque ¿qué relación existe entre los sumatorios las varianzas y las covarianzas? pues hombre lo que veíamos antes los conceptos estadísticos básicos que nosotros conocemos perfectamente de esperanzas matemáticas de varianzas y covarianzas a partir de ahí ¿verdad? con esas definiciones que las tenemos clarísimas no hay ningún problema de pasar de sumatorios a varianzas y covarianzas o viceversa de varianzas o covarianzas a sumatorios es simplemente una cuestión de tener el concepto claro insisto habitualmente de cara al examen vamos a manejarnos los datos que nos van a dar en el enunciado y por tanto como vamos a tener que trabajar en el examen es con varianzas y covarianzas bueno pues fijaros bien en este caso práctico tenemos el modelo i igual a alfa más beta uno que multiplica por x uno más beta dos que multiplica por x dos más una perpetuación aleatoria d sub t pues bien fijaros la matriz x prima x que tenéis ahí es una matriz sólo de dos por dos dos filas, dos columnas y la matriz x prima y es una matriz de dos filas por una columna ya no son tres por tres y tres por uno son dos por dos y dos por uno porque en este caso con esta forma de trabajar en desviaciones a las medias por una parte se puede calcular si queréis como primer paso la estimación de alfa, la veis aquí abajo la estimación de alfa es un concepto muy sencillo esperanza matemática de i menos beta uno por esperanza matemática de x menos beta dos por esperanza matemática menos beta uno por esperanza matemática de x uno menos beta dos por esperanza matemática de x dos es decir si tuviésemos los datos de las tres esperanzas matemáticas o medias podríamos hallar alfa muy sencillamente bastaría también contener el dato del beta uno estimado y del beta dos estimado pero con esta sencilla fórmula ya obtendríamos alfa entonces la pregunta es si alfa se puede obtener tan sencillo cómo se calcularían beta uno y beta dos pues aquí tenéis también la explicación beta uno y beta dos se calcularían por mínimos cuadrados ordinarios por la expresión tradicional matricial x prima x a la menos uno que multiplica por x prima i pero atención beta uno y beta dos es un vector de dos filas y una columna dos por uno por tanto la matriz x prima x ahora cuál es y vamos a leerla bien x prima x tiene el elemento en la fila uno columna uno n que multiplica por varianza x uno el elemento en la fila uno columna dos n que multiplica covarianza x uno x dos en la fila dos columna uno n covarianza x uno x dos en la fila dos columna dos n varianza de x dos pero veis que los n se están multiplicando verdad que sí dentro de la matriz x prima x los n están multiplicando por las respectivas varianzas y covarianzas y qué pasa en x prima i vector columna de dos filas por una columna fila uno columna uno n que multiplica covarianza de i respecto a x uno fila dos columna uno n que multiplica covarianza de i respecto a x dos vemos que los n se están multiplicando pues bien cuando abajo cuando abajo ya estamos operando para obtener la estimación de los parámetros estructurales beta uno y beta dos y hacemos la inversa de x prima x y la multiplicamos por x prima i fijaros bien los n los n se van a ir de este proceso de cálculo por qué porque al hacer la inversa y multiplicar lo que va a ocurrir que un n que divide y un n que multiplica se simplifica pero sólo al hacer ese proceso de cálculo de inversa y multiplicar los n se van si no estamos inmersos en ese proceso de cálculo recordad que dentro de las matrices hay n multiplicando las respectivas varianzas y covarianzas vale esto os lo doy muy masticado y muy migado porque claro tenéis poco tiempo en el examen tenéis que tener los conceptos muy claros y tenéis que ir al grano tenéis que ir al grano no hay tiempo que perder y os van a dar seguramente varianzas y covarianzas y medias pues si os dan varianzas y covarianzas y medias porque hay que ir al grano ya está claro si no os lo diese tan masticado como os lo podría dar pues lo podría dar menos masticado quiero decir que vosotros mismos con estos sumatorios que veis aquí que es la el planteamiento original más estas definiciones que veis aquí estadísticas vosotros mismos os busquéis la vida y lleguéis a esta conclusión pero claro os va a llevar un ratito y de esta manera ya os lo doy yo resuelto de acuerdo repito planteamiento original pero dado que de estos sumatorios a partir de estas definiciones de varianzas y covarianzas y medias se puede llegar entonces a qué resultado final a este que es el que habitualmente vais a aplicar en el examen porque es este porque os van a dar datos de varianzas covarianzas y medias y esto ya está pensado para que nos den datos de varianzas covarianzas y medias de acuerdo no es muy habitual que nos den datos de sumatorios si nos hubiesen dado datos de sumatorios habríamos aplicado este otro enfoque bueno pues yo creo yo creo que no vamos a avanzar mucho más en cuanto a conceptos hoy porque sino puede ser puede ser mucha información aquí tengo otras fórmulas pero las vamos a dejar para el próximo día mirad profundizando un poquito en lo que ya hemos comentado las cuatro hipótesis de la referidas a la perturbación aleatoria o error que antes le habíamos llamado d su t d su t discrepancia y aquí aparece ahora bueno quien le he llamado con otra expresión v su t v su t es lo mismo que d su t perturbación aleatoria o error o residuo o discrepancia recuerdo es lo mismo error discrepancia residuo perturbación aleatoria d su t o v su t primera propiedad para todo t la esperanza matemática de v su t o d su t es cero esperanza nula propiedad de opusedasticidad la varianza es constante la varianza es sigma cuadrado y para todo t es una constante por cierto cómo se calcularía esa esperanza pues sería el momento de orden 2 con respecto a la media repito hay que saber calcular las varianzas la varianza es el momento de orden 2 con respecto a la media como es el momento de orden 2 con respecto a la media y la media vale cero por eso pone ahí que es la esperanza de v su t al cuadrado la esperanza de v su t al cuadrado es igual a sigma cuadrado y es una constante para todo t una constante para todo t qué significa la no autocorrelación significa que si tenemos dos momentos en el tiempo distintos el t y el t asterisco y tenemos dos errores dos discrepancias dos perturbaciones aleatorias dos variables aleatorias en cada uno de esos momentos distintos en el tiempo el t y el t asterisco no pueden estar autocorrelacionadas es decir su covarianza tiene que ser cero covarianza cero qué implica función de autocorrelación cero significa coeficiente de correlación cero porque os recuerdo que el coeficiente de correlación es el resultado de dividir la covarianza entre el producto de las desviaciones típicas para todo t distinto de t prima qué quiere decir la hipótesis de normalidad pues quiere decir que la distribución de la perturbación aleatoria o error o discrepancia o residuo tiene una distribución normal para todo t por tanto lo que os decía antes el cumplimiento de estas hipótesis referidas al comportamiento de las protecciones aleatorias en modelos lineales permiten aplicar mínimos cuadrados ordinarios proporcionando resultados similares a la máxima verosimilitud la máxima verosimilitud es un modelo es una metodología de estimación muy potente muy robusta muy rigurosa qué buenos resultados proporcionan las metodologías que son adecuadas pues proporcionan estimaciones consistentes insesgadas y de eficiencia asintótica u óptima en lo que llamamos ELEON estimador lineal insesgado óptimo mirad ahora yo voy a hacer una primera aproximación muy sencillita muy sencillita a los números que nos han dado en este enunciado os recuerdo que en cuanto a números nos habían dado unos valores de X 12 valores de X 12 valores de Y muestra de tamaño 12 y bueno si hubiésemos hecho la representación gráfica habría salido algo así y nosotros hemos aplicado esta metodología de mínimos cuadrados ordinarios es decir estas fórmulas que veis aquí en pantalla para estimar alfa y para estimar beta vale pues si lo hacemos y salvo error aquí tenéis algunos resultados si tranquilamente nos ponemos a estimar para la variable Y su media sumatorio de Y partido por N nos dará 55,750 si para la variable X hallamos su media sumatorio de X partido por N podéis comprobarlo si queréis dará 27,750 si uno se fija también en ese listado de datos que os habíamos dado había un valor mínimo y máximo para cada una de esas variables concretamente el valor mínimo de Y era 48 y el máximo era 63 el valor mínimo de X era 23 y el máximo era 33 hay otros en estadística descriptiva hay otras medidas de tendencia centrada además de la media que son la mediana y la moda pero nosotros no vamos a trabajar normalmente ni con la mediana ni con la moda podríamos hacerlo podríamos calcularlas pero no lo vamos a hacer vamos a trabajar siempre mientras no digamos otra cosa con las medias las medias aritméticas entonces la media de Y 55,75 y la media de X 27,75 para vuestra información aunque no lo vamos a usar la mediana sería 54 para Y y para X sería 27,50 ¿qué es la mediana? la mediana es un valor que deja el 50% de los casos a su izquierda y el 50% de los casos a su derecha ¿y qué es la moda? la moda es el valor de la variable que es el más frecuente el que tiene una mayor probabilidad el que se repite más veces pero nosotros no vamos a trabajar ni con la mediana ni con la moda y sólo con la media por tanto media de Y 55,75 media de X 27,75 más datos si hallamos la desviación típica de Y la desviación típica de Y es la raíz cuadrada de la varianza de Y y la varianza de Y era el sumatorio de Y al cuadrado partido por N menos la esperanza matemática de Y elevado al cuadrado si hacemos todo ese cálculo y hacemos la raíz cuadrada de ese cálculo lo podéis comprobar os dará una desviación típica de Y 5,2071 exactamente igual si hacéis la varianza de X sumatorio de X al cuadrado partido por N menos la esperanza matemática de X elevado al cuadrado y después raíz cuadrada de la varianza la desviación típica de X 3,4935 después hay ahí un coeficiente de variación cv pero que tampoco lo vamos a usar con lo cual ni siquiera lo voy a explicar y hay unas medidas de forma la forma de la distribución la asimetría y la curtosis tampoco lo vamos a usar tampoco simplemente os recuerdo que esto se veía en estadística la asimetría tiene que ver con momentos de orden 3 con respecto a no sé qué y la curtosis con respecto de orden 4 se puede estimar y representan la forma la forma de la distribución pero nosotros no lo vamos a ver o sea solo vamos a trabajar con medias varianzas desviaciones típicas coeficiente de variación el coeficiente de variación ¿cuál sería? el coeficiente de variación sería el resultado de hacer sumatorio de X que multiplica por Y dividido por N menos la media de X o esperanza matemática de X que multiplica por la esperanza matemática de Y el coeficiente de variación también lo vamos a utilizar porque de hecho veis aquí abajo que aparece un coeficiente de correlación de Pearson cor y X que da menos 0,73838033 negativo 1 menos 0,73 negativo ¿cómo se ha calculado eso? en el numerador la covarianza o coeficiente de variación que he llamado yo ahora covarianza mejor dicho sumatorio de X por Y dividido N menos esperanza matemática de X por esperanza matemática de Y covarianza dividido desviación típica de X 3,49 que multiplica desviación típica de Y 5,20 resultante coeficiente de correlación menos 0,73838033 oscilan entre menos 1 y más 1 en este caso es negativo es negativo lo cual quiere decir que la relación que hay estadística entre las dos variables es negativa es decreciente eso quiere decir que cuando una variable crece la otra decrece en este caso cuando la que está en color azul que es la X crece aunque sea de manera muy suave la otra variable que está en color rojo decrece aunque sea de manera muy suave eso se visualiza ¿verdad? es una relación decreciente pero es una relación débil porque no está muy cerca de menos 1 no está muy cerca de menos 1 supera ligeramente el menos 0,70 por debajo de 0,70 es una relación muy débil la relación empieza a ser no tan débil por encima de 0,70 mirad hay una manera de interpretar esto muy simple que tampoco vamos a hablarle de demasiada importancia pero bueno como primera aproximación os puede ayudar vamos a ver si soy capaz de explicaros esto mirad ¿por qué tenemos aquí una discrepancia error o perturbación aleatoria? ¿por qué? porque el modelo formado por alfa más beta que multiplica por X1 no explica el 100% de la variabilidad de la variable Y todo lo contrario comete errores por ejemplo el modelo formado por alfa más beta que multiplica por X1 puede explicar solo el 80% de las variaciones que se producen en YT con lo cual queda un 20% sin explicar ese 20% que queda sin explicar se refiere a la perturbación aleatoria o error que al final entre otras cosas podría estar representando otras variables que no hemos tenido en cuenta que sí explicarían ese 20% y son variables distintas de X1 ¿vale? esta idea de la que estamos hablando ahora tiene que ver con el llamado coeficiente de determinación el próximo día hablaremos bastante del coeficiente de determinación de momento hoy sólo comentaros porque es muy sencillo el coeficiente de determinación se puede obtener como cuadrado cuadrado del coeficiente de correlación claro el cuadrado del coeficiente de correlación en este caso ¿cuánto vale? si halláis el cuadrado de 0,73 pues voy a decir yo además no me lo voy a inventar lo voy a calcular para no inventármelo 0,73 elevado al cuadrado 73 elevado al cuadrado pues da 0,53 más o menos 0,5329 pero un coeficiente de correlación que oscila entre menos 1 y más 1 cuando lo elevas al cuadrado da lugar a un coeficiente de determinación que siempre está entre 0 positivo y 1 positivo ¿qué significa 0,5329? como primera aproximación muy simple pues vendría a significar que en un modelo como este la variable o sea el modelo alfa más beta que multiplica por x1 explicaría sólo el 53,29% de los movimientos o variaciones de la variable y por lo cual quedaría pues nada más y nada menos que un 46,71% de variaciones de la variable y que no estarían siendo explicadas por el modelo alfa más beta por x o sea que hay un error importante en la estimación el valor de la discrepancia el error la perturbación es importante claro pero es que eso ya no lo decían las gráficas eso ya lo decían los datos bastaba con leer los datos para ser conscientes de todo esto es mucho más simple de lo que parece o sea que la correlación es negativa pues ya se ve aquí en las gráficas el color azul crece ligeramente y el rojo decrece ligeramente uno crece y otro decrece negativo ligeramente y encima el rojo con mucha variabilidad uno tiene una tendencia bastante constante al crecimiento que es el azul pero el rojo tan pronto crece como decrece lo veis los datos ya nos indicaban las gráficas ya nos indicaban que de existir una correlación estadística era negativa negativa y débil débil entre comillas estamos hablando de un 0,70 y tantos negativo y como veis aquí pues de un 0,50 y tantos de porcentaje de explicación vale pero todo esto son aproximaciones muy básicas al problema todo esto ¿qué significa? y la respuesta es no significa casi nada y esto es muy importante porque parece que hemos hecho mucho ¿verdad? parece que hemos calculado unas cuantas cosas que tenemos un suficiente de correlación pero insisto esto significa muy poco de momento y voy a ir un paso más allá incluso si yo aplico estas formulitas que veis de la relación lineal simple para estimar alfa y beta aplico las formulitas y con los datos denunciados estimo alfa y beta lo podéis hacer tranquilamente en casa y obtengo y esta tabla es importantísima y aquí nos vamos a parar hoy esta tabla es importantísima estas son las salidas típicas de ordenador cuando empecemos a usar Gretel IR el tipo de salidas que nos va a dar Gretel IR el tipo de resultados van a ser como esta tabla que veis en pantalla pues ahí ya tenéis el valor de alfa estimado 86,2905 esa sería la estimación muestral de alfa el alfa con el capuchito y es una estimación puntual es una estimación concreta no es por intervalos es un punto 86,2905 para una muestra tamaño 12 ¿y cuál es la estimación de beta? negativa menos 1,10056 negativa o sea ya hemos estimado alfa y beta el alfa positivo y el beta negativo pero como veis pone aquí abajo R cuadrado que pone aquí abajo R cuadrado coeficiente de determinación 0,545206 lo veremos en las próximas semanas el r cuadrado corregido 0,499726 claro, el R cuadrado es lo que os decía viene a ser ese porcentaje de variaciones de la variable Y que son explicadas por el modelo que está a la derecha, alfa más beta por X, o sea, solo explicamos el cincuenta y tantos por cien dejamos sin explicar el cuarenta y tantos por cien si os fijáis un poquito más esta ecuación que estamos estimando es la ecuación de una recta una recta, ¿verdad? Y igual a alfa más beta que multiplica por X1 es una recta de regresión es una recta de pendiente beta la pendiente de esa recta, la derivada de Y respecto a X es beta el coeficiente de regresión lineal es la pendiente de la recta. Claro, ese beta tenía que ser negativo porque claro, cuando tú estimas una recta que se pretende ajustar a esa nube de puntos de esas dos variables X e Y que planteaban entre sí una relación claramente negativa o decreciente la recta resultante la recta resultante que se ajuste a esa nube de puntos tiene que ser una recta de pendiente negativa y la pendiente de esa recta sería menos 1,10056 aquí en esa tabla hay mucha más información, muchísima más hay información mucho más relevante incluso yo os anticipo que en base a la información que pone la tabla las estimaciones de alfa y de beta son estimaciones muy razonables son estimaciones puntuales razonables o sea, la probabilidad de cometer un error en esas estimaciones es una probabilidad muy bajita muy bajita bueno dicho esto hagamos más recordatorio de estadística estamos recordando muchas cosas hoy recordatorio hemos hablado de estimación puntual por máxima verosimilitud por el método de los momentos, etc. hemos hablado de estimación por intervalos y hemos hablado de contraste de hipótesis y cuando uno en estadística ve estimación por intervalos y ve contraste de hipótesis recordad conceptos que seguro que os vendrán ahora a la mente hay algunos conceptos que son claves cuando hablamos de estimación por intervalo y contraste de hipótesis como son el tipo de error que cometemos en esas estimaciones y contrastes el tipo de error os sonará cuando hacemos estimaciones por intervalos y contrastes de hipótesis que hay zonas de aceptación y hay zonas de rechazo os sonará un concepto que tenéis que recordar también, tenéis que repasarlo de estadística, probabilística e inferencial que es el concepto de nivel de significación del contraste nivel de significación es la probabilidad de cometer un error de tipo 1 y un error de tipo 1 es rechazar la hipótesis nula cuando esta es cierta cuando repaséis el tema de la inferencia estadística en estadística probabilística o teórica veréis que siempre se plantean unas hipótesis hay una hipótesis nula hay una hipótesis alternativa y podemos acertar o equivocarnos con la estimación entonces, llamamos nivel de significación del contraste a la probabilidad de cometer un error de tipo 1 que sería aceptar la hipótesis nula perdón, rechazar la hipótesis nula cuando esto es cierto es un error rechazar la hipótesis nula cuando esta sea cierta ese error se llama error de tipo 1 y su probabilidad, nivel de significación lo contrario del nivel de significación se llama nivel de confianza es decir, la probabilidad de no cometer un error de tipo 1 la probabilidad de aceptar la hipótesis nula cuando es cierta y portando a acertar es el nivel de confianza por ejemplo, si el nivel de significación es el 5% el nivel de confianza es el 95% 1 menos el 5% pero además de eso hay el error de tipo 2 y el concepto de potencia del contraste que también tenéis que recordarlo error de tipo 2 y potencia del contraste bueno pues yo estoy viendo aquí y esto ya lo veremos más adelante estoy viendo aquí que este este resultado es un resultado bastante bien bastante interesante en cuanto a la estimación de alfa 86,2905 y la estimación de beta menos 1,10056 ¿en qué sentido? en el sentido que el nivel con el que estamos trabajando de acierto para que me entendáis de manera un poquito sencillota ya más adelante concretaré exactamente cómo se debe interpretar esto es un nivel adecuado o sea que son son estimaciones que podemos considerar significativas son estimaciones que podemos considerar significativas pero esto ¿qué valor tiene a nivel económico? pues de momento ninguno es un poquito donde yo quiero terminar por hoy de momento ninguno porque claro lo importante lo más importante es qué modelo económico está detrás de todo esto o sea, ¿qué es Y y qué es X? a nivel económico imaginaros que Y fuese y ahora estamos llegando a lo más importante de la sesión de hoy que es la parte económica hasta ahora he hablado mucho de temas matemáticos estadísticos pero de economía he hablado casi nada hice una pequeña reflexión hace un ratito ¿verdad? de macroeconomía de la función de consumo keynesiana bueno, cuatro reflexiones hace un ratito pero hace ya un buen rato que no hablo mucho de eso vamos a hablar un poquito de economía ahora imaginaros imaginaros que yo os digo ahora vamos a ver imaginaros que la variable Y es el consumo en Brasil lo estoy inventando ahora y la variable X es la renta en Estados Unidos imaginaros sea X la renta en Estados Unidos sea Y el consumo en Brasil lo acabo de inventar claro, sabiendo eso sabiendo eso que sentido puede tener todo esto que estamos viendo aquí ahora, estos resultados que yo os he dicho a nivel estadístico bueno, ya hemos estimado alfa 86,29, hemos estimado beta menos 1,10 la recta tiene una pendiente negativa el R cuadrado, o sea el porcentaje que estamos explicando de Y con X es pequeñito 0,54 queda un 46% sin explicar aunque os dije el estimador de alfa y el de beta no están mal, se podrían dar como estimadores estimadores aceptables a nivel estadístico pero hay dos problemas muy graves que vosotros como futuros economistas debéis conocer primer problema vamos a la gráfica si esto realmente fuese si fuesen renta y consumo como acabo de decir pues no tendría ningún sentido que uno fuese positivo y el otro negativo eso ya nos chocaría en el modelo teórico, pero como que la renta positivo y el consumo negativo no tiene sentido económico no se corresponde con la hipótesis de la función de consumo de Keynes pero lo que es peor, hay otros dos problemas todavía, eran tres los problemas, el primer problema uno positivo y otro negativo esa no es la función de consumo la función de consumo keynesiana dice cuando la renta disponible aumenta el consumo también aumenta en base a la propensión marginal al consumo que será un número comprendido entre 0 y 1 que es la derivada del consumo con respecto a la renta pero lo que es peor esto es un disparate lo que he planteado a todas luces, como va a ser el consumo más grande que la renta como va a ser la variable Y por encima de la variable X siempre la renta es más grande y el consumo más pequeño porque de hecho la renta es el resultado de sumarle al consumo la inversión y otras cosas, si hubiese gasto público o si hubiese exportaciones es un disparate lo que estoy planteando en términos económicos pero sobre todo, por si fuese poco vamos a ver la función de consumo keynesiana relaciona la renta de un país con el consumo de otro país diferente no no tiene nada que ver con eso no tiene nada que ver con economía abierta, con comercio internacional con balanza de pagos es otra cosa ¿A dónde quiero llegar? lo primero es el modelo teórico es la especificación del modelo teórico lo primero es saber ¿qué es la variable X? ¿qué es la variable Y? y ¿qué significa realmente ese modelo Y igual a alfa más beta que multiplica por X porque finalmente lo que estamos persiguiendo es no sólo estimar los parámetros alfa y beta que eso es una chorrada lo que estamos persiguiendo es ver si existe causalidad entre la variable X y la variable Y en términos económicos si existe un modelo teórico que nosotros manejamos que es capaz de explicar esa causalidad entre la variable X y la variable Y y evidentemente, en este caso con los resultados que os he dicho pues no no tendría ningún sentido económico y por tanto ese sería nuestro final de examen todo esto a nivel estadístico tendrá una interpretación pero a nivel económico no sirve para nada ¿de acuerdo? bien esto es muy importante, fijaros esto es verdad que para dominarlo bien lleva un tiempo a lo que me he estado refiriendo ahora lo dominaremos al final al final del seminario lo dominaremos para llegar a dominar todo esto no solamente hay que ver lo básico de los modelos econométricos uniecuacionales, que es por donde hemos empezado y lo básico de los modelos econométricos multiecuacionales que es por donde seguiremos más adelante sino que sobre todo en la parte final en el bloque tercero cuando veamos series temporales hablaremos de forma rigurosa cómo se debe trabajar con un proceso estocástico, con una serie temporal y sobre todo llegaremos a la parte que os decía y a la que le vamos a dedicar os lo voy a enseñar en pantalla le vamos a dedicar tiempo, porque es muy relevante llegaremos en la parte final después de ver lo básico de análisis de series temporales hay bastantes cosas que tenemos que ver hablaremos de la movilización dinámica y hablaremos sobre todo de las técnicas de cointegración y es entonces cuando entenderemos estos conceptos y haremos una aproximación al concepto de causalidad ya mucho más rigurosa entonces digamos que poco a poco nos tenemos que ir familiarizando con todo esto el software nos va a ayudar muchísimo fijaros la cantidad de datos que hay en esa tabla donde pone coeficientes están las estimaciones de alfa y beta pero además de las estimaciones de alfa y beta donde pone desviaciones típicas están las desviaciones típicas de esos estimadores esos estimadores que habíamos dicho que se comportan con una distribución T de student con n-k grados de libertad pues tiene una media y una varianza esa esa variable aleatoria T de student con n-k grados de libertad pues bien aquí os damos la desviación típica de ese estimador de alfa o de ese estimador de beta por ejemplo la desviación típica del estimador de alfa es 8,88456 la desviación típica del estimador de beta es 0,317864 esas desviaciones típicas veremos más adelante que las vamos a necesitar para resolver el proceso de inferencia estadística que hay que aplicar a estos modelos de regresión es decir no vale con estimar un alfa capuchito 86,29 que sale de una muestra o un beta con el capuchito menos 1,10056 que sale de una muestra no basta con eso hay que saber si esas estimaciones puntuales que parten de esa muestra son válidas a nivel poblacional se pueden inferir a nivel poblacional y eso lo vamos a ver en la parte de la derecha donde pone valor p el valor p y los tres asteriscos ese es el resultado de un proceso de inferencia estadística que nosotros vamos a poder resolver conociendo cuál es la distribución en el muestreo de ese estimador de alfa y ese estimador de beta como sabemos que el estimador de alfa y el estimador de beta se comportan como una t de student con n-k grados de libertad eso nos va a poder nos va a permitir resolver un proceso de inferencia estadística que es responder a la cuestión de si esos resultados muestrales aplican o no aplican a nivel poblacional que es lo realmente importante bueno y muchas más cosas que tenemos aquí en la tabla aquí hay un montón de datos que tenemos que aprender a interpretar por ejemplo eso del coeficiente de determinación que no es más que el cuadrado del coeficiente de correlación lineal de Pearson y el coeficiente de correlación lineal de Pearson no es más que dividir la covarianza xy entre desviación típica de x por desviación típica de y y ya sabéis que nos daba menos 0,70 el coeficiente de correlación y al elevarlo al cuadrado nos da 0,54 ese 0,54 es una medida de la bondad de ajuste a nivel muestral y por tanto del nivel de error que estamos cometiendo al tratar de con esa recta de regresión y igual a alfa más beta x ajustarnos a una nube de 12 puntos que es la nube problema y claramente nuestra recta no se ajusta muy bien a la nube de 12 puntos no pasa por muchos de los puntos de hecho sólo explicamos el 54% de las variaciones de la variable y queda un cuarenta y tantos por ciento sin explicar pero y más cosas dentro digamos de esa tabla hay mucha información que nosotros tenemos que aprender a manejar lo primero y muy importante es el modelo económico por ejemplo si es la función de consumo keynesiana de donde tenemos que arrancar pues tenemos que arrancar de que a la derecha está la renta disponible a la izquierda está el consumo la renta disponible es más grande que el consumo la relación entre ambas ha de ser positiva la propensión marginal al consumo es un número comprendido entre cero y uno que es la derivada del consumo con respecto a la renta lo contrario de la propensión marginal al consumo la propensión marginal al ahorro es decir un consumidor que experimenta un incremento en su renta de un euro si dedica ochenta céntimos de euro a consumir cuánto dedica ahorrar pues veinte céntimos de euro en ese caso la propensión marginal al consumo sería 0,8 y la propensión marginal al ahorro sería 0,2 etcétera todos esos conceptos los tenemos que que manejar pero no sólo esto no sólo esto vamos a ver más conceptos económicos que son críticos en econometría tenemos la variable renta y la variable consumo y queremos analizar la causalidad queremos analizar la causalidad en qué medida la renta explica el consumo pero bueno podemos utilizar el concepto de propensión marginal al consumo o sea lo que es la función de consumo keynesiana de toda la vida propensión marginal al consumo o podemos utilizar otros otros conceptos que también manejamos cuando hablamos de consumo y de demanda que también os sonarán por ejemplo yo creo que a todos os suenan las funciones de copduglas que las manejamos en economía funciones de copduglas y por ejemplo cuando trabajamos con funciones de demanda e incluso de oferta es muy habitual utilizar esa metodología de copduglas en las que por ejemplo en las que por ejemplo tendríamos para una función de oferta imaginaros para una función de oferta si x es el output lo que va a producir nuestra economía nuestras empresas el output y l y k son los inputs trabajo y capital respectivamente l trabajo y k capital pues una posible función de producción con formato de función copduglas cual podría ser x que es el output igual a una constante que le podemos llamar a mayúscula esa constante a mayúscula puede representar el estado de la tecnología el estado del arte como a veces decimos que multiplica por l elevado a alfa 1 que multiplica por k elevado a alfa 2 alfa 1 y alfa 2 que serían las elasticidades del trabajo y del capital respectivamente pero de la misma forma si en lugar de función de oferta hablamos de función de demanda y una función de demanda típica depende hacer memoria del precio de los bienes de la renta del consumidor de los gustos o preferencias os acordáis verdad etc, etc, etc y trabajamos con una función tipo copduglas a la demanda como podría ser esa función si x es la cantidad demandada por parte de los consumidores a la derecha podríamos tener varias variables varios factores los gustos, etc y al ser función de tipo copduglas esos exponentes alfa 1 y alfa 2 que están representando las elasticidades no trabajamos con propensión marginal al consumo sino que trabajamos con elasticidades qué ocurre que mientras la función de consumo keynesiana es una línea recta y por tanto es una estimación lineal no hay que hacer nada más que aplicar mínimos cuadrados ordinarios si hubiésemos elegido como especificación copduglas porque preferimos trabajar con elasticidades que trabajar con propensión marginal al consumo entonces la ecuación cuál habría sido x igual a a que multiplica la renta elevado a alfa 1 que multiplica por el precio elevado a alfa 2 el alfa 1 y el alfa 2 son elasticidades pero la expresión de copduglas no es una expresión lineal no es lineal para poder aplicar mínimos cuadrados que tendríamos que haber hecho previamente linealizar la expresión de copduglas y como lo habríamos hecho pues por ejemplo tomando logaritmos neperianos logaritmo neperiano a la izquierda logaritmo neperiano a la derecha etc, etc, etc y en ese caso estaríamos trabajando con elasticidades bueno pues yo creo que hasta aquí por hoy porque son unas cuantas cosas para aterrizar unas cuantas cosas importantes importantes no sé como lo veis Miguel Ángel, Jesús Alberto que os veo aquí en pantalla hay muchos más compañeros que están conectados quién es el micro cerrado Miguel Ángel mira pues mañana mismo mi compañero Cipriano os mandará ya el correo con apuntes esta presentación que yo he manejado ahora Cipriano la enviará y no sólo este apuntes que he manejado yo sino que para poder empezar ya mañana directamente con un primer caso práctico ya mañana empezaréis con el tema del software R y todo esto os pasará también algún documento más vale si, él os explicará mañana Cipriano mañana a las 4 os explicará, es muy sencillo como instalar en el ordenador el software R y a partir de ahí seguimos trabajando yo os veo acordaros el viernes a las 4 que seguiríamos desarrollando contenido ¿de acuerdo? bueno pues nada muchas gracias a todos por asistir voy a parar aquí la grabación las 3 horas de grabación quedan disponibles y en este momento paramos la grabación ¿de acuerdo?