En el tema 4 habíamos supuesto que nuestro modelo, el modelo de regresión lineal, era clásico y contábamos, por un lado, con homocelasticidad, es decir, la varianza de los errores era constante y no tenía relación, no dependía de las variables independientes, de las X. Y, por otro lado, también suponíamos que había incorrelación de los errores. Los errores no guardaban relación entre ellos y, como digo, ahora en este tema vamos a estudiar qué sucede si realmente eso no se cumple, qué sucede si nos encontramos con un problema de heterocelasticidad, es decir, que la varianza no es constante, o un problema de autocorrelación, que tenemos errores correlacionados. Pues vamos a ello. En la primera parte del tema nos vamos a centrar en el primer problema, heterocelasticidad, y después pasaremos a la autocorrelación. Entonces, ¿qué es esto de la heterocelasticidad? Nosotros, como digo, habíamos realizado una serie de supuestos y, en este caso, el supuesto que se incumple es el de la varianza condicionada de los errores. Nosotros habíamos supuesto que la varianza condicionada de los errores no dependía de los valores determinados. La varianza de los errores era independiente de los valores de X. Estaba igual cual fuera el valor de X porque la varianza siempre era igual a sigma cuadrado. Nosotros decíamos que era constante y era igual, como digo, a sigma cuadrado. Sin embargo, es posible que esto no se cumpla y que nos encontremos con un problema de heterocelasticidad. Es más frecuente en series de corte transversal, así como la autocorrelación. Es más frecuente en series temporales, como diremos más adelante. Puede aparecer en un tipo o en otro, pero, ya digo, es un problema más habitual en series de corte transversal. Y, sobre todo, cuando tenemos muestras grandes. ¿Qué sucede? Que la heterocelasticidad realmente es más bien la norma, más que la excepción, en las series de corte transversal. ¿Por qué? Porque, como se les explica en el manual... Si estamos relacionando nivel de estudios, por ejemplo, con el salario percibido... Suponer que varía lo mismo el salario que percibe una persona con pocos estudios con respecto a otra, con pocos estudios, con un nivel bajo de estudios, de lo que varía el salario entre dos personas con un nivel de estudios elevado, es mucho suponer y, además, es una suposición que en general suele ser errónea. En general, varía más cuanto mayor sea el nivel de estudios. Hay más variabilidad en el salario que se percibe. Si comparamos, por ejemplo, a dos personas con el doctorado, posiblemente su salario haya más diferencias en el salario que perciben varias personas con doctorado de lo que varía el salario percibido por dos personas o más que tengan, por ejemplo, primaria o que no tengan estudios. Vale, entonces... Si nosotros suponemos homosedasticidad, estamos suponiendo que lo que varía en un caso y en el otro es exactamente lo mismo. Vale, y sin embargo, como digo, lo normal es que no sea así. También es cierto que hay otras causas, vale, otras causas por las que puede surgir este problema, como es que tengamos el modelo mal especificado porque nos falte alguna variable que es importante y nosotros no la estamos teniendo en cuenta o porque existan valores atípicos. Los valores atípicos eran esos valores que estaban muy separados de la media con respecto a la distancia que había entre la media y los demás valores, ¿no? Esos valores que se disparan con respecto a la media y que también nos traen problemas. Entonces, como digo, puede haber más motivos, pero estos dos, por ejemplo, son bastante importantes, ¿no? Nos falta una variable importante y no la estamos incluyendo o existen valores atípicos que nos están causando problemas de heterosedasticidad. Consecuencias de la heterosedasticidad, que la matriz de varianzas-covarianzas que nosotros, de los errores, que nosotros habíamos supuesto que era un escalar, que era simplemente igual a sigma cuadrado, ahora ya no es un escalar, quiere decir, ya no es solo una cifra, sino que ahora sí que tenemos diferentes valores en la matriz, concretamente en la diagonal. ¿Qué pasa con la heterosedasticidad? La diagonal de la matriz de varianzas-covarianzas y ahora vamos a tener distintos valores en la diagonal, ya no solo sigma cuadrado, como veremos ahora. Por tanto, recapitulando un poco estas ideas que acabamos de exponer, cuando suponíamos que había homosedasticidad, esto implicaba que la varianza de épsilon sub i condicionada a x era igual a sigma cuadrado, siempre, independientemente del valor que tuviera x, siempre era sigma cuadrado. Sin embargo, cuando nos encontramos con este problema de la heterosedasticidad, la varianza de épsilon sub i condicionada a las x toma distintos valores dependiendo de cuál sea i. Dependiendo de cuál sea i, entonces, como digo, vamos a tener distintos valores de la varianza. Y eso significa que tenemos un problema y que tenemos que solucionarlo, porque nuestro supuesto de la varianza constante era homosedasticidad, ya no lo podemos seguir manteniendo. ¿Y cómo podemos hacer? ¿Cuáles son las alternativas que tenemos para poder, digamos, escaparnos de este problema y solucionarlo? Porque, ante todo, tenemos que recordar que nosotros lo que queríamos y nuestro objetivo último siempre es realizar estimaciones de parámetros que no conocemos de la mejor manera posible. Es decir, queremos... llevar a cabo estimaciones fiables y que, por lo menos, tengan unos mínimos de calidad esas estimaciones. Si nosotros utilizábamos los mínimos cuadrados ordinarios con los supuestos que nosotros hacíamos, en principio nos asegurábamos de que, por lo menos, estábamos realizando estimaciones con unas garantías mínimas. Si ahora hay supuestos como este de la heterosedasticidad que no se cumplen, tenemos que solucionarlo de alguna forma para que nuestras estimaciones no pierdan calidad. Entonces, posibilidades que tenemos, como digo. Tenemos varias. En el manual se explican detenidamente y hay que conocer tanto una como la otra. Pero vamos a ver qué ventajas y qué desventajas tiene, como digo, una alternativa y otra. Podemos estimar los parámetros, las beta, por mínimos cuadrados ponderados. Hasta el momento siempre hemos hablado de mínimos cuadrados ordinarios. Eran los EMCO, los estimadores mínimos cuadrados ordinarios, que, como digo, para poder estimar de esa forma tenían que cumplirse todos los supuestos del tema 4. Ahora podemos, digamos, estimar por mínimos cuadrados ordinarios pero realizando una serie de transformaciones. Los mínimos cuadrados ponderados se llaman así porque realmente estamos ponderando porque dividimos por una ponderación para, digamos, solucionar ese problema de la heterocedasticidad y para conseguir que gracias a dividir por esa ponderación al final la varianza de los errores en ese modelo transformado sí sea constante. Por eso veréis en el manual que se habla de modelo transformado, que se habla de factor de ponderación, etc. Pero que sepáis que realmente la idea es quiero utilizar mínimos cuadrados ordinarios pero no ponderar. No puedo. Así directamente no puedo. Entonces, lo que hago es ponderar mi modelo por el factor que sea, por el que corresponda y de esta forma consigo que mi modelo transformado ya no tenga este problema de heterocedasticidad. Ya tiene varianza constante. Entonces, esta alternativa es más eficiente pero tiene un problema y además es un problema bastante gordo que es que necesitamos conocer la función de la varianza acondicionada porque generalmente no la conocemos. No sabemos cómo se comporta la varianza. Entonces, como no la conocemos, lo más normal es que tengamos que acudir a la segunda alternativa. Eso no significa que no tengamos que conocer esta primera. La tenemos que conocer y tenemos que saber en qué consiste esto del factor de ponderación, etc. Pero como digo, no vamos a conocer en la mayoría de los casos esta función de la varianza acondicionada. Entonces, generalmente, pues, tendremos que buscar otra alternativa que es la siguiente. Vale, ¿qué vamos a ver? Pero antes de centrarme en la siguiente, resaltar que en el manual tenéis dos casos que les denominan caso 1 y caso 2 porque hay determinados supuestos. Estoy en el apartado 6.1.1 cuando sí conocemos la función de la varianza. Hay algunos supuestos donde sí tenemos alguna idea de más o menos cómo es el patrón de la heterocidasticidad. Por ejemplo, se centra en el caso 1 de que la varianza se comporte de esta forma. La varianza de y con respecto a las x que sea igual a sigma al cuadrado por una de las variables independientes x1y al cuadrado. Si la varianza de los errores tiene este comportamiento y siempre se halla de esta forma sigma al cuadrado por el valor de x al cuadrado sub 1y, y dependiendo del y pues vamos cambiando el valor. Si se comporta así, nosotros lo sabemos, entonces, como el factor de ponderación, como veréis que se os explica, se calcula cómo la raíz de esta función dividiríamos todo entre la raíz de esta función que no es otra cosa que x sub 1y y de esta forma conseguiríamos ya un modelo transformado sin este problema de la heterocidasticidad. También podría ser que conociéramos la función de la varianza acondicionada y fuera de otra forma, en lugar de ser así multiplicar sigma al cuadrado por valores de x pues que fuese de otra manera. Pero ya digo, lo normal es que no conozcamos la función de la varianza acondicionada. Que sepamos que no es constante que no es igual a sigma al cuadrado solo que hay algo más que no es constante pero que no sepamos decir exactamente en qué consiste. De hecho, voy a volver un momento atrás es importante porque sí que lo he visto en algún test que memoricéis bien cómo se define la varianza cuando hay homocidasticidad y cómo se define cuando hay heterocidasticidad. Si os fijáis, solamente la diferencia cuando lo expresamos de esta forma es este su índice y. Pero es que este su índice implica que cuando va variando la variable va variando la varianza también dependiendo de la observación que estemos analizando. Dependiendo de la observación así es la varianza y cuando no hay el su i es constante. Parece una tontería pero realmente hay que saber identificar cuándo estamos expresando la varianza en términos homocidásticos y cuándo lo hacemos en términos heterocidásticos. Vale, simplemente me he vuelto aquí. para resaltarlo y que os fijéis porque es importante. Me vuelvo a donde estaba. Decía que generalmente no conocemos la función de la varianza acondicionada pero tenemos otra alternativa. Cuando no la conocemos podemos estimar los parámetros por MCO, por mínimos cuadrados ordinarios como veníamos haciendo hasta ahora pero luego utilizamos unos errores concretos que son los errores estándar robustos a la heterocidasticidad y en estos programas econométricos generalmente nos aparecen estos errores directamente vale, quiero decir que no nos cuesta nada utilizar estos en lugar de los errores normales que estábamos utilizando hasta ahora entonces utilizamos los errores estándar robustos a la heterocidasticidad que quiere decir que no tienen ese problema de la heterocidasticidad entonces es una solución que nos vale es menos eficiente pero nos vale porque asintóticamente proporciona valores válidos quiere decir que en el límite los valores son válidos y no tenemos que conocer la función de la varianza acondicionada que es algo importante porque ya digo, lo normal es que no la conozca hemos visto qué es la heterocidasticidad hemos visto también qué posibilidades tenemos para solucionarla pero yo realmente para saber si la tengo que solucionar o no tendré que saber primero si mi modelo sufre este problema o no ¿no? entonces, ¿qué necesito? necesito contrastes de la heterocidasticidad que me sirvan para testar el modelo y ver si realmente existe o no existe heterocidasticidad tengo varias alternativas vemos dos contraste de Breus y Paga y contraste de Wipe son muy parecidos luego os diré en qué se diferencian lo que sí también es muy importante es que tengamos en cuenta siempre cuál es nuestra hipótesis nula, porque si no después cuando nos acostumbramos a hacer contrastes y vemos los resultados en las tablas, etcétera no sabemos realmente cuál era nuestra hipótesis nula y no sabemos si nos interesa rechazar o no rechazar porque como digo es necesario recordar cuál era realmente nuestra hipótesis nuestra hipótesis nula en este caso es que hay homocidasticidad que la varianza de los errores condicionada es constante, que es igual a sigma cuadrado, entonces ¿qué implica que yo rechace la hipótesis nula? implica que no puedo asumir el supuesto de homocidasticidad y tengo que empezar a solucionar el problema de la heterocidasticidad vale, entonces como digo, tanto en uno como en otro, mi hipótesis nula es esta que nos encontramos con un modelo en el que hay homocidasticidad y si rechazo la hipótesis nula pues quiere decir que no puedo asumir este supuesto y tengo que buscarle una solución entonces realmente lo que hago es establecer una función lineal que me relacione por un lado los errores, epsilon y los epsilon al cuadrado ya sabéis que siempre tiramos de elevar al cuadrado para que no se compensen los valores negativos con los valores positivos por eso lo hacemos al cuadrado y entonces decimos epsilon sub i al cuadrado es igual a alfa sub cero más alfa sub uno por x sub uno i más las variables que sean tendríamos k variables por eso me falta el alfa aquí alfa sub k sub k sub i y más e sub i ¿por qué hago esto? porque realmente si os fijáis lo que estoy diciendo a través de esta relación es las variables independientes es decir las x me sirven como variables explicativas del error de epsilon y cuando esto es así cuando alguna por lo menos me sirve y es significativamente relevante para explicar el comportamiento de los errores cuando esto es así ¿qué tiene que pasar? que alguno de los alfas sea significativamente distinto de cero realmente esto ya lo vimos cuando utilizábamos los contrastes de significatividad cuando usábamos el contraste de significatividad la t y cuando usábamos también el contraste de significatividad la f que era el de significatividad conjunta pues aquí lo único que se hace es eso si es verdad que la nomenclatura es distinta pero la idea que está detrás es la misma yo lo que estoy haciendo es realizar un contraste de significación conjunta en el que miro si alguno de estos parámetros alfas que acompañan a las x a las variables independientes es significativamente distinto de cero podría decir que alguna de ellas es importante para explicar el comportamiento de los errores y por tanto no son independientes los errores y las x y por tanto tendríamos un problema de heterosedasticidad vale, lo que hay detrás de este contraste es esto utilizo como digo una f y si rechazo la hipótesis nula rechazo la homosedasticidad el contraste de white digamos que es el contraste de Breus y Pagan pero el contraste de white digamos que la función que establece es la misma pero incluye también no solamente las x así de esta forma de forma lineal sino que incluye las x al cuadrado por si acaso la relación también existe con las x al cuadrado y también los productos cruzados es decir cada una de las variables multiplicada por otra eso serían los productos cruzados pero realmente la hipótesis nula detrás y en sí la idea del contraste es muy parecida hay distintos ejemplos en el manual en este punto y antes de pasar a la autocorrelación que son muy interesantes no solamente por el tema de la heterosedasticidad sino que aprovechan para hacer un repaso del tema de los logaritmos cuando tenemos logaritmos en las x y no los tenemos en las y etcétera y que como digo es bastante interesante para entender y repasar un poco lo que ya vimos en los temas anteriores en el ejemplo que se centra en la esperanza de vida en el nivel educativo y de ingresos como digo tenemos un logaritmo por ejemplo en la variable ingresos una de las variables independientes y eso significa que como no lo tenemos en la variable dependiente en la i en este caso en la esperanza de vida pues cuando interpretamos el coeficiente que va acompañando a los ingresos tenemos que dividir entre 100 esto todo como digo es repaso del tema 2 pero ya aprovechan también para hacer un repaso aquí de lo anterior y como siempre en este caso el valor empírico que se obtiene al calcular el estadístico en este caso por ejemplo es mayor que el valor crítico y siempre que esto pasa que nuestro valor estadístico es mayor que el valor crítico pues rechazamos la hipótesis nula y entonces si tendríamos muestras o signos de que el modelo es heterocedástico entonces es cuando pasamos a lo que acabamos de ver hace un momento de solucionar el problema vale o bien con mínimos cuadrados ponderados o bien estimando por MCO pero utilizando los errores estándares robustos a la heterocedasticidad esto con respecto como digo a la heterocedasticidad ahora tenemos que analizar el otro problema en el que se centra este tema la autocorrelación la autocorrelación es distinta supone que no se cumple que la muestra sea aleatoria si recordáis cuando hablábamos de muestras aleatorias decíamos que las observaciones eran independientes todas las observaciones eran independientes entre ellas la autocorrelación implica que si hay relación entre las distintas observaciones hay correlación entre alguna por lo menos y así como la heterocedasticidad era un problema fundamentalmente que se daba con series de corte transversal este sin embargo es un problema más frecuente en series temporales ¿por qué? pues porque es normal es bastante frecuente que los datos temporales sigan patrones cíclicos sobre todo cuando hablamos de un periodo bastante corto o cuando la separación entre una observación y otra es pequeña imaginaos que estamos hablando de datos diarios datos mensuales datos semanales la separación entre una observación y otra es pequeña y es normal que haya relación pues pensad entre lo que cobro este mes y lo que cobro el mes que viene es que es normal que haya relación entre una observación y otra son independientes lo normal es que haya relación e incluso pensad por ejemplo en el caso de los ingresos imaginaos un hotel a pie de playa en las islas baleares que claramente en la época alta en los trimestres de temporada alta pues los ingresos van a ser sistemáticamente y cada año más elevados y en temporada baja van a ser inferiores y año tras año va a suceder que se va a repetir ese comportamiento lo contrario sucederá en aquellos hoteles que estén situados en la montaña que dependan del esquí pues el comportamiento será cíclico también pero llevará otro sentido y serán más altos los ingresos en la época invernal entonces con este ejemplo se ve bastante fácil a qué nos estamos refiriendo cuando hablamos de autocorrelación hay observaciones que no son independientes y eso ¿cómo lo traducimos en términos matemáticos en el lenguaje econométrico? pues cuando suponemos que hay incorrelación de los errores quiere decir que las observaciones sí que son completamente independientes y quiere decir que la correlación entre por ejemplo y dos errores de dos observaciones diferentes al valor de las x es cero no hay relación eso sucedía cuando como digo suponemos incorrelación pero cuando nos surge el problema de la autocorrelación sí hay relación entonces las covarianzas entre los errores ya no van a ser cero ahora ya no van a ser cero por eso os establezco que esta correlación entre ese los ut y ese los us condicionada a las x es distinta de cero si hay relación como digo entre unos datos y otros entre unas observaciones y otras entre unos errores y otros vale entonces tenemos también que intentar solucionarlo y se juntan estos dos problemas en el mismo tema porque la solución que se da es bastante parecida en un caso y en otro y las causas incluso también no todas pero también hay causas que coinciden por ejemplo el caso de las series temporales por la propia inercia de los datos que a veces es normal cuando os hablaba hace un poco del salario mes a mes es normal que los salarios sean parecidos pero también si tenemos sesgos de especificación en el modelo es decir, si hemos excluido una variable relevante como también pasaba con la heterocedasticidad puede provocarnos autocorrelación también si incluimos algún tipo de variable retardada una variable retardada es aquella, imaginaos si nuestra variable dependiente es i puede ser que utilicemos como variable explicativa bueno estaríamos hablando de i en t pues nuestra variable retardada sería i en t-1 es decir, son los datos de i pero un momento o sea un momento temporal hacia atrás si yo quiero explicar el comportamiento de i en t pues utilizo como variable explicativa i en t-1 es decir, el valor de i pero en el momento temporal anterior cuando uso variables retardadas también es frecuente que haya autocorrelación y cuando se ha producido algún tipo de manipulación en los datos pues también puede surgir entonces como digo nos surge el problema ya sabemos en qué consiste el problema y ahora tenemos que buscarle solución a la heterocidasticidad y ya digo, el planteamiento es similar ¿qué puedo hacer? puedo o bien estimar los parámetros beta por MCP que vuelve a ser más eficiente pero necesitamos conocer el factor de ajuste y lo normal es que no lo conozcamos o también puedo estimar los parámetros beta por MCO y luego utilizar los errores estándar robustos a la autocorrelación lo denominamos AC por las siglas en inglés que lo que nos dice es que son consistentes, de ahí la C a la heterocidasticidad y a la autocorrelación por eso lo de HAC consistentes a los dos problemas vuelve a ser esta alternativa pues válida nos sirve digamos menos eficiente que la anterior pero nos sirve porque asintóticamente nos sirve y no tenemos que conocer el factor de ajuste ya digo más o menos es similar a lo que vimos con la heterocidasticidad para contrastar la autocorrelación también igual que vimos con la heterocidasticidad necesito saber si mi modelo sufre o no este problema para saber si tengo que llevar a cabo algún tipo de medida para solucionarlo entonces dos contrastes que vamos a ver el contraste de Darwin y Watson y por otro lado el contraste de Breus y Golfe ¿cuál es en este caso mi hipótesis nula? pues en este caso mi hipótesis nula vuelve a ser otra vez que no existe problema es decir, que no hay autocorrelación que tenemos unos errores incorrelacionados mi hipótesis nula lo que me dice es que rho es igual a cero aquí rho tiene como una especie de tilde ignorarla no sé porque en el editor de ecuaciones no encontraba rho sin esa especie de tilde simplemente el símbolo tal cual lo tenéis en el manual como digo sin esa marquita rho es igual a cero es decir, no hay autocorrelación y mi hipótesis alternativa lo que me dice es que rho es distinto de cero y que hay autocorrelación de primer orden y ahora explico qué es esto, la autocorrelación de primer orden lo que estamos estimando es mi error en t es igual a rho también estimado por mi error en t-1 también utilizamos los estimados y más e sub t ¿qué estamos haciendo? al igual que hacíamos en la heteroscedasticidad que comparábamos intentábamos explicar epsilon en función de las variables x, las variables independientes o explicativas lo que intento hacer es voy a construir una regresión donde para explicar el comportamiento de epsilon utilizo epsilon en t-1 y voy a ver si rho es significativamente distinto de cero o no por eso se dice que solamente estamos testando la autocorrelación de primer orden porque solamente tiene en cuenta como variable explicativa el error en t-1 si lo que influyera sobre epsilon es el error en t-2, en t-3 en t-4 no nos serviría el contraste de darwin y watson tendríamos que utilizar el contraste de breus y godfrey sobre el que luego iré entonces esto es lo que se denomina R1 autocorrelación de primer orden y solamente me sirve para testar este tipo de autocorrelación si rho es significativamente distinto de cero quiere decir que si me sirve el error en t-1 para explicar el comportamiento del error en t y entonces quiere decir que hay relación entre ellos ¿qué sucede? limitaciones de darwin y watson que solamente me sirve como digo para la autocorrelación de primer orden que hay zonas de indecisión porque si os fijáis hay zonas, nosotros con el darwin y watson obtenemos dos valores un límite inferior y un límite superior y entonces hay que saber cómo mirar las tablas para saber comparar nuestro valor de rho con esos límites superior e inferior y así determinar si tenemos autocorrelación positiva autocorrelación negativa o si estamos en alguna zona de indecisión que como digo en esas zonas no podemos decir si hay o no autocorrelación lo que sí es que tenemos un valor de rho positivo entonces dependiendo del valor en principio tenemos autocorrelación positiva y si rho es negativo la autocorrelación es negativa pensar que puede ser que el error en t-1 influya positivamente en el error en t o influya negativamente por eso podemos tener las dos opciones como digo lo que necesitamos es tener en cuenta otros momentos del error es decir, en t-2, en t-3, en t-4 entonces me voy al contraste de Breus y Godfrey donde la expresión que construyo en lugar de tener solamente un rho por epsilon en t-1 tendría rho sub 1 por epsilon en t-1 rho sub 2 por epsilon en t-2 y así sucesivamente tendría q variables y entonces de esta forma mi hipótesis nula lo que me está indicando es que todos tienen que ser igual a cero para que se cumpla que no hay autocorrelación es decir, que hay incorrelación y mi hipótesis alternativa es que alguno de ellos por lo menos sea distinto de cero y entonces habría autocorrelación entonces como digo realmente es parecido el proceder es parecido en Darwin y Watson y en Breus y Godfrey pero con la diferencia de que uno solamente me sirve para la autocorrelación de primer orden y el siguiente me sirve para autocorrelación de distintos órdenes no solamente de primer orden hasta el momento cuando hablaba de cómo solucionar el problema de la autocorrelación decía que una de las alternativas era emplear los MCP los mínimos cuadrados ponderados como aclaración porque en el manual os aparece en el 6.2.4 en el apartado 6.2.4 se os especifica que cuando nosotros utilizamos mínimos cuadrados ponderados lo que estamos haciendo es utilizar un caso concreto de lo que se denominan los mínimos cuadrados generalizados ya no son mínimos cuadrados ordinarios como hablábamos hasta ahora sino que hablamos de mínimos cuadrados generalizados y en ese apartado os aparece cuando tenemos homocelasticidad y autocorrelación de primer orden os aparece el caso concreto de la transformación que suele ser la más usual de Croissant y Orkut de cómo hay que ir transformando el modelo cuando tenemos autocorrelación de primer orden para poder eliminar ese problema hay también una serie de ejercicios el 20 y el 21 concretamente que son también bastante interesantes sobre todo porque como digo suelen ser bastante recopilatorios intentan aprovechar para repasar cosas de temas anteriores y siempre está bien este tema al principio se acabaría aquí y como os comentaba al principio de todo el tema 7 espero grabarlo la semana que viene o la siguiente en el grupo de turismo y entonces os podría pasar el link os avanzo un poco en qué consiste si queréis ya mirarlo lo mejor es que vayáis avanzando lo máximo posible para no iros atrasando habla de las variables explicativas dicotómicas esto qué significa ya digo solamente como una mini introducción porque cuanto más podáis avanzar mejor hay veces y hasta ahora lo hemos estudiado de esa forma que las variables que utilizamos como explicativas como x por ejemplo el salario entonces hablamos de 500, 600, 1000 hablamos de como digo cifras numéricas es cuantificable el salario sin embargo muchas veces tenemos que utilizar variables explicativas que no son cuantitativas o numéricas sino que son cualitativas pues por ejemplo el sexo cuando queremos utilizar en una regresión el sexo como variable explicativa porque muchas veces supone una diferencia en el comportamiento de la variable explicada pues entonces tenemos que introducirlo de alguna manera y eso no lo podemos cuantificar tenemos que buscar algún tipo de solución también el nivel de estudios hay distintas formas de incluir el nivel de estudios el lugar de nacimiento por ejemplo yo no puedo poner en mi modelo España y que eso directamente me sirva como variable explicativa tenemos que como digo buscar algún tipo de solución y eso concretamente es lo que trata de explicar el tema 7 que se denomina variables explicativas dicotómicas se les llama de muchas maneras artificiales, dicotómicas binarias, dummies tienen un montón de nombres vale que si que es bueno que conozcáis en este tema se utilizan distintas denominaciones pero de lo que se trata es de buscar una solución para incluir estas variables y solo como avance deciros que por ejemplo podríamos optar pensad en el caso que os acabo de decir que el lugar de nacimiento pues lo quiero incluir de alguna forma imaginaos que tengo dentro de mis observaciones que proceden de Europa por ejemplo otras de África y otras de América y creo que eso puede influir en el comportamiento de la variable por cualquier cosa de la variable explicada pues lo que podría hacer es utilizar una variable que tome vamos a hacerlo más simple porque es solo como introducción solamente Europa y África pues entonces podría ser que Europa cuando la persona procede de Europa esa variable que incluyo tome el valor cero y cuando la persona procede de África esa variable tome el valor uno lo que quiere decir que el coeficiente que va a acompañar a la variable solamente va a influir cuando la persona es africana y cuando es europea tomaría el valor cero como digo ya se verá con más calma pero de lo que se trata se llaman dicotómicas porque de lo que se trata generalmente eso cero, uno dependiendo de cuantas estemos teniendo en cuenta si solamente tenemos hombre, mujer o por ejemplo eso Europa, África toma valor cero, valor uno eso lo tenemos que acordar desde el principio ver cuando va a tomar el valor cero y cuando va a tomar el valor uno para después poder interpretarlo pero si lo hacemos así podremos interpretarlo e incluir como digo estas variables son importantes y es un tema la verdad que si que nos soluciona después la inclusión de variables explicativas, cualitativas que sino de otra forma tendríamos que obviarlas y muchas veces son fundamentales para entender muchas cosas entonces como digo eso simplemente como introducción al tema y la semana que viene si al final el siete lo grabo en el otro grupo veríamos el tema ocho y si al final no lo puedo grabar vemos el siete y miramos a ver también de ir avanzando lo más rápido posible mucho ánimo con el estudio y nos vemos entonces la semana que viene que paséis una buena semana