Muy buenas tardes, bienvenido y feliz año. Vamos a ver el último tema que me corresponde a mí de la asignatura. Nombre que, por si hay alguien que haya acudido por vez primera, Juan Ignacio Domínguez del Centro Asociado de Málaga. Y vamos a ver esta tarde el tema 10, que es un tema más bien de tipo numérico, es decir, tal como dice el título del tema, el análisis descriptivo de las distribuciones de probabilidad y la idea, aquí tenéis en la primera diapositiva exactamente tal como viene resuñado en el libro de texto. Nos vamos a dedicar a intentar resumir la información de una distribución de probabilidad de una variable discreta mediante unas ciertas características numéricas. Ya conocemos una de ellas, muy importante, que fue el tema 9, que también lo estuve yo explicando, que era la esperanza matemática. Pero, lógicamente, hay más, hay más características numéricas que pretenden intentar resumir toda la información de una distribución en unas cuantas características numéricas. Bien, como suelo hacer, vamos a dividir el tema en tres partes. En una primera parte vamos a analizar un poco los fundamentos teóricos con el objeto de tener algunas herramientas y fundamentos, valga la redundancia, con el objeto de poder abordar con éxito los problemas. En una segunda parte veremos problemas de exámenes, problemas del libro de texto, generalizaciones incluso. Y en una tercera parte, una serie de ejercicios y problemas que aunque estén más o menos resueltos, yo los propongo para que lo resuelvan. Bien, la idea es considerar estas características numéricas, las vamos a dividir como en dos bloques. Primero, para las variables unidimensionales, que es esta diapositiva, y partimos de una distribución discreta, y vamos a resumir la información. El concepto fundamental sobre el cual trabajamos es el concepto de los momentos. Hay como dos grupos de momentos, los momentos ordinarios, que se suelen poner con la letra m o alfa según los textos, sus k, que corresponde a la suma de los valores de la variable por sus probabilidades pero la variable elevado a k. Para k igual a 0, 1, 2, 3, etcétera. Observar que para k igual a 0, la suma de las probabilidades vale 1 y para k igual a 1 es la esperanza matemática. Para k igual a 2 sería la suma de los cuadrados, de los valores cuadrados de la variable, etcétera, etcétera. En la página 192 hay una proposición muy interesante y es que si existe el momento ordinario de orden k, la demostración es bastante fácil e interesante, entonces existen todos los momentos ordinarios de orden inferior a k. Y después hay un segundo bloque de momento que son los momentos centrales. Estos momentos centrales, que suelen expresarse con la letra m u sus k, corresponden a la idea de la esperanza de la variable menos su media elevado a k. Aquí falta un corchete, lógicamente, de igual. Es decir, x n menos m su 1, que es el momento ordinario, o la esperanza matemática elevada a k, por las probabilidades asociadas a esa distribución distinta. Para k igual a 0, m u su 0 vale 1, 2, 3, etcétera, etcétera. Para k igual a 1 el momento no aporta nada y el primer momento central que da alguna información es el momento central de segundo orden, que es la variable menos su media al cuadrado por sus probabilidades asociadas. Eso es la varianza. Se suele escribir con la letra v o v a r de varianza o sigma cuadrado fulg. Observar que también en los momentos ordinarios el momento más pequeño que da alguna información, es el momento m1. Mientras que en los centrales, el momento más pequeño que da información es el momento m2, que es precisamente la varianza. Llegado a este caso, lo importante es ver si yo he estado comentando que hay características numéricas que son las que vamos a intentar describir las probabilidades, las distribuciones, hay como dos bloques de características numéricas. Una que son las medidas de centralización, y otra que son las medidas de dispersión. Una medida de centralización dice bien poco, por ejemplo la esperanza matemática, si no va acompañada de su correspondiente medida de dispersión como es la varianza. Porque la varianza lo que mide es la distancia de cada uno de los valores respecto de ese valor central que es el que nos representa. En este caso es la media, pero podemos observar que podemos construir otras medidas tanto de centralización, como es la esperanza matemática, ahora veremos otra, como medidas de dispersión. Después hay otro grupo de medidas, que son medidas de posición que están referenciadas a la función de distinción. Bien, en la página 193 hay una relación entre los momentos centrales y los momentos ordinales. De tal manera que si existe el momento de orden k, existen todos los momentos de orden inferior a k y por lo tanto existen todos estos momentos, son finitos cuando digo existen, me refiero a la existencia de la serie que sería absolutamente convergente, entonces existe el momento central de orden k. Es fácil observar que la varianza se puede expresar como el momento ordinario de segundo orden menos el momento de primer orden elevado al cuadrado, es decir, la media al cuadrado. Hay otras medidas, por ejemplo, de dispersión, como le pasa a la varianza, la varianza sí posee unidades, la varianza es no negativa, una varianza nula igual a cero significa que todos los valores están centrados en un mismo valor, es como si con probabilidad 1 la variable tomase un solo valor y por lo tanto observar o poder construir que entonces la varianza vale cero. Hay otra medida que no posee unidades y que es invariante por homotecia que es el coeficiente de variación, que es el cociente entre la derivación típica que es la raíz cuadrada de la varianza como bien lo habéis observado en el libro, con valor positivo siempre en la derivación típica partido por el valor absoluto de la esperanza matemática. Es interesante porque no posee unidades y este coeficiente de variación permite comparar distribuciones distintas, por ejemplo, el coeficiente de variación de una variable x de una distribución asociada a una variable x y el coeficiente de variación asociado a otra variable y. El teorema de Kony, lo que viene a decir es que la dispersión es mínima cuando se mide alrededor de la media, es decir, la función Q de A para cualquier valor real esta función que es la esperanza de x-a al cuadrado alcanza el mínimo, es fácil demostrar cuando esta constante A es precisamente la esperanza matemática. Y la desigualdad de Chebysche basada en el teorema general de cotación que lo podéis ver también en el libro lo que propone es cómo calcular la probabilidad de un suceso conociendo solamente dos características numéricas que son las más populares la esperanza matemática y la desviación típica. Para cualquier valor de K estrictamente mayor que cero la probabilidad de que la variable menos su media en valor absoluto sea el mayor que K veces la desviación es como máximo el inverso de K al cuadrado. Ejercicios de esto podéis ver en el libro y no tienen mayor dificultad. Este teorema general de cotación lo que dice es que si la variable es arbitraria y f es una función no negativa y existe la esperanza de f por ejemplo, f podría ser x al cuadrado o cualquier función no negativa entonces la probabilidad de que la función f que es otra variable sea estrictamente mayor que c es como máximo la esperanza de f partido por c. Hay otras medidas como son las medidas de simetría y de apuntamiento. Las más populares es el coeficiente de asimetría momento central de orden 3 partido por la desviación típica elevado al cubo y el coeficiente de apuntamiento que se refiere al momento de orden 4 y la varianza al cuadrado o sigma elevado a la cuarta menos 3 La referencia de menos 3 es porque este cociente para la distribución normal la famosa campana de Gauss vale 3 y por lo tanto este apuntamiento lo que hace es compararlo si es más aplastada, menos aplastada o igual aplastada que la normal. Comentarios de esto lo podéis ver en el video. Vamos a generalizar ahora supongamos que ahora vamos a trabajar con una distribución bidimensional lo mismo para una tridimensional y una distribución n-dimensional pero nosotros para el caso bidimensional es suficiente el momento ordinario de orden rs es igual a la esperanza matemática de x elevado a r por y elevado a s cuando uno de los dos subíndices rs vale cero entonces tenemos los momentos ordinarios unidimensionales lo que yo llamaba en los temas anteriores la distribución máxima de igual manera el momento central bidimensional la variable x-1 media elevada a r la variable y-1 media elevado a s, eso multiplicado de igual manera para los valores r o s iguales a cero obtenemos la varianza de x quizás la característica numérica más importante en las distribuciones bidimensionales es la covarianza que es el momento de primer orden 1,1 central por lo tanto la esperanza del producto siguiente la variable y-1 media por la variable y-1 media operando de manera trivial obtenemos que la covarianza que mide la variación conjunta entre dos variables es igual a la esperanza del producto x por y que es el momento ordinario m1,1 menos la esperanza de x por la esperanza de y ¿qué problema tiene la covarianza? pues la covarianza igual que le pasaba a la variante que posee unidades posee unidades y viene afectada tanto por una traslación como por una homotecia de ahí se define el coeficiente de correlación lineal o coeficiente de Pearson o coeficiente de correlación simplemente rho que es el cociente entre la covarianza partido por el producto de las desviaciones típicas podéis comprobar que es lo mismo que calcular la covarianza de las variables tipificadas xt significa tipificada y dt recordar que una variable tipificada es la variable x menos y-1 media partido por su desviación ¿qué propiedades tiene el coeficiente de correlación? pues las más importantes son las siguientes primero no posee unidades esto es importante lo que va a permitir es comparar entonces coeficiente de correlación entre variables de distribuciones distintas al no poseer unidades y está acotado entre menos uno y uno cuando la covarianza es cero entonces la correlación rho es cero y decimos que las variables están incorreladas por lo tanto rho vale cero y si las variables son independientes se puede demostrar en el tema de independencia la esperanza del producto es el producto de la esperanza entonces las variables son incorreladas pero no necesariamente al revés es decir, la independencia se explica subrayándolo la independencia implica incorrelación pero la incorrelación no necesariamente implica una independencia bien como ahora veremos en el ejemplo siguiente supongamos una variable x que toma tres valores el menos uno con probabilidad p el cero con probabilidad uno menos dos p y el valor uno con probabilidad p y definamos la variable y igual valor absoluto de x entonces podéis observar es un simple ejercicio yo pongo el resumen lo podéis reconstruir íntegramente que la esperanza de x vale cero la varianza de x es dos p porque si la media vale cero entonces la distribución de y como y es el valor absoluto entonces x igual a menos uno y x igual a uno se asocian a y igual a uno entonces la esperanza de y es dos p y la varianza de y es dos p por uno menos dos p simplemente la conjunta la podéis tener aquí simplemente a través de la condicionada y en definitiva la covarianza de x y de y vale cero y por lo tanto el coeficiente de correlación vale cero es decir, las variables son incorreladas pero no son independientes porque más dependencia funcional que existe que es igual al valor absoluto de x por lo tanto es importante tener en cuenta este marco ahora, cuando podemos asegurar la relación entre independencia e incorrelación cuando tenemos variables dicotómicas de tipo Bernini aquí tenéis una variable x que toma el valor de x dividido y una variable y que toma el valor de 1 dividido lo que hay dentro de cada una de ellas la probabilidad asociada es decir, por ejemplo a es la probabilidad de que x sea igual a x1 y de que y sea igual a y1 es decir, las distribuciones conjuntas y la suma de esta columna y la suma de esta fila corresponde a las distribuciones marginales la esperanza de x la podéis calcular perfectamente por ejemplo x1 por p1 más x2 por q1 la esperanza de y de igual manera y1 por p2 más y2 por q3 la esperanza del producto etcétera y tenemos al final la covarianza ¿cuándo la covarianza valdría cero? cuando la esperanza del producto es el producto de la esperanza si nosotros resolvemos esta ecuación entonces tenemos que la única solución es que a sea igual a p1 por p2 siempre y cuando que las variables x1 sean distintas de x2 porque si son iguales la varianza sería nula entonces, sustituyendo a igual a p1 por p2 obtenemos que las variables son independientes por lo tanto esa covarianza igual a cero implica en este caso la independencia avanzamos tenemos el coeficiente de correlación obtenido a través de la covarianza bien, pues la matriz de varianza y covarianza juega el mismo papel que la varianza de una variable unidimensional se suele llamar también la varianza generalizada esta es una matriz cuadrada en donde en la diagonal principal aparecen las varianzas de las variables marginales y la varianza de x y la varianza de y y en la diagonal secundaria aparece la covarianza de xy y la covarianza de yx que son las mismas es decir, la covarianza de xy y la covarianza de y y de x son exactamente las mismas la demostración de que es una matriz semidefinida positiva y simétrica la podéis ver en el libro del texto además, decir que el coeficiente de correlación vale más uno o el coeficiente de correlación lo que nos dice es que hay una relación funcional de tipo lineal entre las variables x y y porque en realidad el coeficiente de correlación o la covarianza lo que mide es qué posibilidad de dependencia lineal hay entre las variables, de tal manera que tendríamos una dependencia máxima con una recta creciente si rho vale uno y una dependencia máxima con una recta decreciente una pendiente negativa si rho vale menos uno porque rho tiene el mismo signo que la covarianza a partir de aquí nos podemos plantear si la posibilidad de predecir un valor de la variable en función de la otra mediante la llamada recta de regresión la recta de regresión de y sobre x que podéis ver la demostración en el libro de texto por lo tanto no insisto más la tenéis aquí la estimación de y, por eso pongo y gorro menos la esperanza de y e igual a la covarianza partido con la varianza de x de ahí tenemos y como función de x con una varianza residual que sería como el error que yo cometo, este error que se comete al sustituir la aleatoriedad de las variables x e y mediante una recta es decir, hablamos de pasar de una dependencia estadística a una dependencia matemática esta dependencia matemática es esta relación funcional que es una recta, cometemos un error, este error es la varianza de y por uno menos ro cuadrado por eso si ro vale uno o si ro vale menos uno la varianza residual vale cero mientras que si ro vale cero, que son las variables incorregadas la varianza residual toma el valor máximo que es la varianza de la variable y que es la que se pretende estimar a través de la información que nos da la variable x de una manera dual tenemos la otra recta x condicionada a y es decir, x como función de y lo único que hay que hacer es intercambiar los apenes de las variables x e y, hay que tener cuidado porque y como función de x no significa que la regresión de x condicionada a y es despejar aquí la x en función de y ni mucho menos ¿de acuerdo? por eso aquí aparece también la x otra cosa es que yo despeje la y para que en un diagrama cartesiano lo represente estas son las rectas, las llamadas curvas de regresión las vimos incluso en el tema anterior de la esperanza matemática son las esperanzas condicionadas la curva de y sobre x es la esperanza de y dado x para cada valor de x y la otra curva es la esperanza de x dado y aquí como los valores de x son valores de una variable discreta, en realidad no tenemos una curva aunque le pongamos la letra c de curva y se le llame curva, es una polimonar, cuando veáis asignaturas ya más avanzadas en cálculo de probabilidades con variables contínuas tendremos una curva auténtica una función que no va a salto o polimonar como ocurre en este caso bien, otros indicadores de posición tenemos la moda que es aquel valor de la variable para el cual la probabilidad asociada a su distribución es máxima hay un problema de hace uno o dos años en donde se pedía la moda de la variable, la mediana es aquel valor que suele escribir con la letra m o m sub e de mediana aquel valor tal que la probabilidad de x menor o igual que m mayor o igual que un medio y la probabilidad de x mayor o igual que la mediana es mayor o igual que un medio es decir, cuando un poco antes de la mediana es menor o igual que un medio y un poquito después de la mediana es mayor o igual que un medio la mediana puede ser que no sea única sobre todo en el caso de variables discretas ¿qué propiedades tiene la mediana? pues fijaros, nosotros hemos visto en el teorema de poni que el mínimo de x-a al cuadrado se alcanza en la esperanza matemática y este valor mínimo se llama varianza si en lugar de tomar la desviación al cuadrado tomamos la desviación en valor absoluto el valor mínimo que hace a la función d es cuando a es igual a la mediana y este valor mínimo se llama la desviación mediana, la demostración la podéis ver en el libro también y una generalización son la desviación media y la desviación mediana la desviación media es cuando en lugar de a la mediana ponemos la media, entonces tenemos d de mu que es la esperanza de x-u en valor absoluto o la desviación mediana que es cuando en lugar de a pongo m mayúscula que es la mediana y entonces tenemos la esperanza de x-u mediana en valor absoluto la generalización de la mediana son los cuantiles que nos podéis ver aquí y que no ofrece mayor dificultad ejemplo 3 lanzamos dos dados y se observan sus resultados aquí hay un equilibrio tenemos que calcular la desviación mediana la meda de la variable aleatoria rango, el rango es la diferencia entre el máximo y el mínimo es fácil observar que el máximo menos el mínimo es x1-x2 en valor absoluto de los posibles 36 casos que hay al desviar los dos dados tendremos que la variable x rango toma los siguientes valores 0, 1, 2, 3, 4 hasta 5 si sale el primer dado 5 y el otro dado 5 la variable x toma el valor 0 pero si sale 6 y 1 la variable toma el valor 5 o si sale 1 y 16 también toma la variable x igual a 5 aquí tenéis las probabilidades que no tienen mayor dificultad y vamos a calcular la mediana si nosotros sumamos la probabilidad de x menor o igual que 1 es menor o igual que un medio es 16 partido de 36 y menor o igual que 2 ya es superado un medio por lo tanto la mediana es m igual a 2 y la esperanza matemática haciendo simplemente operaciones es 1,94 aproximadamente que es más pequeño que la mediana ¿cuál es la desviación mediana? pues ahora definimos una nueva variable igual a x menos 2 en valor absoluto que es la mediana ¿de acuerdo? construimos ahora esta nueva variable con estas distribuciones en donde tenemos que rescatarla de la variable x que es el rango no tiene mayor dificultad de igual manera observamos que para y menor o igual que 0 es menor o igual que un medio y para y menor o igual que 1 es mayor o igual que un medio por lo tanto la mediana de la variable y es 1 con lo que la meda de la variable x es 1 mientras que la desviación mediana simplemente haciendo operaciones de partido por 6 que es estrictamente mayor que la meda acordaos que la meda es una medida que se trabaja con dos medianas es la mediana de las desviaciones de la variable respecto de su mediana en valor absoluto bien, esto es un ejercicio teórico que yo os propongo que lo hagáis cojamos la distribución geométrica aquí la tenéis el libro viene os doy la distribución de probabilidad los posibles son numerables q es igual a 1 menos p tenéis que demostrar que la desviación media vale esto donde está la parte entera y la desviación mediana vale esto en donde tu insisto y en general la desviación respecto de un valor t cualquiera este t para la mediana vale esto y este t para la mediana o esperanza matemática vale esto tenéis un poco que demostrar como ejercicio bien pues ahora terminamos viendo una propiedad muy interesante aquí tenéis las distribuciones condicionadas la esperanza condicionada de la variable i por lo tanto sumo en j y sub j por la probabilidad de i condicionada a x sub y la esperanza de x por i como puedo calcular la esperanza de x por i que era el momento ordinario acordáis en 1 que se puede calcular aquí tenéis la demostración como la esperanza de x por la esperanza de i condicionada a x esto facilita mucho los cálculos a veces cuando el cálculo directo de la esperanza de x por i es un poco engorroso complicado o largo en realidad nos basamos en un teorema que yo insistí mucho que es el teorema de la probabilidad total para esperanza matemática de igual manera la covarianza entonces la podéis calcular de esta manera la covarianza de x y es la covarianza de x del lugar de i la esperanza de i la demostración la podéis ver aquí y te simplifica bastante los cálculos en ciertas situaciones bien esto sería esta primera parte que la del fundamento teórico le he añadido algunos pequeños ejercicios para aclarar vamos a entrar ya en una serie de problemas o ejercicios como yo siempre suelo poner para los que hayáis venido o entréis en el repositorio de temas siempre le pongo un titulo al planteamiento del problema para que uno se haga la idea de que vamos a tratar el problema se lanza n veces una moneda con probabilidad de salir cara y según el número de caras que le llamamos x se lanza igual número de veces la misma moneda si ese número de caras obtenida en este segundo experimento te pide obtener la distribución conjunta probar que sigue la distribución binomial que ya lo vimos en el tema anterior calcular el número esperado obtener la curva general de regresión y el coeficiente de correlación y obtener las distribuciones condicionadas a la otra, la de x dado y y la esperanza condicionada bien, datos del problema como yo siempre suelo poner primero, lanzo n veces con probabilidad de cara si saco x cara la variable y condicionada a x es también una binomial el número de lanzamiento es x que está condicionado por el lanzamiento anterior y como es la misma moneda por probabilidad aquí la y como máximo toma el valor x que es el número de veces que lo arrojo por lo tanto la conjunta es igual a la condicionada por la marginal la marginal es n sobre x p elevado a x, q elevado a n-x y esta es la condicionada de x veces que tiro por lo tanto haciendo operaciones aquí tenéis la distribución conjunta con los valores posibles la y como máximo toma el valor x y como mínimo el valor 0 correspondiente vimos en el tema anterior que ahora al marginalizar sumo la distribución conjunta elimino la x por lo tanto la x varía desde x igual a y hasta n si sumo esta conjunta obtenemos esta distribución conjunta que es una binomial de parámetro n pero de probabilidad de éxito p al cuadrado por lo tanto la esperanza de y que es la esperanza de y dado x es igual a n por p al cuadrado en realidad ya sabéis la media de una binomial es el producto de los dos parámetros como la curva general de regresión que es la esperanza condicionada lo hemos visto en la diapositiva anterior es una recta porque la esperanza de y dado x es p por x vamos a ver la pendiente vemos que la pendiente de la recta es p pero la pendiente de la recta en el esquema teórico anterior es la covarianza partido por la varianza de x como esto vale p la covarianza entonces vale p por la varianza de x pero la varianza de una binomial es p por 1-p por lo tanto tenemos que la covarianza del primer lanzamiento y del segundo lanzamiento es p al cuadrado por q y por n por lo tanto la covarianza de y la conocemos por ser una binomial de parámetros p al cuadrado y n pues tenemos p al cuadrado por 1-p al cuadrado que juega el papel de q y por n por lo tanto el coeficiente de correlación covarianza partido producto de las desviaciones es la raíz cuadrada positiva de p partido 1 más p raíz cuadrada positiva porque la covarianza es positiva también podríamos haber utilizado lo que he estado comentando en la diapositiva número 11 bien, la otra distribución condicionada de valles, vosotros lo veis yo también estuve con vosotros trabajando el tema de valles y haciendo una serie de operaciones tenéis aquí también la distribución condicionada de x dado y que también es una binomial por lo tanto la esperanza matemática de nuevo es una recta comprobar si queréis yo he calculado las dos esperanzas condicionadas pero ahora lo que podéis hacer es con los datos del problema calcular a pelo directamente las dos rectas de regresión y observar como estas dos coinciden con las esperanzas condicionadas, es un ejercicio que os va a venir bien para coger destreza veamos otro problema tenemos una urna con n mayúscula bola numerada del 1 al n se traen dos bolas con reemplazamiento vamos a llamar x el máximo valor obtenido e y la mínima puntuación vamos a calcular la distribución conjunta y las marginales del máximo y del mínimo calcular las medias y las varianzas y el coeficiente de correlación fijaros que en el apartado A ya tenemos las características numéricas que es el título del tema y que en cierta manera es lo más importante del tema que nos ocupa esta tarde y en el apartado B también la segunda parte del tema que es importante que son las dos rectas de regresión y si queréis las dos curvas generales porque ha sido un sitio de ejercicio para manejaros bien en las esperanzas condicionadas que implica calcular las distribuciones condicionadas lo primero a darse cuenta es que aunque las extracciones sean con reemplazamiento la variable máximo y la variable mínimo no son independientes vamos a llamar x1, x2 el resultado de las dos extracciones entonces x es el máximo e y el mínimo la función de distribución conjunta es ésta si a esto le llamamos A complementario entonces ya sabéis por los temas primeros la probabilidad de A intersección perdón, B complementario esto le llamo B complementario y esto le llamo A exp menos p de A intersección b este b es el complementario de esto y que por lo tanto es estrictamente mayor como las variables son independientes x1 menor o igual que x por x2 menor o igual que x y como las variables son independientes y tienen la misma distribución porque las extracciones se hacen con reemplazamiento pues x1 menor o igual que x por x2 menor o igual que x por lo tanto es una de ellas elevada al cuadrado de igual manera para la otra si aquí las variables este es el valor mínimo si el mínimo es mayor que y es porque x1 es mayor que y y x2 es mayor que y, que es exactamente lo que aparece aquí elevado al cuadrado porque x1, vuelvo a repetir y x2 no solamente son independientes sino que tienen la misma distribución haciendo operaciones obtenemos que si x es menor que y este suceso imposible vale cero y por lo tanto tengo menor o igual que x es x partido n menor o igual que x partido n es x cuadrado partido m cuadrado y si x es estrictamente mayor que y o mayor o igual que y pues simplemente haciendo operaciones aquí tenéis en realidad la función de distribución de la variable unidimensional x observar que el mínimo que es y es menor o igual que el máximo que es x, y x puede variar entre 1 y y para la conjunta la función de probabilidad conjunta es igual a f menos f por y menos f más f esto haciendo operaciones obtenemos la función de probabilidad esta es la función de distribución la función de probabilidad conjunta es 2 partido n cuadrado si y es menor que x y 1 partido n cuadrado si y es estrictamente igual perdón es y igual a x insisto y es el mínimo por lo tanto no puede ser mayor que x bien ya tenemos la función de probabilidad conjunta bueno vamos a ver si la página pasa las marginales se pueden calcular a través de la conjunta sumo para los valores de y para calcular la marginal de x más la p de xx que era 1 partido n cuadrado haciendo esta suma obtenemos la función de probabilidad de la variable máxima haciendo la misma operación pero ahora sumando en x obtenemos la función de probabilidad para la variable y también se puede calcular de manera directa aplicando la factorización y la independencia de la variable original por ejemplo aquí os pongo el cómo calcular de manera directa sin hacerlo a través de la conjunta la probabilidad del máximo y observar como sale exactamente lo mismo que a través de la marginalización de la conjunta bien ya tengo las variables la distribución de x la distribución de y la distribución conjunta por lo tanto puedo calcular simplemente operando la media de x el momento de segundo orden para calcular la varianza de x mediante la fórmula abreviada la media de y la esperanza perdón el momento ordinario del segundo orden de la variable y y la varianza de y que coincide exactamente haciendo operaciones con la varianza de x una vez viste estas características numéricas ya estamos en condiciones de calcular el momento ordinario m11 es decir la esperanza de x por y haciendo operaciones no tiene mayor dificultad porque yo ya he calculado la conjunta que es bastante fácil de incluir porque solamente toma dos valores posibles para y menor que x estrictamente y para y igual a x que es lo que aparece aquí obtenemos la esperanza de x por lo tanto la covarianza tiene este valor que hay aquí y en consecuencia el coeficiente de correlación aplicando la fórmula obtenemos que es igual a n al cuadrado menos uno partido por dos n al cuadrado más uno para n tendiendo a infinito el coeficiente de correlación tiende a un medio ¿de acuerdo? observar que la covarianza es positiva por eso rho es positivo para obtener las curvas generales de regresión tenemos que calcular las condicionadas tema anterior la otra condicionada es decir la y dado x y la de x dado y una vez que tenga la distribución condicionada todo consiste en calcular la esperanza condicionada por ejemplo la de y dado x es la suma de los valores de y desde igual uno hasta x de y por su probabilidad condicionada el caso y igual a x está aquí diferenciado por eso aquí sumo desde uno hasta x menos uno y tengo esta curva general de regresión que no es una recta insisto aquí y la otra curva general de regresión que tampoco es una recta ¿de acuerdo? es un ejercicio para que practiquéis sobre las esperanzas condicionadas ¿cómo podría haber calculado la esperanza de x por y en lugar de haberlo hecho a través de la conjunta la esperanza de x por la esperanza condicionada y observar que es exactamente lo mismo que calculamos ¿de acuerdo? acordaros que la suma desde uno hasta n de x al cubo es como la suma de de uno a n de x pero todo al cuadrado es decir, n por n más uno partido por dos todo al cuadrado las rectas de regresión las tenéis aquí ¿de acuerdo? y menos la esperanza de y por varianza de x menos la esperanza de x la recta de y sobre x y la recta de x sobre y haciendo operaciones tenéis aquí y en función de x y x previsión de x en función de recta como veréis estas son las pendientes correspondientes esto es un ejercicio muy completo porque en realidad acoge a todo lo que yo he explicado de los fundamentos ciertos bien, veamos ahora un problema también de este tipo para seguir practicando ahora considero, ya no tengo ahora como pasaba en el ejercicio anterior que quizá era la mayor dificultad que era tener que construir la distribución conjunta para calcular todas las características numéricas ahora como dato del problema esto digamos es un poco lo más difícil ahora este ejercicio es mucho más fácil porque la distribución conjunta es un dato del problema, en este caso el vector discreto es igual a una constante k por q que es igual a uno menos p por x elevado a x menos uno en donde x es mayor o igual que y y la x y la y varían de uno, dos tres, etcétera soporte numerado o los valores posibles que toman a daño, hay que calcular las marginales y las medias las condicionadas, las curvas generales la covarianza, el coeficiente de reducción y las dos restas de herencia calcular todo lo importante de nuevo marginalizamos como la y es menor o igual que x si quiero calcular la marginal de y tengo que sumar en x desde y desde x igual a y hasta el infinito haciendo operaciones obtenemos el valor de la constante k esta constante k la sustituyo que es igual a p al cuadrado la sustituyo aquí y obtenemos que y es una distribución geométrica lo mismo le pasa a la variable x por lo tanto muy fácil porque entonces la función de probabilidad de x es x por p por la probabilidad de la distribución de probabilidad de la variable y que es una geométrica y por lo tanto tenemos la esperanza de y que es geométrica y la media es el inverso del parámetro la esperanza de x es hacer operaciones es cuestión de hacer operaciones no tiene mayor dificultad por eso no lo explico en demasiada las condicionadas la conjunta partido por la marginal y las curvas generales de regresión como son todas distribuciones sumar y métrico geométrico no tienen mayor dificultad por lo tanto la curva de x sobre y es una recta y la curva de y sobre x es otra recta aquí tenéis las condicionadas y la esperanza condicionada son rectas esto me va a confirmar que os lo dejo como ejercicio que comprobéis que las rectas de regresión son precisamente esas dos esperanzas condicionadas o curvas generales de regresión entonces la covarianza como las curvas son rectas que lo hemos visto en la diapositiva anterior entonces la covarianza es la varianza por 1 y la varianza de y es q partido p cuadrado por lo tanto y como la otra recta de regresión la pendiente vale un medio despejo la otra varianza y la otra varianza son dos veces la covarianza 2q partido por p cuadrado por lo tanto como de aquí tengo la covarianza despejada sé lo que vale la varianza de y y sé lo que vale la varianza de x vale un medio es una constante independientemente del valor de p que es el único parámetro que interviene en el problema bien esto es una generalización que os propongo de los ejemplos 10.4 y 10.6 en la página del libro de texto 198 y 204 veamos el planteamiento lanzamos sucesivamente una moneda con probabilidad p de salir cara vamos a llamar x la variable número del lanzamiento y el número del lanzamiento que aparece por vez primera tenemos que calcular la distribución conjunta, los marginales y los momentos de interés cuando hablamos de momento de interés normalmente si no se explica mucho la media, la esperanza matemática y la varianza hay que calcular la covarianza el coeficiente de correlación las dos rectas de regresión y de nuevo las dos distribuciones condicionadas y las curvas generales de regresión la esperanza asociada a estas son las esperanzas condicionadas vamos a reflexionar un poco veamos x el número de lanzamiento por vez primera la cara e y el número de lanzamiento que aparece por vez primera la cruz veamos como las distribuciones marginales es decir, por libre la x y por libre la y son distribuciones geométricas que son los modelos de espera veamos como en la primera tirada o sale ya cara o sale cruz significa que si y el número del lanzamiento en que aparece la cruz por vez primera es mayor o igual que 2 es porque x vale 1 es decir, que salió la cara en el primer lanzamiento y viceversa si x mayor o igual que 2 es porque en el primer lanzamiento salió cruz por lo tanto la conjunta la construye ahora de esta manera si sale cara en el primer lanzamiento cual es la probabilidad de que salga cruz hasta el lanzamiento m cara es p y para que salga la cruz por vez primera en la jugada m tiene que haber salido m menos 2 cara, porque en realidad hay solamente m lanzamiento y por último sale la cruz en el lanzamiento m por lo tanto es cara, cara, cara n menos 1 a vez la primera que sale cara y por último en la jugada m sale cruz de igual manera cuando x igual a n igual a 1 tenemos esta otra parte de la distribución conjunta y para los valores posibles n y m igual a 2 3, 4, etc. si yo marginalizo obtenemos la probabilidad de x igual a m la típica distribución geométrica la probabilidad de x igual a m la típica distribución geométrica y por lo tanto su media y su varianza que ya las conocemos en el libro de texto o la podéis calcular aquí ya lo pongo directamente cual es la media y la varianza de la variable x y de la variable y para calcular la covarianza la vamos a calcular ahora de manera directa en cada ejercicio pues lo hago de una manera distinta por lo tanto aplico la definición el momento ordinario de m 1,1 es x por y n por m por la conjunta para n y m mayor o igual que 2 por lo tanto tenemos para n igual a 2 hasta infinito tengo n igual a 1, la única posibilidad o cuando la m es igual a 2 hasta infinito con x igual a 1 en la única posibilidad haciendo operaciones y sustituyendo como teníamos ya en la diapositiva anterior obtenemos la esperanza de x por y por lo tanto la covarianza simplemente sustituyendo trivialmente haciendo operaciones obtenemos que la covarianza es negativa menos uno y no depende ni de p ni de uno menos p en realidad solamente hay un parámetro en consecuencia el coeficiente de correlación definición como siempre es negativo ¿por qué? porque la covarianza es negativa y sustituyendo es menos la raíz cuadrada de p por 1 menos t de tal manera que varía entre menos 0,5 y 0 la recta de regresión la tenéis aquí el cálculo lo tenéis aquí no tiene mayor dificultad sino que va siguiendo y operando con tranquilidad y aquí tenéis las condicionadas la de y dado x la esperanza de y dado x ¿de acuerdo? y por lo tanto la esperanza de y dado x igual a n o la esperanza de y dado x igual a 1 aquí tenéis las curvas generales de regresión de y sobre x y la curva general de regresión de x sobre y si queréis ahora p igual a un medio si la moneda es equilibrada podéis reconstruir el problema lo podéis intentar desde el principio sin utilizar la generalización de una moneda con probabilidad p sino una moneda legal sin mayor dificultad bien, continuamos vamos a ver una pequeña generalización un variante del examen de febrero del 2012 de la segunda semana tenemos una urna con dos bolas blancas y tres negras se extraen de una en una hasta que se obtiene una bola blanca o la primera bola blanca según el número x de la extracción en que haya aparecido la bola blanca por vez primera se lanza una moneda legal en la diapositiva siguiente lo generalizamos a una moneda con probabilidad p de salir cara tantas veces como el número de dicha extracción y se observa el número de caras que se obtienen ¿comprendido? es decir, yo voy sacando bolas y cuando aparece la bola blanca por vez primera anoto en qué jugada y según el número de las jugadas tiro el mismo número de veces la moneda o legal que era lo que venía en el examen o una moneda p con probabilidad de cara calcular la conjunta, las marginales el coeficiente de correlación las dos rectas de regresión y una pregunta tipo teorema de Bayer si ha salido una sola cara ¿cuál es la probabilidad de que se hubiesen necesitado dos intentos para extraer la bola blanca? bien, aquí tenemos que la distribución de x como es sin reemplazamiento la primera extracción es dos quintos, dos bolas blancas por el total que es cinco en la segunda extracción necesitaría entonces que saliera una negra por lo tanto sería tres quintos que ha salido negra en la primera y dos cuartos porque la negra la aparto y así sucesivamente o una jugada o dos jugadas o tres extracciones o cuatro extracciones os podéis observar que la suma vale uno mientras que la variable y condicionada a x es una binomial de parámetro n, en este caso n es x que es el número de extracciones necesarias y un medio en el caso de una moneda legal como es una binomial la esperanza de x no tiene mayor problema uno por dos quintos más dos por tres décimos es dos y la varianza de x simplemente aplicando la definición vale uno la esperanza de y dado x es x por un medio acordáis que la media de una binomial es el producto de los parámetros la esperanza de y es la esperanza condicionada es un medio por la esperanza de x que vale dos la conjunta la calculamos de esta manera por ejemplo cuál es la probabilidad de que necesite dos extracciones para la blanca y de que salga una cara pues la probabilidad de dos extracciones es la probabilidad de una cara dado dos extracciones la probabilidad de dos extracciones es tres partido diez y ahora son dos extracciones para una cara dos sobre uno por un medio de cara y por un medio de cruz haciendo operaciones tenemos tres partido veinte si lo hacemos con cierto detalle para todo tenéis aquí en esta tabla aquí dentro aparece la conjunta por ejemplo si yo he necesitado dos extracciones solamente voy a tirar dos veces la moneda por lo tanto como máximo van a salir dos cares con un mínimo cero por lo tanto aquí tenemos en rojo aparece la suma de las conjuntas horizontales y en verticales aparece la distribución de la variable y y en horizontal la distribución de la variable x tal como aparece aquí reflejado en rojo por lo tanto para calcular la esperanza de x por y el momento ordinario insisto de nuevo m uno uno pues si queréis aplicamos la definición uno por cero por su probabilidad más dos por cero por su probabilidad más dos por uno por su probabilidad con cierta paciencia tenemos la esperanza x por y la varianza de y simplemente la covarianza la tenemos calculada y el coeficiente de correlación después de hacer una serie de operaciones raíz de tres partido dos las restas de regresión que os lo propongo que lo demostré es y estimación de y x partido dos y la estimación de x este es x con gorro de acuerdo lo que pasa es que lo he puesto para representar gráficamente las dos restas en unas coordenadas convencionales para el apartado dos que era lo que nos pedían aplicamos el teorema de Bayes y obtenemos un tercio que es lo que yo proponía por eso aparece diapositiva veinticuatro barra uno hacer exactamente lo mismo pero en lugar de una moneda legal una moneda con probabilidad p hay que tener cierta paciencia para calcular todos los valores aquí q es igual a uno menos p aquí os he puesto un ejemplo de como calcular por ejemplo la distribución conjunta x tres y dos de acuerdo es la probabilidad de x igual a tres por la igual a dos dado x igual a tres hacemos el resto de las operaciones las restas de regresión están aquí y la covarianza que vale exactamente p y el coeficiente de correlación rho que es la raíz cuadrada de p partido dos menos p para p igual a un medio obtenemos justo lo que teníamos en el caso p igual a un medio aquí para el teorema de Bayes por lo tanto aquí lo que yo invito es que generalicéis es importante las generalizaciones porque te dan una visión mucho más de conjunto muchas veces trabajando por ejemplo en el caso de una moneda con p igual a un medio muchas veces no se ve bien la diferencia entre por ejemplo el caso de la geométrica o la binomial entre p y uno menos p o lo que yo vulgarmente llamo el empuje continuamos este es un problema personal mío propuesto seleccionamos un número x al azar entre el uno y el n y si sale el valor x por ejemplo una urna que tenga n bolas numeradas del uno a n si x igual a x se selecciona por ejemplo de otra urna otro número al azar entre ese valor x y n mayúscula menos uno más x que entre uno y n hay n valores y entre x y n menos uno más x también hay n valores calcular la distribución de y la esperanza y varianza de x e y el coeficiente de correlación y las dos rectas fijaros como aquí no se da la conjunta normalmente en estos experimentos de tipo dinámico te dan una distribución unidimensional y una condicional lo que vulgarmente llamamos una marginal y una condicional estamos ante dos distribuciones uniformes discretas la x es uniforme uno n o rectangular y la y dado x es rectangular o uniforme x n menos uno más x por lo tanto la distribución de x es uno partido n para todos los valores posibles y la condicionada es también uno partido n que son los valores posibles pero desde x hasta n menos uno más x por lo tanto las medias son muy fáciles la media de x de una rectangular está en el libro la media de y dado x también de otra rectangular haciendo operaciones tenemos esto y la media de y que es la variable y por libre o marginal es la media de la media condicionada haciendo operaciones obtenemos n fijaros que interesante es decir en la segunda extracción como yo elijo de una urna entre x y n menos uno más x el valor esperado es precisamente n para la distribución de y como tenemos aquí esta relación entre la extracción inicial y la segunda extracción que es mayor igual que x y menor o igual que n menos uno más x entonces tenemos que si x es mayor o igual que uno y despejando de aquí la x es mayor o igual que n perdón que y más uno menos n entonces x es mayor o igual que el máximo de todos los valores mientras que si x es menor o igual que n y x es menor o igual que y x es menor o igual que el mínimo de y esta es la única dificultad del problema para calcular la distribución marginal de la variable y que si y es más pequeño que n es decir y es más pequeño que n entonces la distribución marginal que sería acordada la condicionada por la marginal que es como si fuese la conjunta entonces la x varía desde y igual uno hasta y de acuerdo sustituyendo estos dos distribuciones uno partido n uno partido n pues tenemos mientras que si y es mayor o igual que n es decir que y es más mayor que n y por lo tanto n es el mínimo en este caso significa que entonces la x variará hasta n en el caso anterior la x variará hasta y según sea el valor mínimo entonces iría desde x igual a y más uno menos n hasta n de nuevo la condicionada sumo aquí y obtengo la diferencia por lo tanto obtenemos que la distribución de la variable y es y partido n cuadrado para los valores de y menor que n es dos n menos y partido n cuadrado para y mayor o igual que n fijaros que si igual a n obtengo aquí dos n menos n es n partido n cuadrado es lo que ocurre aquí cuando yo sustituyo y igual a n tengo n partido n cuadrado uno partido una vez visto la distribución marginal el dato inicial del problema la varianza de x de una distribución rectangular entre un y n y calculamos de nuevo ahora la varianza de y hay que tener cierto cuidado para calcularla porque como la distribución de y esta definida en dos tramos o dos trozos hay que tomar los valores y al cuadrado el momento ordinario del segundo desde y igual a uno hasta n menos uno y desde y igual a n hasta dos n menos uno tienen formas distintas la función de probabilidad de la variable y la varianza aplicando la definición y la forma abreviada de calcular la varianza obtenemos este valor de la varianza de y que es dos veces la varianza de x, la esperanza de x por y aplicamos lo que yo os explique en la diapositiva me parece número once de la forma abreviada y obtenemos la esperanza de x por la esperanza condicionada de y dado x era una rectangular la esperanza de la segunda extracción y obtenemos simplemente haciendo operaciones sin mayor dificultad y la covarianza la tenemos aquí que coincide con la varianza de x por lo tanto el coeficiente de correlación es igual a la raíz cuadrada de dos partido por dos es una constante positiva ya que la covarianza es positiva y que es la varianza de x, las restas de regresión las tenemos aquí y no tienen mayor dificultad, aplicamos la definición vamos sustituyendo y operando sin mayor dificultad continuado vamos a generalizar también un examen de febrero del 2012 disponemos de una moneda con probabilidad p de salir cara y de una urna que contiene a bolas blancas y b bolas negras se lanza la moneda hasta que aparece cara, se hace el número de lanzamiento realizado hasta que aparezca cara después se traen con reemplazamiento t bolas de la urna, siendo n el número de bolas blancas extraída hay que calcular la esperanza de la variable t y t al cuadrado es decir, el momento ordinario de primer orden el momento ordinario del servidor de la variable t que tal como está planteado observaré que en una distribución geométrica todo lo que sea esperar hasta que ocurra un éxito, distribución geométrica el apartado b depende la distribución la esperanza condicionada esto es lo que llamamos regularmente la curva general de regresión y a partir de esta esperanza condicionada hay que deducir la esperanza de n y la covarianza, que es justo los esquemas teóricos que yo he aconsejado para ciertos tipos de problemas que aparecía justo en lo que pedían en el examen del año 2012 y determinar la función de probabilidad de n, que es una marginal aportan el equipo docente esta identidad de combinatoria para que el resultado del problema sea más fácil más fácil de resolver como he dicho la distribución de t es una distribución geométrica aquí lo tenéis, cubada 1 2 3 t más q vale 1 la esperanza del inverso del parámetro p insisto no tiene dos parámetros q es 1 menos p el momento de segundo orden por lo tanto el apartado a ya lo tenemos calculado para cada valor de t la variable n sigue una dinamidad de parámetro t y de probabilidad de éxito p1 que es la probabilidad de éxito como es con reemplazamiento ya hablo del número de bolas blancas extraídas será caso favorable a partido en casos posibles a más 2 vamos a llamar p1 a partido a más 2 por lo tanto la distribución condicionada es esta binomial en donde tenemos p1 aquí la esperanza condicionada la media de una binomial producto de los dos parámetros y la esperanza de n que era lo que te pedían es la esperanza de la esperanza condicionada y por lo tanto es p1 partido por p en donde p1 es a partido a más p ¿de acuerdo? bien, ya tenemos calculado la esperanza de n para la covarianza trabajamos de esta manera la esperanza de t por n dado t es la esperanza de n por t como t vale t esta t actúa como constante si t mayúsculo vale t pequeña esto es una constante que sale fuera me queda la esperanza de n dado t que es la curva general de regresión o la esperanza condicionada por lo tanto es t por p1 t y obtenemos en definitiva que la esperanza de t por n es la esperanza de t por la esperanza de n dado t y obtenemos simplemente operando no tiene mayor dificultad por lo tanto la covarianza aplico a la definición momento mixto ordinario m11 menos el producto de las dos esperanzas matemáticas haciendo operaciones obtenemos este valor, este p es el parámetro original y este p1 recordar que es a partido a más 2 las marginales para n igual a 0 menciono este valor porque entonces hay que aplicar desde t1 hasta infinito y obtenemos este valor ya he sustituido p1 por su valor y por eso aparece en términos de a y b y para n igual a n ya hay que sumar desde t igual a n hasta infinito y hay que aplicar la ayuda que el equipo docente da para resolver esta identidad combinatoria obtenemos este valor c por 1 menos c elevado a n donde c tenemos igual a este valor p, q que es 1 menos p y q sub 1 que es 1 menos p sub 1 siendo p sub 1 a partido por a aquí yo os pongo una propuesta que es calcular la otra distribución condicionada la t dado n porque en el planteamiento del problema aparece la distribución de n dado t bien este problema me parece que viene en el libro del texto yo lo resumo porque digamos viene a ser más o menos exactamente lo mismo que hemos visto hasta ahora supongamos que la probabilidad de que una familia tenga x hijos viene dada por unos hijos, hijos en general por un modelo geométrico como siempre de parámetro p sub 1 aquí tenéis el dato si p sub n es igual a x p sub 1 por 1 menos p sub 1 que le damos llevado a x, aquí la x varía desde 0, 0 hijo, 1 hijo, etc mientras que la probabilidad del nacimiento de un niño es p sub 2 que si una familia tiene x hijos la probabilidad de que haya i niños tenemos de nuevo una binomial distribución binomial de parámetro p sub 2 la variable i condicionada la conjunta como siempre es la condicionada por la marginal lo tenéis aquí y la marginal de i en la suma desde x igual a i hasta infinito porque esta es la relación que hay entre las variables x e i, x número de hijos y número de niños ¿de acuerdo? como máximo el número de niños coincide con el número de hijos no tendría ninguna chica a la familia ¿de acuerdo? sumando obtenemos esta distribución con mayor dificultad de hacer operaciones después de haber aplicado la identidad anterior, la distribución de la variable i entonces lo tenemos aquí el mayor problema, aquí tenéis la media perdón, el parámetro p la media y la varianza la marginal es un dato del problema y por lo tanto la covarianza vamos a calcular de nuevo la covarianza a través de primero, la esperanza de x por i la esperanza de x por la esperanza de i dado x, haciendo operaciones obtenemos esto, la covarianza y sustituyendo obtenemos en definitiva el coeficiente de correlación aunque sean un tanto reiterativos los problemas es importante porque insisto, hay que coger cierta destreza para calcular en cada momento qué atajo o qué método utilizo para calcular las características que estoy dividiendo normalmente vuelvo a repetir, covarianza rectas de regresión esperanzas condicionadas, etc. aquí tenéis las curvas de i sobre x vuelvo a insistir son la esperanza condicional en este caso como esta es una recta si vosotros calculáis la recta veréis cómo sale y la otra curva general de regresión que es a través de la probabilidad condicionada y lo tenéis aquí como yo os invito ahora a calcular la recta y veréis de manera directa a través de la expresión o de la fórmula no me gusta hablar de fórmula de la recta de regresión y veréis cómo coinciden con las curvas generales de regresión y con las dos esperanzas condicionales bien vamos a centrarnos un poquito ahora en un problema del año pasado de la segunda semana en febrero de 2015 el que está en rojo es lo que vamos a hacer ahora porque el resto ya lo hemos ido haciendo en el tema número 6 y en el tema número 9 que son los otros dos temas que yo he tenido el gusto de compartir con vosotros recordemos un poquito se construye un conjunto finito A de números naturales por el procedimiento aleatorio siguiente el máximo número M mayúscula de máximos contenido en A se elige con distribución geométrica de parámetro P era una generalización en el examen del año pasado era de parámetro P igual a un medio por eso aparecía en la distribución de probabilidades del máximo era un medio por un medio elevado a M-1 es decir, un medio elevado a M después para cada uno de los números posibles 1, 2, 3 hasta M-1 se sortean cada número con probabilidad P si aparece o Q si no se incluye es decir, se incluye con probabilidad P o no se incluye con probabilidad 1-P en el examen este P era también un medio había que calcular para cualquier número natural que perteneciese al conjunto A aquí lo tenéis, ya lo calculamos o incluso os propongo que veráis en el tema 6 la diapositiva 29 y en el tema 9 la diapositiva 24 ¿de acuerdo? la distribución del número de elementos de A que lo tenéis aquí que era una distribución geométrica la suma de los elementos de A esta variable en donde está la función indicadora ¿de acuerdo ahí? y calculamos la esperanza de S de la suma 1 más Q partido por P cuando Q y P eran igual a un medio pues era 1 partido P que vale 2 más Q partido P que vale 1 esta esperanza era 3 en el examen bien, todo esto lo calculamos tenemos que calcular hoy la varianza del número de elementos de A y lo importante el coeficiente de correlación entre el número de elementos de A y la suma de los elementos de A bien, aquí tenéis la media de A que también la calculamos y entonces tenemos si K es menor que N la probabilidad de que K y N pertenezcan a esos dos números es aplicando el teorema de la probabilidad total o la probabilidad o M el máximo es igual a N es mayor que N ¿de acuerdo? porque estamos en el caso K menor que N ¿cuál es la probabilidad de que el máximo sea igual a N? aquí, P por Q elevado a N menos 1 y ahora, la probabilidad de que K pertenezca a vale P y la probabilidad de que N pertenezca a como es seguro porque el máximo es N vale 1 y alternativamente tenemos esto si M es mayor que N la probabilidad lo calculamos era Q P por Q elevado a N si K pertenece a comprobé a P y la N pertenece a comprobé a P haciendo operaciones obtenemos esto de igual modo analizamos el caso mediante vuelvo a repetir, el teorema de la probabilidad total poniendo siempre M igual a N o el máximo es mayor que N en este caso para K mayor que N por eso depende de K y aquí depende de N depende del máximo de los dos si aquí el K es mayor que N esta probabilidad conjunta va a depender de K y si el máximo entre K y N es N esta probabilidad conjunta depende de N pero la forma funcional es exactamente la misma entonces operando con ciertos detalles de manera genérica tenemos que calcular la esperanza de A por S que es el número de elementos de A por la suma es N por la función indicadora y por eso no aparece aquí la función indicadora se toma el valor 1 o el valor 0 si toma el valor 0 N por 0 no hay que sumar y si toma el valor 1 es N por 1, por lo tanto de la forma genérica por la distribución conjunta porque estoy calculando como si fuese un momento ordinario M 1 1 entonces tenemos para el primer caso en el caso de que N sea menor que K desde N igual a 1 hasta K menos 1 desde K igual a 1 hasta infinito el segundo caso es cuando K es igual a N entonces tengo K por la probabilidad de K que pertenezca a y el tercer caso cuando N es mayor que K estrictamente sería desde N igual a K más 1 hasta infinito en ambos casos siempre desde K igual a 1 hasta infinito y desde K igual a 1 hasta infinito este no tiene un segundo sumando porque es el caso K igual a 1 haciendo operaciones con cierto detalle no tiene mayor problema obtenemos esta solución en función de P y de Q ¿de acuerdo? en este caso lo he puesto en función de P por lo tanto la covarianza es la esperanza del producto menos las dos medias que las vimos en el tema 9 y obtenemos en definitiva la covarianza que es positiva que vale 3 en el caso del examen cuando K igual a Q igual a 1 como la variable A número de elementos de A sigue una distinción geométrica de parámetro 1 partido por 1 más Q entonces la varianza la tenemos aquí el momento de segundo orden es lo que tiene más dificultad porque hay que calcular K por N por la probabilidad conjunta ¿de acuerdo? este momento de segundo orden para S al cuadrado se diferencia también de igual manera K estrictamente para N igual a K y para N estrictamente mayor a K de nuevo reiterando operaciones y operando con cierto detalle tenemos la varianza en donde S aplicando la definición del momento de segundo orden menos el primero al cuadrado menos la media al cuadrado en donde M sub 3 es el momento ordinario del tercer orden que viene dado aquí este momento ordinario se puede calcular a partir de la función generatriz de probabilidad de esta distinción que es un tema que no se lleva ni se evalúa para examen pero bueno yo lo he calculado lo podéis por curiosidad mirar y obtenemos que el momento del tercer orden sustituyendo aquí y operando obtenemos en definitiva la varianza con lo cual era el único dato que faltaba la varianza de S porque la de A ya la teníamos el coeficiente de correlación después de operar y simplificar un poco digamos un poco largo pero no tiene mayor dificultad la raíz cuadrada de 2 partido por 3 que si P vale 1 medio que era lo que aparecía en el examen es exactamente lo que se daba en el examen que era 2 partido por la raíz cuadrada de 5 este problema hay que pensarlo bien y hacerlo con cierto detalle insisto la dificultad de este problema era precisamente el cálculo de la conjunta para calcular los momentos del segundo orden la esperanza del producto y la covarianza bien vamos a ir finalizando aquí tenéis de nuevo otra variante del examen de febrero del 2014 veamos cual es la variante se tiene una urna con 3 bolas rojas y 5 blancas se realiza una primera extracción de 2 bolas de una vez se observa su color, se devuelve a la urna 2 bolas más que coincidan con la del calor extraído en la primera extracción a continuación se realiza una segunda extracción de otras 2 bolas de una vez sean X e Y el número de bolas rojas en las extracciones primera e Y en la extracción segunda el número de bolas rojas determinar la conjunta determinar las marginales las medias y las varianzas y probar que la esperanza de Y dado X es decir lo que yo he llamado la curva general de regresión es 3 más X partido 5 y a partir de ahí observar que esta esperanza condicionada que es la curva es una recta y la pendiente es un quinto por eso pone en el examen el equipo docente ponía deducir a partir de esta prueba de la esperanza condicionada el coeficiente de correlación entre X y Y aquí tenéis la conjunta que no tiene mayor dificultad la primera extracción se extrae en 8 bolas hay 8 bolas en la segunda se introducen 2 bolas más del mismo color de las que se hayan extraído o pueden ser si son 2 rojas se meten 2 rojas si son 2 blancas, 2 blancas y si es una de cada color vemos toda la alternativa es un problema simple de combinatoria solamente hay que tener en cuenta que X y Y no son independientes porque tampoco tendría sentido el coeficiente de correlación ya está contestado entre X y Y por eso son independientes las covariancias nulas aquí como siempre y es lo que ocurre en este tema la conjunta hay que calcularla a través de la condicionada por la marginal de manera dinámica X es el primer experimento Y dado X es el segundo experimento por eso lo pongo en orden cronológico de tiempo físico aquí tenéis las marginales aquí tenéis las condicionadas aquí tenéis las curvas aquí sale exactamente esto y como la pendiente decía yo que es un quinto tenemos un quinto la pendiente de Y sobre X que es la covarianza de X y Y partido por la varianza de X de aquí despejo la covarianza la sustituyo y obtengo en definitiva el coeficiente de correlación que no tiene mayor dificultad aquí lo importante es saber qué papel juega en la recta de regresión las pendientes a partir de aquí el resto de las diapositivas que quedan, que son cinco os dejo para que vosotros reflexionéis yo solamente os digo el enunciado aunque esté hecho y yo insisto podéis volver lo digo en todos los temas a reproducir todos los temas por ejemplo si lo sacáis en papel tapáis la resolución os quedáis con el enunciado porque ya sabéis muy bien no hay cosa peor en matemáticas que estudiar con los codos papel y lápiz o bolígrafo y digamos construir, reconstruir el problema íntegramente aquí tenéis una urna con n bolas numeradas se extrae una al azar si la seleccionada tiene el número X se apartan todas las bolas numeradas mayores que X por ejemplo si saco el número 3 pues aparto todas las bolas desde el 4 hacia adelante ¿de acuerdo? y se vuelven a seleccionar una bola al azar calcular la covarianza entre la primera extracción y la segunda la solución la tenéis aquí como siempre aquí hay que calcular una primera extracción, una marginal y la segunda como está condicionada es una distribución condicionada no tiene mayor dificultad no insisto para que vosotros la reproduzcáis aquí tenéis una acotación para que la probéis es simplemente ejercitarse en acotaciones que se pueden generalizar a partir de la acotación de Chebiché que no he querido profundizar porque en el libro viene muy bien comentada aquí tenéis esto y aquí tenéis una última invitación a un ejercicio de cómo mejorar el coeficiente de correlación cuando tengo variables bidimensionales de 2 en 2 con el mismo coeficiente de correlación es un poco de reflexión para que vayáis tomando práctica a la hora de trabajar con sumas de variables con covarianza, etc. bien, pues yo he finalizado si hay algún comentario que hacer, alguna duda perdonad que haya ido pisado un poco rápido pero quería explicar lo máximo posible para que tuviesen la mayor información posible alguna pregunta alguna duda alguna pregunta un deseo que os vaya bien en los exámenes lógicamente y espero que yo os haya servido de ayuda en estos tres temas que he tenido la oportunidad de compartir con vosotros bueno, pues si no hay ninguna duda buenas noches de acuerdo buenas noches lo tenéis lógicamente a través de la plataforma ALT buenas noches y voy a cerrar gracias