Buenas tardes. Comenzamos a ver una visión general, bueno, un primero feliz año nuevo y os deseo lo mejor en las pruebas de final de mes y de febrero. Comenzamos a ver el tema número 10, que es un poco largo y en realidad el título es análisis descriptivo de las distribuciones de probabilidad. La idea es simplemente, una vez visto prácticamente la asignatura entera, analizar unas características numéricas de las distribuciones de probabilidad, es decir, resumir la información probabilística que da una distribución de probabilidad mediante una serie de valores numéricos. Estos valores numéricos son los que se utilizan y se suelen llamar características numéricas, indicadores, etcétera, de muchas maneras distintas. En realidad hay como dos grandes grupos de medidas o de características numéricas de las distribuciones. Están las características centrales o de posición, que es la media, la esperanza, que ya lo vimos en el tema número 9, y las características nuevas para vosotros en el tema este, número 10, que son las medidas de dispersión. Las medidas de dispersión son muy importantes a la hora de resumir la información de una distribución de probabilidad, porque cualquier medida de descentralización, por ejemplo la esperanza matemática, debe de venir acompañada de una medida de dispersión, que es lo que vendría a decir que cómo de disperso estén los valores observados de la distribución respecto a ese valor que lo representa o que lo resume, que es la esperanza matemática. Veamos a ver alguna... Primero, como siempre suelo hacer yo, un pequeño resumen teórico para poder avergar con éxito los problemas que os propongo. Partimos en el caso unidimensional de una distribución discreta, conocida, y quiero resumir la información mediante algunas características numéricas. Siempre que hablemos de unas series vamos a suponer lógicamente que es convergente, es decir, que existe la esperanza asociada. Hay un primer grupo, que son las características numéricas. El primer momento ordinario que dará alguna información es el momento de orden 1, que es la esperanza matemática. La media, como vimos en el tema número 1. Una proposición importante es que si existe el momento ordinario de orden K, entonces existen todos los momentos ordinarios de orden inferior a K. Es decir, si existe el momento de orden 3, entonces existen el de orden 2 y el de orden 1. Un segundo grupo son los momentos centrales. Estos momentos centrales están referidos al momento ordinario más elemental, el momento de orden 1, que existe, lógicamente. Por lo tanto, el momento central de orden K sería la esperanza de la variable X respecto de su media, todo elevado a K. Aquí falta un paréntesis. Aquí uno y aquí otro. ¿De acuerdo? Pero vaya, no hace falta. Es decir, la suma de todos los valores de la variable. X menos su media elevado a K por su probabilidad asociada. El momento central que da alguna información, el primero de todos, el más pequeño de todos, es el momento de segundo orden. Porque el momento de orden 0 vale 1, el momento de primer orden vale 0, porque la media de las variables respecto de su media vale 0. Y el primer momento central que da alguna información estadística. Es el momento de orden 2, que es la varianza. Esta, por lo tanto, es una característica no negativa. La varianza siempre es mayor o igual que 0. El caso igual a 0 es cuando la variable es degenerada. Es decir, que toma un solo valor con probabilidad 1. La raíz cuadrada positiva de la varianza es la desviación típica. Eso viene en el libro, es una cosa elemental y no tiene más trascendencia. Una relación importante, viene en la página 193 del texto, es que los momentos centrales es una función de los momentos ordinarios. También se pueden poner al contrario. Y depende del momento de orden K y todos los inferiores. Por lo tanto, si existe el momento de orden K ordinario, existe el momento central de orden K según el teorema que hemos visto. Y además, la varianza como momento central de segundo orden se puede poner en base a la relación que existe entre mu, y M, como la esperanza del momento de segundo orden, es decir, M sub 2 menos la media al cuadrado. Una medida, estas ya son medidas, la varianza de posición, perdón, de dispersión. Un momento, una variable, lo que pasa es que la varianza tiene, la medida es la que sea al cuadrado, ya que es un momento de segundo orden. Una medida de dispersión que no posee unidades es el coeficiente de variabilidad. La variación, que es invariante por homotecia, es decir, por cambio de unidades. Es igual al coeficiente de la desviación típica partido por la esperanza en valor absoluto, se suele poner. Resultado importante, pues el teorema de Cony. Si nosotros definimos la función Q de A en donde es la dispersión de la variable X respecto de A, siendo A una constante cualquiera al cuadrado, el valor mínimo se alcanza cuando la constante A es la esperanza matemática. De ahí la definición. De ahí la definición de varianza. Y otro resultado importante es la acotación de Chebiché o desigualdad de Chebiché, que para cualquier variable arbitraria con varianza finita, por lo tanto existe la media, ya que la varianza es un momento de segundo orden, por lo tanto existen todos los momentos de orden inferior, viene dado por el resultado que aparece aquí señalado y que está demostrado en el libro de texto. Y esta desigualdad o acotación de Chebiché se basa en un teorema, una desigualdad más importante y más general, que es la acotación de Markov, que la podéis ver en el libro, siempre y cuando la función F sea una función no negativa y que exista la esperanza de la función f de X. Otras medidas interesantes hasta cierto punto, pero bueno, un poco para que lo tengáis en cuenta, son los coeficientes de asimetría, que es el momento central de orden 3 partido por la desviación típica al cubo. El poner M sub 3 partido por sin más. El cubo es para que no posea unidades. De igual manera está el coeficiente de apuntamiento o custosio, sería si la curva es más o menos aplastada que la famosa campana de Gauss, que sería el paradigma de las distribuciones simétricas. Este coeficiente viene dado en términos de momento de cuarto orden. Hay que restarle 3 porque este cociente para la distribución normal vale exactamente 3. Por lo tanto... Vale 0 si es como la normal, vale, es positiva o es negativa. Y de esa manera se puede comparar con la normal. Ahora vamos a ver algo por el estilo que hemos visto, pero para el caso de las distribuciones bidimensionales. Son los momentos de una distribución conjunta. Por lo tanto estarán los momentos ordinarios M conjunto, será la esperanza de X elevado a R por, aunque no aparezca el por, por Y elevado a S con R y S variando en 0 y 1. Y ahí puedo cambiar e intercambiarlo, de tal manera que si hago S igual a 0, obtendría todos los momentos asociados a la variable X y viceversa. Y después están los momentos centrales conjuntos, que sería la esperanza de X menos su media elevado a R por Y menos su media elevado a S. De nuevo con R y S variando para 0, 1, 2 y sucesivamente. De estos momentos conjuntos, el más importante, el que da más información y es el más pequeño, es el momento conjunto central de orden 1, 1, que se llama la covarianza o variación conjunta. Es la esperanza de X menos su media, su esperanza matemática, por Y menos su media, su esperanza matemática. Observar por qué se llama covarianza, porque si la Y es igual a X y la mu sub Y es igual a mu de X, entonces tendría la esperanza de X, la esperanza de X menos su media, todo elevado al cuadrado, es decir, la varianza de X. De ahí el nombre de covarianza. Haciendo operaciones de manera elemental, esta covarianza o variación conjunta de las dos variables se puede calcular de manera más fácil obteniéndola a través de la esperanza del producto de las dos variables menos el producto de las medias, de las esperanzas matemáticas. ¿Qué le pasa a la covarianza? Que posee unidades. Y la covarianza, la covarianza puede ser positiva, negativa o incluso cero. Para evitar esto, para ver esta relación, porque en realidad la covarianza lo que me pide es una, lo que me da información numérica es sobre la relación que hay entre las variables, se define el coeficiente de correlación, que sería el cociente entre la covarianza y el producto de las desviaciones típicas, siempre que sean distintas de cero. Este coeficiente de correlación es un número abstracto, primero varía entre menos uno y uno y me da una información muy buena sobre la dependencia lineal que existe entre las variables X e Y. Una covarianza cero implica una correlación cero y viceversa. Y eso significa que las variables están incorreladas. Por otro lado, si las variables son independientes, tema número 7 y 8 de BICY, entonces la covarianza vale cero, ya que si las variables son independientes, la esperanza del producto, el producto de la esperanza, la covarianza valdría cero y el coeficiente de correlación valdría cero. Pero no necesariamente al contrario, es decir, la independencia implica incorrelación. Pero el que dos variables sean incorreladas no necesariamente implica independencia. El coeficiente de correlación, para que veáis que en realidad era un subterfugio para analizar la covarianza sin unidades, se puede calcular, aquí viene para que lo demostréis, como la covarianza de las variables tipificadas. Tipificar una variable es definir otra variable en donde a la variable original se le resta su media y se le divide por su división típica. Os lo dejo como ejercicio para que lo demostréis. Veamos rápidamente dos ejemplos de los comentarios que acabo de decir. Primero, la incorrelación no implica independencia. Aquí tenemos, por ejemplo, una variable X que toma tres valores, el valor menos uno, el valor cero y el valor uno, con probabilidades P, uno menos dos P y P respectivamente. Un número comprendido entre cero y uno. Y definimos la variable Y igual valor absoluto de X. Entonces, haciendo operaciones, lo dejo como ejercicio, aunque aquí este hecho, observamos cómo la esperanza de X vale cero, la esperanza de Y vale dos P, en fin, calculamos la media de X, la media de Y, la varianza de X y la varianza de Y. Aquí tenéis los resultados. Y después calculamos la distribución conjunta de la variable Y, el P menos uno, uno, etcétera. De esta manera calculamos la esperanza de X por Y y vale cero. Y la covarianza entonces vale cero, ya que la esperanza de X vale cero. Por lo tanto, la covarianza es la esperanza del producto, que vale cero, menos el producto de la esperanza, que es la esperanza de X cero por la esperanza de Y, lo que va al lado. Por lo tanto, el coeficiente de correlación vale cero, las variables son correladas. ¿Qué pasa? Pero, a pesar de ser incorreladas, no son independientes. Es todo lo contrario. Existe una relación funcional entre ellas, igual al valor absoluto de X. Es decir, que existe una dependencia no estadística, sino una dependencia funcional o matemática. El segundo ejemplo, para que lo hagáis, es ver cómo cuando manejo dos variables discreta psicotómica, es decir, que solamente toman dos valores, entonces la incorrelación sí implica independencia en este caso. Observar, vamos a suponer que la variable X tome el valor X1 y X2, y la variable Y, Y1, Y2. Y aquí dentro del cuadro tenemos, por ejemplo, qué significa la probabilidad conjunta de que X tome el valor X1 y de Y tome el valor Y1, y así sucesivamente. Aquí tenemos los cuatro valores posibles, X1, Y1, X1, Y2, es decir, las sumas de estas probabilidades P1, es decir, la variable X toma el valor X1 con probabilidad P1, el valor X2 con probabilidad P1, la variable Y toma el valor Y1 con probabilidad P2, y la variable Y toma el valor Y2 con probabilidad Y2. ¿De acuerdo? Los cálculos los tenéis aquí, la esperanza de X y la esperanza de X por Y, haciendo las operaciones directamente en la definición, calculamos la covarianza. Para que la covarianza valga cero, la esperanza del producto que la tenemos aquí tiene que ser igual al producto de la esperanza. Es decir, obtenemos al final estos valores. Y para que esto valga cero, la constante A tiene que ser igual al producto de P1 por P2, ya que si X1 es igual a X2, la variable X es degenerada, solamente toma un solo valor. Por lo tanto, si sustituyendo ahora A por P1 y P2, es decir, A igual a P1 por P2, y obtenemos aquí, y sustituyendo entonces de nuevo en el cuadro, demostramos que para cualquier valor de Y y de J, P1 y P2, es decir, para X1 y para X2, la probabilidad conjunta de XB y YJ es el producto de las probabilidades marginales. Como esto es válido para todos los valores de Y y de J, eso implica la independencia. Por lo tanto, en este caso, la incorrelación sí implica independencia, para el caso, vuelvo a repetir, de variables marginales dicotómicas. Para terminar, digamos, la parte de los conceptos teóricos, tenemos la matriz de varianzas y covarianzas. Es una matriz semidefinida positiva y simétrica, la demostración la tenéis en el libro de texto, y viene dado por la diagonal principal, que son las varianzas, en este caso para bidimensional, si fuese entre variables sería varianza de X, varianza de Y, varianza de Z, y el resto son las covarianzas. La covarianza de X e Y y la covarianza de Y de X que coincide con la de X e Y, en este caso. Por lo tanto, no tiene mayor problema. Después viene la idea de rectas de regresión. ¿Cuál es la idea? Como estamos trabajando con variables bidimensionales, una idea importante es si el coeficiente de correlación lo que me da es qué dependencia, la mayor o menor dependencia entre las variables X e Y, lo que se pretende es buscar una recta que me dé una estimación, por llamarla de alguna manera, de Y en función de Y. Se utiliza el método de mínimos cuadrados y la idea es estimar, por los datos del problema, A y B con la condición de que la esperanza de Y, estoy hablando de una recta de Y en función de X, por lo tanto, lo que pretendo es predecir Y en función de la variable X mediante la ecuación de una recta igual a A más BX. Por lo tanto, Y menos A más BX elevado al cuadrado, esto sea mínimo, calculamos las típicas derivadas, no hay mayor problema y en el libro viene con todo detalle, tenemos la estimación de A y la estimación de B. La pendiente de la recta que es el coeficiente de la covarianza partido por la varianza de X. La varianza residual sería, en términos de E es el error, el error que se comete al predecir Y en función de X, la esperanza del error de la letra e pequeña va de cero, y por lo tanto, la varianza viene dada de esta manera. Esta varianza del error, Y sobra, el cuadrado sobra, es una errata, la varianza de la variable E es Y menos su estimación al cuadrado, y por lo tanto, haciendo operaciones, es igual a la varianza de Y por 1 menos el coeficiente de correlación al cuadrado. Si Rho vale 1, es decir, tenemos una dependencia perfecta, lineal entre los variables X, X e Y, o incluso menos 1, el signo lo único que te dice si la recta es creciente o decreciente, entonces el error o la varianza residual vale cero. Mientras que si las variables son incorreladas, Rho vale cero y entonces la varianza del error es máxima, coincide con la varianza de la variable que pretendo predecir, que es la varianza de Y. De igual manera tenemos la regresión de X sobre Y, la recta de regresión, lo único que tengo que hacer es intercambiar los papeles. Y ahora retomo un poco lo que vimos en el tema número 9, cuando yo hablaba de las esperanzas condicionadas. ¿Me acordáis? Pues bien, si ahora al manejar dos variables calculo la esperanza de Y en función de X como tal esperanza condicionada, por lo tanto tengo que calcular las distribuciones condicionadas, tenemos lo que se llaman las curvas generales de regresión, la curva de Y en función de X y la curva de X en función de Y. Si esta esperanza condicional es una recta es decir, que es una función lineal que depende solamente de X, esta recta coincide con la recta de regresión. ¿De acuerdo? Que es un poco lo que ocurre a veces. Podéis completar todo esto en el libro. Y por último tenemos otras medidas de posición o indicadores. Tenemos la moda, que es aquel valor de la variable en donde su probabilidad es máxima. El año pasado me caí que cayó un problema de examen en donde había que calcular la moda. Es aquel valor en donde, digamos, la función de distribución de M es mayor o igual que Y y la función complementaria de la función de distribución, pero si la probabilidad de X menor o igual que M es mayor o igual que un medio y la probabilidad de X mayor o igual que M es mayor o igual que un medio. Por lo tanto ese valor M que cumpla esta condición o en términos de la función de distribución por la izquierda y por la derecha tenemos la mediana. En términos coloquiales la mediana sería aquel valor que ordenado los valores en orden creciente acumule el 50% de los datos. Sería como un poco una medida de posición o centralización. Es complementaria a la esperanza matemática. Sin embargo, la mediana no necesariamente es única. Igual que vimos el teorema de Cony en donde la variable X menos A al cuadrado es mínimo cuando esa constante A es la esperanza de X, si ahora en lugar de hablar de dispersión elevándola al cuadrado se eleva al cuadrado lo dije antes porque si no considero el momento de segundo orden al poner el momento de primer orden va a aparecer. Si ahora considero en lugar del cuadrado el valor absoluto, el valor A que hace mínimo esta dispersión es precisamente la mediana y este valor se llama la desviación mediana. Una generalización de la medida de dispersión es los cuantiles. El cuantil de orden P, cuando P es igual a un medio ese cuantil de orden medio es la mediana. Veamos un poco esta medida, este ejemplo para completar un poco el esquema teórico antes de entrar ya de lleno en los problemas. Lanzo dos dados y observo su resultado. Obtener la desviación mediana, la meda, la meda antes que estaba comentando, la meda es una medida que es la mediana de las desviaciones respecto de la mediana. El rango de la variable que es el máximo menos el mínimo de los dos resultados es fácil de demostrar que es la diferencia de los valores en valor absoluto. De los 36 casos posibles, entonces los posibles valores de X es X igual a 0 por ejemplo cuando el primer valor y el segundo valor coinciden. Son 6 valores, X igual a 1, X igual a 2, X igual a 5 por ejemplo. ¿Cuándo valdría X igual a 5? Cuando un valor es 6 y el otro es 1 o viceversa. Por eso hay 2 sobre 36. Como la probabilidad acumulada 6, 10, ordenando de menor a mayor X menor o igual que 1 es 16 partido 36 que es menor o igual que un medio y X menor o igual que 2 ya es 24 partido 36 que es mayor o igual que un medio la mediana de la variable X rango es igual a 0. La esperanza matemática o su media simplemente haciendo operaciones de manera trivial es 1,94 que es menor estrictamente menor que la mediana. Para la desviación mediana tenemos que calcular la variable Y que es la variable X menos la mediana que vale 2. Calculamos y construimos esta nueva distribución de la variable Y aquí tenéis los valores posibles ¿de acuerdo? Los valores de la variable X 0-2, 0-1-2, etc. 3-2 en valor absoluto y aquí tenéis las probabilidades correspondientes. ¿De acuerdo? La he puesto aquí pedagógicamente sumando para que veáis los posibles valores. De nuevo, como Y menor o igual que 0 no llega a un medio y Y menor o igual que 1 supera un medio la mediana de la variable Y vale 1 por lo tanto la meda vale 1 porque acordáis era la mediana de las desviaciones respecto de la media y la desviación mediana haciendo operaciones con la variable Y es igual a 7 sextos que es mayor que la meda. Podéis un poco repasar por eso yo siempre lo dejo cortado para que volváis a hacer todos los ejercicios. En este ejemplo es para que trabajéis con la desviación respecto de la esperanza matemática para el caso de una distribución geométrica. Aquí tenéis los valores esto es la parte entera y en la distribución geométrica con P y Q y Mu es la esperanza matemática. Lo tenéis aquí en general para calcular la esperanza de la variable X menos media en valor absoluto. Está un poco lento internet. Y aquí tenéis la relación entre la curva general de regresión y la covarianza. Aquí tenéis la distribución condicionada por ejemplo de Y dado X lo vimos en el tema anterior y la esperanza condicionada que son los valores que toma la variable Y condicionado al conocimiento de X por lo tanto en los valores de Y y su J que lo llamo yo por la distribución condicionada y su J dado XY. La esperanza de X por Y la podemos hacer operaciones lo tenéis aquí, lo podéis repasar tranquilamente y la esperanza de X por Y se demuestra que es igual a la esperanza de X por la esperanza de Y dado X y por lo tanto la covarianza de X y de Y se puede calcular como la covarianza de X y la esperanza de Y dado X. Esto facilita bastante las operaciones en casos digamos un poco necesarios en que sea un poco complicado trabajar directamente con la definición de la esperanza del producto porque tengo que trabajar con un doble sumatorio como aparece aquí con X por Y y por la distribución conjunta. Una idea interesante sería pasarse a la condicionada trabajar con la esperanza condicionada y trabajar de esta manera directamente. Bien pues ahora vamos un poco a reflexionar y a resolver algunos problemas. Yo voy a hacer algunos, no todos pero como queda colgado pues no habrá ninguna dificultad porque están todos resueltos. Veamos el primero cogemos N veces una moneda con probabilidad P de salir cara y según el número de caras obtenidas se lanza igual número de veces la misma moneda. Sea Y la variable número de caras obtenidas en este segundo experimento por lanzamiento. Tenemos que calcular la distribución conjunta probar que la variable Y me parece que lo vimos en el tema número 9 siga una distribución binomial calcular el número esperado de caras en el segundo experimento es decir, la esperanza de Y obtener la curva general de regresión de Y sobre X es decir, la esperanza de Y condicionada a X el coeficiente de correlación de las dos variables y obtener la distribución escondicionada en la otra la simétrica, la de X dado Y y su esperanza. Por lo tanto, en este primer problema resumiríamos un poco todo lo que hemos visto ¿Cuáles son los datos del problema? La variable X es binomial NP y la variable Y condicionada al número X de caras sigue una binomial X porque si salen 10 caras lanzo 10 veces la moneda otra vez y como es la misma moneda XP ¿Qué es lo que ocurre? Que hay una relación funcional entre X e Y la Y tiene que ser menor o igual que X y la X menor o igual que N que es un dato del problema empiezo lanzando n veces la moneda por lo tanto, la distribución conjunta será el producto de la marginal por la condicionada como vimos en el tema número 6 la probabilidad de A intersección B la probabilidad de A por la probabilidad de B condicionada que es el producto de dos binomiales y por lo tanto acento operaciones tenemos esto vimos en el tema número 9 que la distribución de la variable Y al marginalizar Y sumar en X desde Y igual 1 perdón, desde X igual Y hasta N que es lo que pasa aquí hay que sumar desde X igual Y hasta N la conjunta para obtener la marginal de Y obteníamos en el tema número 9 que obtenemos una distribución binomial como es una distribución binomial de parámetros N y P al cuadrado la esperanza de Y es la esperanza de la esperanza condicionada y lo podemos calcular o como esperanza condicionada la de Y dado X es X por P y a su vez la esperanza de P por X que es P por la esperanza de X que es N por P o directamente la esperanza de la variable Y que vimos en el tema número 9 al ser una binomial N P al cuadrado pues es N por P al cuadrado esto un poco para que veáis como puedo calcular la esperanza de la esperanza condicionada que es la esperanza marginal que vimos eso en el tema número 9 que era lo que yo llamaba el teorema de la probabilidad total para esperanzas condicionadas como la curva general de regresión en este caso la esperanza condicionada es una recta es P por X entonces al ser la esperanza de Y condicionada a X una recta P por X ¿qué es lo que ocurre? pues la pendiente de esta recta es P y como habíamos visto la pendiente de la recta de regresión de Y sobre X era la covarianza partido por la varianza de X y aquí despejamos la covarianza perdón y entonces la covarianza de X e Y es P por la varianza de X pero la varianza de X que es la varianza de una binomial que es P por 1 menos P que yo lo llamo Q por N por lo tanto la covarianza es P al cuadrado por Q y por N por lo tanto tenemos la varianza de X que es una binomial y la varianza de Y que es la varianza de otra binomial que es P al cuadrado por 1 menos P al cuadrado por N por lo tanto el coeficiente de correlación cociente de covarianza partido por deviaciones típicas y obtengo al final que solamente depende de P no depende del coeficiente de correlación en la raíz cuadrada de P partido por 1 más P aquí tenéis la distribución condicionada a la inversa es decir, la de X dado Y vía teorema de Bayes haciendo operaciones obtenemos de nuevo una binomial y obtenemos de nuevo que la esperanza de X condicionada a Y es una recta ya que solamente depende de Y y no está elevado al cuadrado ni es una función lineal de Y por lo tanto la curva general de regresión de X sobre Y es una recta por lo tanto no hay que calcular las rectas de regresión es una cosa interesante si nosotros calculamos la esperanza condicionada y son funciones lineales de las variables éstas coinciden con las rectas de regresión no habría que calcular la recta de regresión que normalmente es un poco más complicado de calcular veamos otro problema en esta lineal se tiene una urna con N bolas numeradas del 1 a N se extraen dos bolas con reemplazamiento sea X el máximo valor obtenido y Y el mínimo valor obtenido obtener la conjunta las marginales, las medias las varianzas y el coeficiente de correlación y obtener las dos rectas de regresión y las dos curvas generales de regresión cuando hablo de curvas generales son las esperanzas condicionadas lo digo porque se puede pedir en el examen calcular la esperanza de Y condicionada a X y eso es lo que yo estoy llamando la curva general de regresión lo primero a darse cuenta es primero vamos a llamar X1 el primer resultado y X2 el segundo la variable máximo y la variable mínimo no son independientes las marginales se pueden obtener directamente como veremos en la siguiente diapositiva o a través de la conjunta que es lo que vamos a hacer la función de distribución conjunta es que el máximo sea menor o igual que X y el mínimo menor o igual que Y función de distribución conjunta eso aplicando las propiedades elementales de las probabilidades de los sucesos A y B si llamamos esto A complementario y esto B complementario es la probabilidad, perdón A y B complementarios esto es A menos la intersección de A con B en donde entonces el complementario de Y menor o igual que Y es Y estrictamente mayor que Y porque decir que el mínimo es menor o igual que Y no tiene mucha información en cambio de decir que el mínimo es estrictamente mayor que Y lo que estoy diciendo es que X1 es mayor que Y y que X2 es mayor que Y el que el máximo sea menor o igual que X es obvio porque entonces significa que X1 es menor o igual que X y que X2 es menor o igual que X que es lo que aquí aparece como las dos variables están igualmente distribuidas porque estoy trabajando con distribuciones y con tracciones con reemplazamiento pues será X1 menor o igual que X por X2 menor o igual que X como las dos distribuciones son las mismas será A al cuadrado y aquí exactamente lo mismo aquí será X1 por un lado menor o igual que X y por otro lado estrictamente mayor que Y para X1 y para X2 por lo tanto haciendo operaciones y teniendo en cuenta que la función de distribución de la variable X1 que es la misma que X2 vuelvo a repetir, extracción con reemplazamiento es la suma desde Y igual 1 hasta X de 1 partido N caso favorable partido caso posible no hay problema por lo tanto es X partido por N en consecuencia tenemos como Y es el mínimo siempre menor o igual que X y X menor o igual que N ocurre un poco como pasaba en el ejemplo número 1 por lo tanto para el caso en que X sea estrictamente menor que Y esto es suceso imposible vale cero, por lo tanto tengo X partido N por X partido N es decir X partido N al cuadrado y en el segundo caso cuando X sea mayor o igual que Y pues tenemos X cuadrado partido de N cuadrado menos la diferencia X menos Y al cuadrado partido de N en operaciones tenemos este resultado esta es la función de distribución conjunta si yo quiero calcular la función de probabilidad tendré que coger la conjunta XI menos la conjunta X-1Y menos la conjunta XI-1 y más la conjunta X-1Y-1 lo podéis hacer en un cuadro en un dibujo en un diagrama de barras o en unos ejes de coordenadas y observar como lo que queda es la probabilidad en el punto de XI haciendo operaciones sin mayor dificultad aquí tenéis la función de distribución conjunta tenemos estos valores 2 partido N al cuadrado cuando Y es estrictamente menor que X lógicamente el mínimo y 1 partido N al cuadrado cuando el mínimo y el máximo coinciden y igual hay si vosotros sumáis para todos los valores de XI veréis como vale ¿cómo calculamos las marginales? pues por ejemplo vamos a hacerlo a través de la conjunta por ejemplo la variable X el máximo, pues sumo la conjunta en Y desde Y igual 1 hasta X menos 1 desde la conjunta y cuando Y es igual a X es decir la PXX haciendo operaciones obtenemos este valor lo mismo para la variable X este valor de la distribución conjunta perdón marginal de la variable X del máximo se podría haber cogido perdón calculado de manera directa teniendo en cuenta la idea de independencia de los temas 7 y 8 por ejemplo que el máximo sea exactamente igual a X que esto es lo que estamos calculando que la primera extracción sea igual a X y la segunda estrictamente menor o que la primera sea estrictamente menor y la segunda sea exactamente X o que, tercer caso que la primera sea exactamente igual a X y la segunda sea también exactamente igual a X porque estamos hablando con reemplazamiento sustituyendo y haciendo operaciones obtenemos exactamente el mismo valor que teníamos aquí una vez que tengo los resultados de la variable X e Y pues tenemos aquí calculada la esperanza de X, definición la esperanza de Y, definición la varianza, para ello calculamos la esperanza de X al cuadrado sin mayor problema hay que tener hay que recordar la suma de los cubos y aquí la suma de los cuadrados y obtenemos entonces la varianza de X y la varianza de Y en este caso observar como la varianza de X y la varianza de Y coinciden pero no necesariamente y lógicamente las esperanzas matemáticas para calcular la covarianza y la correlación pues lo podemos hacer de varias maneras vamos a calcularlo aquí de manera directa haciendo operaciones no tiene mayor dificultad y en consecuencia la covarianza aparece este resultado y el coeficiente de correlación dividiendo por las desviaciones típicas que son iguales, barra raíz cuadrada de las varianzas obtenemos definitivamente el coeficiente de correlación las curvas generales de regresión para ello calculamos las distribuciones condicionadas la de Y dado X y la de X dado Y y calculamos la esperanza condicionada que son funciones no lineales por lo tanto las curvas no son rectas la esperanza de Y dado X como un ejemplo de cómo calcular una esperanza condicionada por lo tanto tenemos las dos esperanzas la de Y y la de X dado Y y las rectas de regresión que aquí las podemos calcular aplicando la definición y aquí ya tenemos Y predicción de Y en función de X lineal porque es por definición la recta de regresión y la predicción lineal de X en función de Y simplemente haciendo operaciones sin mayor dificultad este tercer problema también es del mismo tipo le habla de las distribuciones conjuntas os lo dejo para que vosotros le calculeis aquí la única dificultad es calcular la constante K dificultad inicial el resto digamos es exactamente lo mismo las marginales las condicionadas, las conjuntas, las medias el coeficiente de regresión y la recta de regresión os lo dejo un poco para que lo hagáis por vuestra cuenta no tiene mayor dificultad bien veamos ahora algunas cosas generalizaciones variantes de exámenes aquí tenéis una generalización del examen de febrero del 2016 tenemos una variable bidimensional con una función de probabilidad conjunta X igual a Y Y igual a J viene dado de esta manera en donde A es una constante comprendida entre 0 y 1 perdón es un parámetro y C una constante positiva a determinar hay que calcular la constante C y determinarla las funciones de probabilidad marginales la de X y C de Y calcular la esperanza de X y la esperanza de Y y como extra que yo os pongo probar que la covarianza coincide con A con el parámetro A en el examen A era igual a 1 medio un poco para que lo recordéis aquellos que tengáis digamos un poco archivado exámenes de otro lado bien, ¿cómo calcular la constante C? pues lo único que tengo que sumar es en Y y en cota para todos los valores X e Y la conjunta ahora es un dato del problema por lo tanto sumo en Y los valores posibles en J para la variable de Y la suma como A es un número menor que 1 porque estamos frente a una suma geométrica de razón A que es menor que la unidad y y como la Y es menor o igual que J cuando yo sumo en J la J será desde I desde J igual a I hasta infinito no hay ningún problema y ahora sumo un valor en I y la I varía desde 1 hasta infinito y obtenemos que la constante C lo igualo a 1 y despejo C no tiene mayor problema y tengo que la constante C es 1 menos A por elevado a menos A a partir de la constante C entonces ya puedo calcular las marginales ¿cómo marginalizo? pues calculando la conjunta para la variable X sumando en J que es la variable I y sustituyendo el valor de C que lo acabo de calcular y por lo tanto la distribución de la variable X marginal es una distribución de Poisson de parámetro A un A comprendido entre 0 y 1 estrictamente y la distribución de I sumo ahora en X es decir, en I pequeña desde I igual 0 hasta J la conjunta sustituyendo el valor de C obtengo la distribución de la variable I que no es posible simplificarla a no ser que se pueda poner en términos de la función gamma incompleta una función del análisis matemático como la variable X es una distribución de Poisson la esperanza de X entonces ya sabéis que es el parámetro de la distribución de Poisson por lo tanto la esperanza de X es A por otro lado para la conjunta para calcular la esperanza de la variable I vamos a hacerlo a través de la condicionada, la esperanza de X condicionada a X tenemos estos valores por lo tanto la esperanza de Y condicionado a X serán los valores de I que lo estoy llamando J pequeña por su probabilidad condicionada haciendo operaciones obtengo I menos 1 más 1 partido 1 menos A por lo tanto la esperanza de I es la esperanza de la esperanza condicionada es decir la esperanza de la esperanza condicionada de I dado X ahora X lo pongo como tal variable para poder calcular la esperanza por lo tanto en lugar de I pequeña pongo X X menos 1 más 1 partido por A y aplicando las propiedades del operador esperanza acordáis del tema del número 9 es la esperanza de X menos 1 más 1 partido 1 menos A haciendo operaciones obtengo este valor que en el examen para A igual a un medio salía la esperanza de I igual a 3 medios os lo dejo como ejercicio que calculeis la covarianza de X e Y que vale exactamente A la ayuda es que trabajéis con la esperanza de I dado X que es una recta y la pendiente es una recta porque solamente depende de X de manera lineal y la pendiente de X de esta recta es 1 y hagáis un poco el pequeño truco que vimos en el ejemplo número 2 continuamos aquí tenéis también parte del examen de febrero de 2015 que lo vimos en el tema número 6 si mal no recuerdo y en el tema número 9 era la forma aleatoria de construir un conjunto acordáis este conjunto el máximo número M se elegía mediante un mecanismo de una distribución geométrica de parámetro P y después se sorteaban los números para formar ese conjunto para los valores de K 1, 2, M-1 siendo M el máximo valor con probabilidad P entraban y con probabilidad Q no entraban en ese conjunto había que calcular la probabilidad de que cualquier número estuviese incluido en ese conjunto lo tenéis aquí lo calculamos en el tema número 9 en el tema número 6 aquí tenéis la diapositiva para que volváis un poco a repasarlo el valor esperado de la suma la distribución del número de elementos de A y la media de el número de elementos de A en rojo aparece digamos un poco la novedad de esta tarde la varianza del número de elementos de A de la variable aleatoria al número de elementos de A y el coeficiente de correlación entre el número de elementos de A la suma la podíais tomar de esta manera acordáis N por la función indicadora o estaba o no estaba si estaba toma el valor 1 y si no estaba toma el valor 0 esta esperanza estaba aquí de esta manera y la distribución del número de elementos de A era una distribución geométrica P y Q valía un medio en el examen esto como recordatorio esta esperanza también la habíamos calculado que valía 3 medios y P vale 1 medio y teniendo en cuenta las expresiones de la suma del número de elementos y el número de elementos de A podemos calcular la conjunta aplicando el teorema de la probabilidad total la probabilidad de que K y N estén en A fijaros esto vosotros lo vais sustituyendo yo lo he puesto aquí con mucho detalle es la probabilidad de que pertenezcan dado que el máximo coincide con N por la probabilidad de que el máximo coincide con N o el caso de que el máximo sea mayor que N es decir que N esté metido en A por la probabilidad de que M sea mayor que A para trabajar con M hay que trabajar con la distribución geométrica que aparece en el enunciado del problema aquí aparece la suma correspondiente los valores y la de la probabilidad total y aquí tenéis para el caso K menor que N para el caso K estrictamente mayor que N pues tenéis también esta expresión por lo tanto la esperanza del producto es como si yo estuviese calculando ahora la esperanza de X por Y pues tenemos N que lo tenemos aquí N y aquí el producto de las dos funciones indicadoras por lo tanto es N por la probabilidad de K y N perteneciente a que es justo lo que hemos estado calculando ¿de acuerdo? es como si yo multiplicase N por 1 es decir la esperanza de X por Y por lo tanto estamos calculando la covarianza a través de la definición clásica calculando la esperanza del producto es decir de X por Y en este caso de A valor absoluto por S que haciendo operaciones tenemos según N sea menor que K por lo tanto sería desde N igual 1 hasta K menos 1 para N igual a K y para N desde K más 1 hasta N es decir para N mayor que K N estrictamente menor que K N estrictamente mayor que K y N exactamente igual a K que son los tres sumando haciendo operaciones y sustituyendo tenemos este valor si yo por lo tanto la covarianza toma este valor como la varianza de la variable A que es una geométrica lo tenemos aquí calculado entonces tenemos definitivamente y la esperanza de S al cuadrado la podemos calcular de esta manera y por lo tanto tenemos esta varianza obtenemos definitivamente el coeficiente de correlación los saltos de operaciones menos saltos el coeficiente de correlación que es la raíz cuadrada de 2 partido por 3 menos 2 que salía en el examen para P igual a Q igual a 1 medio 2 raíz de 5 partido por 5 es un poco laborioso pero bueno os lo dejo para que vosotros lo volváis a repasar esto es muy parecido a lo que hemos visto hasta ahora y por lo tanto me lo salto también un poco para que vosotros lo trabajéis con tranquilidad vamos a ver la continuación del examen de febrero de 2014 lo estuvimos viendo en el tema número 9 un jugador toma de una en una cartas de una baraja española un total de 40 cartas perdón sea N mayúscula la variable aleatoria el número de extracción en la que se ha obtenido el cuarto A hay que calcular la función de probabilidad de N y hallar su moda calcular la esperanza y calcular la varianza la novedad un poco en esta parte del tema de hoy del tema número 10 es calcular la moda y calcular la varianza sin mayor dificultad la función de probabilidad que ya la vimos en el tema número 9 se puede calcular de varias maneras distintas sería toma el valor N cuando de los cuatro aces he elegido 3 de las 36 cartas he elegido N-4 por lo tanto esto es en la jugada N-1 de las 40 cartas he elegido N-1 y en la jugada enésima cojo el cuarto A por lo tanto aquí trabajando con la distribución hipergeométrica porque hay que trabajar con la distribución hipergeométrica porque estoy hablando de extracciones sin reemplazamiento voy sacando de una en una por lo tanto de las 40 cartas he elegido N-1 de estas N-1 3 son aces y el resto N-4 no son aces y en la jugada enésima si en la extracción enésima saco en las que queda casos favorables 1 haciendo operaciones tenemos esta cociente de números combinatorios observar como esta función p de N igual a N es una función creciente para N mayor o igual que 4 que es por donde está definida y el máximo se alcanza en N igual a 40 que es la moda de la distribución por lo tanto la moda de la distribución es N pequeña igual a 40 que es la que tiene máxima probabilidad y esta probabilidad es 1 partido por 10 para calcular la esperanza matemática que ya la calculamos en el tema anterior lo que hacemos es aplicar digamos las fórmulas que vimos en la página 510 que son las fórmulas de la combinatoria para el caso de la varianza lo que hacemos es en lugar de calcular esto es un consejo que os doy cuando tenemos variables que toman valores enteros y positivos de manera continuada 1, 2, 3, etc. muchas veces en lugar de calcular la esperanza de N al cuadrado de manera directa para calcular la varianza es decir, el momento de segundo orden sino la media al cuadrado lo que hacemos es calcular la esperanza de N por N más 1 con el objeto de meter N más 1 en el número combinatorio correspondiente os acordaréis que aquí aparecía N menos 1, N menos 2, etc. aquí ahora va a aparecer N menos 1, N menos 2, N menos 3 N y N más 1 por lo tanto sustituyendo y operando obtenemos de nuevo este valor después de haber aplicado las fórmulas correspondientes y aquí tenemos la esperanza de N por N más 1 por lo tanto la varianza de N en el momento de segundo orden menos la media al cuadrado haciendo operaciones no tiene mayor dificultad aquí mucho cuidado que aquí una vez que tengamos el valor 1148 lo que tenemos es la esperanza de N al cuadrado más la esperanza de N y yo lo que tengo que despejar es la esperanza de N al cuadrado la esperanza de N en la media que es 32.2 veamos ahora una generalización del examen del año 2012 de febrero se dispone de una moneda con probabilidad P de salir cara y de una urna que contiene A bolas blancas y B bolas negras, se lanza una moneda hasta que aparezca cara siendo T el número de lanzamiento realizado después se extraen con reemplazamiento T bolas de la urna siendo N el número de bolas blancas hay que calcular la media de la variable T y de la variable T al cuadrado lo de T al cuadrado un poco está preparado para después calcular la varianza para cada valor de T hay que calcular la esperanza condicionada y a partir de esta esperanza condicionada como yo he dicho en el esquema teórico hay que calcular la esperanza marginal de T y la covarianza y determinar la función de probabilidad de N se da como idea esta identidad de números combinatorios bien, primera idea la distribución de la variable T como es un modelo de espera hasta que aparezca la cara estamos hablando de una distribución geométrica de parámetro T por lo tanto aquí tenéis la distribución la función de probabilidad de la variable T con P más Q como siempre igual a 1 la esperanza de T es la inversión del parámetro 1 partido por P y la esperanza de T al cuadrado pues es simplemente calcular esta serie aritmético geométrica sin mayor dificultad como por otro lado fijado el valor de T la variable N, os acordáis es si una distribución binomial al ser extracciones con reemplazamiento entonces si una distribución binomial de parámetro T y P1 en donde P1 es A partido A más B es decir la probabilidad de sacar bola blanca ¿de acuerdo? por lo tanto la esperanza de N condicionado a T es esta binomial con P1 igual a A partido A más B y la esperanza de N dado T pues la media de una binomial es decir P1 por T por lo tanto la esperanza de N es la esperanza de la esperanza condicional es decir la esperanza de P1 por T que es P1 por la esperanza de T pero como la esperanza de T es 1 partido por P por ser la geométrica ya tenemos la esperanza de la variable N para calcular la covarianza calculamos la esperanza del producto T por N fijado el T que es T fijado por la esperanza de N dado T y es la esperanza de P1 por T al cuadrado por lo tanto la esperanza de T por N os acordáis también el esquema teórico es la esperanza de T por la esperanza condicionada de N dado T es P1 por la esperanza de T cuadrado que ya está calculada y por lo tanto obtenemos la esperanza del producto por lo tanto la covarianza la esperanza del producto es el producto de la esperanza y tenemos el valor en función de P y P1 que es A partido A más B perdón para calcular las marginales hay que distinguir el caso N igual a 0 puede ser que no haya sacado ninguna cara en términos de la conjunta pero aquí la conjunta está despieceada en la marginal y en la condicionada y que para el valor de N igual a 1, 2, 3 sucesivamente en función de C que viene dado de esta manera no tiene mayor dificultad y aquí os propongo que calculeis la otra distribución condicionada si observáis casi todos los problemas son muy parecidos esta es una variante del examen de 2016 que lo voy a dar un poco rápido porque es interesante fijaros sea T de nuevo una distribución geométrica es muy versátil para hacer problemas la geométrica y sea X sub K una sujeción de variables independientes e independientes de T cada una con una distribución uniforme o rectangular de una N es decir que toma cualquier el valor constante 1 partido N pequeña cualquiera de los valores y defino el mínimo de estas variables ¿cuál es la novedad? que es un número aleatorio de variables es decir es X1, X2 pero no un valor X sub K es X sub T mayúscula variable aleatoria por lo tanto el mínimo será un mínimo aleatorio de variables aleatorias hay que calcular la función de distribución de Z condicionado a T para cada valor de T y deducir a partir la función de distribución de Z determinar la función de probabilidad de T condicionada y la esperanza condicionada en el examen es exactamente lo mismo pero era condicionado al máximo es decir la variable Z no es el mínimo como yo he puesto sino que es el máximo pero no tiene mayor dificultad para calcular la función de distribución de Z condicionada a T calculo el complementario del máximo perdón del mínimo en lugar de que el mínimo sea menor o igual que K todos los valores mínimos son mayor que K por lo tanto X1 es mayor que K, X2 mayor que K y etc. fijado un T mayúsculo igual a T pequeña ya es un valor determinístico y por lo tanto es la probabilidad de X sub Y mayor que K fijado el T igual a T pequeña como Z es menor o igual que K se aplica el teorema de la probabilidad total y aplicando la fórmula de Bayes tenemos fijado un T pequeña en la función de distribución y por lo tanto es 1 menos 1-K partido N elevado a T pequeña entonces la función de distribución la tenemos aquí, por lo tanto la, perdón que me ha entrado y por otro lado la función en donde perdón, la probabilidad de T fijado Z mayor que K llega entonces a una distribución geométrica y por lo tanto la esperanza es la media de la geométrica y generada de esta manera. Bien, esto es muy parecido al problema número 1 lo obvio este también como viene, lo único que hago es generalizarlo, viene en la página 198 el enunciado y en la página 204 que son ejemplos del libro también lo obvio para que vosotros lo trabajéis aunque son, insisto suelo poner generalizaciones o variantes un poco la idea de de las PEC esta es otra variante del examen también un poco para que lo veáis no quiero alargarme llevo más de una hora y esta es un examen de febrero de 2014 en donde supongamos que X es una distribución de Poisson de parámetro lambda condicionado por el valor X sin una distribución binomial de parámetro n y b se supone que cuando X igual a cero la Y vale cero hay que calcular la distribución de probabilidad de Y y la de X condicionada a Y dar la expresión de la variable la resta de regresión calcular la covarianza el coeficiente de correlación y probar que la variable Y y la variable X-Y son independientes los datos del problema bueno, no me acuerdo si es 2014 o incluso de 2017 de este año pero bueno, da igual datos del problema la función de probabilidad de la distribución de Poisson Y condicionada la binomial pues la probabilidad de Y condicionada a X una binomial como siempre M tiene que ser menor o igual que Y como Y sigue una distribución de parámetro lambda P hay que demostrarlo es simplemente lo de siempre calcular la conjunta es decir, X por Y por lo tanto el producto de la binomial por la Poisson y sumar para todos los valores de X en este caso para los valores de X es decir, desde N igual a M hasta infinito demostrar entonces que Y sigue una distribución de Poisson de parámetro lambda P y la otra condicionada la de X dado Y sigue una distribución de Poisson de parámetro lambda 1-P O las restas de regresión son lineales la covarianza la raíz cuadrada y esto para que vosotros lo hagáis también bien, y con esto he terminado perdonar un poco el acceso de todos pero aquí en Málaga ha nevado digamos me he enfriado un poco ¿tenéis alguna duda? algún comentario que hacer bueno pues os deseo lo mejor y estoy a vuestra disposición esta misma noche cuelgo el tema para que lo podáis digamos volver a revisar a ver, etcétera, etcétera sin mayor problema un saludo y os deseo un año bueno y que tengáis sobre todo buenos exámenes ¿de acuerdo? buenas noches