Bien, vamos a ver hoy el tema 4, características de las distribuciones de probabilidad. Veremos una primera parte, dejamos para la segunda parte lo referente a las variables aleatorias bidimensionales. Bien, pues vamos a ver el concepto de esperanza matemática o también el valor esperado o media de una variable aleatoria. Bien, en primer lugar veremos el caso de que la variable aleatoria sea discreta y se define la esperanza de la variable como la suma de cada valor de la variable por su probabilidad. O sea, aquí está escrito para todos los subíndices de la variable, pues es la suma de los productos de x sub i multiplicado por su probabilidad de que la variable tome ese valor. En el caso de que la variable sí tome un número infinito numerable. Bien, valores, entonces tenemos que suponer que la serie para que exista la esperanza tiene que ser absolutamente convergente. Supongamos que es absolutamente convergente. En caso contrario, pues no existiría el sumatorio y por tanto no existiría la esperada. Bien, en el caso de que la variable sea continua, la definición es la siguiente. El valor de esperado de xi sería la integral, desde menos infinito hasta más infinito, de x por f de x, donde f de x es la función de densidad, por diferencial de x. En el caso de que la integral sea impropia, en el que su función de valor llegue hasta el infinito, supondremos también que es absolutamente convergente. En caso contrario, pues igual que antes, tampoco existe la esperanza. Es decir, que es un concepto que no siempre existía. Bien, la esperanza suele representarse por la letra mu. En el caso de la variable discreta que hemos visto antes, podemos... Reconocer que es un concepto muy parecido al concepto de media aritmética de la estadística de las distribuciones de frecuencias. Puesto que es sumar los productos de cada valor de la variable por su probabilidad, que en el caso de las distribuciones de frecuencias era multiplicar cada valor de la variable por su frecuencia relativa y sumar todo el resultado. Bien, vamos a ver algunos ejemplos. Aquí tenemos la función de cuantía de una variable aleatoria discreta. Los valores que toma la variable son el 1, 2, 3 o 4 con las probabilidades que tenemos aquí. Evidentemente nos suma la unidad. Bien, pues el valor esperado de esta variable aleatoria sería multiplicar cada valor de la variable por su probabilidad y sumar. Aquí tenemos 1 por 0,1, más 2 por 0,2, más 3 por 0,3, más 4 por 0,4. Bueno, el resultado es 3. Significa que 3 es la media o valor esperado de esa variable aleatoria. Otro ejemplo. Supongamos que la función de probabilidad de una variable aleatoria sí sea p de que sí sea igual a 3 elevado a i y sea igual, la probabilidad es a 2 partido con 3 elevado a i. Para los valores de i, 1, 2, 3 indefinidamente. Bien, pues se trata de una función de probabilidad, puesto que todas las probabilidades y la suma de todas las probabilidades, la suma desde i igual a 1 hasta infinito, de 2 partido por 3 elevado a i, puesto que se trata de la suma de los infinitos elementos de una progresión geométrica de razón tercio, pues su suma sería el primer término, que sería 2 tercios, para i igual a 1, y a 2 tercios partido por 1 menos la razón, que es 1 menos un tercio. Bien, bueno, esto es igual a 1, o efectivamente se trata de una probabilidad. Ahora bien, al intentar hallar el valor esperado, tenemos que multiplicar cada valor de la variable, que son las potencias de 3, sería 3 elevado a i, multiplicado por su probabilidad, que es 2 partido por 3 elevado a i, eso desde igual a 1 hasta infinito. Claro, cada uno de estos sumandos se simplifica en 3 elevado a i, y nos quedaría que el sumando es igual a 2. Entonces sumar en 2 infinitamente, evidentemente, ese resultado es infinito, por lo tanto no es convergente o absolutamente convergente la serie, por lo tanto no existe la esperanza de esta variable aleatoria. Bien, veamos otro ejemplo ahora de variable aleatoria continua. Supongamos que la función de densidad en una variable aleatoria es la que tenemos aquí expresada, es decir, que sería x cuando x varía entre 0 y 1, 2 menos x cuando x varía entre 1 y 2 o 0 en el resto. Bien, entonces el valor esperado, pues hay que multiplicar x por la función de densidad y hacer la integral en todo el dominio de la función. Es decir, que sería la integral desde menos infinito hasta más infinito de x por f de x. En este caso particular tendremos, bueno, primeramente integramos en el intervalo 0, 1, cuando sería la integral desde 0 hasta 1 de x por la función de densidad, que en ese dominio vale x, cuando sería x al cuadrado de la diferencial de x. Más, ahora, la integral desde 1 hasta 2. De x multiplicado por 2 menos x. Y aquí lo tenemos, que sería 2x menos x al cuadrado de la diferencial de x. Bueno, estas dos integrales son inmediatas. Portulamos la primitiva y aplicamos la fórmula del valor. Y el resultado es 1, que la media de esta variable aleatoria sería la unidad. Y vamos a ver otro ejemplo, también de continuo, aquí tenemos la función de densidad, que sería 2 partido por x al cuadrado para x mayor o igual que 2, o 0 en el resto. También comprobamos que efectivamente una función de densidad, hallando la integral de ella misma, ¿no?, tomó su dominio que sería para x mayor o igual que 2, o sea, desde 2 hasta infinito, entonces sería la integral de 2 hasta infinito de 2 partido por x al cuadrado, que la primitiva de 2 partido por x al cuadrado sería menos 2 partido por x desde 2 hasta infinito, y esto vale 1, efectivamente se trata de una función de densidad. Sin embargo, para hallar la esperanza, bueno, tenemos que multiplicar por x, en cuyo caso la esperanza sería la integral desde 2 hasta infinito de 2x partido por x al cuadrado, que simplificado sea la integral desde 2 hasta x. Entonces, 2 partido por x, que es 2 por el logaritmo neperiano de x entre 0 e infinito, que da infinito, por lo tanto la integral tampoco es absolutamente convergente, luego no existe la esperanza de esta variable. Bien, vamos a ver algunas propiedades de este concepto de la esperanza. Bueno, en primer lugar, si C es una constante, es decir, es una variable aleatoria que toma únicamente el valor CE contra la medida 1. Bueno, pues entonces el valor esperado de C sería el valor que toma por su probabilidad, es C por 1, que sería C. En segundo lugar, otra propiedad, el valor esperado de B más una suma de variables aleatorias multiplicadas por unos coeficientes, desde igual a 1 hasta N, el sumatorio desde igual a 1 hasta N de C sub i por C sub i, es igual a esa constante más el sumatorio de C sub i por el valor esperado de cada una de las variables, C sub i. Siendo así, los valores sub i y C sub i son constantes y C sub i son variables aleatorias. Bien, esto en el libro podemos ver la demostración, pero bien, aquí nos quedaremos con esta fórmula, es decir, que la esperanza de la suma, podríamos decir que es la suma de los valores esperados, no de las esperanzas. Algo menos. Indica esta propiedad. Una consecuencia obvia es que la esperanza de sí menos mu, en mu es la esperanza de sí, entonces el valor esperado de sí menos su propia esperanza, claro, es cero, puesto que esto sería la esperanza de sí menos la esperanza de mu. La esperanza de mu es la propia constante mu, y la esperanza de una variable es una constante. Por tanto, esto sería mu menos mu, que es igual a cero. Bien, y otra tercera propiedad. Si tenemos n variables aleatorias, si sub 1, si sub 2, etc., hasta si sub n, que son independientes, son independientes si y sólo si el valor esperado del producto de las variables es el producto de los valores esperados. Bien. ¿Qué es la esperanza, cómo se calcula la esperanza de una función, de una variable aleatoria? Bueno, vamos a suponer que tenemos una determinada variable aleatoria y una función de ella que sea gd, gdx. Entonces el valor G de XI será otra variable aleatoria. Su valor esperado sería el resultado, en el caso de que sea discreta, pues multiplicar cada uno de los valores que toma G de XI, entonces sería G de X sub i para todos los i, por sus probabilidades y sumar todo eso. La misma fórmula del valor esperado de una variable. Y en el caso de que sea continua, pues el valor esperado de G de XI sería la integral de menos infinito a más infinito de G de X por F de X diferencial de G de X. Es la función de la necesidad. Igual que en el caso de la definición del valor esperado de una variable aleatoria, debe existirse la convergencia absoluta, tanto de la serie como de la integral. Si no, pues no existiría la esperanza. Bien. Acá. ¿Qué llamamos momento alfa sub r de orden r respecto del origen? Bueno, pues lo expresaremos... Bueno, el momento se define como el valor esperado de la variable elevada a r. Esperanza de XI elevada a r. Y veamos este teorema, que es un teorema de la existencia de los momentos. Que claro, no siempre existirá porque, como he dicho antes, tanto la serie si fuese disqueta como si la variable disqueta, como si fuese continua en el caso de la integral, deben de ser absolutamente convergentes. Ahora bien, el teorema dice lo siguiente. Si existe alfa sub r, momento de obtenerle, existe alfa sub s cualquiera que sea s menor o igual que r. Es decir, que conocido la existencia de, por ejemplo, alfa sub 3, si existe alfa sub 3, existen alfa sub 1 y alfa sub 2. Bueno, vamos a ver una prueba de esto, ¿no? Sea, vamos a llamar c asterisco al conjunto de números reales cuyo valor absoluto es menor o igual que 1. Esto es el intervalo cerrado menos 1. Y c al complementario, el conjunto de números reales cuyo valor absoluto es mayor que 1. Bueno, pues entonces, ¿cuánto vale alfa sub s? Que es lo que queremos ver que tiene existencia, ¿no? Estamos suponiendo que existe alfa sub r y queremos ver que alfa sub s también existe. Bueno, pues alfa sub s sería la integral en todo el conjunto de números reales, podemos decir desde menos infinito hasta más infinito, de x elevado a s por f de x diferencial de x. Claro, esta integral es menor o igual que la integral, desde menos infinito hasta más infinito del valor absoluto de x elevado a s por f de x diferencial de x. Claro que el valor absoluto de x siempre es mayor o igual que la propia función x elevado a s. Ahora bien, ¿a qué es igual esta integral? Pues la separamos en los dos dominios que tenemos antes, el c asterisco y el c, o sea que por una parte sería igual a la integral en c asterisco del valor absoluto de x elevado a s por f de x diferencial de x más la integral en el otro dominio c del valor absoluto de x elevado a s por f de x. Ahora bien, la primera. La primera de estas dos integrales, la que está extendida al c asterisco, puesto que el valor absoluto de x es menor o igual que 1, si lo prescindimos de él, resulta que la integral será menor o igual que f de x diferencial de x, puesto que el valor absoluto es menor o igual que 1, lo sustituimos por 1. Por lo tanto, esta primera integral es menor o igual que la integral c asterisco de f de x diferencial de x. Y la segunda integral, sustituimos, puesto que s es menor o igual que r y el valor absoluto de x es mayor o igual que 1, el x, el valor absoluto de x elevado a s será menor o igual que el valor absoluto de x elevado a r. Por lo tanto, sumamos la integral del valor absoluto de x elevado a r, f de x diferencial de x, en el dominio c. Y, bien, de estas dos integrales, la primera integral, la integral de f de x diferencial de x en c asterisco, es menor o igual que 1, puesto que es la integral de la función de densidad, que vale 1 en todo r. C asterisco valdrá menos, será menor o igual que 1. Y la segunda integral... Puesto que existe el momento de orden r... Esta integral es absolutamente convergente, desde luego, bueno, es absolutamente convergente la integral del valor absoluto de x elevado a r desde menos infinito hasta más infinito, puesto que esta está en un dominio menor, pues será también absolutamente convergente y elevado a un valor que llevamos k. Por tanto, esto es un número real finito, será menos igual que 1 más k, que es un número finito. Es decir, que alfa sub s existe, que es lo que queríamos demostrar. Bien, otro tipo de aumentos son los momentos mu sub r de orden r respecto de la media. Se definen de esta manera, o sea que mu sub r es el valor esperado de si menos mu elevado a r. Bien, esta expresión, si desarrollamos el binomio si menos mu elevado a r, la fórmula del binomio de Newton, pues nos aparece un sumón polinomio, ¿no? Entonces, potencias de xi y potencias de mu, fórmula del binomio de Newton, ¿no? Y entonces, resulta que el... y podemos entonces aplicar el valor esperado, podemos aplicárselo a ese polinomio y la esperanza del polinomio es la suma de las esperanzas de cada uno de los monomios por lo tanto obtendríamos esta expresión de aquí, es el C-teorema que 1 sub r es igual al sumatorio desde k igual a 0 hasta r de menos 1 elevado a k cuando esto ya es la fórmula del binomio de Newton, por r sobre k por mu elevado a k y por alfa sub r menos k en consecuencia si existe alfa sub r entonces existe mu sub s para todo s menor o igual que r es decir que si existe cada uno de los momentos respecto del origen alfa sub r, quiere decir que existen todos los momentos mu sub r para o sea mu sub s para todo s menor o igual que r es decir, porque los momentos respecto de la media los podemos escribir en función de los momentos respecto del origen Bien, vamos a ver ahora unas medidas de la dispersión de la variable aleatoria. Es decir, la variable aleatoria toma una serie de valores y pueden estar más o menos dispersos y eso lo vamos a detectar con una serie de medidas. En primer lugar tenemos lo que llamamos desviación media respecto de la media que sería el valor esperado del valor absoluto entre sí menos su media. Es decir, lo que sería la distancia de la variable aleatoria a su media. Esa distancia, que la expresamos como la diferencia del valor absoluto, es una variable aleatoria. Entonces el valor esperado de esa distancia, la distancia media, podemos decir, es lo que llamamos la desviación media respecto de la media. Claro. El valor, esta desviación, si las distancias, es decir, si la variable está muy dispersa, está muy alejada de su media. Pues entonces la expiación media será mayor que si los valores de la variable están más agrupados alrededor de la media. Bien, otra medida de dispersión mucho más interesante es la varianza, que se define de esta manera, que es el valor esperado. En vez de poner la distancia sin menos mu en el valor absoluto, pues ponemos sin menos mu elevamos al cuadrado. También garantizamos que sea positiva. Y bueno, esto en realidad es el momento de segundo orden respecto de la media. De los momentos que hemos definido anteriormente respecto de la media, este es el de segundo orden, sub 2. Y su significado un poco es igual que lo anterior, es decir, que cuanto más alejados estén los valores de la media, obviamente mayor será la variable sin menos mu al cuadrado, y tanto mayor será el suma del esperado. Este. Esta varianza se representa por sigma al cuadrado. Y bien, vamos a ver algunas de sus propiedades. Desde luego, sigma al cuadrado siempre será un número mayor o igual que cero. La varianza de una constante es cero, puesto que la constante, su valor esperado es ella misma, luego su definición, la varianza sería esperanza de sí menos mu, que sería c menos c en este caso, cuando cero al cuadrado es cero, la esperanza de cero sería cero. La tercera propiedad no es ni más ni menos que particularizar, para el caso de R igual a 2, la descomposición que hemos hecho antes del binomio de Newton, es decir, que la varianza es igual a alfa sub 2, que sería el momento del segundo orden respecto al origen menos la media elevada al cuadrado. Bien, una cuarta propiedad, la varianza de sí más o menos eta, suma o resta de dos variables aleatorias, pues sería, a definición, sería el valor esperado de sí más o menos eta elevado al cuadrado, menos, se fijamos ya en la tercera propiedad, menos el valor esperado de sí más o menos eta elevado al cuadrado. La esperanza de la varianza del cuadrado menos el cuadrado de la esperanza. Bueno, aquí si desarrollamos estos cuadrados, pues nos quedaría que el primer minuendo de la esperanza de sí más menos eta al cuadrado sería la esperanza de sí cuadrado más la esperanza de eta al cuadrado, más o menos doble de la esperanza del producto. Y se podría mostrar sustraendo que calcularíamos la esperanza de sí más menos eta sería la esperanza de sí más menos la esperanza de eta y eso lo elevamos al cuadrado y entonces aparecería la esperanza de sí al cuadrado más la esperanza de eta al cuadrado y más o menos doble de esperanza de sí por esperanza de eta. Bueno, si quitamos el corchete y lo ordenamos de otra forma, pues nos aparece esperanza de sí al cuadrado menos... Esperanza de sí elevado al cuadrado más esperanza de eta al cuadrado menos esperanza de eta elevado al cuadrado y luego ya más o menos sacamos el dosparto común de lo que queda que es esperanza del producto menos el producto de las esperanzas. Bien, aquí observamos que esperanza de si al cuadrado es la varianza de si, esperanza de eta al cuadrado menos esperanza de eta elevado al cuadrado es la varianza de eta y este último sumando que tenemos aquí, el 2 por esperanza del producto menos el producto de la esperanza es lo que llamamos la covarianza de la variable bidimensional si eta. Esto sería más o menos el doble de la covarianza que el concepto que luego veremos más adelante en la segunda parte del tema. Bien, en el caso de que si y eta sean independientes, puesto que en ese caso la esperanza del producto es igual al producto de las esperanzas, la covarianza sería cero, pues la esperanza de si por eta sería igual a la esperanza de si por esperanza de eta. Por lo tanto, en ese caso, en el caso de que si y eta sean independientes, la varianza de la suma o de la resta sería igual a la suma de las varianzas aplicando esta propiedad. Bien, una quinta propiedad, la varianza de xi más menos c, que es una constante, pues es igual a la varianza de xi. Ya vemos que la varianza de c es igual a cero. Por tanto aplicaríamos la propiedad 4 al caso de que la segunda variable es una constante y aparece la variable. O sea que la varianza de la suma es la varianza de la variable. Y la última propiedad es que la varianza de una constante forma, la variable de la teoría de xi, la constante sale fuera como factor elevado al cuadrado, como sería c al cuadrado por la varianza de xi. Bien, llamamos desviación típica o desviación estándar a la raíz cuadrada de la varianza que representaremos por sí. Bien, ¿a qué llamamos tipificación de una variable? Bien, pues tipificar una variable aleatoria, eta, cuya media sea mu y cuya desviación típica sea sigma, consiste en restarle su media y dividirla por su desviación típica. Una transformación, ya tenemos una nueva variable, que sería esta de aquí, o sea que sería una variable xi igual a eta menos mu partido por xi. aquí en esta expresión la única variable es mu o sea, perdón, es eta porque mu es la esperanza de eta que es una constante y sigma es la desviación típica que es otra constante bueno, pues entonces esta nueva variable sí ¿cuál es su media? ¿cuál es su valor esperado? pues aquí lo tenemos sería esperanza de eta menos mu partido por sigma sigma es una constante que sale fuera del valor esperado o sea, sería partido por sigma y nos quedaría la esperanza del numerador la esperanza de eta menos mu que sería la esperanza de eta menos mu menos la esperanza de mu que es mu entonces tendría esta expresión de aquí y claro, esto es igual a cero puesto que esperanza de eta es igual a mu y la desviación típica sí, que sería la raíz cuadrada de la varianza sería la raíz cuadrada de la varianza de eta menos mu partido por sigma que es la raíz cuadrada de bueno, la sigma es una constante que sale también fuera por lo tanto, sería aquí partido por sigma al cuadrado y la varianza del numerador puesto que mu es una constante es la varianza de eta por lo tanto, la varianza de eta es sigma al cuadrado luego esto sería raíz cuadrada de uno que es igual a mu Es decir, que la variable tipificada tiene por media cero y por desviación típica uno. Bien, vamos a ver un teorema de aportación de probabilidades, que es el teorema de Markov. Bien, tenemos una variable aleatoria xi y g de xi, una función real de la variable, tal que g de xi sea mayor o igual que c. Entonces, para cualquier constante positiva k, se verifica que la probabilidad de que la función g de xi sea mayor o igual que k es menor o igual que el valor esperado de g de xi partido por k. Bueno, ahora, esta aportación resulta bastante lógica, puesto que lo que indica es que la probabilidad de que la función de la variable aleatoria, que al fin y al cabo es otra, es otra variable aleatoria, supere un número k. Pues claro, será directamente proporcional, o sea, está acotada por un número que es directamente proporcional al valor esperado de esa variable g de xi. Si g de xi tiene un valor esperado muy grande, pues la probabilidad de que esa variable aleatoria supe a un cierto número k es proporcional a ese valor esperado, lo que nos dice este teorema. E inversamente proporcional a k, y que cuanto mayor sea k, podríamos decir que más improbable sería encontrar a g de xi mayor o igual que k. Por eso aquí aparece en el denominador, que es una cota que es directamente proporcional al valor esperado de g de xi e inversamente proporcional a la constante k. Bueno, es un teorema importante y vamos a hacer una demostración. Es decir, que... La esperanza de g de xi, lo hacemos en el caso, supongamos que es continua, sería igual a la integral desde menos infinito hasta más infinito de g de x por f de x. f de x es la función de densidad de la variable xi, diferencial de x. Claro, esta integral es mayor o igual que la integral, pero reducida al dominio donde g de xi es mayor o igual que k. De repente no sería todo, todo el conjunto de números reales. Pero esta integral, a su vez, es mayor o igual que esto que g de x es mayor o igual que 0. O sea, perdona, puesto que g de x es mayor o igual que k, sustituyo g de x. Y entonces la integral que queda será mayor o igual que k multiplicado por la integral de g de x diferencial de x extendida al dominio, en el mismo dominio, g de xi mayor o igual que k. Pero esta integral es, ni más ni menos que la probabilidad de que g de xi sea mayor o igual que k. Por lo tanto, nos queda este. Es igual a k. K por esa probabilidad. Que es, no es ni más ni menos que el teorema y la fórmula que queríamos demostrar. Simplemente aquí despejamos la probabilidad y nos aparece la fórmula. Bien, este teorema tiene una consecuencia que se llama la desigualdad de Chebichet que es un caso particular de la fórmula o tema de Markov, particularizándolo para la función sí menos mu elevada al cuadrado es decir, la función g de xi igual a sí menos mu elevada al cuadrado donde mu es la media o la esperanza de xi. Bien, en ese caso sustituyendo directamente la fórmula del teorema de Markov lo que tendríamos es que la probabilidad de que xi menos mu elevado al cuadrado que era el g de xi, la probabilidad de que eso sea mayor o igual que k será menor o igual que el valor esperado de xi menos mu al cuadrado claro, eso es la varianza, tanto sigma al cuadrado partido por k y tenemos entonces, esto sería la desigualdad de Chebichet Ahora, podemos poner equivalentemente en vez de poner xi menos mu al cuadrado podemos poner que el valor absoluto de xi menos mu si xi menos mu al cuadrado es mayor o igual que k pues su valor absoluto es mayor o igual que la raíz cuadrada de k La fórmula esta de Chebiché se puede escribir de esta manera, ¿no? Probabilidad de que el valor absoluto de sí menos mu sea mayor o igual que k es menor o igual que sigma cuadrado partido por k. O bien, pasando al suceso contrario, que el suceso contrario de sí menos mu mayor o igual que k sería sí menos mu menor que k en valor absoluto, ¿no? Por tanto, escrito en función del suceso contrario tendríamos que esta desigualdad se podría escribir así. Probabilidad de que sí menos mu menor que k sería, en vez de poner el menor o igual, poner el mayor o igual y en vez de sigma cuadrado partido por k, uno menos sigma cuadrado partido por k. Estamos tratando ahora del suceso contrario. O bien, si ponemos en lugar de k, hacemos el cambio sustituido de k por k por sigma, pues esta última expresión de la desigualdad, desigualdad se quedaría, la probabilidad de que el valor absoluto de sí menos mu sea menor que k sigma es mayor o igual que uno menos uno partido por k cuadrado. Bien. Bueno, esta desigualdad, ya digo, de Chebyshev también, si la podemos interpretar, por ejemplo, en esta última versión que tenemos aquí, que más o menos es lo que indica, pues que la probabilidad de que la distancia de una variable aleatoria a su media no supere k veces la desviación típica es una probabilidad que es mayor o igual que 1 menos 1 partido por k cuadrado. Claro, que si ese k es muy mayor, aumenta, es muy grande, pues la cota esta, bueno, mayor o igual, la probabilidad es mayor o igual que un número que sería cada vez más pequeño. Cuanto mayor sea k, la probabilidad sería mayor o igual que un número cada vez más grande aquí, porque sería 1 menos 1 partido por k cuadrado, que cada vez sería más pequeño. Bueno, vamos a ver un ejemplo de cómo se puede aplicar la desigualdad de Chebyshev. Bien, aquí tenemos un problema. Un restaurante sirve diariamente una media de 200 comidas con una desviación típica de 15. Tenemos una variable aleatoria que sería el número de comidas y nos están dando la media y la desviación típica. Ignoramos cómo se distribuye, ignoramos la distribución. Bien, pues entonces nos piden el porcentaje mínimo de días que se sirve entre 180 y 220 comidas. Vamos a hacer este primer apartado. Bueno, pues eso, vamos a llamar sí al número de comidas que se sirven diariamente. Entonces lo que queremos calcular, que aunque nos piden el porcentaje, vamos a calcular probabilidad. Porcentaje mínimo, pues ahí vemos probabilidad mínima. Bueno, entonces vamos a calcular la probabilidad de que sí se encuentre entre 180 y 220, que es lo que nos piden. Entonces si le restamos 200 a cada uno de los tres miembros de esta desigualdad, aquí nos quedaría la probabilidad de menos 20, menor que sí menos 200, menor que 20. Por tanto lo podemos escribir así, ¿eh? Probabilidad de que el valor absoluto de sí menos 200 sea menor que 20. Y aquí ya. Lo tenemos preparado para aplicar la desigualdad de Chebyshev en esta última versión que teníamos aquí arriba, ¿no? Que antes. Por tanto, esto sería mayor o igual que uno menos... Bueno, perdón, estoy aplicando esta versión de aquí, ¿eh? mayor o igual que 1 menos sigma cuadrado partido por k cuadrado. Sigma cuadrado, pues porque la desviación típica era 15, pues sigma cuadrado será el cuadrado, 225, partido por 400, bueno, esto lo calculamos y es 0,4375. Es decir, que la probabilidad de que el número de comidas que se sirven esté entre 180 y 220 es mayor o igual, es mayor o igual que 0,4375. Luego, el porcentaje mínimo, si es mayor o igual que ese número, el porcentaje mínimo sería el 43%, el 43,75. Bien, otra pregunta que hace el problema es el número de comidas que deben prepararse al día para tener como máximo una probabilidad del 20% de satisfacer la demanda. Bueno, pues ahora también vamos a utilizar y vamos a hallar la acotación en el otro sentido puesto que nos piden como máximo, ¿no? Por tanto, vamos a usar esta forma de la desigualdad de Chebichet. Así es que tenemos que calcular en primer lugar el valor de K y puesto que lo que nos, como tiene que ser como máximo un 20%, pondríamos la probabilidad 0,2 igual a 225, que sería el sigma cuadrado partido por K cuadrado, y aquí despejamos K y nos aparece la raíz cuadrada de 1.125 que son 33,54. Por tanto, tendríamos ya aplicando la desigualdad de Chebyshev que 0,2 es mayor o igual que la probabilidad de que si menos 200 el valor absoluto sea mayor o igual que ese K que hemos calculado, pues 33,54. Y de aquí esto lo separamos en dos sumandos, con una parte estaría la probabilidad de que si menos 200 sea menor o igual que menos 33,54, o sea, si el valor absoluto de si menos 200 es mayor o igual que 33,54, puede ser que si menos 200 sea menor o igual que menos 33,54, o que si menos 200 sea mayor o igual que 33,54. Esto de aquí, esta suma es mayor o igual que uno de los sumandos, solamente uno de los sumandos, la probabilidad de que si menos 200 sea menor o igual que menos 33,54. Que, a su vez de esto, sería igual, pasando el menos 200, sumando al otro miembro de la desigualdad, la probabilidad de que X sea menor o igual que 166,46. Lo cual significa prepararnos más de 166 comidas. Es decir, que la probabilidad de que el número de comidas sea menor o igual que 166,46 es menor o igual que el 0,2. Bien. Bien, vamos entonces a ver ahora el concepto de asimetría y cultosis. Bueno, decimos que una variable aleatoria es simétrica respecto a un punto S. Si la probabilidad de que esa variable sí sea mayor o igual que S más X, es igual que la probabilidad de que esa variable sea menor o igual que S menos X, cualquiera que sea el X. Es decir, a izquierda y derecha de S, pues estas probabilidades toman el mismo valor. Bueno, vamos a ver una manera de medir la asimetría o asimetría de una variable aleatoria. Y tenemos aquí un coeficiente de asimetría de Fischer que nos mide la asimetría respecto de mu. Aquí el número S sería el número mu, la media. Bueno, pues es simplemente, se llama gamma sub 1 igual a mu sub 3, que sería el momento de tercer orden respecto de la media, o sea, el valor esperado de signos mu elevado al cubo, partido por sigma elevado a 3. Este coeficiente nos mide la simetría o la variable aleatoria respecto de su media. Puede ocurrir que este número sea negativo, o sea cero, o sea positivo. Si es negativo, decimos que la distribución es asimétrica negativa, por lo tanto aquí tendría este perfil dibujado. Si fuese cero, decimos que la distribución es simétrica, perfil simetría. O si fuese positivo. Si fuese positivo, pues la distribución sería asimétrica positiva y efectiva. Y lo que llamamos coeficiente de curtosis, que sería esta expresión de aquí, gamma sub 2, que sería mu sub 4 partido por sigma elevado a 4. Mu sub 4 es el momento de cuarto orden respecto de la media, en esperanza de xi menos mu elevado a 4. Bueno, si es a 1, su 4 partido por 5, vale 4, menos 3. Entonces también puede tomar valores negativos o 0 o positivos. Si es negativo, decimos que la variable es platicúrtica. Y aquí, bueno, tendríamos el color verde dibujado para el perfil de una platicúrtica, de una función de densidad. Si fuese 0, decimos que es mesocúrtica, que sería el esquema, pues la que está de color negro. O si gamma sub 2 es mayor que 0, diríamos que es leptocúrtica y que es la más alargada. Siempre respecto de la media médica. Bien, y otros parámetros característicos de una distribución de probabilidad. Tenemos aquí la moda. En primer lugar, que si la variable sí es discreta, pues la moda es un valor x sub i, tal que la probabilidad de que la variable tome ese valor es mayor o igual que la de que tome cualquier otro valor. x sub j para cualquier otro. Y la moda es el valor de la variable que tiene más probabilidad. Y en el caso de que la variable sea continua, pues sería un valor x sub cero, tal que la f de x sub cero, o sea, el valor de la función de densidad en ese punto, sea mayor o igual que cualquier valor de la función de densidad. En este caso, generalmente se suele utilizar el cálculo diferencial para llegar a la moda. Un punto que maximiza la función de densidad. ¿Y a qué llamamos cuantil? Pues un valor x de la variable aleatoria sí es el cuantil de orden p, sí. La probabilidad de que x sea menor o igual que x es mayor o igual que p, y la probabilidad de que x sea mayor o igual que x es mayor o igual que 1 menos p. Y eso, donde p es un número, entonces cero y uno. ¿Eh? Número cero y uno. Número cero y uno, por ejemplo. Si p es igual a un medio, pues el cuantil en cuestión sería la mediana. Si p es igual a un cuarto... Entonces me aparecen tres valores que serían para i igual a 1, para i igual a 2 y para i igual a 3, que serían los cuartiles. O sea, perdón, i partido por 4. Si p es igual a i partido por 10, para i desde i igual a 1 hasta 9, tendríamos los nueve deciles. Y si p es igual a i partido por 100, desde i vale 1 hasta la decílele, pues tendríamos los percentiles. Bien, esto pues es también similar a lo que veíamos el año pasado con las distribuciones de frecuencias. Bien, vamos entonces a ver unos cuantos ejercicios de esto que hemos visto hoy, ¿no? Bien, en primer lugar, bueno, son ejemplos a cabo de los exámenes, entonces la mayoría de ellos pues son de tipo test, ¿eh?, con cuatro respuestas. Bien, dada la variable de la teoría sí, cuya valor esperado, cuya esperanza es 5, entonces se puede asegurar, bueno, una serie de respuestas, ¿no? Primero que la variable está acotada. ¿Verdad? Segundo apartado B, que la variable siempre es positiva. La variable, apartado C, la variable no puede ser discreta o ninguna de las anteriores. Bueno, claro, el DLG es ninguna de las anteriores, puesto que el hecho de que la esperanza sea 5 es lo único que conocemos, pues no implica que la variable esté acotada o de no estarlo, ni que la variable sea siempre positiva, ni que la variable no pueda ser discreta. Por tanto, la respuesta sería DLG y no las anteriores. Bien, otro ejercicio. Este ya, bueno, es otro tipo, del mismo tipo también, ¿no? Tipo test, ¿no? Cortada la variable de la teoría así, cuya función de densidad, bueno, aquí la tenemos, sería un medio por X al cuadrado por elevado a menos X, para X mayor o igual que cero, y cero en el resto. Entonces su valor esperado, bueno, aquí tenemos, pues eso, las cuatro respuestas. Bien, aquí para resolver este... ejercicio vamos a tener que calcular el valor esperado, claro, y claro, fijándonos en la función, pues aquí nos aparecerán integrales de la función gamma, del tipo de la función gamma, por tanto conviene recordar la función gamma. Que para un valor p mayor que 0 se define, con esta integral, que es la integral desde 0 hasta infinito, de x elevado a p menos 1 por e elevado a menos x diferencial de x. Esto le llamamos gamma de p y si p es un número entero, positivo, claro, pues su valor es el valor de esta integral, se hace por parte y se demuestra, mucha dificultad, que su valor es p menos 1 factorial. Bien, vamos entonces al ejercicio. Tenemos que calcular el valor esperado de esta variable, por lo tanto multiplicamos la función de densidad por x y calculamos la integral desde 0 hasta infinito de un medio por x al cubo por e elevado a menos x. Si sacamos un medio fuera, pues esta sería la integral de 0 hasta infinito de x al cubo por e elevado a menos x, que es una función gamma, que es gamma. Gamma de 4, o sea que gamma para x está elevado a p menos 1, es gamma de p, pues aquí es como está elevado a 3, la función gamma sería gamma de 4, pues sería un medio por gamma de 4, que gamma de 4 son 3 factorial, por lo tanto esto sería 3 factorial partido por 2, que simplificado son 3. Entonces, bueno, observamos que aquí en el apartado C está esa respuesta. Bien, otro ejercicio. El coste de fabricación de una pieza es C, es una constante, y su precio de venta depende de su diámetro, que sí es una variable aleatoria, cuya función de densidad, bueno, pues la tenemos aquí, sería K por E elevado a menos KX, para X mayor que 0, o 0 en el resto. Bien, se sabe que si sí no pertenece a 1,3, es decir, es un diámetro que es o menor que 1 o mayor que 3, claro. Entonces la pieza no tiene salida del mercado y se pierde. Pero si sí está en ese intervalo, su diámetro está entre 1 y 3, pues esa pieza se puede vender a un precio Q, constante. Bueno, pues calcular entonces el valor de K que maximiza el beneficio medio. Bueno, bien, en el caso de la pieza C, en el caso de que sí pertenezca a 1,3, el beneficio será Q menos C, puesto que Q es el precio al que vendemos, ¿no? Pero hay que quitarle el... El coste, que es constante, es C también. En tanto, el beneficio sería Q menos C. Ahora, si el diámetro de la pieza no pertenece al intervalo 1-3, entonces el beneficio es menos C, porque no hay ningún ingreso, porque no se vende, pero sí que perdemos, puesto que la hemos fabricado, en tanto, el beneficio sería menos C. Entonces, ¿quién sería el beneficio medio? Pues el beneficio medio sería, si la pieza pertenece al intervalo 1-3, sería Q menos C multiplicado por la probabilidad de que la pieza pertenezca a ese intervalo y que el beneficio será Q menos C. Y más menos C, por la probabilidad de que sí no pertenezca a Q menos C. Aquí tenemos la expresión del beneficio medio, la media de la variable beneficio. Bueno, pues esto simplemente, bueno, aquí desarrollamos, ¿no? Sería Q multiplicado por la probabilidad de que sí pertenezca a 1-3 menos C, por la probabilidad de que sí pertenezca a 1-3 y menos C, por la probabilidad de que sí no pertenezca al intervalo 1-3. Si sacamos factor común la c, nos queda la probabilidad de que x sí pertenezca a 1,3 más la de que x sí no pertenezca a 1,3, que es 1, claro. O sea que entonces nos quedaría q con la probabilidad de que x sí pertenezca a 1,3 menos c. Entonces vamos a calcular ahora la probabilidad de que x sí pertenezca al intervalo 1,3. Eso sería la integral desde 1 hasta 3 de k por e elevado a menos kx, diferencial de x. Bueno, entonces esta expectativa es inmediata, sería menos e elevado a menos kx entre 1 y 3. Y bueno, aquí lo desarrollamos y nos queda e elevado a menos k menos e elevado a menos 3k. Por lo tanto, el beneficio medio que estamos llevando b de k sería q por esta probabilidad. Probabilidad menos c. Entonces derivando el beneficio medio, nos tendríamos b' de k. Y aquí al derivar nos aparecería q por la derivada de elevado a menos k, que sería menos elevado a menos k. Y la derivada de elevado a menos 3k, que sería menos también, pues sería más 3 por elevado a menos 3k. La derivada de c es 0 y esto lo igualamos a 0, estamos fallando, o sea, estamos maximizando el beneficio medio. Y de aquí despejamos elevado a menos 2k, que es dividiendo, dividimos por elevado a menos k y despejamos y nos queda que elevado a menos 2k es igual a un tercio. Y aquí despejamos k tomando logaritmo, luego sería un medio logaritmo neperiano de 3. Y ahora, bueno, ya tenemos el valor de k y vamos a comprobar que propiamente eso maximiza al beneficio medio, ¿no? Entonces calculamos la segunda derivada de dk. Que... Ya, pues sería esta expresión de aquí, sería q por elevado a menos k menos 9 por elevado a menos 3k. Y aquí sustituimos k por su valor, o sea, que sería la segunda de un medio logaritmo neperiano de 3 y nos aparece q por 1 partido de raíz de 3 menos 3 partido de raíz de 3, que esto es negativo. Por lo tanto, el valor obtenido maximiza. Si la segunda es negativa, el valor obtenido maximiza y beneficia. Vamos a ver otro ejercicio. Aquí tenemos dos variables aleatorias, si y eta, tales que si igual a menos eta, siendo esperanza de xi igual a cero y varianza de xi igual a uno. Entonces se verifica cuando hay cuatro opciones. Primero, que la varianza de la suma es igual a dos y la esperanza de la suma es igual a cero. Segundo, que la varianza de la suma es igual a uno y la esperanza de la suma es igual a uno. Tercero, que la varianza de la suma es cero y la esperanza de la suma es cero o ninguna de las anteriores. Bueno, puesto que xi es igual a eta, a menos eta, si pasamos el menos eta al primer miembro, tenemos que la variable xi más eta es igual a cero, que es una constante. Por lo tanto, si la variable xi más eta es una constante, pues la respuesta es la edad del apartado c. Su varianza es cero y su esperanza, puesto que esa constante es cero, es cero también. Bien, vamos a ver otro ejercicio. El gasto en educación de las familias de una población sigue una variable datoria así, con media mu, miles de unidades monetarias y varianza, sigma al cuadrado igual a uno, miles de unidades monetarias al cuadrado. Entonces una cota de la probabilidad de que ese gasto se sitúe entre 0 y 3 miles de unidades monetarias es, bueno, aquí hay varias respuestas. Entonces vamos a tener que utilizar aquí la desigualdad de Chebyshev. En primer lugar, bueno, tendríamos lo que nos pide, o sea que la probabilidad de que la variable esté entre 0 y 3, que sí sea menor que entre 0 y 3. Claro, tenemos que buscar, para poder poner el valor absoluto, pues hay que buscar un, vamos a buscar un intervalo que, bueno, que esté centrado en el 1. Por lo tanto, es, bueno, y puesto que el gasto en educación, evidentemente no puede ser negativo, es mayor o igual que 0, esta probabilidad de que la variable esté entre 0 y 3 es la misma que la variable esté entre menos 1 y 3. De menos 1 a 0 la probabilidad es 0. y ahora ya sí, restamos aquí restamos 1 a cada miembro de esta desigualdad y nos quedaría que es igual a la probabilidad de menos 2 menos que si menos 1 menor que 2 que ya lo podemos poner como valor absoluto o sea que sería la probabilidad el valor absoluto de si menos 1 menor que 2 y ya por la desigualdad de Chebyshev esto sería mayor o igual que 1 menos sigma al cuadrado, que es 1 partido por k al cuadrado que es 4, o 0,75 que es 1 de los valores que hay aquí bien, vamos a seguir bien, aquí tenemos otro ejercicio dadas las varianzas aleatorias si y eta se verifica o bien que la varianza de la suma es la suma de las varianzas o bien que la varianza de la suma es la varianza de si más la varianza de eta menos la covarianza de si eta o bien que la varianza de la suma es la resta de las varianzas bueno, es una de las anteriores puesto que se no puede ser la suma porque no sabemos si son independientes y desde luego esta fórmula pues también está mal En caso general sería menos, sería en todo caso más 2 veces la covariante. Bien, otro ejercicio, dada la variable aleatoria sí, cuya función de densidad es k por x, en el intervalo 0, 4, y nula en el resto, el séptimo decir será, aquí tengo varias respuestas. Bueno, claro, primeramente tenemos que calcular k, entonces haríamos la integral desde 0 hasta 4 de k por x, la igualaríamos a 1 y despejaríamos k, sale que es igual a 1, ¿no? Entonces ya ponemos 0,7, sería igual, tiene que ser igual a 1, por lo que la integral desde 0 hasta d sub 7, que sería el séptimo decir, de la función de densidad de x diferencial de x. Bueno, esto. Lo calculamos y es de sub 7 al cuadrado partido por 16, luego de aquí despejamos de sub 7, que es igual a 4 por la raíz cuadrada de 0,7, que son 3,35. Bueno, aquí lo tenéis, algunos de los valores, bueno, perdón, este no es. Este de aquí, ¿eh? Aproximadamente 3,35. Bien. Bueno, otro ejercicio, dando una variable aleatoria así tal que su mediana coincide con la moda. Se puede asegurar que es simétrica si su mediana coincide con la moda, ¿eh? O que la moda es única y coincide con la media y con la mediana. O que es contigua o ninguna de las anteriores. Bueno, pues aquí la respuesta es D, porque aquí vemos un ejemplo, ¿no? Aquí tengo una variable discreta que toma los valores 1, 2 y 3. Y con estas probabilidades que tenemos aquí, la probabilidad de que valga 1 es 0,3. La de que valga 2 es 0,6 y la de que valga 3 es 0,1. Y en este caso, pues se tiene que la moda es igual que la mediana, que es igual a 2. La mediana es 2, ¿vale? Y la moda, pues también, porque es la mayor probabilidad del 2, ¿no? Pero, sin embargo, el valor esperado... ...es 1,8, ¿eh? No hay más que calcularlo. Por lo tanto, no es simétrica, ¿eh? No es simétrica. Así es que la respuesta sería ninguna de las anteriores, claro. Bien, otro ejercicio dada una variatoria así tal que la esperanza de XI al cubo que es el momento del tercer órgano respecto al origen sea finito, el que hoy existe entonces se puede asegurar que existe el coeficiente de asimetría de Fischer o el coeficiente de apuntamiento de Fischer, como en una de las anteriores bueno, la respuesta es A porque el coeficiente de Fischer era mu sub 3 partido por sigma al cubo y claro, si existe alfa sub 3, existe mu sub 3 porque existen alfa sub 1 y alfa sub 2 entonces existe mu sub 3 y también existe sigma por tanto, el apartado A el apartado B no, puesto que incluía mu sub 4 pero no podríamos asegurar que existe Bien, vamos a ver el último de los ejercicios dada una variatoria así con F de X igual a K por X elevado a menos 2 para valores entre 1 e infinito y nula en la resta de la variatoria su varianza será bueno, que hay varias respuestas entonces pues tampoco puesto que la integral desde 1 hasta infinito x elevado a menos 2 diferencial de x perdón, x elevado a menos 1 lo estamos calculando no existe el infinito es integral pues no existe la esperanza es decir, que aquí si multiplicásemos por x nos tendría k por x al menos 1 no existe la esperanza no existe la variante por tanto, toda respuesta es igual bien, pues hasta aquí lo dejamos y el próximo día continuaremos con la segunda