BIBLIOTECA VIRTUAL de Derecho, Economía y Ciencias Sociales

 

APUNTES DE ESTADÍSTICA

 

David Ruiz Muñoz y Ana María Sánchez Sánchez

 

 

 

 

Esta página muestra parte del texto pero sin formato.

Puede bajarse el libro completo en PDF comprimido ZIP (113 páginas, 705 kb) pulsando aquí

 

 

 

 

Capítulo IX CARACTERÍSTICAS DE LAS VARIABLES

En este tema estudiaremos algunas características, tanto para v.a. discretas como para v.a. continuas, como pueden ser la media, varianza, etc, así como sus relaciones.

1. VALOR ESPERADO DE UNA VARIABLE ALEATORIA UNIDIMENSIONAL

Definición

La expresión de E(X) en el caso que X sea una v.a. discreta, este valor es la media ponderada de los posibles valores que puede tomar la variable X, en donde los pesos o ponderaciones son las probabilidades, , de ocurrencia de los posibles valores de X. Luego el valore esperado de X se interpreta como una media ponderada de los posibles valores de X, y no como el valor que se espera que tome X, pues puede suceder que E(X) no sea uno de los posibles valores de X. En el caso de v.a. continua, E(X) nos indica el centro de la función de densidad, es decir, nos indica el centro de gravedad de la distribución.

Sea X una v.a. de tipo discreto, con función de probabilidad P(xi), y sea g(X) una función de la v.a. X, entonces definimos E[g(X)] como:

Si la v.a. X es de tipo continuo, con función de densidad f(x), entonces definimos el valor esperado de g(X), E[g(X)] como:

PROPIEDADES:

1. La esperanza de una constante es la propia constante. Es decir si K es una constante entonces:

2. MOMENTOS DE UNA VARIABLE ALEATORIA UNIDIMENSIONAL

Los momentos nos proporcionan información sobre las propiedades de la distribución de la variable aleatoria. Nos permitirán hacer comparaciones de dos distribuciones y determinar cuál es más dispersa respecto a la media, o cuál es más apuntada, etc. Proporcionan valores numéricos sobre características de la distribución de una v.a.

 

Definición

Sea X una v.a. y r un número entero positivo. Se define el momento de orden r de X, y se notará por αr como:

 

Definición

Sea X una v.a. y r un número entero y positivo. Se define el momento central de orden r de X, y se notará por μr como:

En ambos casos los momentos se definen como valores esperados, luego para que existan los momento tendrán que existir los correspondientes valores esperados .

Los momentos, si existen, son números calculados como sumas o integrales, dependiendo de si se trata de v.a. discretas o continuas, de forma que se puede escribir el momento de orden r, como:

Y el momento central de orden r será:

 

Caso especial:

Con lo que el momento central de orden r, se puede expresar:

Nota: En la definición del momento central de orden r, indicamos desde r = 2,3,..., ya que el momento central de orden uno es igual a cero, μ1 = 0.

3. VARIANZA

Es una medida de dispersión de los valores de la variable respecto de su media, y nos permite conocer el grado de dispersión de los valores de la distribución, pudiendo realizar comparaciones con otras distribuciones. También se puede utilizar como una cierta medida de cómo representa la media a la distribución.

La varianza se expresa en las mismas unidades que la variable X, pero al cuadrado. La desviación estándar o desviación típica (raíz cuadrada positiva de la varianza ), se expresa en las mismas unidades de medida que la variable X. Se notará por .

4. COEFICIENTE DE VARIACIÓN

La varianza es una medida de dispersión que está influenciada por el tamaño de los valores de dicha variable y por la media. Para evitar esta influencia damos una medida relativa de dispersión que exprese la dispersión de la variable respecto del tamaño de la variable, midiendo el tamaño de la variable por su valor esperado. Esta medida de dispersión es el coeficiente de variación:

Este coeficiente de variación expresa la dispersión de una v.a. respecto a su media y es muy útil para comparar dos distribuciones de probabilidad.

El coeficiente de variación no tendrá sentido cuando la variable X tome valores positivos y negativos (pues puede ocurrir que la media quede compensada por los valores positivos y negativos y no refleje el tamaño de X). Con lo que el coeficiente de variación sólo tendrá sentido cuando X sea una variable que tome sólo valores positivos.

5. CAMBIO DE ORIGEN Y DE ESCALA

 

Dada una v.a. X, se dirá que se ha realizado un cambio de origen 0’ cuando se realice la siguiente transformación:

A través de esta transformación todos los valores de la v.a. X se desplazan 0’ unidades del eje de ordenadas manteniendo la misma posición relativa y la misma distancia entre ellos.

Lo cual nos indica que se produce también el mismo cambio de origen y de escala en el valor esperado o media de la variable.

El cambio de origen no le afecta a la varianza de la variable transformada, ya que lo único que hace el cambio de origen es desplazar los valores de la variable inicial X manteniendo la misma posición relativa y en consecuencia no modifica la dispersión, es decir:

Veamos como afecta el cambio de origen y de escala al coeficiente de variación:

Luego CVY ≠ CVX, salvo cuadno 0’ = 0, es decir, cuando no haya cambio de origen. Pudiendo decir que el coeficiente de variación es invariante frente a cambios de escala, pero no frente a cambios de origen, ya que cuando se produce un cambio de origen la media de la variable cambia, y por tanto el coeficiente de variación.

6. TIPIFICACIÓN DE UNA VARIABLE

Puede ocurrir que la forma de distintas distribuciones sean análogas, diferenciándose tan sólo por el hecho de estar representadas o medidas en sistemas con distinto origen o distintas escalas. Entonces decimos que todas estas distribuciones pertenecen a la misma familia de distribuciones.

Es frecuente el estudiar las propiedades de las distribuciones no en particular para cada una de las posibilidades existentes sino para alguna distribución que podría considerarse estándar o más representativa de toda la familia, y luego mediante la aplicación del correspondiente cambio de origen y de escala, intentar deducir las propiedades para la distribución particular considerada.

Cuando se pretende comparar magnitudes expresadas en distintas unidades o en distintas situaciones, para poder compararlas, tendrán que ser homogéneas. Al proceso de homogeneización de las diferentes magnitudes se le llama tipificación o normalización.

La nueva variable Z es adimensional (no tiene asociada unidad de medida), y por tanto se podrá comparar directamente con otras variables tipificadas.

Teniendo en cuenta el efecto que produce el cambio de escala y de origen, se verifica:

7. OTRAS MEDIDAS DE POSICIÓN Y DISPERSIÓN

Las principales medidas de posición y de dispersión son la media y la varianza, pero hay otras que también se utilizan como son: los cuantiles (mediana, cuartiles, deciles, percentiles), la moda, desviación absoluta media respecto de la mediana, recorrido intercuartílico, etc. Veamos a continuación alguna de ellas.

Definición

 

Dada una v.a. X, se define el cuantil de orden q, para 0 ≤ q ≤ 1, como aquel valor xq tal que:

Los cuantiles xq dividen la distribución en dos partes, así pues a la izquierda quedan todos los valores de la v.a. que son menores o iguales que xq y a la derecha quedan los valores que son mayores o iguales que xq.

Los cuantiles en el caso de una v.a. continua se calcularán simplemente resolviendo la ecuación: F(xq) = q, cuya solución no será siempre única, y la solución será el cuantil que estamos buscando.

En el caso discreto el cuantil tampoco tiene por qué ser único, obteniéndose generalmente por interpolación, ya que no siempre se podrá obtener una solución exacta única.

Dentro de los cuantiles nos interesan: la Mediana (Me), los Cuartiles (Q1, Q2, Q3), Deciles (D1, D2, ..., D9)y Percentiles (P1, P2, ..., P99), los cuales dividen los valores de la variable en mitades, cuartas, décimas y centésimas partes, respectivamente.

Otra medida de posición central es la Moda.

Definición

Dada una v.a. X, con su correspondiente función de probabilidad o con su función de densidad, según que estemos en el caso discreto o continuo, se define la Moda, como el valor más probable de la variable, que será aquel valor de la variable para el cual la función de probabilidad o la función de densidad se hace máxima.

En el caso continuo la Moda será aquel valor Mo tal que si f(x) es la función de densidad de la v.a. X, entonces:

Definición

La desviación absoluta media respecto a la mediana se define como un momento absoluto de primer orden.

Dentro de este intervalo intercuartílico se encuentran el 50% de los valores centrales de la variable (prescindiendo del 25% de los valores más pequeños y del 25% de los valores más grandes).

8. MEDIDAS DE FORMA

Necesitamos definir una serie de medidas que nos permitan cuantificar, en la medida de lo posible, la forma de la distribución, es decir, tendremos que definir unas medidas que nos den información sobre la función de probabilidad o sobre la función de densidad, de forma que podamos cuantificar el grado de simetría y el de apuntamiento o de aplastamiento, bien de la función de probabilidad, o bien de la función de densidad.

Existen otros coeficientes de asimetría, de forma que cuando la distribución es unimodal, se define el índice de simetría de Pearson:

Este coeficiente trata de medir el grado de agrupamiento de los valores centrales en torno de la media aritmética. Es decir, mide el grado de aplastamiento de la gráfica correspondiente a la función de densidad.

Fisher define este coeficiente de curtosis como:

tomando como referencia la función de densidad de una distribución normal . En este caso tan sólo hacemos referencia al caso continuo, ya que comparamos con la función de densidad de la distribución normal.

9. TEOREMA DE MARKOV Y DESIGUALDAD DE CHEBYCHEV

El problema al que nos enfrentamos es que ahora no conocemos la distribución y tan sólo conocemos la media y la varianza de una distribución desconocida y queremos calcular cotas superiores de ciertas probabilidades e incluso la probabilidad para algún intervalo relativo a la media. Estos resultados vendrán dados por medio del teorema de Markov y por la desigualdad de Chebychev.

Teorema de Markov

Otra de expresar esta desigualdad será:

Estas expresiones de la desigualdad de Chebychev nos indican que podemos expresar en términos de probabilidad la dispersión de los valores de la variable alrededor de su media, utilizando para ello la varianza como medida de dispersión y no siendo necesario el conocimiento de la distribución de la v.a. X.

Esto nos indica que la varianza tiene un efecto muy significativo sobre las probabilidades asociadas a estos intervalos.

10. FUNCIÓN GENERATRIZ DE MOMENTOS

Un valor esperado útil, cuando existe, es E[etX], donde t es un número real, y se llama función generatriz de momentos de X. Se puede utilizar para calcular los momentos de la distribución de una v.a. y es también utilizada para obtener la distribución de una función de v.a.

Definición

Sea X una v.a. Se define la función generatriz de momentos de X, gX(t), como:

Teorema

Si existe el momento de orden r, respecto al origen, αr, entonces para cualquier valor entero y positivo r,

Es decir, el momento respecto al origen de orden r, αr, se puede obtener derivando la función generatriz de momentos r veces, respecto a t, y particularizando para t = 0.

CAMBIOS DE VARIABLE EN LAS FUNCIONES GENERATRICES DE MOMENTOS

Sea X una v.a. cuya función generatriz de momentos es

y pretendemos calcular la función generatriz de momentos de una v.a. Y = a X + b, donde a y b son constantes reales.

FUNCIÓN GENERATRIZ DE MOMENTOS DE UNA COMBINACIÓN LINEAL DE n-VARIABLES ALEATORIAS INDEPENDIENTES

La función generatriz de momentos de Y será:

Si todas las v.a. X1, X2, ..., Xn, son independientes y tienen la misma distribución, y por tanto, la misma función generatriz de momentos g(t), entonces la función generatriz de momentos de la variable Y = X1 + X2 + ... + Xn será:

UNICIDAD DE LA FUNCIÓN GENERATRIZ DE MOMENTOS

Si dos v.a. tienen la misma función generatriz de momentos, entonces también tienen la misma distribución de probabilidad. Es decir, si X e Y son dos v.a. con funciones generatrices gX(t) y gY(t), respectivamente, y si gX(t) = gY(t), entonces las correspondientes distribuciones de probabilidad también son iguales. La inversa también se verifica.

11. VALOR ESPERADO DE UNA VARIABLE ALEATORIA BIDIMENSIONAL

Designemos por (X,Y) una v.a. bidimensional y por g(X,Y) una función de (X,Y) que también será una v.a.

Definición

Llamamos valor esperado o esperanza de la función g(X,Y) para el caso en que la v.a. bidimensional (X,Y) sea discreta, con distribución de probabilidad P[X=xi, Y=yj] al valor:

Si la v.a. bidimensional (X,Y) es continua, con función de densidad f(x,y) entonces el valor esperado de g(X,Y) será:

Como sucedía en el caso unidimensional, en ambos casos el resultado es un número y para que exista el valor esperado es necesario que la correspondiente serie o integral de la definición sean absolutamente convergentes, es decir, será necesario que E[|g(X,Y)|] sea finito.

Si la función de la v.a. bidimensional es g(X,Y) = XY entonces la esperanza o valor esperado para el caso discreto será:

Para el caso continuo

Si la función es g(X,Y) = X + Y

Entonces la esperanza o valor esperado para el caso discreto será:

Caso continuo:

PROPIEDADES:

1. Sean X e Y dos v.a. cuyos valores esperados E[X] y E[Y] existen, y sean a y b dos constantes cualesquiera, entonces

12. MOMENTOS DE UNA VARIABLE ALEATORIA BIDIMENSIONAL

Definición

Sea (X,Y) una v.a. bidimensional, y r, s dos números enteros no negativos. Definimos el momento de orden r en X y de orden s en Y, y lo notaremos por αrs, como el siguiente valor esperado, si existe:

Si hacemos s = 0 ó bien r = 0 obtendríamos los correspondientes momentos respecto al origen, de orden r para X y de orden s para Y. Así pues, los que más se utilizan son:

Definición

Sea (X,Y) una v.a. bidimensional, cuyas esperanzas E[X] y E[Y] existen, y r, s dos enteros no negativos. Definimos el momento central de orden r en X y de orden s en Y, y lo notaremos por μrs como el siguiente valor esperado, si existe:

Observese que:

13. COVARIANZA

Uno de los momentos centrales de mayor interés es el momento μ11, que se define:

La covarianza nos permite dar una medida de la dependencia lineal entre X e Y.

Covarianza positiva: Cuando los valores de X crecen los valores de Y también tiende a crecer.

Covarianza negativa: Cuando los valores de X crecen los valores de Y tiende a decrecer.

Se puede utilizar la covarianza como una medida de la relación entre dos v.a.

La covarianza no es una medida de las relaciones o dependencias entre las dos variables X e Y, sino que únicamente es una medida de la fuerza de la relación lineal entre X e Y.

Un inconveniente para utilizar la covarianza, es que la magnitud o tamaño numérico de la covarianza no es significativa, pues la magnitud de la covarianza depende de las unidades de medida utilizadas en X e Y.

PROPIEDADES:

1. La covarianza se puede expresar en función de los momentos respecto del origen:

2. Si X e Y son dos v.a. independientes entonces:

3. Sean X e Y v.a. y sean también las v.a. U = aX y V = bY, siendo a, b dos números reales cualesquiera. Entonces se verifica:

En estas dos propiedades si las v.a. son independientes lo serán dos a dos y entonces la son nulas.

14. COEFICIENTES DE CORRELACIÓN

Este coeficiente mide la fuerza de la relación lineal entre las v.a.

Definición

Sean X e Y dos v.a. cuyas varianzas existen y son distintas de cero. Entonces definimos el coeficiente de correlación lineal entre X e Y, que notaremos por ρXY :

PROPIEDADES:

1. Si las variables X e Y son independientes el coeficiente de correlación es nulo.

2. Si X e Y son v.a. cuyas varianzas existen y son distintas de cero, entonces:

El coeficiente de correlación nos da una medida de la fuerza de la relación lineal entre las variables, es decir, nos da una medida numérica del grado en que las variables están relacionadas linealmente.

15. FUNCIÓN GENERATRIZ DE MOMENTOS DE UNA VARIABLE ALEATORIA BIDIMENSIONAL

Sea (X,Y) una v.a. bidimensional. Definimos la función generatriz de momentos de (X,Y), que notaremos por g(t1,t2) como:

Caso discreto:

Caso continuo:

Para que exista la función generatriz de momentos tiene que existir el correspondiente valor esperado, y por tanto la correspondiente serie o integral tendrán que ser convergentes.

Las funciones generatrices marginales de momentos serán:

Teorema

Si existe el momento respecto al origen de orden r para X y de orden s para Y, αrs, entonces se verifica que

Grupo EUMEDNET de la Universidad de Málaga Mensajes cristianos

Venta, Reparación y Liberación de Teléfonos Móviles
Enciclopedia Virtual
Biblioteca Virtual
Servicios