bidimencionales t5

Upload: mineroandino2011

Post on 09-Jan-2016

212 views

Category:

Documents


0 download

DESCRIPTION

esta

TRANSCRIPT

Definicin de estadstica

ESTADSTICA D37. tema 5

TEMA 5

DISTRIBUCIONES BIDIMENSIONALES

5.1.-Introduccin

5.2.-Distribuciones estadsticas bidimensionales: tabla de correlacin

5.3.-Representaciones grficas: diagrama de dispersin

5.4.-Distribuciones marginales

5.5.-Distribuciones condicionadas. Caso de independencia estadstica

5.6.-Covarianza. Caso de independencia

5.1.-Introduccin

Estudiaremos dos caractersticas de un mismo elemento de la poblacin (altura y peso, dos asignaturas, longitud y latitud).

De forma general, si se estudian sobre una misma poblacin y se miden por las mismas unidades estadsticas una variable X y una variable Y, se obtienen series estadsticas de las variables X e Y.

Considerando simultneamente las dos series, se suele decir que estamos ante una variable estadstica bidimensional.

5.2.-Distribuciones estadsticas bidimensionales: tablas de doble entrada o de contingencia o de correlacin

Tablas de doble entrada o de contingencia

Sea una poblacin estudiada simultaneamente segn dos caracteres X e Y; que representaremos genricamente como (xi; yj ; nij), donde xi; yj, son dos valores cualesquiera y nij es la frecuencia absoluta conjunta del valor i-simo de X con el i-simo de Y.

Una forma de disponer estos resultados es la conocida como tabla de doble entrada o tabla de contingencia, la cual podemos representar como sigue:

Y

Xy1y2..yj..ykni .

x1n11

n12

..

n1j

..n1k

n1 .

x2n21

n22

..

n2j

..n2k

n2 .

.

.

..

..

..

.

..

..

.

..

..

.

xini1

ni2

..

nij

..nik

ni .

.

.

..

.

..

.

..

.

..

.

..

.

..

.

..

.

.

xh

nh1

nh2

..

nhj

..nhk

nh .

n. jn. 1n. 2..

n. j..n. kN

En este caso, n11 nos indica el nmero de veces que aparece x1 conjuntamente con y1;

n12, nos indica la frecuencia conjunta de x1 con y2, etc.

5.3.-Representaciones grficas: diagrama de dispersin o nube de puntos

Representamos en ejes coordenados, una de las dos variables en el eje X, y la otra en el eje Y. Para indicar el nmero de coincidencias, o bien ponemos smbolos diferentes, o bien indicamos entre parntesis, el nmero nii.

5.4.-Distribuciones marginales

Dada la distribucin bidimensional (xi ; yj ; nij), se llaman distribuciones marginales a cada una de las dos distribuciones unidimensionales que se pueden obtener, de forma que en cada una de ellas no se tenga en cuenta la otra, es decir, dada la siguiente distribucin bidimensional;

Y

Xy1y2y3y4ni.

x1n11n12n13n14n1 .

x2n21n22n23n24n2.

x3n31n32n33n34n3 .

x4n41n42n43n34n4.

n.jn.1n.2n.3n.4N

podemos obtener las siguientes distribuciones marginales

XY

xini.yjn.j

x1n1.y1n.1

x2n2.y2n.2

x3n3 .y3n.3

x4n4.y4n.4

nn

Por tanto, podemos decir:

5.5.-Distribuciones condicionadas. Caso de independencia estadstica

Al poner una restriccin o condicin a una de las dos variables, tenemos las distribuciones condicionadas.

Se las suele representar como:

X/Y , indica que el valor de X viene condicionado por Y

Y/X indica que el valor de Y viene condicionado por X

Independencia estadstica

Se dice que dos variables X e Y son independientes estadsticamente cuando la frecuencia relativa conjunta es igual al producto de las frecuencias relativas marginales en todos los casos, es decir:

Para todo i, j

Si esto no se cumple para todos los valores se dice que hay dependencia estadstica.

5.6.-Covarianza. Caso de independencia

En el estudio conjunto de dos variables, lo que nos interesa principalmente es saber si existe algn tipo de relacin entre ellas. Esto se ve grficamente con el diagrama de dispersin. Veremos ahora una medida descriptiva que sirve para medir o cuantificar esta relacin:

Si Sxy >0 hay dependencia directa (positiva), es decir a grandes valores de x corresponden grandes valores de y.

Si Sxy = 0 las variables estn incorreladas, es decir no hay relacin lineal.

Si Sxy < 0 hay dependencia inversa o negativa, es decir a grandes valores de x corresponden grandes valores de y.

Grficamente, indicara la Covarianza, que los datos, se ajustan a una recta, en los siguientes casos:

PROPIEDADES DE LA COVARIANZA:

1.- Si a todos los valores de la variable x, les sumamos una constante k y a todos los valores de la variable y les sumamos una constante k, la covarianza no vara.

2.- Si a todos los valores de una variable x los multiplicamos por una constante k y a todos los valores de la variable y los multiplicamos por una constante k, su covarianza queda multiplicada por el producto de las constantes.

3.- A partir de las anteriores: si tenemos dos variables x, y con la covarianza Sxy, y transformaciones lineales de las variables de la forma z=ax+b, y t=cy+d, la nueva covarianza se relaciona con la anterior de la forma: Szt=acSxy.

4.- Otra forma de calcular la Covarianza sera: . Ser la que utilizaremos en la prctica.

NOTA: El inconveniente de la covarianza, como medida de asociacin es su dependencia de las unidades. Habr que definir una nueva medida, que no est afectada por los cambios en las unidades de medida. Esta medida ser el coeficiente de correlacin lineal rxy, con la siguiente expresin:

siendo Sx y Sy las desviaciones tpicas de x e y. Este coeficiente es adimensional y siempre estar entre 1 y 1.

Si hay relacin lineal positiva, rxy>0 y prximo a 1.

Si hay relacin lineal negativa rxy