econometriagrado t2 print

41
Dpto. de Econom´ ıa Cuantitativa Universidad Complutense de Madrid ECONOMETR ´ IA Regresi´ on lineal Marcos Bujosa Trasparencias de clase para la asignatura econometr´ ıa de los grados en Econom´ ıa y Administraci´ on y Direcci´ on de Empresas de la Universidad Complutense de Madrid. 2010–2012 Marcos Bujosa [email protected] Actualizado el: 8 de marzo de 2012 Version 0.1.04 Copyright 2010–2012 Marcos Bujosa [email protected] Este material docente se distribuye bajo la Creative Commons Attribution-Share Alike 3.0 Spain. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by-sa/3.0/es/. Tabla de Contenido 1. Regresi´ on Lineal por M´ ınimos Cuadrados Ordinarios (MCO) ................. 2 1.1. Introducci´ on ........................................ 2 1.2. Ajuste m´ ınimo cuadr´ atico ................................. 3 1.3. Algunas expresiones que ser´ an empleadas frecuentemente ............... 8 1.4. Algunos casos particulares ................................. 10 2. Propiedades algebraicas de la estimaci´ on MCO ......................... 14 2.1. Propiedades b´ asicas .................................... 14 2.2. Medidas de ajuste ..................................... 18 Ap´ endices 24 1. Derivaci´ on tradicional de las Ecuaciones Normales ....................... 24 2. Otro caso particular: modelo con tres regresores ......................... 25 3. as propiedades algebraicas de la regresi´ on por m´ ınimos cuadrados. ............. 29 Bibliograf´ ıa ................................................ 36 Soluciones a los Ejercicios ..................................... 37

Upload: skyblackperu

Post on 22-Jan-2016

230 views

Category:

Documents


0 download

DESCRIPTION

gradot 2

TRANSCRIPT

  • Dpto. de Economa CuantitativaUniversidad Complutense de Madrid

    ECONOMETRIA

    Regresion lineal

    Marcos Bujosa

    Trasparencias de clase para la asignatura econometra de los grados en

    Economa y Administracion y Direccion de Empresas de la Universidad

    Complutense de Madrid.

    20102012 Marcos Bujosa [email protected]

    Actualizado el: 8 de marzo de 2012 Version 0.1.04

    Copyright 20102012 Marcos Bujosa [email protected]

    Este material docente se distribuye bajo la Creative Commons Attribution-Share Alike 3.0 Spain. Para

    ver una copia de esta licencia, visite http://creativecommons.org/licenses/by-sa/3.0/es/.

    Tabla de Contenido

    1. Regresion Lineal por Mnimos Cuadrados Ordinarios (MCO) . . . . . . . . . . . . . . . . . 2

    1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

    1.2. Ajuste mnimo cuadratico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

    1.3. Algunas expresiones que seran empleadas frecuentemente . . . . . . . . . . . . . . . 8

    1.4. Algunos casos particulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

    2. Propiedades algebraicas de la estimacion MCO . . . . . . . . . . . . . . . . . . . . . . . . . 14

    2.1. Propiedades basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    2.2. Medidas de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

    Apendices 24

    1. Derivacion tradicional de las Ecuaciones Normales . . . . . . . . . . . . . . . . . . . . . . . 24

    2. Otro caso particular: modelo con tres regresores . . . . . . . . . . . . . . . . . . . . . . . . . 25

    3. Mas propiedades algebraicas de la regresion por mnimos cuadrados. . . . . . . . . . . . . . 29

    Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

    Soluciones a los Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

  • 1. Regresion Lineal por Mnimos Cuadrados Ordinarios (MCO)

    Captulos 2 y 3 de Wooldridge (2006)

    Apendice E1 de Wooldridge (2006)

    1.1. Introduccion

    En el tema anterior vimos que al relacionar un conjunto de datos de con otros conjuntos de informacion,

    es posible lograr una mejor comprension de los datos.

    El primer ejemplo lo vimos con datos temporales; comprobado que si estos se representan grafica-

    mente relacionandolos con sus fechas correspondientes, se entienden mejor que si no incorporamos dicha

    informacion temporal (vease la transparencia 27 del Tema 1, Pagina 17).

    El segundo ejemplo (el que mas nos interesa en este momento) usaba unos datos sobre el volumen de

    ventas; y vimos que la la magnitud de las ventas era mas comprensible, si se relacionaban con los datos

    sobre la antiguedad de los vendedores:

    ventas.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Gretl

    Relacionar una variables con otras puede mejorar la comprension 1

    En este ejemplo (simulado) parece que hay una relacion lineal entre el volumen de ventas y la antiguedad

    del vendedor. Es decir, parece que los datos conjuntos de ventas y antiguedad estan dispuestos aproxi-

    madamente a lo largo de una linea recta

    y = a+ b x;aunque los puntos no estan perfectamente alineados sobre la recta. Es como si la relacion entre ventas

    y antiguedad fuera del tipo

    V entas = a+ b Antig +OtrasCosas;donde OtrasCosas es lo que desplaza los puntos fuera de la linea recta y = a+ b x.

    Podemos aproximar los datos de ventas como una funcion lineal de la antiguedad

    V entas = a+ b Antig ?Como calculamos la magnitud de los parametros a y b? es decir, cuales son los valores de la constante y

    la pendiente de esta supuesta relacion lineal? Como evaluamos la bondad del ajuste de esta aproximacion

    lineal?

    2

    open datos/ventas.txtgenr index # agregamos variable "indice" para dibujar las "Ventas" de cada vendedor# grafico de las ventas logradas por cada trabajadorgnuplot Ventas index --suppress-fitted --with-lines --output="display"boxplot Ventas --output="display"freq Ventas # Diagrama de dispersion entre ventas y experienciagnuplot Ventas Antig --suppress-fitted --output="display"

    Marcos Bujosa

  • En este tema vamos a ver como calcular estas magnitudes.

    1.2. Ajuste mnimo cuadratico

    Ejemplo 1. [funcion de consumo:] Supongamos que el consumo y la renta disponible de las personas

    se relaciona del siguiente modo:

    CONn = 1 + 2 RDn + Undonde CONn y RDn son el consumo y la renta disponible del individuo n-esimo respectivamente, y Un

    son otros factores que afectan al consumo del individuo n-esimo distintos a su renta disponible (activos

    financieros, estado de animo, etc.).

    Si dispusieramos de datos sobre renta y consuno, podramos ajustar el consumo, con , como una

    funcion lineal de la renta disponible, rd,

    con = 1 1 + 2 rd =[1 rd

    ] [12

    ]

    Aqu llamamos

    regresando (o variable a explicar) al vector de datos de consumo; con

    regresores (o variables explicativas) al vector de unos (1) junto al vector de datos de renta disponible

    (rd) [1 rd

    ]= X

    vector de parametros a

    =

    [1

    2

    ]

    Ejemplo 2. [precio de las viviendas:]

    EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    Suponga que dispone de los siguientes datos:

    n Precio Superficie

    1 199.9 1065

    2 228.0 1254

    3 235.0 1300

    4 285.0 1577

    5 239.0 1600

    6 293.0 1750

    7 285.0 1800

    8 365.0 1870

    9 295.0 1935

    10 290.0 1948

    11 385.0 2254

    12 505.0 2600

    13 425.0 2800

    14 415.0 3000

    Cuadro 1: Superficie (en pies al cuadrado) y precio de venta de los pisos (en miles de dolares) (Ramanathan, 2002, pp. 78)

    3

    # leemos el archivo de datos data3-1open data3-1 # vamos a pintar el digrama de dispersion con GNUPLOTgnuplot price sqft --suppress-fitted --output="display"# Vamos a estimar el modelo; ols price const sqft# Los vamos a copiar en la variable phat1genr phat = $yhat# vamos a copiar los residuos en la variable ehatgenr ehat = $uhat # Vamos escribir las columnas de precios precios, superficies, precios estimados y erroresprint -o price sqft phat ehat# Otra forma de obtener los valores ajustados es restar los errores de los preciosgenr phat2 = price - ehat # Y otra forma mas... con mayores errores de redondeo...genr phat3 = 52.351+(0.139*sqft)# Vamos a ver como coinciden estas formas de calcularprint -o phat phat2 phat3# vamos a pintar la recta de regresion estimadagnuplot price sqft --output="display"

    Marcos Bujosa

  • Podemos suponer que el modelo que describe los precios es Yn = a+ bXn +Un, donde Yn es el precio

    del piso n-esimo, Xn es su superficie, y Un son otros factores que influyen en el precio del piso (situacion,

    estado de mantenimiento, servicios, etc.)

    Y podemos tratar de ajustar el precio como una funcion lineal de la superficie del piso.

    y = 1 1 + 2 x =[1 x

    ] [12

    ]= X .

    As,

    y= 1 1 + 2 x =

    y1y2y3y4y5y6y7y8y9y10y11y12y13y14

    = 1

    1

    1

    1

    1

    1

    1

    1

    1

    1

    1

    1

    1

    1

    1

    + 2

    1065

    1254

    1300

    1577

    1600

    1750

    1800

    1870

    1935

    1948

    2254

    2600

    2800

    3000

    =

    1 1065

    1 1254

    1 1300

    1 1577

    1 1600

    1 1750

    1 1800

    1 1870

    1 1935

    1 1948

    1 2254

    1 2600

    1 2800

    1 3000

    [1

    2

    ]= X .

    de manera que, por ejemplo, precio ajustado a la superficie del septimo piso de la muestra sera

    y7 = 1 + 2 x7 = 1 + 2 1800.

    Recta de regresion 2

    ZCodigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    150

    200

    250

    300

    350

    400

    450

    500

    550

    1500 2000 2500 3000

    price versus sqft

    price

    sqft

    Rectade

    ajustelineal

    y7

    y12

    e > 0

    y12

    Como calcular los parametos 1 y 2 de la recta y = 1 1 + 2 x?

    4

  • Modelos lineales en los parametros 3

    El ajuste del regresando y es una combinacion lineal de los regresores; por lo tantoy1...

    yn

    = 1

    1...

    1

    + 2x12

    ...

    xN2

    + 3x13

    ...

    xN3

    + + kx1k

    ...

    xNk

    o

    y = 1 1H2 + 2 xH2 + 3 xH3 + + k xHk

    =[1,xH2, . . . ,xHk

    ]

    = X ;

    donde =

    1...

    k

    ; X = [1, xH2, . . . ,xHk] , y y[N1]

    = X[Nk]

    [k1]

    Termino de error 4

    Los errores cometidos por el ajuste y para un hipotetico valor y una muestra concreta y y X son

    e = y y = y X ;es decir, el error cometido por el ajuste para el individuo n es

    en = yn xn. = yn yn;

    donde xn. =[1, xn2, , xnk

    ].

    Notese que descomponemos los datos en dos partes: y = y + e .

    Consideremos la Suma de los Residuos al Cuadrado para todo n

    SRC() Nn=1

    e2n =

    Nn=1

    (yn yn

    )2= (y X)(y X) = e e

    Es decir, el ajuste para el individuo n-esimo dada la muestra {xn.} y los parametros es:

    yn = xn. =[1, xn2, , xnk

    ]1...

    k

    = 1 + 2 xn2 + + k xnk.

    5

  • Ajuste lineal: geometra 5

    Tenemos una muestra de y y X; es decir, disponemos de

    y =

    y1

    y2...

    yN

    X =

    1 x1

    1 x2...

    ...

    1 xN

    y buscamos =

    (a

    b

    )tales que

    y = X + e

    y donde queremos que e sea pequeno.

    Ajuste lineal: geometra 6

    1

    y

    X H2

    e

    a1

    y = X

    bX H2

    X =[1, xH2

    ]; =

    [a

    b

    ]; y = y + e; y = X ;

    e = y y

    Ajuste lineal: geometra MCO 7

    a1

    1

    y

    X H2

    bX H2

    e

    y = X

    X =[1, xH2

    ]; =

    [a

    b

    ]; y = y + e ; y = X ;

    e = y y

    6

  • Ajuste mnimo cuadratico: Ecuaciones normales 8

    La SRC() es mnima para valores tales que los errores son ortogonales a los regresores de la muestra

    X

    e X Xe = 0.As

    Xe = 0; X(y X

    )= 0; Xy XX = 0

    es decir

    XX =Xy (1.1)

    El calculo MCO de lo parametros es la solucion a dichas ecuaciones

    Proposicion 1.1. La suma de residuos al cuadrado SRC() es mnima para = .

    Demostracion. Sea una estimacion de , entonces

    e e = (y X)(y X) =(y X + X X)(y X + X X); sumando y restando X

    =(e + X( )

    )(e + X( )

    ); sustituyendo y X por e

    =ee + ( )XX( ); ya que Xe = 0.Y puesto que el segundo termino ()XX() es una suma de cuadrados (y por tanto semi-definidopositivo), se deduce que

    SRC(cualquier ) = e e ee = SRC().

    La demostracion anterior es, para mi gusto, mas elegante que la que aparece en la mayora de los manuales

    (busqueda del mnimo de la suma residual igualando a cero las primeras derivadas). No obstante, en la

    Seccion 1 del apendice se muestra la derivacion tradicional de las ecuaciones normales.

    Para que la solucion al sistema de ecuaciones normales (1.1) sea unica es necesario que se cumpla una

    condicion en la matriz de regresores:

    Condicion para que las ecuaciones normales tengan solucion unica 9

    Las ecuaciones normales

    XX =Xy

    tienen solucion unica si y solo si XX es de rango completo.Es decir, podemos obtener unos valores para solo si

    rango

    (X

    [Nk]

    )= k

    En tal caso

    =(XX)-1Xy (1.2)

    7

  • Esta condicion de independencia lineal de las columnas de X implica que XX es de rango completo, esdecir, que existe la matriz (XX)-1.

    Se dice que existe multicolinealidad perfecta cuando esta condicion no se satisface; es decir, cuando

    hay dependencia lineal entre los regresores.

    Esta condicion garantiza la unicidad de las soluciones. Si no se cumple, no es posible encontrar unos

    valores unicos, , para los parametros del modelo lineal (ya que entonces hay infinitas soluciones posibles).

    Ejemplo 3. [ecuacion de salarios:] Supongamos el siguiente modelo no-lineal en los parametros

    SALARn = e1+2EDUCn+3ANTIGn+4EXPERn+Un ;

    donde SALARn es el salario del individuo n-esimo, EDUCn son sus anos de educacion, ANTIGn sus anos

    de antiguedad en la empresa, y EXPERn sus anos de experiencia en el sector de la empresa y Un son

    otros factores distintos de los anteriores (Wooldridge, 2006, ejemplo 3.2).

    Al tomar logaritmos tenemos un nuevo modelo para ln(SALARn) que es lineal en los parametros:

    ln(SALARn) = 1 + 2EDUCn + 3ANTIGn + 4EXPERn + Un

    En este ejemplo que pasa si tenemos una muestra en la que ningun trabajador ha cambiado de

    empresa? pues ocurre que las columnas de la matriz de regresores X correspondientes a anos de experiencia

    y anos de antiguedad son iguales; y por tanto linealmente dependientes; as que XX no es invertible.

    Como en ese caso anos de experiencia y anos de antiguedad coinciden; no es posible discriminar el

    efecto por separado de ambas variables; solo podemos calcular su efecto conjunto:

    ln(SALARn) = 1 + 2EDUCn + (3 + 4)EXPERn + Un.

    1.3. Algunas expresiones que seran empleadas frecuentemente

    Las expresiones que aparecen a continuacion seran empleadas repetidamente durante el curso.

    Denotamos a la media aritmetica de los elementos del vector y de orden N como:

    y =

    ynN

    =y1

    N

    y al vector de valores medios como:

    y

    y

    y...

    y

    = y

    1

    1...

    1

    = y 1.

    Nota 1. Sean x e y vectores de orden N , entoncesn

    (yn y)(xn x) =n

    yn(xn x) para n = 1, . . . , N ;

    o lo que es lo mismo

    (y y) (x x) = y(x x).

    8

  • Demostracion.n

    (yn y)(xn x) =n

    yn(xn x) yn

    (xn x)

    =n

    yn(xn x) y 0 y puesto quen

    (xn x) = 0

    =n

    yn(xn x) para n = 1, . . . , N.

    La misma demostracion pero ahora con notacion vectorial es:

    (y y) (x x) =y(x x) y(x x); aplicando la propiedad distributiva.

    Veamos que el segundo termino de la derecha, y(x x), es igual a cero:y(x x) =y 1(x x) puesto que y 1 = y

    =y(1 x 1 x

    )aplicando la propiedad distributiva

    =y(NxNx

    )= 0 puesto que x =

    x1N

    .

    Nota 2. Sean x e y vectores de orden N , entonces

    (y y) (x x) =n

    (yn y)(xn x) =n

    ynxn Ny x = yx Ny x.

    Ejercicio 4. Compruebe la igualdad de la nota anterior.

    Denotamos la covarianza muestral entre las columnas de datos X e Y como

    sxy =

    n(xn x)(yn y)

    N=

    (y y) (x x)N

    =(y y) (x x)

    1 1.

    Por tanto,

    N sxy = (y y) (x x) =n

    (xn x)(yn y) = yx Ny x; (1.3)

    por tanto, la expresion de mas arriba es el analogo muestral de Cov(X,Y ) = E([X E(X)][Y E(Y )]) =E(XY ) E(X) E(Y ) .

    Nota 3. Sea z un vector de orden N , entonces

    (z z) (z z) =n

    (zn z)2 =n

    z2n Nz2 = zz Nz2

    Demostracion. Basta con sustituir x e y por z en las notas 1 y 2 para comprobar que:

    (z z) (z z) = z(z z) = zz Nz2.

    As pues,

    s2z =

    n(zn z)2N

    =zzN z2; (1.4)

    donde s2z es la varianza muestral de los elementos de z ; por tanto, la expresion anterior es el analogo

    muestral de Var(Z) = E([Z E(Z)]2) = E(Z2) [E(Z)]2 .

    9

  • 1.4. Algunos casos particulares

    Modelo con solo una constante

    Modelo 1: una constante como unico regresor 10

    Veamos en que consiste el ajuste MCO cuando X = 1 :

    = (XX)-1Xy

    se reduce a

    1 = (11)-11y ,

    y calculando los productos escalares,

    1 1 = N ; 1 y =

    yn;

    tenemos que

    1 =

    ynN

    = y; y = X = y 1 y . (1.5)

    Notese como la estimacion MCO consiste en calcular la media aritmetica de los datos y .

    En este caso los residuos del modelo son las desviaciones de los datos respecto a su media, ya que

    e = y y = y y 1 y y . (1.6)

    Modelo Lineal Simple

    Modelo 2: Modelo Lineal Simple 11

    Un regresor adicional a la constante:

    y =

    y1

    y2...

    yN

    ; X =

    1 x1

    1 x2...

    ...

    1 xN

    ; =(a

    b

    ).

    Las ecuaciones normales son

    XX = Xy

    es decir (1 1 . . . 1

    x1 x2 . . . xN

    )1 x1

    1 x2...

    ...

    1 xN

    (a

    b

    )=

    (1 1 . . . 1

    x1 x2 . . . xN

    )y1

    y2...

    yN

    Por una parte

    XX[22]

    =

    [1

    x2

    ] |1|

    |x2

    |

    = 1 1 1 x2x2 1 x2 x2

    = N

    xn

    xn

    x2n

    ;

    10

  • y por otra

    Xy[21]

    =

    [1

    x2

    ] |y|

    = 1 yx2 y

    =yn

    xnyn

    .Por tanto, el sistema de equaciones normales en el caso del modelo lineal simple es N

    xn

    xn

    x2n

    [ab

    ]=

    yn

    xnyn

    Ejercicio 5. Sesuelva el sistema de ecuaciones normales XX = Xy para el caso del modelo linealsimple: 1 1 1 x2

    x2 1 x2 x2

    [ab

    ]=

    1 yx2 y

    .

    Modelo 2: Modelo Lineal Simple 12

    a N + bxn =

    yn

    axn + b

    x2n =

    xnyn

    ; (1.7)

    dividiendo por N la primera igualdad, despejando a y sustituyendo en la segunda, y empleando (1.3) y

    (1.4)

    a + b x = y

    b s2x = sxy(1.8)

    es decir

    b=sxy

    s2x(1.9)

    y

    a =y- b x (1.10)

    Relacion entre el estimador de la pendiente y el coeficiente de correlacion lineal 13

    As pues, el modelo lineal simple

    b =sxy

    s2x=

    sxy

    s2xsy

    sy=

    sxy

    sxsysy

    sx= rxy

    sy

    sx.

    es decir

    b = rxy sysx .

    Ejercicio 6. Como afectara al problema de estimacion que la variable x fuera un vector de constantes

    c?

    Ejemplo 7. [precio de las viviendas:]

    11

  • ZCodigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    n Precio Superficie

    1 199.9 1065

    2 228.0 1254

    3 235.0 1300

    4 285.0 1577

    5 239.0 1600

    6 293.0 1750

    7 285.0 1800

    8 365.0 1870

    9 295.0 1935

    10 290.0 1948

    11 385.0 2254

    12 505.0 2600

    13 425.0 2800

    14 415.0 3000

    Cuadro 2: Superficie (pies al cuadrado) y precio de venta de los pisos (miles de dolares)

    Tratemos de ajustar por MCO un modelo lineal simple a los precios:

    y = 1 1 + 2 x =[1 x

    ] [12

    ]= X .

    Calculando n

    xn = 26 753n

    x2n = 55 462 515

    n

    yn = 4 444.9n

    xnyn = 9 095 985.5

    y sustituyendo en el sistema de ecuaciones lineales 1.7 en la pagina anterior:

    a 14 + b 26 753 = 4 444.9a 26 753 + b 55 462 515 = 9 095 985.5

    cuya solucion es la estimacion por mnimos cuadrados de a y b:

    a = 52.3509 b = 0.13875.

    O bien:

    a partir de (1.9) y (1.10) en la pagina anterior tenemos:

    b =sxy

    s2x= 0.13875; a = y xb = 52.3509

    Es decir

    price = 52.35 + 0.139 sqft

    Por ejemplo, con esta muestra de datos el precio de venta ajustado de un piso con una superficie de

    1800 pies cuadrados, sera de

    y7 = 52.35 + 0.139 1800 = 302.1 miles de dolares.sin embargo y7 = 285. Esta discrepancia (el error e7 puede deberse a que dicho piso esta en una mala

    situacion, dispone de pocos servicios, etc.)

    12

  • n Precio Superficie Precio ajustado Error

    por el modelo lineal e

    1 199.9 1065 200.1200 -0.22000

    2 228.0 1254 226.3438 1.65619

    3 235.0 1300 232.7263 2.27368

    4 285.0 1577 271.1602 13.83984

    5 239.0 1600 274.3514 -35.35142

    6 293.0 1750 295.1640 -2.16397

    7 285.0 1800 302.1015 -17.10148

    8 365.0 1870 311.8140 53.18600

    9 295.0 1935 320.8328 -25.83278

    10 290.0 1948 322.6365 -32.63653

    11 385.0 2254 365.0941 19.90587

    12 505.0 2600 413.1017 91.89826

    13 425.0 2800 440.8518 -15.85180

    14 415.0 3000 468.6019 -53.60187

    Cuadro 3: Superficie (en pies al cuadrado), precio de venta (en miles de dolares), precio estimado, y errores estimados.

    ZCodigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    # leemos el archivo de datos data3-1

    open data3-1

    # vamos a pintar el digrama de dispersion con GNUPLOT

    gnuplot price sqft --suppress-fitted --output="display"

    # Vamos a estimar el modelo;

    ols price const sqft

    # Los vamos a copiar en la variable phat1

    genr phat = $yhat

    # vamos a copiar los residuos en la variable ehat

    genr ehat = $uhat

    # Vamos escribir las columnas de precios precios, superficies, precios estimados y errores

    print -o price sqft phat ehat

    # Otra forma de obtener los valores ajustados es restar los errores de los precios

    genr phat2 = price - ehat

    # Y otra forma mas... con mayores errores de redondeo...

    genr phat3 = 52.351+(0.139*sqft)

    # Vamos a ver como coinciden estas formas de calcular

    print -o phat phat2 phat3

    # vamos a pintar la recta de regresion estimada

    gnuplot price sqft --output="display"

    . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .!

    Modelo con tres regresores: el plano de regresionEn el apendice puede encontrar esta parte desarrollada con mas profundidad. Aqu solo vamos a ver

    con un ejemplo simulado que el ajuste lineal es un plano de regresion que corta una nube puntos.

    Modelo simulado Pn = 100 + 3Sn 130Dn + Un

    EjPviviendaSimulado.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Gretl

    13

    open datos/EjPviviendaSimulado.gdt

    summary P S D

    gnuplot D S --suppress-fitted --output="display"gnuplot P S --suppress-fitted --output="display"gnuplot P D --suppress-fitted --output="display"

    Modelo1

  • ZCodigo: EjPviviendaSimulado.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    El codigo SimuladorEjPvivienda permite generar mas ejemplos, pudiendo jugar con los parametros de

    la simulacion.

    ZCodigo: SimuladorEjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    nulldata 500 # nulldata fija el tamano de la muestra

    # genr define una nueva variable y normal genera datos con distrib. Normal

    genr S = normal(70,10) # generamos los datos de la superficie

    genr D = normal(0.7,0.2) # generamos distancia

    genr U = normal(0,250) # perturbaciones

    genr P = 100 +3*S -130*D +U # precios como funcion lineal de los regresores

    summary P S D # resumen de estadisticos de las variables

    corr P S D # matriz de correlaciones

    Modelo1

  • Mnimos cuadrados ordinarios: Vectores ortogonales 14

    La estimacion MCO de T7 implica que

    e X Xe =0 .

    Y como y = X

    ye = Xe =

    0 = 0.

    Por tanto

    Xe =0 ye =0 (2.1)

    Recuerdese que dos vectores de numeros a y b son ortogonales si ab =aibi = 0.

    Por construccion el termino de error MCO, e , es ortogonal a todos y cada uno de los regresores.

    Del mismo modo que hemos definido e como e = y X , definimos los valores ajustados y comoy = X ;

    entonces y = X, y por tanto

    ye = Xe =

    0 = 0;

    es decir, los errores tambien son ortogonales a los valores ajustados (no poda ser de otra forma, ya que

    los valores ajustados son una combinacion lineal de los regresores, que son ortogonales a e .)

    Practica 8. Con algun programa econometrico estime un modelo del tipo

    Yn = 1 + 2Xn2 + 3Xn3 + Un.

    Obtenga los residuos e y los valores ajustados y . Compruebe que

    x1 e =0

    x2 e =0

    ye =0

    Calcule los valores medios de e , y e y . Explique los resultados.

    Solucion: Por ejemplo, podemos usar el conjunto de datos de consumo percatica de textiles, de Henri

    Theil, Principios de Econometra, Nueva York: Wiley, 1971, p. 102.

    El conjunto de datos consta de 17 observaciones anuales de series de tiempo, para 1923 a 1939, en el

    consumo de textiles en los Pases Bajos. Todas las variables son expresadas como ndices con base 100 en

    1925.

    Z TextilTheil.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    open theil

    Modelo

  • Mnimos cuadrados ordinarios: T de Pitagoras 15

    yy = yy + ee (T Pitagoras T7 ) (2.2)

    Ya que

    yy =(y + e) (y + e) puesto que e = y y=yy + 2ye + ee desarrollando el producto

    =yy + ee ya que de (2.1) ye = 0

    Sumas de cuadrados 16

    SRC Nn=1

    en2 = ee 6= Ns2e (por regla general)

    STC Nn=1

    (yn y)2 = yy Ny2 = Ns2y

    SEC Nn=1

    (yn y)2 = yy +Ny2 2Nyy 6= Ns2y (por regla general)

    Por tanto, STC = Ns2y donde s2y es la varianza muestral de y ; por el contrario, las sumas SRC y SEC

    no son necesariamente N veces las varianzas de e y y (aunque veremos que as ocurre si el modelo tiene

    termino cte.).

    Ejercicio 9. Verifique las igualdades de la transparencia anterior.

    Caso especial (Modelos con termino constante). Cuando hay termino constante en el modelo (el primer

    regresor es un vector de unos tal y como hemos presentado el modelo aqu) se verifica que

    1 e = 0; Nn=1

    en = 0 e =0 . (2.3)

    Y puesto que para cada n, se verifica que yn = yn + en , entonces sumando para n = 1, . . . , N

    Nn=1

    yn =

    Nn=1

    yn + 0 o bien 1 y = 1 y y =y (2.4)

    Ademas, de (2.2 Tma. Pitagoras)y2n =

    yn

    2 +

    e2; (2.5)

    restando a derecha e izquierda Ny2 (que en este caso especial es igual a Ny2

    ),y2n Ny2 =

    yn

    2 Ny2 +

    e2;

    y empleando el resultado de la Nota 3 en la pagina9

    Nn=1

    (yn y)2 =Nn=1

    (yn y)2 +Nn=1

    en2 o bien (y y ) (y y) = (y y)(y y) + ee .

    16

  • Dividiendo por N tenemos

    s2y = s2y + s

    2e (2.6)

    ya que e = 0; y donde s2z es la varianza muestral de z .

    Ejercicio 10. Demuestre que yy = yy ; es decir,yn

    2 =ynyn.

    Pista.

    y = y eye = 0

    Caso especial (Modelos con termino constante). La suma explicada de cuadrados, SEC, se puede ex-

    presar como:

    SEC =yy +Ny2 2Nyy=yy Ny2 ya que y = y por haber termino cte.=Ns2y por la Nota 3

    otras expresiones son:

    =XX Ny2 sustituyendo y por X=yy Nyy por Ejercicio 10 y por y = y=Nsyy por la Nota 1

    Ademas, en este caso en particular, la suma total de cuadrados, STC, se puede descomponer en la

    suma:

    STC = SEC + SRC

    ya que

    yy =yy + ee de (2.2) (T. Pitagoras)

    yy Ny2 =yy Ny2 + ee restando a ambos lados Ny2

    STC =yy Ny2 + SRC por definicion de STC y SRCSTC =SEC + SRC por haber termino constante y = y

    Comentario. Esta relacion sugiere el nombre de suma explicada de cuadrados, ya que descomponemos

    la variabilidad de la variable que queremos estudiar (y) en dos partes: SRC es la variabilidad de los

    residuos (aquello que el modelo no explica) y SEC es la variabilidad de y , que es la estimacion de la

    esperanza condicionada a los datos (aquello que explica el modelo).

    En esta discusion se debe tener presente que el termino explicacion es enganoso. En el ejemplo del

    precio de las viviendas y su superficie, es sensato suponer que los precios dependen de las caractersticas

    de las viviendas, y en particular, que parte de las variaciones de los precios se deben a la variacion en la

    superficie de las viviendas; por ello, el nombre de suma explicada de cuadrados toma todo su sentido.

    Ahora bien, suponga que estima el modelo:

    Sn = 1 + 2Pn + Un.

    En este modelo, la superficie es funcion del precio de la vivienda, y por ser un modelo lineal con termino

    constante, la relacion algebraica STC = SEC + SRC se cumple. Pero no tiene sentido suponer que

    las caractersticas de la vivienda se deben al precio; de lo contrario podramos suponer que si el piso

    17

  • experimenta un alza en su precio, entonces, en consecuencia su superficie aumentara. Esto es absurdo, y

    podemos concluir que la relacion STC = SEC + SRC es puramente algebraica, y que su interpretacion

    solo es posible cuando el modelo estimado tiene sentido desde el punto de vista de la Teora Economica.

    La unica interpretacion posible a las estimaciones es de caracter puramente estadstico (y no de Teora

    Economica): si un piso tiene un precio muy elevado, cabe esperar que el piso sea grande.

    Sumas de cuadrados: Caso de modelos con cte. 17

    y =y + e (siempre)

    se y =0 (siempre)

    s2y =s2y + s

    2e 2 se y = s2y + s2e (siempre)

    Si ademas el modelo incluye un vector de constantes, entonces

    e1 = 0 e = 0; y

    SRC Nn=1

    en2 = ee Ne2 = Ns2e

    STC Nn=1

    (yn y)2 = yy Ny2 = Ns2y (siempre)

    Entonces SEC = Ns2y y STC = SEC + SRC .

    Puede encontrar mas propiedades algebraicas en una seccion del apendice.

    2.2. Medidas de ajuste

    Las medidas de ajuste sirven para

    Cuantificar la reduccion de incertidumbre que proporciona el modelo estimado.

    Comparar la bondad de modelos alternativos para la misma muestra

    Coeficiente de determinacion o R2Es una medida de ajuste de uso frecuente. Cuando el modelo contiene un regresor constante, muestra el

    poder explicativo de los regresores no constantes. Se define como

    R2 1 SRCSTC

    ;

    y puesto que SRC y STC son siempre mayores o iguales a cero, R2 1.

    18

  • Medidas de ajuste: Coeficiente de determinacion R2 18

    R2 1 SRCSTC

    ; R2 1 (no acotado inferiormente)

    Cuando el modelo no tiene termino constante, la SRC puede ser mayor que STC, por lo que R2 no

    esta acotado inferiormente.

    Practica 11. Ejecute el siguiente guion de Gretl donde, al estimar un modelo sin termino constante, se

    calcula un coeficiente de determinacion negativo:

    Z R2ModeloConySinConstante.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Gretl

    # simulacion

    nulldata 1000

    genr u=normal()

    genr x=5+2*normal()

    genr y=120-x+u

    # Estimacion sin cte

    ModeloSin

  • R2).

    Coeficiente de determinacion cuando hay termino constante 19

    R2 =SEC

    STC; 0 R2 1 (acotado)

    Como SEC = Nsyy y entonces,

    R2 =SEC

    STC=

    SEC2

    STC SEC =(Nsyy

    )2Ns2y Ns2y

    =N2

    N2

    syys2y s2y

    2 = (ryy)2 ,donde ryy es la correlacion lineal simple entre y e y .

    Caso especial (Modelos con termino constante). Si el modelo tiene termino constante, el coeficiente R2

    mide el porcentaje de variacion de y explicado2 por los regresores no constantes del modelo; ya que

    R2 = 1 SRCSTC

    =STC SRC

    STC=SEC

    STC

    y por tanto 0 R2 1.Recuerdese ademas que cuando hay termino constante SEC = Nsyy y entonces,

    R2 =SEC

    STC=

    SEC2

    STC SEC =(Nsyy

    )2Ns2y Ns2y

    =N2

    N2

    syys2y s2y

    2 = (ryy)2 , (2.7)donde ryy =

    sy y

    sysy es el coeficiente de correlacion lineal simple entre y e y.

    Practica 12. Calcule el coeficiente de determinacion R2 para el el ejemplo del precio de las viviendas,

    empleando el coeficiente de correlacion entre los precios y los precios ajustados.

    Pista. Calcule el coeficiente de correlacion lineal simple entre y y y y elevelo al cuadrado.

    Solucion: Solucion numerica en el recuadro del ejemplo del precio de las viviendas (pagina 22).

    Z EjPviviendaR2.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Gretl

    open data3-1 # leemos el archivo de datos data3-1

    ols price const sqft # estimacion MCO

    genr phat = $yhat # guardamos los precios ajustados

    Coef detR2 = corr(price,phat)^2 # calculo del coeficiente de determinacion

    . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .!

    Ejercicio 13. Calcule el coeficiente de determinacion para un modelo en el que el unico regresor es el

    vector de constantes (Modelo 1 T10 ).

    Pista. piense cuanto vale SEC en este caso.

    2Recuerde el comentario que aparece en la pagina17.

    20

    open data3-1 # leemos el archivo de datos data3-1ols price const sqft # estimacion MCOgenr phat = $yhat # guardamos los precios ajustadosCoef_detR2 = corr(price,phat)^2 # calculo del coeficiente de determinacion

    Marcos Bujosa

  • Ejercicio 14. Verifique que, para el caso del Modelo Lineal Simple el coeficiente de determinacion R2 es

    el cuadrado del coeficiente de correlacion simple entre el regresando y y el regresor x; es decir, que en este

    caso R2 = r2yx . (Notese que este resultado es diferente de (2.7)).

    El coeficiente de determinacion R2 tiene algunos problemas al medir la bondad del ajuste.

    anadir nuevas variables al modelo (cualesquiera que sean) nunca hace crecer SRC pero esta suma si

    pude disminuir (vease la pagina 34)

    Por tanto el R2 de un modelo al que se agregan nuevos regresores nunca puede ser menor que el del

    modelo inicial.

    Para evitar este efecto se emplea el coeficiente de determinacion corregido (o ajustado) R2

    El coeficiente de determinacion corregido R2 de define como

    R2 1SRCNkSTCN1

    .

    Pero si hay termino constante, entonces

    R2 1SRCNkSTCN1

    ; = 1 s2e

    s2y

    es decir, si hay constante en el modelo, coeficiente de determinacion corregido R2 es uno menos la fraccion

    de la cuasivarianza de los errores con la cuasivarianza muestral del regresando. Por ello tambien es siempre

    menor o igual a uno.

    Las caractersticas del coeficiente de determinacion corregido R2 son:

    1. compara estimadores insesgados de la varianza residual y de la varianza de la variable dependiente

    2. penaliza modelos con un elevado numero de parametros, al corregir por el numero de grados de

    libertad N k.

    Otras medidas de ajuste

    Otras medidas de ajuste 20

    R2 corregido (mejor cuanto mas elevado)

    R2 1SRCNkSTCN1

    = 1 N 1N k (1R

    2) 1

    Criterios de informacion de Akaike y de Schwartz (mejor cuanto mas bajos)

    AIC =N ln(2pi) +N ln

    (ee

    N

    )+N + 2(k + 1)

    SBC =N ln(2pi) +N ln

    (ee

    N

    )+N + (k + 1) ln(N)

    Otras medidas de la bondad del ajuste son los criterios de informacion de Akaike y de Schwartz (mejor

    cuanto mas bajos)

    Akaike prima la capacidad predictiva del modelo (pero tiende a sobreparametrizar)

    Schwartz prima la correcta especificacion

    21

  • Estimaciones MCO utilizando las 14 observaciones 114

    Variable dependiente: price

    Variable Coeficiente Desv. tpica Estadstico t valor p

    const 52,3509 37,2855 1,4041 0,1857

    sqft 0,138750 0,0187329 7,4068 0,0000

    Media de la var. dependiente 317,493

    D.T. de la variable dependiente 88,4982

    Suma de cuadrados de los residuos 18273,6

    Desviacion tpica de los residuos () 39,0230

    R2 0,820522

    R2 corregido 0,805565

    Grados de libertad 12

    Criterio de informacion de Akaike 144,168

    Criterio de informacion Bayesiano de Schwarz 145,447

    Salida del programa libre Gretl (Gnu Regression, Econometrics and Time-series Library): http://gretl.sourceforge.net/gretl_espanol.

    html

    ZCodigo: EjPvivienda.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    Los coeficientes de determinacion nos dan informacion sobre el grado de ajuste del modelo, pero ojo! nos

    pueden conducir a enganos. No es recomendable darles demasiada importancia, hay otras cuestiones sobre

    el modelo de mayor relevancia a la hora de valorarlo. . .

    Ejemplo 15. [peso de ninos segun su edad:]

    PesoEdad.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    n Peso Kg Edad

    1 39 7

    2 40 7

    3 42 8

    4 49 10

    5 51 10

    6 54 11

    7 56 12

    8 58 14

    Cuadro 4: Peso (en kilogramos) y edad (en anos)

    22

    open datos/PesoEdad.gdtgenr Edad2=Edad^2;genr Edad3=Edad^3;Modelo1

  • (Modelo 1 Pn = 1 + 2EDADn + Un)

    E(P | e) = a+ b e+ c e2 + d e3estimadaobservada

    35

    40

    45

    50

    55

    60

    65

    6 7 8 9 10 11 12 13 14 15

    Peso

    Kg

    Edad

    Peso con respecto a Edad (observado y estimado)

    Peso Kg = 19, 6910(6,999)

    + 2, 93003(10,564)

    Edad

    T = 8 R2 = 0, 9405 F (1, 6) = 111, 6 = 1, 8161

    (entre parentesis, los estadsticos t)

    grafico

    (Modelo 2 Pn = 1 + 2EDADn + 3EDAD2n + Un)

    E(P | e) = a+ b e+ c e2 + d e3estimadaobservada

    35

    40

    45

    50

    55

    60

    65

    6 7 8 9 10 11 12 13 14 15

    Peso

    Kg

    Edad

    Peso con respecto a Edad (observado y estimado)

    Peso Kg = 5, 11497(0,664)

    + 8, 06835(5,159)

    Edad 0, 252102(3,305)

    Edad2

    T = 8 R2 = 0, 9776 F (2, 5) = 153, 57 = 1, 1148

    (entre parentesis, los estadsticos t)

    grafico

    (Modelo 3 Pn = 1 + 2EDADn + 3EDAD2n + 4EDAD

    3n + Un)

    E(P | e) = a+ b e+ c e2 + d e3estimadaobservada

    35

    40

    45

    50

    55

    60

    65

    6 7 8 9 10 11 12 13 14 15

    Peso

    Kg

    Edad

    Peso con respecto a Edad (observado y estimado)

    Peso Kg = 81, 7714(1,904)

    18, 5964(1,419)

    Edad + 2, 37778(1,845)

    Edad2 0, 0836541(2,043)

    Edad3

    T = 8 R2 = 0, 9863 F (3, 4) = 168, 75 = 0, 87188

    (entre parentesis, los estadsticos t)

    grafico

    23

  • Regresograma y recta de regression 21

    EstCondVentas.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gretl

    La media es un estimador insesgado de la esperanza

    en el regresograma: E(Yn | intervalo)

    En el tema siguiente veremos bajo que condiciones la regresion es un estimador insesgado de la

    esperanza condicional E(Yn | xn.

    )

    Apendices

    1. Derivacion tradicional de las Ecuaciones Normales

    Mnimos cuadrados ordinarios: Ecuaciones normales (Tradicional) 22

    SRC() = yy 2Xy + XX

    Buscamos un vector que minimice SRC

    mn SRC()

    SRC()

    = 0; 2Xy + 2XX = 0

    con lo que obtenemos las ecuaciones normales

    XX = Xy (1.1)

    Estimacion MCO es la solucion a dichas ecuaciones

    SRC() =(y X)(y X)=(y X)(Y X) puesto que (X) = X

    =yy Xy yX + XX=yy 2yX + XX

    24

    include EstadCond.inp # cargamos la funcion "EstadCond"open datos/ventas.txt # cargamos los datos de "ventas"# calculamos los estadisticos de "Ventas" en intervalos de la variable "Antig" # (intervalos de antiguedad de 10 meses)list EstCond = EstadCond(Ventas,Antig,10)

    Marcos Bujosa

  • ya que el escalar Xy es igual a su traspuesta yX (por ser escalar)

    Renombremos algunos terminos. . . por una parte definimos a yX y por otra C XX, entoncesSRC() = yy 2a + C .

    Puesto que yy no depende de la diferencial de SRC() respecto de es

    SRC()

    = 2a + 2C por las propiedades de derivacion matricial

    = 2Xy + 2XX sustituyendo a y C;que igualando a cero nos da

    2Xy + 2XX = 0 XX = Xy

    Las condiciones de segundo orden son:

    SRC()

    = 2X

    X que es una matriz definida positiva.

    2. Otro caso particular: modelo con tres regresores

    Ejercicio 16. Repita los pasos dados en la transparencia T11 y llegue hasta el sistema de ecuaciones

    equivalente a ( 1.7 en la pagina11) para los siguientes modelos:

    (a) (Modelo sin termino constante) y = ax1 + bx2 + cx3

    (b) (Modelo con termino constante) y = a1 + bx2 + cx3

    Ejercicio 17. Obtenga la siguiente solucion del segundo sistema de ecuaciones del ejercicio anterior (para

    el caso con constante).

    a =y b x2 c x3 (2.1)

    b =sx2y s2x3 sx3y sx2x3s2x2 s2x3

    (sx2x3

    )2 (2.2)

    c =sx3y s2x2 sx2y sx2x3s2x2 s2x3

    (sx2x3

    )2 (2.3)

    Notese que si la covarianza muestral entre x2 y x3 es cero, la estimacion de b del modelo con tres

    regresores, y = a1 + bx2 + cx3, coincide exactamente con la estimacion de b en el modelo lineal simple,

    y = a1 + bx2, donde no aparece el trecer regresor x3.

    Ejercicio 18. Si la covarianza entre x2 y x3 es cero, con la estimacion de que modelo coincide la

    estimacion de c?

    Nota 4. Si los regresores de una regresion multiple tienen correlacion muestral cero entre si (por tanto

    son ortogonales), entonces las estimaciones de las pendientes de la regresion multiple son las mismas que

    las estimaciones de las pendientes de las regresiones simples.

    25

  • Multicolinealidad perfecta:

    Ejercicio 19. Como afectara al problema de estimacion que los regresores x2 y x3 tuvieran un coefi-

    ciente de correlacion muestral con valor absoluto igual a uno?

    Relacion entre los modelos de tres regresores y los de dos: Considere las variables Y , X2 y

    X3 y los siguientes modelos de regresion simple

    Regresion 1: XH2 = ax2x3 + bx2x3XH3 +UH : Regresion de XH2 sobre XH3

    Regresion 2: Y H = ayx2 + byx2XH2 +UH : Regresion de Y H sobre XH2

    Regresion 3: Y H = ayx3 + byx3XH3 +UH : Regresion de Y H sobre XH3

    (Notese como los subndices de los coeficientes describen cada regresion)

    Que relacion tienen las tres regresiones anteriores las estimaciones MCO del modelo de tres variables

    Y H = a+ bXH2 + cXH3 +UH : Regresion de Y H sobre XH2 y XH3

    descritas en las ecuaciones (2.2) y (2.2)? Veamoslo:

    Si multiplicamos y dividimos las ecuaciones (2.2) y (2.2) de la pagina 25 por s2x2 s2x3 obtenemos lassiguientes expresiones en terminos de los coeficientes MCO de las tres regresiones anteriores:

    b =byx2 byx3 bx2x3

    1 r2x2x3(2.4)

    c =byx3 byx2 bx2x3

    1 r2x2x3(2.5)

    donde rx2x3 es la correlacion muestral entre ambos regresores.

    Y que pasara si dicha correlacion rx2x3 es cero?. . . pues entonces la covarianza muestral entre xH2 y

    xH3 tambien es cero. . . pero entonces en la primera regresion

    XH2 = ax2x3 + bx2x3XH3 +UH :

    la pendiente estimada (vease 1.9 en la pagina11) es tambien cero

    bx2x3 =sx2x3

    s2x2=

    0

    s2x2= 0;

    y resulta que

    b =byx2 byx3 bx2x3

    1 r2x2x3=byx2 byx3 0

    1 0 = byx2 , que es la pendiente de la regresion 2

    c =byx3 byx2 bx2x3

    1 r2x2x3=byx3 byx2 0

    1 0 = byx3 , que es la pendiente de la regresion 3

    As pues, si la correlacion muestral entre xH2 y xH3 es cero, podemos estimar independientemente los

    parametros b y c del modelo de tres variables con las dos regresiones auxiliares 2 y 3.

    Y que pasa con la estimacion del termino constante a? De 2.1 sabemos que a = y b x2 c x3;as que, a no ser que las medias de xH2 y xH3 sean cero, los coeficientes estimados para la constante de las

    regresiones 2 y 3 seran distintos de la estimacion de a en la regresion con tres variables.

    Ejemplo 20. Veamos el siguiente ejemplo simulado:

    26

  • Modelo simulado Pn = 100 + 3Sn 130Dn + Un

    Estadsticos principales, usando las observaciones 1 - 500

    Variable Media Mediana Mnimo Maximo

    precio 218,374 218,547 47,3599 359,642

    superfic 69,8442 69,6608 37,5752 98,8857

    distanci 0,705542 0,714829 0,164484 1,35108

    Variable Desv. Tp. C.V. Asimetra Exc. de curtosis

    precio 47,0678 0,215537 0,0258830 0,272774superfic 9,85856 0,141151 0,130216 0,0233318distanci 0,202598 0,287152 0,0538992 0,118554

    Relacion lineal entre los regresores S y D:

    Estimacion Modelo 1 Sn = 1 + 2Dn + Un

    S = 69, 0650(1,6001)

    + 1, 10439(2,1800)

    D

    T = 500 R2 = 0, 0015 F (1, 498) = 0, 25665 = 9, 8659(Desviaciones tpicas entre parentesis)

    Si se fija en el coeficiente de determinancion de esta regresion entre las variables explicativas obver-

    vara que, en este ejemplo, las variables S y D son cuasi-ortogonales.

    Modelo simulado Pn = 100 + 3Sn 130Dn + Un

    Estimacion Modelo 2 Pn = 1 + 2Sn + Un

    P = 8, 86429(11,740)

    + 2, 99968(0,16644)

    S

    T = 500 R2 = 0, 3935 F (1, 498) = 324, 81 = 36, 654

    (Desviaciones tpicas entre parentesis)

    27

  • Modelo simulado Pn = 100 + 3Sn 130Dn + Un

    Estimacion Modelo 3 Pn = 1 + 2Dn + Un

    P = 310, 482(6,3208)

    130, 549(8,6114)

    D

    T = 500 R2 = 0, 3144 F (1, 498) = 229, 82 = 38, 973

    (Desviaciones tpicas entre parentesis)

    Modelo simulado: Pn = 100 + 3Sn 130Dn + Un

    Estimacion Modelo completo Pn = 1 + 2Sn + 3Dn + Un

    P = 98, 9950(8,7033)

    + 3, 06214(0,11194)

    S 133, 931(5,4471)

    D

    T = 500 R2 = 0, 7258 F (2, 497) = 661, 51 = 24, 645

    (Desviaciones tpicas entre parentesis)

    Ejercicio 21. Coinciden los valores estimados para los parametros 2 y 3 en el modelo Pn = 1 +

    2Sn 3Dn + Un con los valores obtenidos para las pendientes en los modelos restringidos anteriores?Que podemos afirmar entonces sobre la covarianza muestral de los regresores distancia y superficie?

    Z EjPviviendaSimulado.inp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .Gretl

    open datos/EjPviviendaSimulado.gdt

    summary P S D

    gnuplot D S --suppress-fitted --output="display"

    gnuplot P S --suppress-fitted --output="display"

    gnuplot P D --suppress-fitted --output="display"

    Modelo1

  • 3. Mas propiedades algebraicas de la regresion por mnimos cuadrados.

    Proyectores ortogonalesDefinicion 1. Decimos que una matriz Q es simetrica si se verifica que Q = Q.

    Definicion 2. Decimos que una matriz Q es idempotente si se verifica que QQ = Q.

    Definicion 3. Sea Q una matriz idempotente (QQ = Q). Si ademas la matriz es simetrica (Q = Q),entonces se dice que la matriz Q es un proyector ortogonal.

    Revision de la estimacion MCO con proyecciones Si se cumple el cuarto supuesto, entonces XXes de rango completo y existe la matriz (XX)-1. Solo entonces, es posible despejar en las ecuacionesnormales (1.1) para obtener la expresion:

    = (XX)-1Xy .

    Llamamos estimacion MCO de y a

    y = X

    que es igual a

    y = X = X(XX)-1Xy .

    Por otra parte,

    e =y y = y X=y X(XX)-1Xy=(I X(XX)-1X)y

    Si llamamos P X(XX)-1X y M I P, entoncesy = Py yX; e = My yX.

    donde yX es la parte de y que se puede expresar como funcion lineal de las X; e yX es la parte de yperpendicular (ortogonal) a las X.

    As pues, las siguientes tres expresiones son equivalentes, y representan la misma descomposicion

    ortogonal del vector y :

    y =y + e

    =Py + My

    =yX + yX

    (vease la Figura 1 en la pagina siguiente).

    Para poder realizar los siguientes ejercicios, vamos a recordar antes un par de resultados de Algebra lineal:

    Nota 5.

    La inversa de una matriz simetrica es simetrica, as pues,[(XX)-1

    ]= (XX)-1.

    La traspuesta de un producto de matrices A y B es [AB] = BA . . .

    29

  • As que . . .

    Ejercicio 22. Cual sera la expresion de la traspuesta del producto de tres matrices (ABC)?

    Ahora ya podemos verificar las siguentes cuestiones:

    Ejercicio 23.

    (a) Verifique que P y M son proyectores ortogonales.

    (b) Verifique que P X =X

    (c) Verifique que M X =0

    (d) Verifique que P + M = I.

    (e) Demuestre que PM = 0.

    Revisitacion de las propiedades algebraicas, pero empleando proyectores ortogonales De-

    mostracion de que los errores son perpendiculares a los regresores. . .

    Xe = XMy = XMy = 0y = 0.

    Demostracion de que los vectores y y e son ortogonales. . .

    ye = (Py)My = yPMy = y0y = 0.

    e=My

    =y X

    y

    y = Py = yX

    C (X)

    Figura 1: La regresion MCO es la proyeccion ortogonal del regresando y sobre el espacio vectorial C (X) generado por losregresores (las columnas de X).

    Y puesto que los vectores y , y y e forman un triangulo (vease la figura 1) que es rectangulo por ser y

    y e perpendiculares entre si nos queda demostrar la ultima propiedad, referida a triangulos rectangulos

    (Teorema de Pitagoras):

    yy =(Py + My

    ) (Py + My

    )=yPPy + yMMy pues PM = PM = 0

    =yy + ee

    As pues, la matriz P es una aplicacion lineal que proyecta el vector y sobre las X (sobre el espacio

    vectorial C (X) expandido por las columnas los regresores de la matriz X); y la matriz M es unaaplicacion lineal que proyecta el vector y sobre el espacio N (X) ortogonal a las columnas de X.

    30

  • Por tanto, podemos concluir que:

    La estimacion MCO separa el vector y en dos componentes, y y e , perpendiculares entre si.

    La primera componente y es una combinacion lineal de los regresores Py (la parte de y que se

    puede describir mediante una combinacion lineal (suma ponderada) de las variables explicativas

    yX). La segunda componente, e , es la parte de y ortogonal a los regresores, yX = My .

    y =y + e

    =Py + My

    =yX + yX.

    Regresion particionadaWooldridge (paginas 85 y ejercicio 3.17 de la pagina 119 2006). Pero mejor en:

    Johnston y Dinardo (paginas 88 a 95 y 116 a 118 2001)

    Novales (paginas 85 a 86 1993)

    Pena (paginas 390 a 392 2002)

    En esta subseccion vamos a hacer uso intensivo de las ideas expuestas en la ultima seccion, esto es que

    si Pw = W(WW)-1W, entonces Pw z es la regresion (proyeccion) de z sobre el conjunto de regresores

    W; y si Mw = I Pw, entonces, Mw z son los residuos de dicha regresion. . . comencemos. . .

    En ocasiones es necesario operar con sub-vectores de [k1]

    , uno de ellos con l parametros, y el otro con los

    m restantes (m = k l).

    [k1]

    =

    1 2

    , donde 1[l1]

    y 2[m1]

    ; (l +m = k);

    consecuentemente, tambien necesitaremos particionar la matriz de regresores en dos submatrices una con

    las l columnas correspondientes a 1 y la otra con las m columnas restantes:

    X[Nk]

    =[X1[Nl]

    ... X2[Nm]

    ].

    Con estas particiones de y X vamos a reescribir el modelo lineal como Y=X1 1+X2 2+U y tambien

    las ecuaciones normales 1.1 que aparecen en la pagina 7:X1

    X2

    [X2 ... X2]1 2

    =X1

    X2

    y

    donde X[Nk]

    =[X1[Nl]

    ... X2[Nm]

    ], y donde =

    1 2

    , con 1[l1]

    y 2[m1]

    ; (l +m = k).

    Operando en estas ecuaciones normales en su version particionada obtenemos el sistema

    X1X1 1 + X1

    X2 2 = X1y

    X2X1 1 + X2

    X2 2 = X2y

    (3.1)

    31

  • Si pre-multiplicamos la primera de las ecuaciones del sistema por X2X1(X1

    X1)-1 y la restamos dela segunda, tenemos(

    X2X2 X2X1(X1X1)-1X1X2

    )2 = X2

    y X2X1(X1X1)-1X1y (3.2)

    Vamos ha definir los proyectores

    P1 = X1(X1X1)-1X1

    y M1 = I P1

    La matriz P1 es una aplicacion lineal que proyecta cualquier vector z sobre el espacio generado

    por los regresores X1 , mientras que M1 proyecta a z sobre el espacio ortogonal al primero. Por tanto

    P1z realiza la regresion MCO del vector z sobre los regresores X1 y M1z son los residuos (los errores) de

    dicha regresion.

    Sustituyendo P1 y M1 en (3.2) tenemos

    2 = (X2M1X2)1X2M1y ; (3.3)

    y sustituyendo esta expresion en las ecuaciones normales tenemos (3.1)

    1 = (X1X1)-1X1

    (y X2 2 ) (3.4)

    Puesto que M1 es un proyector ortogonal, sabemos que M1 = M1, y que M

    1M1 = M1. Entonces,

    podemos reescribir (3.3) como

    2 = (X2M1M1X2)

    1X2M1M1y .

    En esta expresion, M1y son los residuos obtenidos al realizar la regresion de y sobre el subconjunto

    de regresores X1 (la parte de y ortogonal a X1). Y M1X2 es una matriz cuyas columnas son los residuos

    obtenidos realizando la regresion de cada una de las columnas de X2 sobre X1 (la parte de X2 ortogonal

    a X1).

    Notese que si llamamos yX1 = M1y a los residuos de la primera regresion, y X2X1 = M1X2 a la matriz

    de residuos de las regresiones de las columnas de X2 , entonces (3.3) se puede escribir como

    2 = (X2X1X2X1)

    -1X2X1yX1

    Este resultado nos indica que podemos estimar 2 mediante regresiones auxiliares:

    Paso 1: Realizamos la regresion de y sobre el primer conjunto de regresores X1 y obtenemos el vector de

    residuos yX1

    Paso 2: Realizamos las regresiones de cada una de las columnas de X2 sobre las variables X1 , almacenando

    los residuos de cada regresion en las columnas de X2X1.

    Paso 3: por ultimo, 2 se obtiene de la regresion de yX1 sobre X2X1, es decir, 2 = (X2X1X2X1)

    -1X2X1yX1

    (que es precisamente lo que dice la ecuacion (3.3))

    Paso 4: las estimaciones de 1 se pueden recuperar de empleando la ecuacion (3.4)

    Regresion ortogonal particionada. Suponga que ambos grupos de regresores,[X1

    ... X2], son ortogo-

    nales entre si, es decir, supongamos que

    X1X2 = 0,

    y por tanto no hay correlacion entre los regresores del primer grupo y los del segundo (los regresores X1

    estan incorrelados con los regresores de X2).

    32

  • En este caso, las ecuaciones 3.1 en la pagina31 se reducen a

    X1X1 1 = X1

    y

    X2X2 2 = X2

    y;

    y por tanto los vectores 1 y 2 se pueden estimar por separado. Los primeros proyectando y sobre X1 ,

    y los regundos proyectando y sobre X2 . Esta es una generalizacion de la Nota 4 en la pagina25.

    Regresion en desviaciones respecto a la mediaWooldridge (paginas 63, 64, 90 2006). Pero mejor:

    Novales (paginas 86 a 91 1993)

    Johnston y Dinardo (paginas 84 a 88 2001)

    Gujarati (Seccion 6.1 2003, hay version castellana de este manual)

    Notese que si 2 = 2; es decir, si el sub-vector se reduce a un escalar (un unico parametro), entonces la

    expresion (3.3) se reduce a

    2 = 2 = (x2

    [1N]

    M1[NN]

    x2[N1]

    )1x2M1y =x2

    M1y

    x2[1N]

    M1[NN]

    x2[N1]

    (3.5)

    Un caso particular de la regresion particionada es que en un modelo con constante, separemos como

    primer grupo de regresores a la columna de unos por un lado, y el resto de regresores por el otro. Es decir

    X =[1

    ... X2], donde X1 = 1. En este caso

    P1 = X1(X1X1)-1X1

    = 1(11)-11 =1 1N

    =

    1N

    1N 1N

    1N

    1N 1N

    . . . ...1N

    1N 1N

    por lo que

    P1y =

    1N

    1N 1N

    1N

    1N 1N

    . . . ...1N

    1N 1N

    y1

    y2...

    yN

    =y

    y...

    y

    = y = y1.

    Entonces

    M1y = (I P1)y = y y =

    y1 yy2 y

    ...

    yN y

    y = y1es decir, y = M1y son las desviaciones de los elementos del vector columna y respecto de su media

    muestral y (los residuos y1 de la primera regresion en el paso 1 de la pagina 32; donde X1 = 1).3.

    De manera similar, M1X2 da como resultado una matriz X2X1 X2 en la que aparecen las desviacionesde los datos de cada una de las columnas de X2 respecto de sus respectivas medias (son los residuos de las

    regresiones auxiliares del paso 2 de la pagina 32).

    3Vease tambien la Ecuacion 1.6 en la pagina10

    33

  • Ahora es inmediato estimar 2 como

    2 = (X2X2)

    -1X2y ; (3.6)

    que es el paso 3; es decir, en un modelo con termino constante, la estimacion de todos los parametros, ex-

    cepto el de la constante, se pueden obtener mediante la regresion de las variables del modelo en desviaciones

    respecto a su media.

    Por ultimo, realizando el paso 4, podemos estimar el parametro asociado al termino constante 1:

    1 = (11)-11(y X2 2 ) =

    1(y X2 2 )N

    = y 2x2 3x3 kxk (3.7)

    En definitiva, si en el modelo Yn = 1 + 2X2n + + kXkn deseamos estimar por MCO solo 2,3, . . . , k; nos basta con restar la media muestral a cada una de las variables del modelo, y realizar

    la regresion en un nuevo modelo sin termino constante y con las nuevas variables transformadas. Yn =

    2X2n + + kXkn.

    Practica 24. Verifique con un programa econometrico la afirmacion anterior.

    Notese ademas, que la expresion (3.6) se puede reescribir como:

    2 =

    (1

    NX2X2

    )1(1

    NX2y

    );

    donde 1N X2X2 es la matriz de covarianzas muestrales de los regresores, y

    1N X2

    y es el vector de covarianzas

    muestrales entre los regresores y el regresando (que es la contrapartida muestral de la Ecuacion ?? en la

    pagina??).

    Anadiendo regresores

    Suponga que ha estimado por MCO el siguiente modelo

    Y = X +U.

    Posteriormente decide incluir como regresor adicional la variable Z; por lo que el modelo ampliado sera:

    Y = X + cZ +U .

    En este contexto, podemos aplicar los resultados de la regresion particionada para obtener el coefi-

    ciente, c, asociado al nuevo regresor Z aplicando primero la Ecuacion (3.3) de la pagina 32:

    c = (zMz)1zMy = (ZXZX)

    -1ZXyX; (3.8)

    donde yX son los residuos de la regresion MCO de y sobre X (la parte de y ortogonal a las X), y zX son

    los residuos de la regresion MCO de z sobre X (la parte de z ortogonal a las X), es decir zX = Mz , e

    yX=My ; donde M =[I X(XX)-1X].

    Practica 25. Verifique con un programa econometrico la afirmacion anterior. Los pasos a seguir son

    1. Calcule los residuos MCO con el modelo reducido.

    2. Calcule los coeficientes estimados en el modelo ampliado. Fjese en el valor obtenido para el coeficiente

    c asociado al nuevo regresor4.

    3. Calcule los residuos en la regresion de la nueva variable explicativa z sobre los antiguos regresores

    X.

    4Notese que el resto de coeficientes puede diferir respecto de los obtenidos en la nueva regresion. Esto sera as siempre

    que el nuevo regresor tenga correlacion con los del modelo inicial.

    34

  • 4. Calcule por MCO la regresion de los residuos del punto 3 sobre los residuos del punto 1; y compare

    el valor estimado con el obtenido en el punto 2.

    Como afecta el anadir mas regresores a la suma de residuos? Cuando se anaden regresores a

    un modelo, la suma de residuos al cuadrado nunca crece; de hecho suele disminuir. Esto se cumple incluso

    si la variable anadida no tiene ningun sentido dentro del modelo (ninguna relacion teorica). Veamoslo:

    Pensemos en el caso anterior, cuando anadimos un regresor adicional Z al modelo inicial.

    Los residuos del modelo inicial son

    e = y X ;por otra parte, los residuos con el modelo ampliado son

    e = y X z c.(notese que si Xz 6= 0 entonces 6= ; y que si c 6= 0 entonces e 6= e .)

    De (3.4) sabemos que

    = (XX)-1X(y z c) = (XX)-1Xz c.Sustituyendo en e obtenemos

    e =y X + X(XX)-1Xz c z c=e Mz c=e zXc de (3.8)

    As pues,

    ee = ee + c2(zX zX

    ) 2czX eTeniendo en cuenta que de (3.8) c = (ZX

    ZX)-1ZX

    yX y que e = My = yX tenemos

    c2(zX zX

    )= c(zX zX

    )c = c

    (zX zX

    )(ZX

    ZX)-1ZX

    yX = czX yX = czX e .

    Por lo que finalmente

    ee SRC

    = eeSRC

    c2(zX zX) 0

    , (3.9)

    puesto que el ultimo termino siempre sera mayor o igual a cero, la suma de residuos al cuadrado del modelo

    ampliado SRC nunca sera mayor que la del modelo reducido SRC.

    Correlaciones parciales

    Suponga que tiene tres variables; por ejemplo, la renta r, la edad e y el numero de anos de estudio o

    formacion f de una serie de individuos.

    Rn = 1 + 2Fn + 3En + Un

    Querramos saber el grado de relacion lineal entre dos de ellas, una vez descontado la relacion lineal que

    la tercera tiene con ellas. En nuestro ejemplo nos podra interesar conocer el grado de relacion lineal de la

    renta con la formacion, una vez descontado el efecto lineal que la edad tiene con ambas (notese que tanto

    para formarse como para generar rentas es necesario el transcurso del tiempo, por lo que generalmente

    hay una relacion directa entre la edad y las otras dos variables).

    La solucion es tomar la parte de ambas variables, renta y educacion, ortogonal a la tercera,

    laedad; y observar la correlacion de dichas partes (que ya no mantienen relacion lineal ninguna con la

    variable edad).

    El modo de hacerlo es sencillo una vez visto lo anterior, y constara de los siguientes pasos:

    35

  • 1. Se toman los residuos de la regresion de la variable renta r sobre la variable edad e y la constante

    (modelo lineal simple); es decir, se obtiene rE.

    2. Se toman los residuos de la regresion de la variable formacion f sobre la variable edad e y la constante

    (modelo lineal simple); es decir, se obtiene fE.

    3. Por ultimo se calcula el coeficiente de correlacion simple de ambos residuos rrEfE.

    Dicho coeficiente es la correlacion parcial de la variable renta r con la variable formacion f , una vez

    descontado el efecto de la edad e sobre ambas variables. Notese que ambos residuos tiene media cero

    por ser residuos de un modelo con termino constante.

    Suponga por tanto que dividimos la matriz de regresores X en dos columnas; por ejemplo la primera

    variable no cte. x2 y el resto de k 1 regresores (incluyendo el termino cte.) W.

    X =

    [x2

    ... W

    ]entonces el coeficiente de correlacion parcial de y con x2 una vez descontado el efecto de las demas variables

    (incluida la constante) W es

    r(y,x2)Z=

    yMWx2yMWy

    x2MWx2

    =

    syWx2W

    s2yW

    s2x2W

    ,

    donde MW = I W(WW)-1W.

    Bibliografa

    Gujarati, D. N. (2003). Basic Econometrics. McGraw-Hill, cuarta ed. ISBN 0-07-112342-3. International

    edition. 33

    Johnston, J. y Dinardo, J. (2001). Metodos de Econometra. Vicens Vives, Barcelona, Espana, primera

    ed. ISBN 84-316-6116-x. 31, 33

    Novales, A. (1993). Econometra. McGraw-Hill, segunda ed. 31, 33

    Pena, D. (2002). Regresion y diseno de experimentos. Alianza Editorial, Madrid. ISBN 84-206-8695-6. 31

    Ramanathan, R. (2002). Introductory Econometrics with applications. South-Western, Mason, Ohio,

    quinta ed. ISBN 0-03-034186-8. 3, 19

    Wooldridge, J. M. (2006). Introduccion a la econometra. Un enfoque moderno. Thomson Learning, Inc.,

    segunda ed. 2, 8, 14, 31, 33

    36

  • Soluciones a los Ejercicios

    Ejercicio 4. Por la Nota 1 en la pagina8 sabemos quen(xnx)(yn y) =

    n yn(xnx); por tanto,

    operando n

    (xn x)(yn y) =n

    yn(xn x)

    =n

    ynxn xn

    yn

    =n

    ynxn Ny x

    O bien, usando notacion vectorial

    (y y) (x x) =yx yx yx + yx=yx y1x y1 x + y1 1x=yx Nyx yNx+ yNx=yx Nyx

    Ejercicio 4

    Ejercicio 5. Por una parte, la primera ecuacion del sistema es

    aN + b

    xn =

    yn;

    dividiendo por N obtenemos directamente a + b x = y; por lo que a = y b x .

    Por otra parte, dividiendo la segunda por N tenemos

    a x+ b

    x2nN

    =

    xnynN

    o lo que es lo mismo, tenemos

    xy

    N= a x+ b

    xxN

    expresando los sumatorios como productos escalares

    =(y b x

    )x+ b

    xxN

    sustituyendo a

    = x y b x2 + b xxN

    operando en el parentesis

    = x y + b(xxN x2

    )sacando b factor comun

    es decirxy

    N x y = b

    (xxN x2

    )por lo que empleando (1.3) y (1.4) tenemos b s2x = sxy o b =

    sxy

    s2x.

    Ejercicio 5

    Ejercicio 6. Entonces la condicion de rango sobre la matrix de regresores X no se cumplira, pues x sera

    un multiplo del vector de unos ya que x = c1.

    En tal situacion el sistema de ecuaciones normales (1.7) se reducira a:

    a N + bxn =

    yn

    c a N + c b xn = c yndonde la segunda ecuacion es c veces la primera, por lo que realmente tenemos mas incognitas que ecua-

    ciones linealmente independientes (situacion de multicolinealidad perfecta).

    37

  • Ademas, la varianza de un vector constante es cero, por lo que s2x = 0 y tambien sxy =yxN y x =

    cy1N cy = 0; as que la expresion

    b =sxy

    s2x=

    0

    0

    es indeterminada.

    Ejercicio 6

    Ejercicio 9. La primera es cierta por definicion de SRC. La segundad tambien lo es por la Nota 3 en la

    pagina9. Veamos la tercera que es un poco mas complicada (aunque no mucho) :

    Nn=1

    (yn y)2 = (y y) (y y)

    = yy yy yy + yy= yy 2yy +Ny2; ya que yy =

    yny = y

    y

    = yy +Ny2 2Nyy;ya que 2yy = 2y1y = 2Nyy.

    Ejercicio 9

    Ejercicio 10.

    yy = y(y e) = yy ye = yy 0 = yy

    Ejercicio 10

    Ejercicio 13. Por una parte, SEC =

    (yn y)2; pero en este modelo los valores ajustados son constantesiguales a la media muestral de y , es decir yn = y. Por tanto SEC = 0.

    Por otra parte, este modelo tiene termino cte. y, entonces, R2 = SECSTC = 0.

    Es decir, un modelo que consiste unicamente en un constante, no tiene ninguna capacidad de expli-

    car las variaciones de la variable dependiente.

    Otra forma de verlo es la siguiente. En este modelo sabemos que yn = y. As que

    SEC =

    (yn y)2 = yy +Ny2 2Nyy por T16= yy Ny2 pues en este caso y = y

    =y 1 y Ny2 pues y es un vector de constantes y=Ny

    2 Ny2 = 0 pues en este caso y = y

    Ejercicio 13

    Ejercicio 14. En este caso

    b =sxy

    s2xy a = y xb,

    por tanto

    yn = a + bxn = y + b(xn x); yn y = b(xn x).Entonces

    SEC =

    (yn y)2 = b2

    (xn x)2y consiguientemente (por tener un termino constante el Modelo Lineal General)

    R2 =SEC

    STC=b2

    (xn x)2(yn y)2 =

    (sxy

    )2(s2x)2 Ns2xNs2y =

    (sxy

    )2s2xs

    2y

    = r2yx

    Ejercicio 14

    38

  • Ejercicio 16(a) x1 x1 x1 x2 x1 x3

    x2 x1 x2 x2 x2 x3

    x3 x1 x3 x2 x3 x3

    abc

    =x1 yx2 yx3 y

    o bien

    ax1

    2n + b

    x1nx2n + c

    x1nx2n =

    x1nyn

    ax2nx1n + b

    x2

    2n + c

    x2nx3n =

    x2nyn

    ax3nx1n + b

    x3nx2n + c

    x3

    2n =

    x3nyn

    Ejercicio 16(b) 1 1 1 x2 1 x3

    x2 1 x2 x2 x2 x3

    x3 1 x3 x2 x3 x3

    abc

    = 1 yx2 yx3 y

    o bien

    aN + bx2n + c

    x2n =

    yn

    ax2n + b

    x2

    2n + c

    x2nx3n =

    x2nyn

    ax3n + b

    x3nx2n + c

    x3

    2n =

    x3nyn

    Ejercicio 17. Dividiendo la primera ecuacion del sistema anterior por N obtenemos

    y = a + b x2 + c x3esta ecuacion indica que el plano de regresion pasa por el punto de los valores medios de las variables del

    sistema.

    Despejando a tenemos

    a = y b x2 c x3que se puede sustituir en las otras dos ecuaciones del sistema:

    x2nyn =(y bx2 cx3

    )x2n + b

    x2

    2n + c

    x2nx3n

    x3nyn =(y bx2 cx3

    )x3n + b

    x3nx2n + c

    x3

    2n;

    operando x2nyn =y

    x2n bx2

    x2n cx3

    x2n + b

    x2

    2n + c

    x2nx3n

    x3nyn =y

    x3n bx2

    x3n cx3

    x3n + b

    x3nx2n + c

    x32n;

    puesto quex2n = Nx2 y

    x3n = Nx3, sustituyendo

    x2nyn =Ny x2 Nb x2 x2 Nc x3 x2 + b

    x22n + c

    x2nx3n

    x3nyn =Ny x3 Nb x2 x3 Nc x3 x3 + b

    x3nx2n + c

    x32n;

    sustituyendo los sumatorios que restan por productos escalares:

    x2 y =Ny x2 Nb x2 x2 Nc x3 x2 + b x2 x2 + c x2 x3x3 y =Ny x3 Nb x2 x3 Nc x3 x3 + b x3 x2 + c x3 x3;

    reordenando terminos:

    x2 y Ny x2 =b (x2 x2 Nx22

    )+ c

    (x2 x3 Nx3 x2

    )x3 y Ny x3 =b

    (x3 x2 Nx2 x3

    )+ c

    (x3 x3 Nx32

    );

    39

  • y teniendo en cuenta las notas 1 a 3 en la pagina9

    Nsx2y =b Ns2x2 + c Nsx2x3Nsx3y =b Nsx2x3 + c Ns2x3 ;

    o bien; n

    yn(x2n x2) =b n

    x2n(x2n x2) + c n

    x3n(x2n x2)n

    yn(x3n x3) =b n

    x3n(x2n x2) + c n

    x3n(x3n x3);

    por tanto, resolviendo el sistema, obtenemos los dos ultimos resultados

    b =sx2y s2x3 sx3y sx2x3s2x2 s2x3

    (sx2x3

    )2

    c =sx3y s2x2 sx2y sx2x3s2x2 s2x3

    (sx2x3

    )2Ejercicio 17

    Ejercicio 18. Con la estimacion de la pendiente en el modelo y = a1 + bx3,

    Ejercicio 18

    Ejercicio 19. Un coeficiente de correlacion muestral con valor absoluto igual a uno significa que hay una

    dependencia lineal entre los regresores, por lo que la condicion sobre el rango de la matrix XX deja decumplirse; y por tanto el sistema de ecuaciones normales tiene infinitas soluciones.

    En tal caso las expresiones (2.1), (2.2) y (2.3) dejan de estar definidas ya que, en este casorx2x3 = sx2x3s2x2s2x3

    = 1,lo que implica que

    sx2x3 = s2x2s2x3 y por tanto s2x2 s2x3 = (sx2x3)2; y los denominadores de de lasexpresiones (2.2) y (2.3) son cero.

    Ejercicio 19

    Ejercicio 21. Los valores estimados en los modelos restringidos y sin restringir difieren. Por lo tanto,

    podemos afirmar que la covarianza muestral entre los regresores Sn y Dn en esta simulacion es distinta de

    cero; pero, puesto que los valores estimados para las pendientes cambian muy poco, la correlacion entre

    ambos regresores es bajsima (son cuasi-ortogonales).

    Ejercicio 21

    Ejercicio 22.

    (ABC) = ((AB)C) = C (AB) = CBA.

    Ejercicio 22

    Ejercicio 23(a)

    1. P =[X(XX)-1X

    ]= (X)

    ((XX)-1

    )(X) = X(XX)-1X = P Por la Nota 5 en la pagina29

    2. PP = X(XX)-1XX(XX)-1X = X(XX)-1IX = X(XX)-1X = P

    3. M =[I P

    ]= I P = I P = M

    4. MM =[I P

    ] [I P

    ]= I P P + PP = I P P + P = I P = M

    40

  • Ejercicio 23(b) PX = X(XX)-1XX = XI = X

    Ejercicio 23(c) MX =(I-P)X =X-PX =X-X =0

    Ejercicio 23(d) P + M = P + I P = I

    Ejercicio 23(e) Puesto que P = P y que PP = P

    PM = P(I P) = P PP = P P = 0

    41

    Tabla de Contenido1 Regresin Lineal por Mnimos Cuadrados Ordinarios (MCO)1.1 Introduccin

    1 [T-1] Relacionar una variables con otras puede mejorar la comprensin1.2 Ajuste mnimo cuadrtico

    2 [T-2] Recta de regresin3 [T-3] Modelos lineales en los parmetros4 [T-4] Trmino de error5 [T-5] Ajuste lineal: geometra6 [T-6] Ajuste lineal: geometra7 [T-7] Ajuste lineal: geometra MCO8 [T-8] Ajuste mnimo cuadrtico: Ecuaciones normales9 [T-9] Condicin para que las ecuaciones normales tengan solucin nica1.3 Algunas expresiones que sern empleadas frecuentemente1.4 Algunos casos particulares

    10 [T-10] Modelo 1: una constante como nico regresor11 [T-11] Modelo 2: Modelo Lineal Simple12 [T-12] Modelo 2: Modelo Lineal Simple13 [T-13] Relacin entre el estimador de la pendiente y el coeficiente de correlacin lineal2 Propiedades algebraicas de la estimacin MCO2.1 Propiedades bsicas

    14 [T-14] Mnimos cuadrados ordinarios: Vectores ortogonales15 [T-15] Mnimos cuadrados ordinarios: T de Pitgoras16 [T-16] Sumas de cuadrados17 [T-17] Sumas de cuadrados: Caso de modelos con cte.2.2 Medidas de ajuste

    18 [T-18] Medidas de ajuste: Coeficiente de determinacin R cuadrado19 [T-19] Coeficiente de determinacin cuando hay trmino constante20 [T-20] Otras medidas de ajuste21 [T-21] Regresograma y recta de regressinApndices1 Derivacin tradicional de las Ecuaciones Normales22 [T-22] Mnimos cuadrados ordinarios: Ecuaciones normales (Tradicional)2 Otro caso particular: modelo con tres regresores3 Ms propiedades algebraicas de la regresin por mnimos cuadrados.Bibliografa Soluciones a los Ejercicios