Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Econometria, Apuntes de Econometría

Asignatura: Econometria, Profesor: , Carrera: Enginyeria en Tecnologies Industrials, Universidad: URL

Tipo: Apuntes

2014/2015

Subido el 12/07/2015

siull26
siull26 🇪🇸

5 documentos

Vista previa parcial del texto

¡Descarga Econometria y más Apuntes en PDF de Econometría solo en Docsity! EL MODELO DE REGRESIÓN © Jordi Arcarons Samuel Calonge En el ámbito de los métodos cuantitativos en Economía, el análisis de la regresión estudia las propiedades estadísticas de las relaciones entre variables económicas. El modelo de regresión, es una herramienta empírica muy útil cuando se quiere explicar el comportamiento de una variable dependiente en función de otras variables denominadas explicativas. INTRODUCCIÓN © Jordi Arcarons Samuel Calonge Siguiendo con nuestro ejemplo, el tipo de IRPF, no sólo depende de la renta, sino también de otras variables: La demografia familiar (número de hijos). Tipo de contribuyente (asalariado, empresario). Edad del contribuyente. Composición de la renta. ... INTRODUCCIÓN © Jordi Arcarons Samuel Calonge El objetivo de la inferencia estadística del MRLM es el análisis estructural, es decir, la estimación de los parámetros con la finalidad de medir propensiones y elasticidades entre variables económicas. Además, mediante el contraste de hipótesis estudiamos la significación estadística de la relación (test de hipótesis sobre parámetros individuales o de restricciones lineales entre parámetros). El análisis estructural engloba también el problema de la selección entre modelos o teorías alternativas. POSIBILIDADES DE ANÁLISIS © Jordi Arcarons Samuel Calonge  Otro tipo de aplicaciones del MRLM reside en la predicción y/o simulación del comportamiento de la variable dependiente condicionado a valores de las variables explicativas. Hay que señalar que la inferencia estadística del MRLM opera en un marco de hipótesis iniciales que son enunciadas en la fase que denominamos de especificación del modelo. POSIBILIDADES DE ANÁLISIS © Jordi Arcarons Samuel Calonge  Ejemplo: Fenómeno económico: evolución de las ventas en una librería: 1ª Fase: especificación del modelo: Definir las variables: Variable endógena (Y): ventas (en miles €) Variables exógenas (X):variables: Factores demográficos: población Factores económicos: ciclo económico, gastos en publicidad, grado de competencia,... POSIBILIDADES DE ANÁLISIS © Jordi Arcarons Samuel Calonge  Ejemplo: Fenómeno económico: evolución de las ventas en una librería 1ª Fase: especificación del modelo: Datos: POSIBILIDADES DE ANÁLISIS © Jordi Arcarons Samuel Calonge Año Volumen de ventas (en miles de euros) Gasto en publicidad (en miles de euros) Grado de competencia (del 1 al 10) 1996 27 20 2 1997 23 20 3 1998 31 25 2 1999 45 28 4 2000 47 29 5 2001 42 28 5 2002 39 31 6 2003 45 34 5 2004 57 35 5 2005 59 36 6 2006 73 41 7 2007 84 45 8  Ejemplo: Fenómeno económico: evolución de las ventas en una librería 1ª Fase: especificación del modelo: Yt=F(Xt)+Ut Yt: variable endógena o explicada. Xt: variables exógenas o explicativas. Ut: es la perturbación del modelo. F(Xt): forma funcional del modelo. POSIBILIDADES DE ANÁLISIS © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 1: El comportamiento de una variable dependiente “y”, es función de una combinación lineal de “k” variables explicativas “x” y parámetros “β”, más un término de error o perturbación aleatoria “u”. La variable “u” recoge el efecto conjunto de los factores no observables y consideramos que su efecto sobre “y” no es sistemático (la “u” es la aleatoriedad del modelo, que hace que podamos concluir que el modelo no es deteriminista). © Jordi Arcarons Samuel Calonge © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 1: Expresión algebraica del MRLM: i 1 1,i 2 2,i k k,i iy x x x u       © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 1: Expresión algebraica del MRLM: En el segundo miembro de la ecuación distinguimos la parte sistemática de la regresión (una combinación lineal entre variables y parámetros) y la parte aleatoria “u” La parte sistemática y la parte aleatoria son ortogonales entre sí (la correlación es cero). i 1 1,i 2 2,i k k,i iy x x x u       © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 1: Aproximación matricial: X              1,1 2,1 k,1 1,2 2,2 k,2 1,N 2,N k,N Nxk x x x x x x x x x        1 1 1,1 2 2,1 k k,1 1y =βx +βx++βx+u x +βx++βx+uβx +βx++βx+u x +βx++βx+u +βx++βx+uβx +βx++βx+u x +βx++βx+uu       2 1 1,2 2 2,2 k k,2 2y =βx +βx++βx+u x +βx++βx+uβx +βx++βx+u x +βx++βx+u +βx++βx+uβx +βx++βx+u x +βx++βx+uu N 1 1,N 2 2,N k k,N Ny =βx +βx++βx+u x +βx++βx+uβx +βx++βx+u x +βx++βx+u +βx++βx+uβx +βx++βx+u x +βx++βx+uu y X u  y               1 2 N Nx1 y y y                   1 2 k kx1 u               1 2 N Nx1 u u u i 1 1,i 2 2,i k k,i iy x x x u       © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 1: El vector “y” de observaciones de la variable dependiente representa una columna (con “n” filas). La matriz “X” de datos de las variables explicativas ocupará “k” columnas y “n” filas. © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 1: En la mayoría de los casos, suponemos que el modelo incorpora un término independiente o constante, de forma que la primera columna de la matriz “X” es un vector columna unitario de 1’s, por lo que la ecuación será: ikiki221i ux...xy  © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 1: Para estimar los parámetros del modelo debe disponerse de información estadística suficiente sobre el conjunto de variables. El requisito mínimo para obtener una solución es que el número de observaciones “n” sea igual al número de parámetros “k”. El número de grados de libertad “n-k” debe ser razonable para garantizar que la estimación estadística sea representativa para realizar inferencia. y X y1 x1 y2 x2 y3 x3 y4 x4 u3u2 u4 INTERPRETACIÓN GRÁFICA u1 parámetros perturbación endógena exógena © Jordi Arcarons Samuel Calonge 1 2E(y)=βx +βx++βx+u +βx++βx+uβx +βx++βx+u x © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 2: Las variables explicativas “x” son no estocásticas (fijas), no existiendo ninguna relación lineal exacta entre ellas. El cáracter no estocástico de las variables explicativas supone que la única fuente de aleatoriedad del comportamiento de la variable dependiente es el término de error o perturbación. © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 3: La hipótesis de nulidad para la media de la distribución de la perturbación es verosímil. Si la especificación del modelo es correcta, en el sentido de que las variables relevantes están recogidas en la parte sistemática de la ecuación, el término de error no incidirá sistemáticamente en “y”. © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 3: La perturbación se entiende como una agregación de variables que individualmente no tienen una incidencia significativa en el comportamiento de la variable dependiente, y que su efecto, en promedio, es nulo. En el caso de existir una incidencia sistemática, puede pensarse que esta tendrá una influencia pequeña sobre los resultados. © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 3: El término de error o perturbación aleatoria “u” tiene varianza constante para todas las observaciones: var(ui) = E(u-E(u))2 = E(ui2) = σ2, E(u)=0 © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 3: La covarianza entre pares de errores correspondientes a observaciones diferentes es nula: cov(ui,uj) = E( (ui-E(ui)) (uj-E(uj)) ) = E(uiuj) = 0 E(ui)=0 E(uj)=0 © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 3: La hipótesis de ausencia de correlación en la perturbación es la más restrictiva de todas las anteriores, especialmente cuando trabajamos con datos de series temporales económicas. © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 3: El cumplimiento de la hipótesis de ausencia de correlación, exige una correcta especificación del modelo ya que, la exclusión de variables explicativas relevantes, comportará la existencia de un efecto sistemático en la perturbación. © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 4: Permanencia estructural. El supuesto de constancia de los parámetros del modelo implica la existencia de una única estructura, válida para todo el periodo de la muestra, así como para el horizonte de predicción. © Jordi Arcarons Samuel Calonge HIPÓTESIS DEL MODELO Hipótesis 4: En el sistema de ecuaciones definido, los valores poblacionales de los parámetros no cambian, son constantes en todo el periodo muestral. Esta restricción está implícita en la propia formulación del modelo, y cuando no se cumple da lugar a lo que se conoce como cambio estructural. Información “cros-section” o transversal No hay referencia ni al tiempo ni a la periodicidad i representa individuos, empresas, países, etc. N representa el temaño de la muestra Información “serie temporal” Las observaciones tienen una referencia temporal y periódica t representa años, trimestres, meses, etc. T representa el tamaño de la muestra En general, la información transversal es más compatible con las hipótesis formuladas por el modelo de regresión © Jordi Arcarons Samuel Calonge TIPO DE INFORMACIÓN i 1 1,i 2 2,i k k,i iy =βx +βx++βx+u x +βx++βx+uβx +βx++βx+u x +βx++βx+u +βx++βx+uβx +βx++βx+u x +βx++βx+uu t 1 1,t 2 2,t k k,t ty =βx +βx++βx+u x +βx++βx+uβx +βx++βx+u x +βx++βx+u +βx++βx+uβx +βx++βx+u x +βx++βx+uu © Jordi Arcarons Samuel Calonge INFERENCIA ESTADÍSTICA DEL MRLM El método de estimación por MCO Para calcular una estimación de los parámetros a partir de los valores de una muestra del par (yi, xi), adoptamos un criterio de estimación. El método de MCO ajusta la recta que hace mínima la siguiente expresión:   NN 2 2 i 1 1,i 2 2,i k k,i i i 1i 1 S y x x x u           © Jordi Arcarons Samuel Calonge INFERENCIA ESTADÍSTICA DEL MRLM El método de estimación por MCO Derivando dicha función respecto cada “βj” e igualando a cero, en aplicación de la condición necesaria de mínimo, se obtiene la condición de primer orden: S 0      2   N i 1 1,i 2 2,i k k,i i 1 y x x x          j,ix 0 © Jordi Arcarons Samuel Calonge INFERENCIA ESTADÍSTICA DEL MRLM El método de estimación por MCO La expresión anterior resume “k” ecuaciones (denominadas también ecuaciones normales): X'y    (X'X)                 1 MQO ˆ (X'X) X'y    N N N N 2 i 2,i 1 2,i 1,i 2 2,i k 2,i k,i i=1 i=1 i=1 i=1 j=2 y x = βx +βx++βx+u x x +βx++βx+uβx +βx++βx+u x +βx++βx+u +βx++βx+uβx +βx++βx+u x x      N N N N 2 i 1,i 1 1,i 2 1,i 2,i k 1,i k,i i=1 i=1 i=1 i=1 j=1 y x = βx +βx++βx+u x +βx++βx+uβx +βx++βx+u x x +βx++βx+u +βx++βx+uβx +βx++βx+u x x      N N N N 2 i k,i 1 k,i 1,i 2 k,i 2,i k k,i i=1 i=1 i=1 i=1 j=k y x = βx +βx++βx+u x x +βx++βx+uβx +βx++βx+u x x +βx++βx+u +βx++βx+uβx +βx++βx+u x           © Jordi Arcarons Samuel Calonge Productos cruzados corregidos = Sumas de cuadrados en desviaciones respecto a la media muestral LA NOTACIÓN EN DESVIACIONES Y EL TÉRMINO INDEPENDIENTE i 1 2 2,i k k,i i ˆ ˆ ˆy =βx +βx++βx+u +βx++βx+uβx +βx++βx+u x +βx++βx+u +βx++βx+uβx +βx++βx+u x +βx++βx+ue    i 1 1,i 1= ˆy -y βx +βx++βx+u x -x      2 2,i 2 k k,i k i iˆ ˆ+βx++βx+uβx +βx++βx+u x -x +βx++βx+u +βx++βx+uβx +βx++βx+u x -x +βx++βx+u e -e 2,1 2 k,1 k 2,2 2 k,2 k k-1 2,N 2 k,N k Nx(k-1) x -x x -x x -x x -x X = x -x x -x                    1 2 k-1 N Nx1 y - y y - y y = y - y               2 k-1 k (k-1)x1 βx +βx++βx+u βx +βx++βx+u = βx +βx++βx+u                       N N2 2,i 2 2,i 2 k,i k i=1 i=1| k-1 k-1 N N 2 2,i 2 k,i k k,i k i=1 i=1 (k-1)x(k-1) x -x x -x x -x X X = x -x x -x x -x                               N 2,i 2 i i=1| k-1 k-1 N k,i k i i=1 (k-1)x1 x -x y -y X y = x -x y -y                   -1 k-1 k-1 k-1 k-1 k-1 ' 'β̂x +βx++βx+u = X X X y per estimar les pendents 1 2 2 k ik ˆ ˆ ˆβx +βx++βx+u =y-βx +βx++βx+u x - -βx +βx++βx+u x per estimar la constant y X y1 x1 y2 x2 y3 x3 y4 x4 NUEVA INTERPRETACIÓN GRÁFICA e1 e2 e3 e4 ei es el error, y representa la estimación del término de perturbación ui que no es observable © Jordi Arcarons Samuel Calonge El criterio de MCO proporciona aquella recta que hace mínima la suma de cuadrados de todas las distancias verticales i 1 2 i ˆ ˆŷ x   1ŷ 2ŷ 3ŷ 4ŷ OTRA INTERPRETACIÓN GRÁFICA y X y1 x1 y2 x2 y3 x3 y4 x4 e1 e2 e3 e4 Recta de mínimos cuadrados ordinarios © Jordi Arcarons Samuel Calonge i 1 2 i * * *ˆ ˆŷ x   1 *ŷ 1 *e 2 *ŷ 2 *e * 3ŷ 3 *e * 4ŷ 4 *e i 1 2 i ˆ ˆŷ x   1ŷ 2 ŷ 3ŷ 4ŷ  4 2 i i=1 e min PROPIEDADES DEL ESTIMADOR POR MCO 1ª propiedad:  es un vector de estimadores lineales Es decir, es una combinación lineal de la variable endógena: Como Y es una variable aleatoria, también es una variable aleatoria: © Jordi Arcarons Samuel Calonge   ')'(,')'( 11 XXXWconWYYXXXMCO    MQO   )U(f)U(fYComo MCO   PROPIEDADES DEL ESTIMADOR POR MCO 1ª propiedad: Es decir: © Jordi Arcarons Samuel Calonge u'X)X'X( u'X)X'X(X'X)X'X( )uX('X)X'X( Y'X)X'X( 1 MCO 11 MCO 1 MCO 1 MCO             PROPIEDADES DEL ESTIMADOR POR MCO 1ª propiedad: Por tanto:  es una variable aleatoria. Su comportamiento vendrá descrito por alguna distribución de probabilidad (la misma que la de “u” y la de “Y”, es decir, la Normal): © Jordi Arcarons Samuel Calonge MCO   ))(Var),(E(N~ MCOMCOMCO   PROPIEDADES DEL ESTIMADOR POR MCO 2ª propiedad: Tomando esperanzas: Si no se cumple las hipótesis de que E(u)=0 y las “x” sean fijas, no es seguro que el estimador MCO sea insesgado © Jordi Arcarons Samuel Calonge 0)u(E,)(E tetancons)(E),u(E'X)X'X()(E )u'X)X'X((E)(E)(E MCO 1 MCO 1 MCO          f()^ Sesgo negativo f(3) ^ Sesgo positivo f(2) ^^f(1) INSESGADO © Jordi Arcarons Samuel Calonge PROPIEDADES DEL ESTIMADOR POR MCO 3ª propiedad: Eficiencia: Los estimadores MCO son eficientes (óptimos), es decir, es el de varianza mínima de entre todos los estimadores lineales e insesgados: © Jordi Arcarons Samuel Calonge ))'()((E)(Var )))'(E())(E((E)(Var ))(E(E)(Var MCOMCOMCO MCOMCOMCOMCOMCO 2 MCOMCOMCO       PROPIEDADES DEL ESTIMADOR POR MCO 3ª propiedad: Eficiencia: Cuando calculamos la varianza del estimador MCO estamos construyendo una matriz de varianzas y covarianzas porque: En la diagonal principal tenemos la varianza de los estimadores. Fuera de la diagonal principal tenemos la matriz de covarianzas entre los estimadores βi y βj. © Jordi Arcarons Samuel Calonge PROPIEDADES DEL ESTIMADOR POR MCO 3ª propiedad: Eficiencia: Las covarianzas indican la inestabilidad de la estimación. Cuanto más altas sean las covarianzas, más inestable es el modelo. © Jordi Arcarons Samuel Calonge PROPIEDADES DEL ESTIMADOR POR MCO 3ª propiedad: Eficiencia: Hablamos de la matriz de varianzas y covarianzas de los estimadores, no del término de perturbación. © Jordi Arcarons Samuel Calonge                         )(Var... ...... ),(Cov...)(Var ),(Cov...),(Cov)(Var )(Var k k22 k1211 MCO PROPIEDADES DEL ESTIMADOR POR MCO 3ª propiedad: Eficiencia: ¿la varianza, es mínima? Una vez calculada la varianza, tenemos que verificar que es mínima. Para ello, planteamos otro estimador lineal e insesgado, con el objetivo de comprobar que su varianza es mayor que la del estimador MCO. © Jordi Arcarons Samuel Calonge PROPIEDADES DEL ESTIMADOR POR MCO 3ª propiedad: Eficiencia: ¿la varianza, es mínima? Teorema de Gauss – Markov: estimador alternativo: “P” es una matriz de orden “k x n” de coeficientes constantes, en el que al menos uno de ellos es diferente de 0 © Jordi Arcarons Samuel Calonge Y)P'X)X'X(( ~ 1   PROPIEDADES DEL ESTIMADOR POR MCO 3ª propiedad: Eficiencia: ¿la varianza, es mínima? Vamos a analizar sus propiedades: Para garantizar que es insesgado: © Jordi Arcarons Samuel Calonge ) ~ (E 0)u(Eporque,PX) ~ (E ))PuPXu'X)X'X(X'X)X'X(((E) ~ (E ))uX)(P'X)X'X(((E) ~ (E 11 1      PROPIEDADES DEL ESTIMADOR POR MCO 3ª propiedad: Eficiencia: ¿la varianza, es mínima? Vamos a analizar sus propiedades: Varianza: La matriz PP’ es una matriz semidefinida positiva Por tanto, es de varianza mínima (óptima y eficiente) © Jordi Arcarons Samuel Calonge ?) ~ (Var  'PP)(Var) ~ (Var 2uMCO   )(Var) ~ (Var0Pporque0'PP MCO    f()^ ^ f(1) EFICIENCIA ^ f(2) ^ f(3) © Jordi Arcarons Samuel Calonge             2 2 3 1 3 1 1 β̂x +βx++βx+u ˆ E =E =E =βx +βx++βx+u var <var <vaβx +βx++βx+u β̂x +βx++βx+u β̂x +βx++βx+u eficient β̂x +βx++βx+u β̂x +βx++βx+urβ̂x +βx++βx+u      PROPIEDADES DEL ESTIMADOR POR MCO 4ª propiedad: Estimador consistente: Queremos saber si el estimador se aproxima al verdadero valor poblacional. Es decir, si al incrementar “n” (tamaño muestral), el parámetro poblacional y el estimador coinciden. © Jordi Arcarons Samuel Calonge PROPIEDADES DEL ESTIMADOR POR MCO 4ª propiedad: Estimador consistente: Para comprobar si es consistente: Error cuadrático medio (ECM) debe ser 0: © Jordi Arcarons Samuel Calonge tetanconsesporque0 n ,0) n )X'X( n (Varlim 0))X'X((Varlim 0)(Varlim 2 u 2 u 12 u n ? 12 u n ? n             PROPIEDADES DEL ESTIMADOR POR MCO 4ª propiedad: Estimador consistente: Para comprobar si es consistente: Error cuadrático medio (ECM) debe ser 0: Por tanto, el estimador es consistente © Jordi Arcarons Samuel Calonge PROPIEDADES DEL ESTIMADOR POR MCO En definitiva, asumiendo que se cumplen las hipótesis básicas del modelo, el estimador por mínimos cuadrados ordinarios es: ELIO (lineal, insesgado y óptimo). Consistente. Una variable aleatoria con distribución: © Jordi Arcarons Samuel Calonge ))X'X(,(N~ 12uMCO    ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: Cada una de las variables explicativas es ortogonal al vector de residuos MCO: Es decir, no hay correlación entre las variables exógenas y los errores. © Jordi Arcarons Samuel Calonge 0)e,X(E)e,Xvar(Co 0e·Xu·X ijiiji i n 1i jii n 1i ji      ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: Cada una de las variables explicativas es ortogonal al vector de residuos MCO: Matricialmente: © Jordi Arcarons Samuel Calonge e'X0 )XY('X0 X'XY'X0 Y'XX'X        ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: Cada una de las variables explicativas es ortogonal al vector de residuos MCO: Matricialmente: © Jordi Arcarons Samuel Calonge                                             0 0 0 0 e ... e e X...XX ............ X...XX X...XX 0e'X n 2 1 kn2k1k n22221 n11211 ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: El vector de residuos MCO puede escribirse como una combinación lineal del vector de la endógena: © Jordi Arcarons Samuel Calonge MYe Y)'X)X'X(XI(e )Y'X))X'X((XYe XYe 1 1        ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: El vector de residuos MCO puede escribirse como una combinación lineal del vector de la endógena: Donde M es una matriz idempotente y simétrica de orden “nxn” que cumple las siguientes propiedades: M=M’ M·IM=M Es cuadrada M·IX=0 Tr(M)=ρ(M)=n-k (traza: suma de elementos de la diagonal principal) Es una matriz fija, no aleatoria © Jordi Arcarons Samuel Calonge ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: Los residuos MCO son una combinación lineal de los elementos que componen el término de perturbación aleatorio en el modelo de regresión: © Jordi Arcarons Samuel Calonge 0MXporque,MuMuMX)uX(Me MYe   ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: Si incluimos el término constante en la regresión, el vector de residuos MCO tienen: Matriz de varianzas y covarianzas: Var-Covar(e) = E((e-E(e))(e-E(e))’) = E(ee’), E(e)=0 © Jordi Arcarons Samuel Calonge MMM')·M’M·E(uu'M)E(Muu')E(ee' 2u 2 u  ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: Si incluimos el término constante en la regresión, el vector de residuos MCO tienen: Matriz de varianzas y covarianzas: Var-Covar(e) = E((e-E(e))(e-E(e))’) = E(ee’), E(e)=0 © Jordi Arcarons Samuel Calonge            nnn1 1n11 2 u m...m ......... m...m )E(ee' ANÁLISIS DE LOS RESIDUOS MCO Para facilitar la comprensión decimos que: Si incluimos el término constante en la regresión, el vector de residuos MCO tienen: Matriz de varianzas y covarianzas: El hecho de que la matriz de varianzas y covarianzas de los errores no sea una matriz diagonal, indica que las covarianzas (asociaciones lineales entre los errores) no son nulas y, por tanto, los “n” errores en la estimación por MCO no son independientes entre sí: © Jordi Arcarons Samuel Calonge 0)e,Cov(e ji 
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved