VIOLAZIONI DELLE IPOTESI CLASSICHE
Dobbiamo considerare:
- la presenza di regressori stocastici e la multicollinearità
- la violazione della "sfericità degli errori" ...
più tardi non stazionarietà
REGRESSORI STOCASTICI
Abbiamo finora considerato il caso di regressori deterministici Tuttavia, abbiamo sempre sottolineato che questo caso non si attaglia ai dati econometrici. Cosa succede alle proprietà degli stimatori quando prendiamo in considerazione regressori stocastici?
Dobbiamo aggiungere l'assunzione di indipendenza fra residui e regressori
NB: studieremo bene le implicazioni della violazione di questa particolare assunzione sui residui
Correttezza: lo stimatore OLS continua a essere corretto
Efficienza: lo stimatore OLS presenta varianza minima
Large Sample Properties
Consistenza: lo stimatore OLS preserva le proprietà di consistenza
PLIM
Efficienza asintotica: lo stimatore OLS collassa più velocemente (tra tutti gli stimatori della sua classe) sul valore della popolazione (Non diamo le dimostrazioni)
Sembrerebbe che la generalizzazione delle ipotesi classiche per tener conto di regressori stocastici non abbia fatto troppi danni. Tuttavia, come avremo modo di studiare nel dettaglio:
L'ipotesi di indipendenza fra errori e variabili indipendenti è spesso violata nella realtà. Dovremo studiare opportuni rimedi.
Nel caso di regressori stocastici, un problema che diventa rilevante è quello della multicollinearità. Abbiamo già visto la multicollinearità (perfetta) quando le X sono linearmente legate l'una con l'altra. Cosa succede nel caso di regressori stocastici?
NB: non è un problema di causalità, basta che le X siano correlate
In questo caso, la multicollinearità non è PERFETTA: (X'X)-1 può essere calcolata e l'analisi può procedere.
Tuttavia, la multicollinearità può causare problemi. A mano a mano che il grado di multicollinearità aumenta l'ammontare di informazione indipendente si riduce. Il problema della multicollinearità, nel caso di regressori stocastici diventa l'insufficiente informazione campionaria.
- Quando la correlazione tra le X è bassa, OLS ha molta informazione con cui procedere a stimare beta.
- Sono abbastanza sicuro del reale impatto delle due X su Y
- Quando invece la correlazione fra le X è elevata, l'area di informazione indipendente si riduce.
- Ciò ci rende relativamente insicuri su quale sia il reale impatto delle due X su Y.
Dal punto di vista matematico ciò dipende dal fatto che il Det di X'X tende a zero e quindi gli elementi della matrice diventano arbitrariamente grandi. In un contesto con 2 variabili indipendenti X, può dimostrarsi che:
dove r è il coefficiente di correlazione campionaria fra le due X
Pur essendo OLS è ancora BLUE deduciamo che la multicollinarità aumenta lo SE dei beta.
NB: Ciò implica che i t-ratio tenderanno a essere bassi e a non farci rifiutare l'ipotesi nulla di non significatività dei regressori.
In conclusione, la multicollinearità è un problema solo se porta al non Rifiuto dell'ipotesi nulla di non significatività statistica dei regressori.
MULTICOLLINARITÀ
SEGNI RIVELATORI
- La statistica F è significativa ma i singoli coefficienti no
- R 2 molto elevato ma i singoli t-stat sono bassi; non esiste un particolare valore/soglia per sostenere che R-squared è troppo elevato. In linea generale, se R 2 è più elevato di .9 e i beta non sono significativi c'è da preoccuparsi
- I coefficienti sono elevati ma statisticamente non significativi
- Gli SE dei beta cambiano ragguardevolmente quando altre variabili sono incluse o rimosse, ma non così i coefficienti
DIAGNOSTICA
Metodologia di Farrar/Glauber
- Regredire ciascuna X su tutte le altre e computare i coefficienti di determinazione (ausiliari);
- Se esiste una (quasi) relazione lineare, allora almeno un R-squared sarà molto elevato;
Prof. Paolo Mattana
Successivo: Residui non sferici
Sommario: Index