La regressione lineare è uno strumento semplice ma potente per analizzare la relazione tra un insieme di variabili indipendenti e dipendenti. Ma spesso le persone tendono a ignorare le ipotesi di OLS prima di interpretarne i risultati. Pertanto, è un passo essenziale per analizzare varie statistiche rivelate da OLS.
Nelle statistiche, la selezione del modello è un’arte. un sacco di fattori sono presi in considerazione nel caso in cui rendere questa arte significativa., Lasciate guardare ciascuna delle statistiche uno per uno e vedere come può che influenzano l’affidabilità dei risultati . Nell’esempio seguente, cinque variabili sono regredite su una variabile di output.
R-squared: Significa la “variazione percentuale di dipendenti che è spiegata dalle variabili indipendenti”. Qui, la variazione del 73,2% in y è spiegata da X1, X2, X3, X4 e X5., Questa statistica ha un inconveniente, aumenta con l’aumento del numero di predittori(variabili dipendenti). Pertanto, diventa inconcludente nel caso in cui si debba decidere se la variabile aggiuntiva sta aggiungendo alla potenza di prevedibilità della regressione.
Adj. R-squared: Questa è la versione modificata di R-squared che viene regolata per il numero di variabili nella regressione. Aumenta solo quando una variabile aggiuntiva aggiunge alla potenza esplicativa alla regressione.
Prob (F-Statistic): Questo indica il significato generale della regressione., Questo per valutare il livello di significatività di tutte le variabili insieme a differenza della statistica t che la misura per le singole variabili. L’ipotesi nulla sotto questo è “tutti i coefficienti di regressione sono uguali a zero”. Prob (F-statistics) descrive la probabilità che l’ipotesi nulla sia vera. Secondo i risultati di cui sopra, la probabilità è vicina allo zero. Ciò implica che nel complesso le regressioni sono significative.
AIC / BIC: sta per i criteri di informazione di Akaike e viene utilizzato per la selezione del modello. Penalizza la modalità errori nel caso in cui una nuova variabile venga aggiunta all’equazione di regressione., Viene calcolato come numero di parametri meno la probabilità del modello complessivo. Un AIC inferiore implica un modello migliore. Considerando che, BIC sta per Bayesian information criteria ed è una variante di AIC in cui le sanzioni sono rese più severe.
Prob (Omnibus): Una delle ipotesi di OLS è che gli errori siano normalmente distribuiti. Il test Omnibus viene eseguito per verificare questo. Qui, l’ipotesi nulla è che gli errori siano normalmente distribuiti. Prob (Omnibus) dovrebbe essere vicino a 1 in modo che soddisfi l’ipotesi OLS. In questo caso Prob (Omnibus) è 0.,062, il che implica che l’ipotesi OLS non è soddisfatta. A causa di ciò, i coefficienti stimati non sono i migliori stimatori lineari imparziali(BLU).
Durbin-watson: Un’altra ipotesi di OLS è di omoscedasticità. Ciò implica che la varianza degli errori è costante. È preferibile un valore compreso tra 1 e 2. Qui, è ~1.8 che implica che i risultati di regressione sono affidabili dal lato dell’interpretazione di questa metrica.
Prob (Jarque-Bera): È in linea con il test Omnibus. Viene anche eseguita per l’analisi della distribuzione degli errori di regressione., Si suppone che sia d’accordo con i risultati del test Omnibus. Un valore elevato di JB test indica che gli errori non sono normalmente distribuiti.