mercoledì 6 aprile 2016

Psicometria (1/27): La regressione lineare

L'analisi di regressione esamina la relazione lineare tra una o più variabili esplicative (indipendente) e una variabile criterio (dipendente).
 Questo studio può avere un duplice scopo:

  • esplicativo: capire e ponderare gli effetti delle  variabili indipendenti (VI) sulla variabile dipendente (VD) in funzione di un determinato modello teorico.
  • predittivo: individuare una combinazione lineare di variabili indipendenti per predire in modo ottimale il valore assunto dalla variabile dipendente.
L'inizio della regressione è rappresentato da una matrice che riassume le correlazioni o  le covarianze tra variabile dipendente e le variabili indipendenti.
I coefficientdi di correlazione di pearson esprimono l'entità e la direzione della relazione lineare tra due variabili quantitative, la relazione che viene misurata tra le variabili è di tipo simmetrico, cioè le due variabili correlate sono della stessa natura, nessuna influenza l'altra ma al variare dell'una c'è una co-variazione dell'altra.
 Le informazioni finali della regressione lineare sono:
  • un insieme di parametri che riassumono la relazione tra la variabile dipendente e le variabili indipendenti.
  • una statistica e un valore di probabilità associato alle relazioni trovate, che consentono di condurre la verifica delle ipotesi.
  • due valori che assumono la correlazione tra la variabile dipendente e le indipendenti e l'impatto complessivo delle variabili indipendenti sulla variabile dipendente in termini di varianza spiegata (R2) e un indice (F) che consente di condurre la verifica delle ipotesi sui coefficienti R e R2.
I coefficienti di regressione esprimono l'associazione tra due variabili assumendo l'ipotesi che la variabile dipendente sia determinata dalla variabile indipendente, ed esprimono una relazione di natura asimmetrica.

Prossima lezione >>

 

Torna all'elenco delle lezioni

 

Piaciuto l'articolo? Lascia un commento!

EmoticonEmoticon