Gli svantaggi della regressione lineare

Posted on
Autore: Peter Berry
Data Della Creazione: 19 Agosto 2021
Data Di Aggiornamento: 12 Maggio 2024
Anonim
Easiest Concept of Parameter Estimation | Parameter Estimation Methods Example
Video: Easiest Concept of Parameter Estimation | Parameter Estimation Methods Example

Contenuto

La regressione lineare è un metodo statistico per esaminare la relazione tra una variabile dipendente, indicata come y, e una o più variabili indipendenti, indicate come X. La variabile dipendente deve essere continua, in quanto può assumere qualsiasi valore o almeno vicina a continua. Le variabili indipendenti possono essere di qualsiasi tipo. Sebbene la regressione lineare non possa mostrare la causalità da sola, la variabile dipendente è generalmente influenzata dalle variabili indipendenti.

La regressione lineare è limitata alle relazioni lineari

Per sua natura, la regressione lineare considera solo le relazioni lineari tra variabili dipendenti e indipendenti. Cioè, presuppone che ci sia una relazione lineare tra loro. A volte questo non è corretto. Ad esempio, il rapporto tra reddito ed età è curvo, vale a dire che il reddito tende ad aumentare nelle prime parti dell'età adulta, si appiattisce in età adulta successiva e diminuisce dopo che le persone si ritirano. Puoi capire se questo è un problema guardando le rappresentazioni grafiche delle relazioni.

La regressione lineare osserva solo la media della variabile dipendente

La regressione lineare esamina una relazione tra la media della variabile dipendente e le variabili indipendenti. Ad esempio, se si osserva la relazione tra il peso alla nascita dei bambini e le caratteristiche materne come l'età, la regressione lineare esaminerà il peso medio dei bambini nati da madri di età diverse. Tuttavia, a volte è necessario esaminare gli estremi della variabile dipendente, ad es. I bambini sono a rischio quando i loro pesi sono bassi, quindi in questo esempio si dovrebbero guardare gli estremi.

Proprio come la media non è una descrizione completa di una singola variabile, la regressione lineare non è una descrizione completa delle relazioni tra variabili. È possibile affrontare questo problema utilizzando la regressione quantile.

La regressione lineare è sensibile ai valori anomali

I valori anomali sono dati sorprendenti. I valori anomali possono essere univariati (basati su una variabile) o multivariati. Se stai osservando l'età e il reddito, i valori anomali univariati sarebbero cose come una persona di 118 anni o una che ha guadagnato $ 12 milioni l'anno scorso. Un outlier multivariato sarebbe un diciottenne che guadagnava $ 200.000. In questo caso, né l'età né il reddito sono molto estremi, ma pochissimi diciottenni fanno così tanti soldi.

I valori anomali possono avere enormi effetti sulla regressione. È possibile affrontare questo problema richiedendo statistiche sull'influenza dal proprio software statistico.

I dati devono essere indipendenti

La regressione lineare presuppone che i dati siano indipendenti. Ciò significa che i punteggi di una materia (come una persona) non hanno nulla a che fare con quelli di un'altra. Questo è spesso, ma non sempre, ragionevole. Due casi comuni in cui non ha senso sono il raggruppamento nello spazio e nel tempo.

Un classico esempio di raggruppamento nello spazio sono i punteggi dei test degli studenti, quando si hanno studenti di varie classi, gradi, scuole e distretti scolastici. Gli studenti della stessa classe tendono ad essere simili in molti modi, cioè spesso provengono dagli stessi quartieri, hanno gli stessi insegnanti, ecc. Pertanto, non sono indipendenti.

Esempi di clustering nel tempo sono studi in cui si misurano più volte gli stessi soggetti. Ad esempio, in uno studio sulla dieta e sul peso, potresti misurare ogni persona più volte. Questi dati non sono indipendenti perché ciò che una persona pesa in un'occasione è correlato a ciò che pesa in altre occasioni. Un modo per gestirlo è con i modelli multilivello.