Multikollineaarisuus on ongelma, koska heikentää riippumattoman muuttujan tilastollista merkitsevyyttä. Jos muut asiat ovat samat, mitä suurempi regressiokertoimen keskivirhe on, sitä epätodennäköisempää on, että tämä kerroin on tilastollisesti merkitsevä.
Mistä tiedät, onko monikollineaarisuus ongelma?
Yksi tapa mitata multikollineaarisuutta on varianssiinflaatiotekijä (VIF), joka arvioi, kuinka paljon arvioidun regressiokertoimen varianssi kasvaa, jos ennustajat korreloivat. … VIF välillä 5 ja 10 osoittaa korkeaa korrelaatiota, joka voi olla ongelmallinen.
Onko kollineaarisuus ennustamisen ongelma?
Multikollineaarisuus on edelleen ongelma ennustusvoimalle. Mallisi ylisovitetaan ja yleistyy epätodennäköisemmin otoksen ulkopuolisiin tietoihin. Onneksi R2 ei vaikuta ja kertoimesi ovat edelleen puolueettomia.
Miksi kollineaarisuus on ongelma regressiossa?
Multikollineaarisuus vähentää arvioitujen kertoimien tarkkuutta, mikä heikentää regressiomallisi tilastollista tehoa. Et ehkä voi luottaa p-arvoihin tunnistaaksesi riippumattomia muuttujia, jotka ovat tilastollisesti merkittäviä.
Milloin kollineaarisuus kannattaa jättää huomiotta?
Se lisää niiden kertoimien standardivirheitä, ja se voi tehdä kertoimista epävakaita useilla tavoilla. Mutta niin kauan kuin kollineaarimuuttujia käytetään vain ohjausmuuttujina, eivätkä ne ole kollineaarisia kiinnostavien muuttujien kanssa, ei ole ongelmaa.