Multicoliniaritatea

Imagine preview
(7/10 din 1 vot)

Acest seminar prezinta Multicoliniaritatea.
Mai jos poate fi vizualizat cuprinsul si un extras din document (aprox. 2 pagini).

Arhiva contine 1 fisier ppt de 13 pagini .

Profesor: Duguleana Liliana

Iti recomandam sa te uiti bine pe extras si cuprins iar daca este ceea ce-ti trebuie pentru documentarea ta, il poti descarca.

Fratele cel mare te iubeste, acest download este gratuit. Yupyy!

Domenii: Arte Plastice, Arta

Cuprins

Multicoliniaritatea
Consecinţele multicoliniarităţii
Detectarea multicoliniarităţii
Remedierea multicoliniarităţii
Selecţia variabilelor explicative

Extras din document

Multicoliniaritatea

O ipoteză a modelului liniar clasic de regresie: nu există multicoliniaritate printre variabilele explicative incluse în model.

Seriile x1 şi x2 sunt ortogonale sau independente când cov(x1,x2)=0. Multicoliniaritatea se referă strict la existenţa mai multor relaţii liniare, iar termenul de coliniaritate se referă la existenţa unei singure relaţii liniare. Această distincţie nu se face în practică, folosindu-se în ambele situaţii termenul de multicoliniaritate.

În cazul a două variabile explicative, intercorelaţia lor se măsoară cu coeficientul de corelaţie simplă dintre ele. Intercorelaţia în cazul mai multor variabile explicative se măsoară cu ajutorul coeficienţilor de corelaţie parţială sau prin coeficientul de corelaţie multiplă R între variabila y şi variabilele xi.

Multicoliniaritatea este un fenomen de eşantionare: chiar dacă în populaţie, variabilele xi sunt necorelate liniar, se poate ca într-un eşantion dat, ele să fie corelate. Astfel încât, deşi teoretic se poate considera că variabilele xi au o influenţă separată sau independentă asupra variabilei dependente y, se poate întâmpla ca în eşantionul dat pentru a testa funcţia de regresie a populaţiei, unele variabile xi, să fie atât de puternic corelate, încât să nu se poată izola influenţa lor individuală asupra lui y.

Consecinţele multicoliniarităţii

varianţe şi covarianţe mari ale estimatorilor coeficienţilor de regresie;

intervale mari de încredere ale estimatorilor, din cauza abaterilor standard mari;

raţiile t Student nesemnificative, din cauza abaterilor standard mari;

un coeficient mare de determinaţie R2, dar raţiile t nesemnificative;

instabilitatea estimatorilor şi a abaterilor lor standard la mici schimbări ale datelor;

în caz de multicoliniaritate perfectă matricea este singulară (determinatul este 0), estimarea coeficienţilor este imposibilă şi varianţa lor, infinită.

Regresia y = f(x1, x2, x3, x4) din exerciţiul prezentat indică un coeficient de

determinaţie mare, de 0.995, iar testul Fisher arată că regresia este global

semnificativă cu o probabilitate de 100% (Significance F).

Cu excepţia coeficientului variabilei x1, care este semnificativ, restul

coeficienţilor au raţiile Student mai mici decât valoarea critică pentru un prag de

semnificaţie de 5%.

Intervalele de încredere ale estimatorilor, cu excepţia intervalului pentru ,

schimbă semnul de la minus la plus, conţinând valoarea 0 şi indicând faptul că

sunt nesemnificativi.

Fisiere in arhiva (1):

  • Multicoliniaritatea.ppt