Extras din proiect
Regresia – scurt istoric al termenului
Sir Francis Galton(1822-1911) – spirit enciclopedic al perioadei victoriene, fiind cel care a introdus termenii de regresie si corelatie statistica
Originea regresiei ca metoda statistica se afla în studiile sale de genetica aplicata în studiul plantelor- 1877
Plantînd boabe dintr-un anumit soi de mazare dulce a observat ca exista o legatura liniara între diametrele acestor boabe si diametrele boabelor recoltate de la noile plante. El a numit initial panta acestei drepte “coefficient of reversion”, schimbîndu-i apoi numele în “coefficient of regression”.
Termenul de regresie provine de la descoperirile sale în domeniul ereditatii: în general, progeniturile indivizilor geniali au abilitati care îi asaza mai degraba la nivelul mediei; de asemenea, înaltimea copiilor proveniti din tati foarte înalti se apropie mai mult de înaltimea medie decît înaltimea tatilor.
Modele
Un model este o reprezentare a unui anumit fenomen
Model matematic - o reprezentare matematica a unui fenomen
De cele mai multe ori un model descrie legaturile existente între doua sau mai multe variabile
În general, sînt doua clase de modele:
Modele deterministe
Modele probabiliste
Modele deterministe
Exprima o relatie exacta între variabile
Teoretic, eroarea de previziune este nula
Exemplu:
Principiul al doilea al mecanicii newtoniene:
F = m.a
Tipuri de modele probabiliste
Regresia – metoda de modelare a legaturilor dintre variabile
În general, orice fenomen este rezultatul actiunii unuia sau mai multor factori
Exprimarea matematica:
Exemplu: Legea lui Keynes privind legatura dintre venit si consum
Suma cheltuita pentru consum depinde de:
marimea venitului pe de o parte
alte obiective în functie de circumstante (de exemplu investitiile)
alte nevoi subiective
„O persoana este dispusa de regula si în medie sa îsi creasca consumul pe masura cresterii venitului dar nu în aceeasi masura”
Modelul de regresie: C=a+bV+e , unde 0<b<1 .
Ipotezele modelului de regresie(Ipotezele Gauss-Markov)
1. Normalitatea
Valorile Y sînt normal distribuite pentru orice X
Erorile sînt normal distribuite cu medie zero E(µi)=0 "i
2. Homoscedasticitatea (dispersie constanta)
3. Necorelarea erorilor E(µi µk)=0 (i<>k)
4. Liniaritatea
5. Variabilele sînt masurate fara eroare
(caracter nestochastic)
Forma functionala
Ipoteza de linearitate nu este atât de restrictiva pe cât pare. Aceasta se refera la felul în care parametrii intra în ecuatie, nu neaparat la relatia între variabilele x si y.
În general modele pot fi linearizate.
y=a+bx
y=a+bz, z=ex
y=a+br, r=1/x
y=a+bq, q=ln(x)
y= a x² Þ ln(y)=a+bln(x)
Forma generala: f(yi)= a+bg(xi)+ei
Contra exemplu: nu poate fi transformat în model liniar.
Conținut arhivă zip
- Regresie si Corelatie
- regresie.ppt
- sezonalitate.ppt