Extras din proiect
Prezentarea problemei:
Se înregistrează un eşantion de n=40 de cazuri, cu privire la indicele preţului de consum influenţat de indicele preţului de consum pentru produse alimentare şi de indicele preţului de consum pentru produse nealimentare . Dorim să exprimăm legătura dintre indicele preţului de consum influenţat de indicele preţului de consum pentru produse alimentare şi de indicele preţului de consum pentru produse nealimentare printr-o regresie liniară multiplă. Regresia liniară multiplă este un caz al analizei de regresie, deoarece într-un astfel de model variabila dependentă ar fi explicată de două variabile independente, în cazul nostru.
Se înţelege că, în exemplul dat, indicele preţului de consum nu depinde numai de indicele preţului de consum pentru produse alimentare şi de indicele preţului de consum pentru produse nealimentare, ci şi de un ansamblu de alte variabile pe care le exprimăm sintetic printr-o variabilă numită eroare sau reziduu.
Forma modelului de regresie liniară multiplă este:
Variabilele modelului sunt:
Y= indicele preţului de consum care reprezintă variabila dependentă (rezultativă),
= indicele preţului de consum pentru produse alimentare care reprezintă variabila independentă (factorială),
= indicele preţului de consum pentru produse nealimentare care reprezintă cealaltă variabilă factor.
= variabila aleatoare, variabila care însumează influenţa altor variabile asupra indicelui preţului de consum, dar care nu sunt specificate expres în model. Variabila exprimă abaterile între valorile observate şi valorile estimate prin model.
Parametrii modelului de regresie simplă liniară, numiţi şi coeficienţi de regresie, sunt:
- ordonata la origine - arată valoarea medie a variabilei Y când şi sunt egale cu zero
- panta dreptei - arată variaţia medie a variabilei dependente, Y, la o
variaţie absolută cu o unitate a variabilei , adică variaţia variabilei Y este proporţională cu variaţia variabilei când este constant.
panta dreptei - arată variaţia medie a variabilei dependente, Y, la o
variaţie absolută cu o unitate a variabilei , adică variaţia variabilei Y este proporţională cu variaţia variabilei când este constant.
Acum dorim să aproximăm modelul legăturii dintre variabile folosind metoda grafică.
Din grafic se observă că legătura dintre variabile este liniară.
Am dori acum să vedem dacă legătura între Y şi şi este semnificativă.
Pentru aceasta vom folosi programul SPSS şi obţinem:
Model Summaryb
Model R R Square Adjusted R Square Std. Error of the Estimate
1 ,994a ,988 ,987 ,09839
a. Predictors: (Constant), Indicele pretului pentru produse nealimentare, Indicele pretului pentru produse alimentare
b. Dependent Variable: Indicele pretului de consum
Din tabelul de mai sus se vede că R Square este 0,988 deci legătura este semnificativă, dar pentru a valida un model de regresie multiplă acest lucru nu este suficient. De aceea trebuie să facem un studiu de coliniaritate pentru a vedea dacă există vreo legătură între variabilele independente. În astfel de situaţii se calculează statisticile toleranţei; considerând numai variabilele independente, variabila dependentă fiind exclusă din model. Toleranţa fiecărei variabile se calculează după relaţia;
Toleranţa=1- unde este pătratul coeficientului de corelaţie multiplă a variabilei cu toate celelalte variabile independente.
Toleranţa poate lua valori de la 0 la 1. Cu cât valoarea toleranţei este mai aproape de zero cu atât variabila independentă este mai explicată printr-o combinaţie liniară a celorlalte variabile independente.
În tabelul următor avem informaţii cu privire la coliniaritate:
Observăm că toleranţa este 0,627 deci putem spune că indicele preţului pentru produse nealimentare nu este o combinaţie liniară de indicele preţului pentru produse alimentare şi invers. Coliniaritatea mai este subliniată şi de tabelul următor:
Eigenvalue dă o indicaţie asupra numărului de legături care există între variabilele independente. Când mai multe eigenvalue sunt apropiate de zero, variabilele sunt mai puternic intercorelate. Indicii de condiţie se calculează ca radical din raportul dintre valoarea eigenvalue cea mai mare şi valoarea eigenvalue a fiecărei dimensiuni. Un indice mai mare de 15 indică probleme de coliniaritate, iar un indice mai mare ca 30 indice probleme foarte grave de coliniaritate. În cazul nostru, indicele de condiţie a celei de-a treia dimensiune este 316.359 deci avem probleme foarte grave de coliniaritate.
Ultima rubrică din tabel este Proporţia varianţei care arată contribuţia fiecărei variabile la varianţă. Valori mari ale acestui indicator ne arată probleme de coliniaritate. Observăm că la a treia dimensiune avem valoare 1 care este mare.
Deci modelul de regresie multiplă nu poate fi validat datorită prezenţei clare a coliniarităţii. Pentru a stabili care variabilă trebuie lăsată în model trebuie să măsurăm intensitatea legăturii dintre Y şi folosind R şi R Square.
Preview document
Conținut arhivă zip
- Vanzari SPSS.docx