1樓:匿名使用者
不行,引入新變數r2肯定是增大的
2樓:匿名使用者
基本上引入新變數就一定會引起測定係數的提高,所以最好不要把測定係數提高當做一個篩選依據。
還是應該看變數的顯著性檢驗結果。
如果t檢驗不顯著,那最好還是不保留了吧。
用spss做迴歸分析的時候,直接用原始資料做出來自變數與因變數的係數不能通過t檢驗,變數間相關係數較大。
3樓:
不太懂你的意思,你描述的步驟沒有問題。但按你說的,開始時候不納入控制變數應該也是有作用的啊,怎麼會迴歸係數不顯著呢
計量經濟學中多重共線性的檢驗方法有哪些
4樓:莫道無情
1、簡單相關係數矩陣法(
輔助手段)
此法簡單易行;但要注意兩變數的簡單相關係數包含了其他變數的影響,並非它們真實的線性相關程度的反映,一般在0.8以上可初步判定它倆之間有線性相關。
2、變數顯著性與方程顯著性綜合判斷
(修正)可決係數大,f值顯著大於臨界值,而值不顯著;那麼可認為存在多重共線性。
3、輔助迴歸
將每個解釋變數對其餘變數回歸,若某個迴歸方程顯著成立,則該解釋變數和其餘變數有多重共線性。
(4)方差擴大(膨脹)因子法
(5)直觀判斷法
增加或者減少一個解釋變數,或者改變一個觀測值時,迴歸引數發生較大變化。重要解釋變數沒有通過t檢驗。有些解釋變數的迴歸係數符號與定性分析的相反。
5樓:匿名使用者
一、一般線性迴歸:
proc reg data=abc;
model y=x1-x4
run;
二、多重共線性的檢驗
1、簡單相關係數檢驗法
proc corr data=abc;
var x1-x4;
run;
2、方差擴大因子法
proc reg data=abc;
model y=x1-x4/vif;
run;
3、直觀分析法(略)
4、逐步迴歸檢測法
這在sas中有多重篩選解釋變數的方法:forward、backword、stepwise、maxr、minr、rsquare,主要採用stepwise
proc reg data=abc;
model y=x1-x4/selection=stepwise sle=0.05 sls=0.10;
run; quit;
5、特徵值和病態指數
proc reg data=abc;
model y=x1-x4/collin;
run;
三、多重共線性的補救措施
1、提出變數法(根據前面的檢測剔除掉vif值大的變數……略)
2、增大樣本容量(略)
3、變換模型形式
常使用變數的差分方式,一階差分形式如下:
data abc;
set abc;
x1lag1=lag(x1);
x2lag1=lag(x2);
x3lag1=lag(x3);
x4lag1=lag(x4);
ylag1=lag(y);
if ****s(x1lag1,x2lag1,x3lag1,x4lag1,ylag1)>0 then delete;
dx1=x1-x1lag1;
dx2=x1-x2lag1;
dx3=x1-x3lag1;
dx4=x1-x4lag1;
dy=x1-ylag1;
run;
proc reg data=abc;
model y=x1-x4;
run;quit;
4、利用非樣本先驗資訊(即已知某些解釋變數之間的等式從而可剔除掉一些解釋變數,略)
5、橫截面資料與時間序列資料並用
屬於先驗資訊法的變種,首先利用橫截面資料估計出部分引數代入原方程,再利用時間序列資料估計出另外的部分引數,其前提是前一部分引數在不同時間上變化很小。
6、變數變換
絕對指標轉為相對指標;
名義資料轉為實際資料;
小類指標合併為大類指標(主成分分析和因子分析,後面再予補充)
7、逐步迴歸法(參見檢驗部分,略)
8、嶺迴歸
當自變數存在多重共線關係時, 均方誤差將變得很大,故從均方誤差的角度看, 普通最小二乘估計不是係數的好估計,減少均方誤差的方法就是用嶺迴歸估計替代最小二乘估計。但使得均方誤差達到最小的k值依賴於未知引數係數和隨機干擾項的方差,因此k 值的確定是嶺迴歸分析中關鍵。
在實際應用中, 通常確定k值的方法有以下幾種:①嶺跡圖法, 即對每個自變數xi, 繪製隨k值的變化嶺迴歸估計的變化曲線圖。一般選擇k使得各個自變數的嶺跡趨於穩定;②方差膨脹因子法, 選擇k使得嶺迴歸估計的vif<10;③控制殘差平方和法, 即通過限制嶺迴歸估計的殘差平方和不能超過cq(其中c>1為指定的常數,q為最小二乘估計的殘差平方和)來找出最大的k值。
data abc;
input x1-x3 y;
cards;
149.3 4.2 108.1 15.9
161.2 4.1 114.8 16.4
171.5 3.1 123.2 19.0
175.5 3.1 126.9 19.1
180.8 1.1 132.1 18.8
190.7 2.2 137.7 20.4
202.1 2.1 146.0 22.7
212.4 5.6 154.1 26.5
226.1 5.0 162.3 28.1
231.9 5.1 164.3 27.6
239.0 0.7 167.6 26.3
;run;
proc reg data=abc outest=out1 graphics outvif;
model y=x1-x3/ridge=0.0 to 0.1 by 0.01 0.2 0.3 0.4;
plot/ridgeplot;
proc print;run;quit;
9、主成分迴歸法
proc reg data=abc outest=out2;
model y=x1-x3/pcomit=1,2 outvif;
proc print data=out2;run;quit;
10、偏最小二乘迴歸法
proc pls data=abc outmodel=out3 cv= one method=simpls;
model y=x1-x3;
proc print data=out3;
run; quit;
這些是sas軟體的檢驗方法。
6樓:周先生
計量經濟學彙總有很多共性檢測方法。
在Eviews中,用逐步迴歸法剔除解釋變數後,R 2比原來小了,這樣的情況還應該剔除掉那個解釋變數嗎
刪除變數會減少r2,很正常的,這和共線性無關 tongjizhixing 請大神指點,我eviews迴歸結果r 2太小,結果如圖,請問我怎麼修改。增加其它的解釋變數。r2不小啊 做專業資料統計分析,找我吧 一個關於迴歸分析裡逐步迴歸自變數選取與剔除的問題,求幫忙。第一問回答是因為若引入某變數x2,其...
什麼是一元線性迴歸法?它有哪些使用條件?相關係數說明了什麼
參見北京航空航天大學出版社的 基礎物理實驗 修訂版 113頁下方 確定一元線性迴歸方程時,兩個變數的相關係數是越小越好嗎 不是!是 絕對值 越大越好。若相關係數絕對值等於1,則兩個變數 就是 函式關係 而不是 相關 關係 迴歸就是要了解變數之間的關係,相關性當然越大越好了 一元線性迴歸分析中的迴歸係...