R「線形回帰分析と統計モデル」page141,5.2

RM(リスト=のLS())
ライブラリー(車)
ライブラリー(MASS)
ライブラリー(openxlsx)
A = read.xlsx( "data141.xlsx")
ヘッド(A)

  

FM = LM(Y〜X1 + X2 + X3 + X4、データ= A)
#多重共の分析
明るい(FM)

  

>ブライト(FM)
       ×1×2×3×4 
 38.49621 254.42317 282.51286 46.86839#は多重共を持っています

  

#主成分回帰
A.pr = princomp(〜X1 + X2 + X3 + X4、データ= A、COR = T)
(A.pr、負荷= T)#出力特性概要と固有ベクトル

  

>(A.pr、負荷= T)#出力固有値と固有ベクトル要約
コンポーネントの重要性:
                         Comp.1 Comp.2 Comp.3 Comp.4
標準偏差1.495227 1.2554147 0.43197934 0.0402957285
分散0.558926 0.3940165 0.04665154 0.0004059364の割合
累積寄与率0.558926 0.9529425 0.99959406 1.0000000000

負荷:
   Comp.1 Comp.2 Comp.3 Comp.4
X1 0.476 0.509 0.676 0.241
X2 0.564 -0.414 -0.314 0.642
X3 -0.394 -0.605 0.638 0.268
x4 -0.548  0.451 -0.195  0.677

  

予備=(A.pr)#主成分、合成ベクター、ない実用的な意義を予測します
$ Z1 =事前に[1]
#主成分の累積寄与率2つの変数を保持するために応じて$ Z2 =プレ[2,1]

  

lm.sol = LM(Y〜Z1 + Z2、データ= A)#主成分予測線形回帰
lm.sol
> lm.sol

コール:
LM(式= Y〜Z1 + Z2、データ= A)

係数:
(インターセプト)Z1、Z2  
    95.4231 9.4954 -0.1201  
>概要(lm.sol)#モデルの詳細

コール:
LM(式= Y〜Z1 + Z2、データ= A)

残差:
    分1Q中央値3Qマックス 
-3.3305 -2.1882 -0.9491 1.0998 4.4251 

係数:
            見積りSTD。エラーt値のPr(> | T |)    
(インターセプト)95.4231 0.8548 111.635 <2E-16 ***
Z1 9.4954 0.5717 16.610 1.31e-08 ***
Z2 -0.1201 0.6809 -0176 0864    
---
有意性。コード:0 '***' 0.001 '**' 0.01 '*' 0.05 '' 0.1 '' 1

残留標準誤差:自由3.082 10に度
複数のR二乗:0.965、R二乗調整:0.958を 
F統計量:2で138と10 DF、p値:5.233e-08

  

主成分分析のベータ= COEF(lm.sol)#予測係数
ベータ
>ベータ版
(インターセプト)Z1、Z2 
 95.4230769 9.4953702 -0.1200892 

  

#予測削減
eigen_vec =負荷(A.pr)#固有ベクトル
x.bar = A.pr $中央#が意味ですか?
x.sd = A.pr $スケール#標準エラー?
xishu_1 =(ベータ[2] * eigen_vec [1])/ x.sd
xishu_2 =(ベータ[3] * eigen_vec [2])/ x.sd
COEF = xishu_1 + xishu_2
COEF
beta0 =ベータ[1]  - 和(x.bar * COEF)
Bの= Cの(beta0、COEF)
回帰係数Bの#減少

  

#リッジ見積り
esti_ling = lm.ridge(Y〜X1 + X2 + X3 + X4、データ= A、ラムダ= SEQ(0,15,0.01))
プロット(esti_ling)

  

 

 

#テイクK = 5
K = 5
X = CBIND(1、as.matrix(A [2:5]))
Y = A [6]
B_ =解く((T(X)%※%のX)+ K * DIAG(5))%※%のT(X)%※%のY
B_

  

> B_
         [1]
   0.06158362
X1 2.12614307
X2 1.16796919
X3 0.71043177
x4 0.49566883

  

おすすめ

転載: www.cnblogs.com/jiaxinwei/p/11784831.html
おすすめ