Python機械学習ライブラリScikit-learn その16:ボストン住宅価格のデータを使って、標準化と正規化の効果を試してみる(Ridgeregression、SVR)

スポンサーリンク

機械学習ライブラリScikit-learn

前回、機械学習ライブラリScikit-learnのボストンの住宅価格を予想するのにデータを標準化、正規化をした後、LassoモデルとElasticNetモデルで機械学習をしてみました。

Python機械学習ライブラリScikit-learn その15:ボストン住宅価格のデータを使って、標準化と正規化の効果を試してみる(Lasso、ElasticNet)
機械学習ライブラリScikit-learn前回、機械学習ライブラリScikit-learnのボストンの住宅価格を予想するのにデータを標準化、正規化をした後、LinearRegressionモデルで機械学習をしてみました。...

今回は同じようにして標準化、正規化したデータを使って、Ridgeモデル、SVRモデルで機械学習を行ってみます。

ちなみにSVRモデルはこちらの記事で解説したように、オプションで”linear”と”rbf”という二つモデルを選択できるので、今回も両方試してみることにします。

Python機械学習ライブラリScikit-learn その12:ボストン住宅価格を予想するため、RidgeRegressionモデル、SVRモデルで機械学習を試してみる
機械学習ライブラリScikit-learn前回、機械学習ライブラリScikit-learnのボストンの住宅価格を予想するのにLassoモデルとElasticNetモデルを使ってみました。ただ結果としては残念なことに...

ということでまずはいつも通りデータの読み込みから。

<セル1>

from sklearn.datasets import load_boston
import pandas as pd

boston = load_boston()

df = pd.DataFrame(boston.data, columns=boston.feature_names)

df["MEDV"] = boston.target

df

実行結果

そして前回同様、データを正規化と標準化しておきます。

<セル2>

from sklearn.preprocessing import StandardScaler
from sklearn.preprocessing import MinMaxScaler

x = df.loc[:, ["CRIM", "RM", "LSTAT"]]
y = df.loc[:, "MEDV"]

std_model = StandardScaler()
x_std = std_model.fit_transform(x)

norm_model = MinMaxScaler()
x_norm = norm_model.fit_transform(x)

これで準備は完了です。

スポンサーリンク

比較用のLinearRegressionモデル

前回同様、今回もLinearRegressionモデルを比較用のモデルとして使用します。

ということで前回分かりやすく組み替えたプログラムを基にRidgeモデルとSVRモデルを追加していきます。

そのLinearRegressionモデルのプログラムはこちらです。

<セル3>

from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.metrics import r2_score
import numpy as np

trial = 100

pred_lr_score = []; pred_std_lr_score =[]; pred_norm_lr_score = []

for i in range(trial):
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, train_size=0.8)
    x_std_train, x_std_test, y_std_train, y_std_test = train_test_split(x_std, y, test_size=0.2, train_size=0.8)
    x_norm_train, x_norm_test, y_norm_train, y_norm_test = train_test_split(x_norm, y, test_size=0.2, train_size=0.8)
    
    model_lr = LinearRegression()
    model_lr.fit(x_train, y_train)
    pred_lr = model_lr.predict(x_test)
    pred_lr_score.append(r2_score(y_test, pred_lr))
    
    model_std_lr = LinearRegression()
    model_std_lr.fit(x_std_train, y_std_train)
    pred_std_lr = model_std_lr.predict(x_std_test)
    pred_std_lr_score.append(r2_score(y_std_test, pred_std_lr))
    
    model_norm_lr = LinearRegression()
    model_norm_lr.fit(x_norm_train, y_norm_train)
    pred_norm_lr = model_norm_lr.predict(x_norm_test)
    pred_norm_lr_score.append(r2_score(y_norm_test, pred_norm_lr))
    
pred_lr_ave = np.average(np.array(pred_lr_score))
pred_std_lr_ave = np.average(np.array(pred_std_lr_score))
pred_norm_lr_ave = np.average(np.array(pred_norm_lr_score))

print(pred_lr_ave, pred_std_lr_ave, pred_norm_lr_ave)

実行結果
0.62531653766934 0.631091439828992 0.6262056101754784

これではこのプログラムにRidgeモデルとSVRモデルを組み込んでいいきましょう。

スポンサーリンク

Ridgeモデル、SVRモデルを組み込む

まずはライブラリのインポートです。

今回、RidgeモデルとSVRモデルを組み込むので、そのモデルのライブラリのインポートを行います。

from sklearn.linear_model import Ridge
from sklearn.svm import SVR

次にそれぞれのモデルの処理を追加していきます。

ただし最初に書いたように、SVRモデルではさらに”linear”モデルと”rbf”モデルを選択しますので、3つのモデルを組み込むことになります。

まずはRidgeモデルの処理はこんな感じ。

model_rd = Ridge()
model_rd.fit(x_train, y_train)
pred_rd = model_rd.predict(x_test)
pred_rd_score.append(r2_score(y_test, pred_rd))
    
model_std_rd = Ridge()
model_std_rd.fit(x_std_train, y_std_train)
pred_std_rd = model_std_rd.predict(x_std_test)
pred_std_rd_score.append(r2_score(y_std_test, pred_std_rd))
    
model_norm_rd = Ridge()
model_norm_rd.fit(x_norm_train, y_norm_train)
pred_norm_rd = model_norm_rd.predict(x_norm_test)
pred_norm_rd_score.append(r2_score(y_norm_test, pred_norm_rd))

最初の4行が標準化も正規化もしない処理、真ん中の4行が標準化したデータの処理、下の4行が正規化したデータの処理です。

同じようにSVRモデルも組み込んでいきます。

model_svr_lr = SVR(kernel='linear')
model_svr_lr.fit(x_train, y_train)
pred_svr_lr = model_en.predict(x_test)
pred_svr_lr_score.append(r2_score(y_test, pred_svr_lr))
    
model_std_svr_lr = SVR(kernel='linear')
model_std_svr_lr.fit(x_std_train, y_std_train)
pred_std_svr_lr = model_std_svr_lr.predict(x_std_test)
pred_std_svr_lr_score.append(r2_score(y_std_test, pred_std_svr_lr))
    
model_norm_svr_lr = SVR(kernel='linear')
model_norm_svr_lr.fit(x_norm_train, y_norm_train)
pred_norm_svr_lr = model_norm_svr_lr.predict(x_norm_test)
pred_norm_svr_lr_score.append(r2_score(y_norm_test, pred_norm_svr_lr))
    
model_svr_rbf = SVR(kernel='rbf', gamma="scale")
model_svr_rbf.fit(x_train, y_train)
pred_svr_rbf = model_svr_rbf.predict(x_test)
pred_svr_rbf_score.append(r2_score(y_test, pred_svr_rbf))
    
model_std_svr_rbf = SVR(kernel='rbf', gamma="scale")
model_std_svr_rbf.fit(x_std_train, y_std_train)
pred_std_svr_rbf = model_std_svr_rbf.predict(x_std_test)
pred_std_svr_rbf_score.append(r2_score(y_std_test, pred_std_svr_rbf))
    
model_norm_svr_rbf = SVR(kernel='rbf', gamma="scale")
model_norm_svr_rbf.fit(x_norm_train, y_norm_train)
pred_norm_svr_rbf = model_norm_svr_rbf.predict(x_norm_test)
pred_norm_svr_rbf_score.append(r2_score(y_norm_test, pred_norm_svr_rbf))

上3つの段落がSVRの”linear”モデル用、下の3つの段落がSVRの”rbf”モデルようです。

後は平均値の計算、表示を加えるとこんな感じになります。

<セル3>

from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from sklearn.linear_model import Ridge
from sklearn.svm import SVR
from sklearn.metrics import r2_score
import numpy as np

trial = 100

pred_lr_score = []; pred_std_lr_score =[]; pred_norm_lr_score = []
pred_rd_score = []; pred_std_rd_score = []; pred_norm_rd_score = []
pred_svr_lr_score = []; pred_std_svr_lr_score = []; pred_norm_svr_lr_score = []
pred_svr_rbf_score = []; pred_std_svr_rbf_score = []; pred_norm_svr_rbf_score = []

for i in range(trial):
    x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.2, train_size=0.8)
    x_std_train, x_std_test, y_std_train, y_std_test = train_test_split(x_std, y, test_size=0.2, train_size=0.8)
    x_norm_train, x_norm_test, y_norm_train, y_norm_test = train_test_split(x_norm, y, test_size=0.2, train_size=0.8)
    
    model_lr = LinearRegression()
    model_lr.fit(x_train, y_train)
    pred_lr = model_lr.predict(x_test)
    pred_lr_score.append(r2_score(y_test, pred_lr))
    
    model_std_lr = LinearRegression()
    model_std_lr.fit(x_std_train, y_std_train)
    pred_std_lr = model_std_lr.predict(x_std_test)
    pred_std_lr_score.append(r2_score(y_std_test, pred_std_lr))
    
    model_norm_lr = LinearRegression()
    model_norm_lr.fit(x_norm_train, y_norm_train)
    pred_norm_lr = model_norm_lr.predict(x_norm_test)
    pred_norm_lr_score.append(r2_score(y_norm_test, pred_norm_lr))
    
    model_rd = Ridge()
    model_rd.fit(x_train, y_train)
    pred_rd = model_rd.predict(x_test)
    pred_rd_score.append(r2_score(y_test, pred_rd))
    
    model_std_rd = Ridge()
    model_std_rd.fit(x_std_train, y_std_train)
    pred_std_rd = model_std_rd.predict(x_std_test)
    pred_std_rd_score.append(r2_score(y_std_test, pred_std_rd))
    
    model_norm_rd = Ridge()
    model_norm_rd.fit(x_norm_train, y_norm_train)
    pred_norm_rd = model_norm_rd.predict(x_norm_test)
    pred_norm_rd_score.append(r2_score(y_norm_test, pred_norm_rd))
    
    model_svr_lr = SVR(kernel='linear')
    model_svr_lr.fit(x_train, y_train)
    pred_svr_lr = model_en.predict(x_test)
    pred_svr_lr_score.append(r2_score(y_test, pred_svr_lr))
    
    model_std_svr_lr = SVR(kernel='linear')
    model_std_svr_lr.fit(x_std_train, y_std_train)
    pred_std_svr_lr = model_std_svr_lr.predict(x_std_test)
    pred_std_svr_lr_score.append(r2_score(y_std_test, pred_std_svr_lr))
    
    model_norm_svr_lr = SVR(kernel='linear')
    model_norm_svr_lr.fit(x_norm_train, y_norm_train)
    pred_norm_svr_lr = model_norm_svr_lr.predict(x_norm_test)
    pred_norm_svr_lr_score.append(r2_score(y_norm_test, pred_norm_svr_lr))
    
    model_svr_rbf = SVR(kernel='rbf', gamma="scale")
    model_svr_rbf.fit(x_train, y_train)
    pred_svr_rbf = model_svr_rbf.predict(x_test)
    pred_svr_rbf_score.append(r2_score(y_test, pred_svr_rbf))
    
    model_std_svr_rbf = SVR(kernel='rbf', gamma="scale")
    model_std_svr_rbf.fit(x_std_train, y_std_train)
    pred_std_svr_rbf = model_std_svr_rbf.predict(x_std_test)
    pred_std_svr_rbf_score.append(r2_score(y_std_test, pred_std_svr_rbf))
    
    model_norm_svr_rbf = SVR(kernel='rbf', gamma="scale")
    model_norm_svr_rbf.fit(x_norm_train, y_norm_train)
    pred_norm_svr_rbf = model_norm_svr_rbf.predict(x_norm_test)
    pred_norm_svr_rbf_score.append(r2_score(y_norm_test, pred_norm_svr_rbf))

pred_lr_ave = np.average(np.array(pred_lr_score))
pred_std_lr_ave = np.average(np.array(pred_std_lr_score))
pred_norm_lr_ave = np.average(np.array(pred_norm_lr_score))
pred_rd_ave = np.average(np.array(pred_rd_score))
pred_std_rd_ave = np.average(np.array(pred_std_rd_score))
pred_norm_rd_ave = np.average(np.array(pred_norm_rd_score))
pred_svr_lr_ave = np.average(np.array(pred_svr_lr_score))
pred_std_svr_lr_ave = np.average(np.array(pred_std_svr_lr_score))
pred_norm_svr_lr_ave = np.average(np.array(pred_norm_svr_lr_score))
pred_svr_rbf_ave = np.average(np.array(pred_svr_rbf_score))
pred_std_svr_rbf_ave = np.average(np.array(pred_std_svr_rbf_score))
pred_norm_svr_rbf_ave = np.average(np.array(pred_norm_svr_rbf_score))

print(pred_lr_ave, pred_std_lr_ave, pred_norm_lr_ave, pred_rd_ave, pred_std_rd_ave, pred_norm_rd_ave, pred_svr_lr_ave, pred_std_svr_lr_ave, pred_norm_svr_lr_ave, pred_svr_rbf_ave, pred_std_svr_rbf_ave, pred_norm_svr_rbf_ave)

だいぶ長くなってしまいましたが、これでプログラムの方は終了です。

このプログラムを使って、分析してみましょう。

スポンサーリンク

Ridgeモデル、SVRモデルに対する標準化、正規化の効果を見てみる

それではRidgeモデル、SVRモデルに対する標準化、正規化の効果を検討してみましょう。

いつも通りプログラムで100回試行して平均値を出し、それを5回試してみます。

標準化 or 正規化1回目2回目3回目4回目5回目
LinearRegressionなし0.632790.635130.627730.631130.62727
LinearRegression標準化0.636880.632440.607500.619510.63610
LinearRegression正規化0.625830.633860.633900.623540.63466
Ridgeなし0.632960.635230.627890.631270.62739
Ridge標準化0.636920.632530.607660.619620.63618
Ridge正規化0.625880.633290.633470.626760.63333
SVR linerなし0.627920.632800.623950.622630.62129
SVR liner標準化0.625110.621610.593140.602260.62539
SVR liner正規化0.513810.521130.524730.527150.51042
SVR rbfなし0.584570.578780.571560.575370.57568
SVR rbf標準化0.719110.722450.700590.705980.71844
SVR rbf正規化0.711980.732170.726060.724140.72570

今回もデータが膨大になってしまいましたので、前回同様色分けしてみましょう。

標準化、正規化していないデータを基準として、標準化、正規化をしたデータがよくなった場合は青色、悪くなった場合は赤色で示してみましす。

ということでまずはLinearRegressionモデルから。

標準化 or 正規化1回目2回目3回目4回目5回目
LinearRegressionなし0.632790.635130.627730.631130.62727
LinearRegression標準化0.636880.632440.607500.619510.63610
LinearRegression正規化0.625830.633860.633900.623540.63466

LinearRegressionモデルの場合、標準化すると2:3でわずかに標準化、正規化しない方がいいという結果になりました。

しかし値を見てみるとほとんど差がないので、これまで同様標準化、正規化の効果はあまりみられていないといっていいでしょう。

次にRidgeモデルです。

標準化 or 正規化1回目2回目3回目4回目5回目
Ridgeなし0.632960.635230.627890.631270.62739
Ridge標準化0.636920.632530.607660.619620.63618
Ridge正規化0.625880.633290.633470.626760.63333

Ridgeモデルの場合、2:3でわずかに標準化、正規化しない方がいいという結果になりました。

しかしこちらも値的にはほとんど差がないので、標準化、正規化の効果はなかったとみるのが正しそうです。

最後にSVRモデルです。

標準化 or 正規化1回目2回目3回目4回目5回目
SVR linerなし0.627920.632800.623950.622630.62129
SVR liner標準化0.625110.621610.593140.602260.62539
SVR liner正規化0.513810.521130.524730.527150.51042
SVR rbfなし0.584570.578780.571560.575370.57568
SVR rbf標準化0.719110.722450.700590.705980.71844
SVR rbf正規化0.711980.732170.726060.724140.72570

SVRのlinearモデルでは1:4で標準化しない方がいい、そして0:5で正規化しない方がいいという結果になりました。

値を見てみると標準化の方はわずかに悪くなっている回が多いので、効果がないか、少し悪影響があるくらいだと考えられます。

しかし正規化の方は値もかなり悪くなっており、相性が悪いことが分かります。

SVRのrbfモデルでは、標準化も正規化も5:0でよくなっています。

また値も0.57程度から、0.72程度まで一気に改善されています。

この0.72という値は他のモデルでは出てきていないくらい良い数値となっており、標準化、正規化で大幅に改善されたと見ていいでしょう。

また5回ともなのでまぐれ当たりではないとも言えます。

標準化、正規化で改善するモデルはないんじゃないかとヒヤヒヤしましたが、何とかなって良かったです。

せっかく改善されるモデルも見つかったことなので、次回は正解の値と予想された値をプロットしてみて、スコアが違うとどれくらいの予想値の違いが出てくるのか可視化してみたいと思います。

Python機械学習ライブラリScikit-learn その17:ボストン住宅価格のデータを使って、標準化と正規化の効果を可視化してみる
機械学習ライブラリScikit-learn前回、機械学習ライブラリScikit-learnのボストンの住宅価格を予想するのにデータを標準化、正規化をした後、RidgeモデルとSVRモデルで機械学習をしてみました。そ...

ということで今回はこんな感じで。

コメント

タイトルとURLをコピーしました