みなさん、こんにちは。機械学習を行う100日間| Day63マスターLightGBMを徹底的に紹介し、LightGBMのモデル原理と最小限の例を紹介しました。最近、HuggingfaceとStreamlitの方が互換性が高いように思われるので、誰でもできるように設計されたシンプルなLightGBMビジュアルパラメーター調整ツールを開発しました更深入地理解 LightGBM
。
URL:
いくつかのパラメーターをランダムに配置するだけで、これらのパラメーターを調整すると、モデル評価インジケーターの変化をリアルタイムで確認できます。また、記事にコードを入れました。最適化のアイデアがあれば、メッセージを残すことができます。実装プロセスについては、以下で詳しく説明します。
LightGBMのパラメーター
モデルの構築が完了したら、モデルの効果を評価し、評価結果に応じてモデルのパラメーター、機能、またはアルゴリズムを調整して、満足のいく結果を得る必要があります。
LightGBMには、コアパラメーター、学習制御パラメーター、IOパラメーター、ターゲットパラメーター、測定パラメーター、ネットワークパラメーター、GPUパラメーター、モデルパラメーターがあります。ここでは、コアパラメーター、学習制御パラメーター、測定パラメーターなどを頻繁に変更します。
制御パラメータ | 意味 | 利用方法 |
---|---|---|
max_depth | 木の最大深さ | モデルが過剰適合している場合は、最初にmax_depthを減らすことを検討できます。 |
min_data_in_leaf | リーフに含まれる可能性のあるレコードの最小数 | デフォルト20、過剰適合時に使用 |
feature_fraction | たとえば、0.8の場合、各反復でツリーを構築するためにパラメーターの80%がランダムに選択されることを意味します。 | ブーストがランダムフォレストである場合に使用されます |
bagging_fraction | 各反復で使用されるデータのスケール | トレーニングをスピードアップし、過剰適合を減らすために使用されます |
Early_stopping_round | 最新のearly_stopping_roundエポックで検証データの1つのメトリックが改善されていない場合、モデルはトレーニングを停止します | 分析を加速し、過度の反復を減らします |
ラムダ | 正則化を指定する | 0〜1 |
min_gain_to_split | 分割を説明する最小のゲイン | コントロールツリーの便利な分割 |
max_cat_group | グループ境界で分割点を見つける | カテゴリの数が多いと、セグメンテーションポイントを見つけるときに過剰適合しやすくなります。 |
CoreParameters | 含义 | 用法 |
---|---|---|
Task | 数据的用途 | 选择 train 或者 predict |
application | 模型的用途 | 选择 regression: 回归时,binary: 二分类时,multiclass: 多分类时 |
boosting | 要用的算法 | gbdt, rf: random forest, dart: Dropouts meet Multiple Additive Regression Trees, goss: Gradient-based One-Side Sampling |
num_boost_round | 迭代次数 | 通常 100+ |
learning_rate | 如果一次验证数据的一个度量在最近的 early_stopping_round 回合中没有提高,模型将停止训练 | 常用 0.1, 0.001, 0.003… |
num_leaves | 默认 31 | |
device | cpu 或者 gpu | |
metric | mae: mean absolute error , mse: mean squared error , binary_logloss: loss for binary classification , multi_logloss: loss for multi classification |
Faster Speed | better accuracy | over-fitting |
---|---|---|
将 max_bin 设置小一些 | 用较大的 max_bin | max_bin 小一些 |
num_leaves 大一些 | num_leaves 小一些 | |
用 feature_fraction 来做 sub-sampling | 用 feature_fraction | |
用 bagging_fraction 和 bagging_freq | 设定 bagging_fraction 和 bagging_freq | |
training data 多一些 | training data 多一些 | |
用 save_binary 来加速数据加载 | 直接用 categorical feature | 用 gmin_data_in_leaf 和 min_sum_hessian_in_leaf |
用 parallel learning | 用 dart | 用 lambda_l1, lambda_l2 ,min_gain_to_split 做正则化 |
num_iterations 大一些,learning_rate 小一些 | 用 max_depth 控制树的深度 |
模型评估指标
以分类模型为例,常见的模型评估指标有一下几种:
混淆矩阵
混淆矩阵是能够比较全面的反映模型的性能,从混淆矩阵能够衍生出很多的指标来。
ROC曲线
ROC曲线,全称The Receiver Operating Characteristic Curve,译为受试者操作特性曲线。这是一条以不同阈值 下的假正率FPR为横坐标,不同阈值下的召回率Recall为纵坐标的曲线。让我们衡量模型在尽量捕捉少数类的时候,误伤多数类的情况如何变化的。
AUC
AUC(Area Under the ROC Curve)指标是在二分类问题中,模型评估阶段常被用作最重要的评估指标来衡量模型的稳定性。ROC曲线下的面积称为AUC面积,AUC面积越大说明ROC曲线越靠近左上角,模型越优;
Streamlit 实现
Streamlit我就不再多做介绍了,老读者应该都特别熟悉了。就再列一下之前开发的几个小东西:
核心代码如下,完整代码我放到Github,欢迎大家给个Star
from definitions import *
st.set_option('deprecation.showPyplotGlobalUse', False)
st.sidebar.subheader("请选择模型参数:sunglasses:")
# 加载数据
breast_cancer = load_breast_cancer()
data = breast_cancer.data
target = breast_cancer.target
# 划分训练数据和测试数据
X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=0.2)
# 转换为Dataset数据格式
lgb_train = lgb.Dataset(X_train, y_train)
lgb_eval = lgb.Dataset(X_test, y_test, reference=lgb_train)
# 模型训练
params = {'num_leaves': num_leaves, 'max_depth': max_depth,
'min_data_in_leaf': min_data_in_leaf,
'feature_fraction': feature_fraction,
'min_data_per_group': min_data_per_group,
'max_cat_threshold': max_cat_threshold,
'learning_rate':learning_rate,'num_leaves':num_leaves,
'max_bin':max_bin,'num_iterations':num_iterations
}
gbm = lgb.train(params, lgb_train, num_boost_round=2000, valid_sets=lgb_eval, early_stopping_rounds=500)
lgb_eval = lgb.Dataset(X_test, y_test, reference=lgb_train)
probs = gbm.predict(X_test, num_iteration=gbm.best_iteration) # 输出的是概率结果
fpr, tpr, thresholds = roc_curve(y_test, probs)
st.write('------------------------------------')
st.write('Confusion Matrix:')
st.write(confusion_matrix(y_test, np.where(probs > 0.5, 1, 0)))
st.write('------------------------------------')
st.write('Classification Report:')
report = classification_report(y_test, np.where(probs > 0.5, 1, 0), output_dict=True)
report_matrix = pd.DataFrame(report).transpose()
st.dataframe(report_matrix)
st.write('------------------------------------')
st.write('ROC:')
plot_roc(fpr, tpr)
复制代码
上传Huggingface
Huggingface 前一篇文章(腾讯的这个算法,我搬到了网上,随便玩!)我已经介绍过了,这里就顺便再讲一下步骤吧。
ステップ1:Huggingfaceアカウントを登録する
ステップ2:スペースを作成します。SDK用にStreamlitを選択することを忘れないでください
ステップ3:新しく作成されたスペースコードのクローンを作成し、変更されたコードをそこにプッシュします
git lfs install
git add .
git commit -m "commit from $beihai"
git push
复制代码
プッシュするときは、ユーザー名(つまり、登録したメールアドレス)とパスワードを入力して、gitが常にユーザー名とパスワードを入力するという問題を解決します。git config --global credential.helper store
プッシュが完了し、完了です。スペースページの対応するアイテムに戻ると、効果を確認できます。