-
Notifications
You must be signed in to change notification settings - Fork 0
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
XGBoost をためす #4
Comments
とりあえず,#2 #3 #6 #9 をしてoptunaでハイパラチューニングして300回回してます. 探索範囲は params = {
'objective': 'binary:logistic',
'max_depth': trial.suggest_int('max_depth', 1, 9),
'n_estimators': trial.suggest_int('n_estimators', 10, 1000),
'learning_rate': trial.suggest_loguniform('learning_rate', 1e-8, 1.0)
} にしていますが,適当な例を引っ張ってきてるだけなので,改善案があったら教えてほしいです. あと,ローカルで回すと結構時間かかりそうです. |
XGBoostのパラメータ決定する際,これを見ると良さそう |
引用コメントのジャンル推定結果のヒストグラムです. 今回の予測で,結果に寄与した特徴量TOP15です.画像が透過されて見にくいので,右クリックして画像だけを表示をクリックして見てください:bow: 見にくいですが,一応全特徴量の寄与率を可視化したものも載せておきます. 学習結果は,ここに保存しました.
|
#11 とハイパラの探索空間を変えて学習させてます. params = {
'objective': 'multi:softmax',
'num_class': 11,
'max_depth': trial.suggest_int('max_depth', 1, 20),
'min_child_weight': trial.suggest_int('min_child_weight', 1, 20),
'subsample': trial.suggest_discrete_uniform('subsample', 0.5, 0.9, 0.1),
'colsample_bytree': trial.suggest_discrete_uniform('colsample_bytree', 0.5, 0.9, 0.1),
'n_estimators': trial.suggest_int('n_estimators', 10, 1000),
'learning_rate': trial.suggest_loguniform('learning_rate', 1e-8, 1.0),
'reg_lambda': trial.suggest_discrete_uniform('lambda', 0, 1, 0.1)
} |
提出結果,特に変化なし!
|
No description provided.
The text was updated successfully, but these errors were encountered: