メインコンテンツへスキップ
ホームPython

コース

Pythonで学ぶ木ベースのMachine Learning

中級スキルレベル
更新日 2025/12
本コースでは、scikit-learnを用いた回帰および分類のための木ベースモデルとアンサンブル手法の活用方法を学んでいただきます。
コースを無料で開始
PythonMachine Learning5時間15 ビデオ57 演習4,650 XP110K+達成証明書

無料アカウントを作成

または

続行すると、弊社の利用規約プライバシーポリシーに同意し、データが米国に保存されることに同意したことになります。

数千の企業の学習者に愛されています

Group

2名以上のトレーニングをお考えですか?

DataCamp for Businessを試す

コース説明

決定木は、分類と回帰の問題に用いられる教師あり学習モデルです。木のモデルは柔軟性が高い一方で、その代償もあります。複雑な非線形関係を捉えられる反面、データセット内のノイズまで記憶してしまいやすいのです。異なる学習条件で訓練した複数の木の予測を集約するアンサンブル法は、木の柔軟性を活かしつつ、ノイズを記憶しがちな傾向を抑えます。アンサンブル法はさまざまな分野で使われ、Machine Learningのコンペでも数多くの実績があります。 このコースでは、使いやすいscikit-learnライブラリを用いて、Pythonで決定木や木ベースのモデルを学習する方法を身につけます。木の長所と短所を理解し、アンサンブルで短所をどのように補えるかを、実データを使いながら実践します。最後に、モデルの性能を引き出すために、影響の大きいハイパーパラメータのチューニング方法も学びます。

前提条件

Supervised Learning with scikit-learn
1

Classification and Regression Trees

Classification and Regression Trees (CART) are a set of supervised learning models used for problems involving classification and regression. In this chapter, you'll be introduced to the CART algorithm.
チャプター開始
2

The Bias-Variance Tradeoff

The bias-variance tradeoff is one of the fundamental concepts in supervised machine learning. In this chapter, you'll understand how to diagnose the problems of overfitting and underfitting. You'll also be introduced to the concept of ensembling where the predictions of several models are aggregated to produce predictions that are more robust.
チャプター開始
3

Bagging and Random Forests

Bagging is an ensemble method involving training the same algorithm many times using different subsets sampled from the training data. In this chapter, you'll understand how bagging can be used to create a tree ensemble. You'll also learn how the random forests algorithm can lead to further ensemble diversity through randomization at the level of each split in the trees forming the ensemble.
チャプター開始
4

Boosting

Boosting refers to an ensemble method in which several models are trained sequentially with each model learning from the errors of its predecessors. In this chapter, you'll be introduced to the two boosting methods of AdaBoost and Gradient Boosting.
チャプター開始
5

Model Tuning

The hyperparameters of a machine learning model are parameters that are not learned from data. They should be set prior to fitting the model to the training set. In this chapter, you'll learn how to tune the hyperparameters of a tree-based model using grid search cross validation.
チャプター開始
Pythonで学ぶ木ベースのMachine Learning
コース完了

修了証明書を取得

この資格をLinkedInプロフィール、履歴書、CVに追加しましょう
ソーシャルメディアや人事評価で共有しましょう
今すぐ登録

19百万人を超える学習者と一緒にPythonで学ぶ木ベースのMachine Learningを今日から始めましょう!

無料アカウントを作成

または

続行すると、弊社の利用規約プライバシーポリシーに同意し、データが米国に保存されることに同意したことになります。

DataCamp for Mobileでデータスキルを磨きましょう

モバイル コースと毎日の 5 分間のコーディング チャレンジで、外出先でも進歩できます。