メインコンテンツへスキップ
ホームPython

コース

Pythonで学ぶ次元削減

中級スキルレベル
更新日 2023/01
データの次元削減の概念を理解し、Pythonでその手法を実践的に習得しましょう。
コースを無料で開始
PythonMachine Learning4時間16 ビデオ58 演習4,700 XP36,059達成証明書

無料アカウントを作成

または

続行すると、弊社の利用規約プライバシーポリシーに同意し、データが米国に保存されることに同意したことになります。

数千の企業の学習者に愛されています

Group

2名以上のトレーニングをお考えですか?

DataCamp for Businessを試す

コース説明

高次元のデータセットは圧倒されやすく、どこから手を付ければよいか迷ってしまいます。通常は新しいデータセットをまず可視化して探索しますが、次元が多すぎると従来の手法では不十分に感じられるでしょう。幸い、高次元データに特化した可視化手法があり、本コースではそれらを紹介します。データを探索すると、多くの特徴量が、分散がない、あるいは他の特徴量の重複であるといった理由で、ほとんど情報を持たないことがよくあります。これらの特徴量を検出してデータセットから除外し、有益な特徴量に集中する方法を学びます。次のステップとして、これらの特徴量でモデルを構築したい場合、目的変数の予測に影響を与えないものが含まれていることもあります。こうした無関係な特徴量も検出・除外して、次元(=複雑さ)を減らす方法を学びます。最後に、相関のない主成分を計算することで自動的に次元削減を行う、特徴量抽出の手法について学びます。

前提条件

Supervised Learning with scikit-learn
1

Exploring High Dimensional Data

You'll be introduced to the concept of dimensionality reduction and will learn when an why this is important. You'll learn the difference between feature selection and feature extraction and will apply both techniques for data exploration. The chapter ends with a lesson on t-SNE, a powerful feature extraction technique that will allow you to visualize a high-dimensional dataset.
チャプター開始
2

Feature Selection I - Selecting for Feature Information

In this first out of two chapters on feature selection, you'll learn about the curse of dimensionality and how dimensionality reduction can help you overcome it. You'll be introduced to a number of techniques to detect and remove features that bring little added value to the dataset. Either because they have little variance, too many missing values, or because they are strongly correlated to other features.
チャプター開始
3

Feature Selection II - Selecting for Model Accuracy

4

Feature Extraction

Pythonで学ぶ次元削減
コース完了

修了証明書を取得

この資格をLinkedInプロフィール、履歴書、CVに追加しましょう
ソーシャルメディアや人事評価で共有しましょう
今すぐ登録

19百万人を超える学習者と一緒にPythonで学ぶ次元削減を今日から始めましょう!

無料アカウントを作成

または

続行すると、弊社の利用規約プライバシーポリシーに同意し、データが米国に保存されることに同意したことになります。

DataCamp for Mobileでデータスキルを磨きましょう

モバイル コースと毎日の 5 分間のコーディング チャレンジで、外出先でも進歩できます。