Course
Winning a Kaggle Competition in Python
ПередовойУровень мастерства
Обновлено 05.2026PythonMachine Learning4 ч16 videos52 Exercises4,200 XP21,452Свидетельство о достижениях
Пользуется популярностью среди обучающихся в тысячах компаний.
Обучение двух или более человек?
Попробуйте DataCamp for BusinessОписание курса
Предварительные требования
Extreme Gradient Boosting with XGBoost1
Kaggle competitions process
In this first chapter, you will get exposure to the Kaggle competition process. You will train a model and prepare a csv file ready for submission. You will learn the difference between Public and Private test splits, and how to prevent overfitting.
2
Dive into the Competition
Now that you know the basics of Kaggle competitions, you will learn how to study the specific problem at hand. You will practice EDA and get to establish correct local validation strategies. You will also learn about data leakage.
3
Feature Engineering
You will now get exposure to different types of features. You will modify existing features and create new ones. Also, you will treat the missing data accordingly.
4
Modeling
Time to bring everything together and build some models! In this last chapter, you will build a base model before tuning some hyperparameters and improving your results with ensembles. You will then get some final tips and tricks to help you compete more efficiently.
Winning a Kaggle Competition in Python
Курс завершен
Получите свидетельство о достижениях
Добавьте эти данные в свой профиль LinkedIn, резюме или CV.Поделитесь этим в социальных сетях и в своем отчете об оценке эффективности работы.Запишитесь Прямо Сейчас
Развивайте свои навыки работы с данными с помощью DataCamp для мобильных устройств.
Успевайте в обучении на ходу с помощью наших мобильных курсов и ежедневных 5-минутных заданий по программированию.