Corso
Ottimizzazione degli iperparametri in Python
IntermedioLivello di competenza
Aggiornato 04/2023Inizia Il Corso Gratis
Incluso conPremium or Team
PythonMachine Learning4 h13 video44 Esercizi3,400 XP24,207Attestato di conseguimento
Crea il tuo account gratuito
o
Continuando, accetti i nostri Termini di utilizzo, la nostra Informativa sulla privacy e che i tuoi dati siano conservati negli Stati Uniti.Preferito dagli studenti di migliaia di aziende
Vuoi formare 2 o più persone?
Prova DataCamp for BusinessDescrizione del corso
Iperparametri vs. parametri
Fai pratica con diverse tecniche per la regolazione automatica degli iperparametri in Python con Scikit-Learn.Scopri la differenza tra iperparametri e parametri e le migliori pratiche per impostare e analizzare i valori degli iperparametri. Queste basi ti aiuteranno a capire l'importanza degli iperparametri nei modelli di machine learning.
Ricerca a griglia
Impara diverse tecniche di ottimizzazione degli iperparametri, iniziando con la ricerca a griglia. Usando i dati relativi ai casi di insolvenza delle carte di credito, ti eserciterai a fare la ricerca a griglia (Grid Search) per trovare le migliori combinazioni di iperparametri e capire i risultati. Ricerca casuale () Ti parleranno della ricerca casuale e scoprirai i suoi vantaggi rispetto alla ricerca a griglia, tipo l'efficienza in spazi di parametri grandi.
Ricerca informata
Nella parte finale del corso, esplorerai metodi di ottimizzazione avanzati, come gli algoritmi bayesiani e genetici.Queste tecniche di ricerca informata vengono mostrate con esempi pratici, così puoi confrontarle con i metodi di ricerca non informati. Alla fine, avrai una comprensione completa di come ottimizzare efficacemente gli iperparametri per migliorare le prestazioni del modello..
Prerequisiti
Supervised Learning with scikit-learn1
Hyperparameters and Parameters
In this introductory chapter you will learn the difference between hyperparameters and parameters. You will practice extracting and analyzing parameters, setting hyperparameter values for several popular machine learning algorithms. Along the way you will learn some best practice tips & tricks for choosing which hyperparameters to tune and what values to set & build learning curves to analyze your hyperparameter choices.
2
Grid search
This chapter introduces you to a popular automated hyperparameter tuning methodology called Grid Search. You will learn what it is, how it works and practice undertaking a Grid Search using Scikit Learn. You will then learn how to analyze the output of a Grid Search & gain practical experience doing this.
3
Random Search
In this chapter you will be introduced to another popular automated hyperparameter tuning methodology called Random Search. You will learn what it is, how it works and importantly how it differs from grid search. You will learn some advantages and disadvantages of this method and when to choose this method compared to Grid Search. You will practice undertaking a Random Search with Scikit Learn as well as visualizing & interpreting the output.
4
Informed Search
In this final chapter you will be given a taste of more advanced hyperparameter tuning methodologies known as ''informed search''. This includes a methodology known as Coarse To Fine as well as Bayesian & Genetic hyperparameter tuning algorithms. You will learn how informed search differs from uninformed search and gain practical skills with each of the mentioned methodologies, comparing and contrasting them as you go.
Ottimizzazione degli iperparametri in Python
Corso completato
Ottieni Attestato di conseguimento
Aggiungi questa certificazione al tuo profilo LinkedIn, al curriculum o al CVCondividila sui social e nella valutazione delle tue performance
Incluso conPremium or Team
Iscriviti OraUnisciti a oltre 19 milioni di studenti e inizia Ottimizzazione degli iperparametri in Python oggi!
Crea il tuo account gratuito
o
Continuando, accetti i nostri Termini di utilizzo, la nostra Informativa sulla privacy e che i tuoi dati siano conservati negli Stati Uniti.