Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esempio: processo di ottimizzazione degli iperparametri
Questo esempio illustra come creare un nuovo notebook per la configurazione e l'avvio di un processo di ottimizzazione degli iperparametri. Il processo di ottimizzazione utilizza XGBoost algoritmo con Amazon SageMaker AI per eseguire l’addestramento di un modello per prevedere se un cliente eseguirà la registrazione per un deposito bancario a termine dopo essere stato contattato telefonicamente.
Utilizzate l'SDK di basso livello per Python (Boto3) per configurare e avviare il processo di ottimizzazione degli iperparametri e per monitorare lo stato dei lavori di ottimizzazione degli iperparametri. AWS Management Console Puoi anche utilizzare l'SDK Amazon SageMaker Python di alto livello di Amazon SageMaker
Prerequisiti
Per eseguire il codice in questo esempio, è necessario
-
Un bucket Amazon S3 per l'archiviazione del set di dati di addestramento e degli artefatti del modello creati durante l’addestramento