

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Esempi della libreria di parallelismo dei modelli Amazon SageMaker AI v1
<a name="distributed-model-parallel-examples"></a>

Questa pagina fornisce un elenco di blog e notebook Jupyter che presentano esempi pratici di implementazione della libreria di parallelismo dei SageMaker modelli (SMP) v1 per eseguire lavori di formazione distribuiti sull'intelligenza artificiale. SageMaker 

## Blog e casi di studio
<a name="distributed-model-parallel-examples-blog"></a>

I seguenti blog illustrano casi di studio relativi all’utilizzo di SMP v1.
+ [Nuovi miglioramenti delle prestazioni nella libreria di parallelismo dei modelli Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/new-performance-improvements-in-amazon-sagemaker-model-parallel-library/), *AWS Machine Learning Blog* (16 dicembre 2022)
+ [Addestra modelli giganteschi con scalabilità quasi lineare utilizzando il parallelismo dei dati frammentati su Amazon AI, SageMaker Machine](https://aws.amazon.com/blogs/machine-learning/train-gigantic-models-with-near-linear-scaling-using-sharded-data-parallelism-on-amazon-sagemaker/) Learning Blog (31 *AWS ottobre* 2022)

## Notebook di esempio
<a name="distributed-model-parallel-examples-pytorch"></a>

[I taccuini di esempio sono disponibili nell'archivio degli esempi di intelligenza artificiale. SageMaker GitHub ](https://github.com/aws/amazon-sagemaker-examples/tree/master/training/distributed_training/) Per scaricare gli esempi, esegui il comando seguente per clonare il repository e accedere a `training/distributed_training/pytorch/model_parallel`.

**Nota**  
Clona ed esegui i taccuini di esempio nel seguente AI ML. SageMaker IDEs  
[SageMaker JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)(disponibile in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creato dopo dicembre 2023)
[SageMaker Code Editor](https://docs.aws.amazon.com/sagemaker/latest/dg/code-editor.html) (disponibile in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creato dopo dicembre 2023)
[Studio Classic](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) (disponibile come applicazione in [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) creata dopo dicembre 2023)
[SageMaker Istanze Notebook](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html)

```
git clone https://github.com/aws/amazon-sagemaker-examples.git
cd amazon-sagemaker-examples/training/distributed_training/pytorch/model_parallel
```

**Notebook di esempio SMP v1 per PyTorch**
+ [Addestra GPT-2 con scalabilità quasi lineare utilizzando la tecnica del parallelismo dei dati condivisi nella libreria di parallelismo dei modelli SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/smp-train-gpt-sharded-data-parallel.ipynb)
+ [Ottimizza GPT-2 con scalabilità quasi lineare utilizzando la tecnica del parallelismo dei dati frammentati nella libreria di parallelismo dei modelli SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt2/smp-fine-tune-gpt-sharded-data-parallel.ipynb)
+ [Addestra GPT-NeOX-20b con una scalabilità quasi lineare utilizzando la tecnica del parallelismo dei dati condiviso nella libreria di parallelismo dei modelli SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt-neox/smp-train-gpt-neox-sharded-data-parallel.ipynb)
+ [Addestra GPT-J 6B utilizzando le tecniche di parallelismo dei dati frammentati e parallelismo tensoriale nella libreria di parallelismo dei modelli SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/gpt-j/smp-train-gptj-sharded-data-parallel-tp.ipynb)
+ [Addestra FLAN-T5 con una scalabilità quasi lineare utilizzando la tecnica del parallelismo dei dati frammentati nella libreria di parallelismo dei modelli SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/flan-t5/smp-train-t5-sharded-data-parallel.ipynb)
+ [Addestra Falcon con una scalabilità quasi lineare utilizzando la tecnica del parallelismo dei dati frammentati nella libreria di parallelismo dei modelli SageMaker ](https://github.com/aws/amazon-sagemaker-examples/blob/main/training/distributed_training/pytorch/model_parallel/falcon/smp-train-falcon-sharded-data-parallel.ipynb)

**Notebook di esempio SMP v1 per TensorFlow**
+ [CNN con TensorFlow 2.3.1 e la libreria di parallelismo dei modelli SageMaker ](https://sagemaker-examples.readthedocs.io/en/latest/training/distributed_training/tensorflow/model_parallel/mnist/tensorflow_smmodelparallel_mnist.html)
+ [HuggingFace con la libreria di parallelismo dei modelli TensorFlow distribuiti Training on AI SageMaker ](https://github.com/huggingface/notebooks/blob/master/sagemaker/04_distributed_training_model_parallelism/sagemaker-notebook.ipynb)