Modelli di base generativi di intelligenza artificiale in Canvas SageMaker - Amazon SageMaker

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Modelli di base generativi di intelligenza artificiale in Canvas SageMaker

Amazon SageMaker Canvas fornisce modelli di base di intelligenza artificiale generativa che puoi utilizzare per avviare chat conversazionali. Tali modelli di generazione di contenuti vengono addestrati su grandi quantità di dati di testo per apprendere i modelli statistici e le relazioni tra le parole e riescono a produrre testo coerente che è statisticamente simile al testo su cui sono stati addestrati. È possibile utilizzare tale funzionalità per aumentare la produttività eseguendo le seguenti operazioni:

  • Genera contenuti, come schemi di documenti, report e blog

  • Riassumi il testo partendo da grandi corpus di testo, ad esempio guadagni, trascrizioni di chiamate in videoconferenza, report annuali o capitoli di manuali utente

  • Estrai approfondimenti e principali conclusioni da ampi passaggi di testo, come appunti di riunioni o racconti

  • Migliora il testo e trova errori grammaticali o di battitura

I modelli base sono una combinazione di modelli linguistici di grandi dimensioni Amazon SageMaker JumpStart e Amazon Bedrock (LLMs). Canvas offre i seguenti modelli:

Modello Tipo Descrizione

Amazon Titan

Modello Amazon Bedrock

Amazon Titan è un potente modello linguistico generico che è possibile utilizzare per attività quali riepilogo, generazione di testo (come la creazione di un post in un blog), classificazione, domande e risposte aperte ed estrazione di informazioni. È preaddestrato su set di dati di grandi dimensioni, il che lo rende adatto per attività e ragionamenti complessi. Per continuare a supportare le migliori pratiche per l'uso responsabile dell'intelligenza artificiale, i modelli di base di Amazon Titan sono progettati per rilevare e rimuovere contenuti dannosi nei dati, rifiutare i contenuti inappropriati nell'input dell'utente e filtrare gli output del modello che contengono contenuti inappropriati (come incitamento all'odio, parolacce e violenza).

Anthropic Claude Instant

Modello Amazon Bedrock

Claude Instant di Anthropic è un modello più rapido ed economico ma pur sempre molto capace. Questo modello è in grado di gestire una serie di attività, tra cui dialoghi informali, analisi del testo, riepilogo e risposta alle domande dei documenti. Proprio come Claude-2, Claude Instant può supportare fino a 100.000 token in ogni prompt, equivalenti a circa 200 pagine di informazioni.

Anthropic Claude-2

Modello Amazon Bedrock

Claude-2 è il modello più potente di Anthropic, che eccelle in un'ampia gamma di attività, dai dialoghi sofisticati alla generazione di contenuti creativi fino a seguire istruzioni dettagliate. Claude-2 può supportare fino a 100.000 token in ogni prompt, equivalenti a circa 200 pagine di informazioni. Può generare risposte più lunghe rispetto alla versione precedente. Supporta casi d'uso come la risposta a domande, l'estrazione di informazioni, la rimozionePII, la generazione di contenuti, la classificazione a scelta multipla, il gioco di ruolo, il confronto di testo, il riepilogo e le domande e risposte dei documenti con citazione.

Falcon-7B-Instruct

JumpStart modello

Falcon-7B-Instruct ha 7 miliardi di parametri ed è stato ottimizzato su una combinazione di set di dati di chat e istruzioni. È adatto come assistente virtuale e offre le migliori prestazioni quando si seguono le istruzioni o si partecipa a una conversazione. Poiché il modello è stato addestrato su grandi quantità di dati web in lingua inglese, presenta gli stereotipi e i pregiudizi comunemente presenti online e non è adatto per lingue diverse dall'inglese. Rispetto al Falcon-40B-Instruct, Falcon-7B-Instruct è un modello leggermente più piccolo e compatto.

Falcon-40B-Instruct

JumpStart modello

Falcon-40B-Instruct ha 40 miliardi di parametri ed è stato ottimizzato su una combinazione di set di dati di chat e istruzioni. È adatto come assistente virtuale e offre le migliori prestazioni quando si seguono le istruzioni o si partecipa a una conversazione. Poiché il modello è stato addestrato su grandi quantità di dati web in lingua inglese, presenta gli stereotipi e i pregiudizi comunemente presenti online e non è adatto per lingue diverse dall'inglese. Rispetto al Falcon-40B-Instruct, Falcon-7B-Instruct è un modello leggermente più grande e potente.

Jurassic-2 Mid

Modello Amazon Bedrock

Jurassic-2 Mid è un modello di generazione di testo ad alte prestazioni addestrato su un enorme corpus di testo (attuale fino alla metà del 2022). È altamente versatile, generico e in grado di comporre testi simili a quelli umani e risolvere attività complesse come la risposta a domande, la classificazione del testo e molti altri. Questo modello offre funzionalità di istruzione zero-shot, consentendo che sia diretto solo con il linguaggio naturale e senza l'uso di esempi e funziona fino al 30% più velocemente rispetto al suo predecessore, il modello Jurassic-1.

Jurassic-2 Mid è il modello AI21 di medie dimensioni, progettato con cura per trovare il giusto equilibrio tra qualità eccezionale e convenienza.

Jurassic-2 Ultra

Modello Amazon Bedrock

Jurassic-2 Ultra è un modello di generazione di testo ad alte prestazioni addestrato su un enorme corpus di testo (attuale fino alla metà del 2022). È altamente versatile, generico e in grado di comporre testi simili a quelli umani e risolvere attività complesse come la risposta a domande, la classificazione del testo e molti altri. Questo modello offre funzionalità di istruzione zero-shot, consentendo che sia diretto solo con il linguaggio naturale e senza l'uso di esempi e funziona fino al 30% più velocemente rispetto al suo predecessore, il modello Jurassic-1.

Rispetto a Jurassic-2 Mid, Jurassic-2 Ultra è un modello leggermente più grande e potente.

Chiama-2-7b-chat

JumpStart modello

Llama-2-7B-Chat è un modello base di Meta adatto per impegnarsi in conversazioni significative e coerenti, generare nuovi contenuti ed estrarre risposte da note esistenti. Poiché il modello è stato addestrato su grandi quantità di dati Internet in lingua inglese, presenta i pregiudizi e le limitazioni che si riscontrano comunemente online ed è più adatto per le attività in inglese.

Llama-2-13B-Chat

Modello Amazon Bedrock

Llama-2-13B-Chat di Meta è stato perfezionato sui dati conversazionali dopo una formazione iniziale sui dati Internet. È ottimizzato per dialoghi naturali e capacità di chat coinvolgenti, il che lo rende adatto come agente di conversazione. Rispetto alla più piccola Llama-2-7B-Chat, Llama-2-13B-Chat ha quasi il doppio dei parametri, il che le consente di ricordare più contesto e produrre risposte conversazionali più sfumate. Come Llama-2-7B-Chat, Llama-2-13B-Chat è stata addestrata con dati in lingua inglese ed è più adatta per le attività in inglese.

Llama-2-70B-Chat

Modello Amazon Bedrock

Come Llama-2-7B-Chat e Llama-2-13B-Chat, il modello Llama-2-70B-Chat di Meta è ottimizzato per avviare dialoghi naturali e significativi. Con 70 miliardi di parametri, questo modello conversazionale di grandi dimensioni può ricordare un contesto più ampio e produrre risposte altamente coerenti rispetto alle versioni del modello più compatte. Tuttavia, ciò comporta il costo di risposte più lente e di un maggiore fabbisogno di risorse. Llama-2-70B-Chat è stato addestrato su grandi quantità di dati Internet in lingua inglese ed è più adatto per attività in inglese.

Mistral-7B

JumpStart modello

Mistral-7B di Mistral.AI è un eccellente modello di linguaggio generico adatto a un'ampia gamma di attività in linguaggio naturale (NLP) come la generazione di testo, il riepilogo e la risposta a domande. Utilizza l'attenzione con query raggruppata (GQA) che consente velocità di inferenza più elevate, rendendolo paragonabile ai modelli con un numero di parametri due o tre volte superiore. È stato addestrato su una combinazione di dati di testo tra cui libri, siti Web e articoli scientifici in lingua inglese, quindi è più adatto per attività in inglese.

Mistral-7B-Chat

JumpStart modello

Mistral-7B-Chat è un modello conversazionale di Mistral.AI basato su Mistral-7B. Sebbene Mistral-7B sia ideale per NLP attività generiche, Mistral-7B-Chat è stato ulteriormente ottimizzato sui dati conversazionali per ottimizzare le sue capacità di chat naturali e coinvolgenti. Di conseguenza, Mistral-7B-Chat genera risposte più simili a quelle umane e ricorda il contesto delle risposte precedenti. Come Mistral-7B, questo modello è più adatto per attività in lingua inglese.

MPT-7B-Istruisci

JumpStart modello

MPT-7B-Instruct è un modello per istruzioni di lunga durata che seguono le attività e può aiutarvi nella scrittura di attività, tra cui il riepilogo del testo e la risposta a domande, per farvi risparmiare tempo e fatica. Questo modello è stato addestrato su grandi quantità di dati ottimizzati e può affrontare input più grandi, come documenti complessi. Utilizzare questo modello quando si desidera elaborare grandi quantità di testo o che il modello generi risposte lunghe.

I modelli di base di Amazon Bedrock sono attualmente disponibili solo nelle Regioni Stati Uniti orientali (Virginia settentrionale) e Stati Uniti occidentali (Oregon). Inoltre, quando si utilizzano modelli di base di Amazon Bedrock, i costi vengono calcolati in base al volume dei token di input e di output, come specificato da ciascun fornitore di modelli. Per ulteriori informazioni, consulta la pagina Prezzi di Amazon Bedrock. I modelli JumpStart base vengono distribuiti su istanze di SageMaker hosting e all'utente viene addebitata la durata dell'utilizzo in base al tipo di istanza utilizzato. Per ulteriori informazioni sul costo dei diversi tipi di istanze, consulta la sezione Amazon SageMaker Hosting: Real-Time Inference nella pagina dei SageMaker prezzi.

L'interrogazione dei documenti è una funzionalità aggiuntiva che è possibile utilizzare per interrogare e ottenere informazioni dai documenti archiviati negli indici utilizzando Amazon Kendra. Con questa funzionalità, è possibile generare contenuti dal contesto di tali documenti e ricevere risposte specifiche per il caso d'uso aziendale, anziché risposte generiche alle grandi quantità di dati su cui sono stati addestrati i modelli di base. Per ulteriori informazioni sugli indici in Amazon Kendra, consulta Guida per gli sviluppatori di Amazon Kendra.

Se desideri ricevere risposte da uno qualsiasi dei modelli di base personalizzati in base ai tuoi dati e al tuo caso d'uso, puoi perfezionare i modelli di base. Per ulteriori informazioni, consulta Ottimizza i modelli di base.

Se desideri ottenere previsioni da un modello Amazon SageMaker JumpStart Foundation tramite un'applicazione o un sito Web, puoi distribuire il modello su un SageMaker endpoint. SageMaker Gli endpoint ospitano il tuo modello e puoi inviare richieste all'endpoint tramite il codice dell'applicazione per ricevere previsioni dal modello. Per ulteriori informazioni, consulta Distribuzione di modelli su un endpoint.