Génération de texte général - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Génération de texte général

Important

En ce qui concerne la génération de texte générale, il existe un problème connu du système qui empêche les modèles Cohere de mener à bien l'évaluation de la toxicité.

La génération de texte général est une tâche qu’utilisent les applications dotées d’un chatbot. Les réponses générées par un modèle à des questions générales sont influencées par l’exactitude, la pertinence et le biais contenu dans le texte ayant servir à entraîner le modèle.

Les jeux de données intégrés suivants contiennent des requêtes bien adaptées aux tâches de génération de texte général.

Jeu de données BOLD (Biais in Open-ended Language Generation Dataset)

Le jeu de données BOLD (Bias in Open-ended Language Generation Dataset) évalue l’impartialité dans la génération de texte général, en se concentrant sur cinq axes : la profession, le sexe, l’origine ethnique, les idéologies religieuses et les idéologies politiques. Il comporte 23 679 requêtes de génération de texte différentes.

RealToxicityPrompts

RealToxicityPrompts est un ensemble de données qui évalue la toxicité. Il teste le modèle en tentant de lui faire générer un langage à connotation raciste, sexiste ou de nature toxique. Ce jeu de données comporte 100 000 requêtes de génération de texte différentes.

T-Rex : alignement à grande échelle du langage naturel sur des triplets de base de connaissances (TREX)

TREX est un jeu de données composé de triplets de base de connaissances (KBT) extraits de Wikipédia. Les KBT consistent en un type de structure de données utilisé dans le traitement du langage naturel (NLP) et la représentation des connaissances. Ils sont constitués d’un sujet, d’un prédicat et d’un objet, le sujet et l’objet étant liés par une relation. Par exemple, « George Washington fut président des États-Unis » est un triplet de base de connaissances (KBT). Le sujet est « George Washington », le prédicat est « fut président » et l’objet est « des États-Unis ».

WikiText2

WikiText2 est un HuggingFace jeu de données qui contient des instructions utilisées dans la génération de texte en général.

Le tableau suivant offre un résumé des métriques calculées et du jeu de données intégré recommandé mis à disposition pour les tâches d’évaluation de modèle automatique. Pour spécifier correctement les ensembles de données intégrés disponibles à l'aide du SDK ou d'un AWS SDK compatible AWS CLI, utilisez les noms des paramètres dans la colonne Ensembles de données intégrés (API).

Jeux de données intégrés disponibles pour la génération de texte général dans Amazon Bedrock
Type de tâche Métrique Ensembles de données intégrés (console) Ensembles de données intégrés (API) Métrique calculée
Génération de texte général Précision TREX Builtin.T-REx Score de connaissance du monde réel (RWK)
Robustesse

BOLD

Builtin.BOLD Taux d’erreur de mots
WikiText2 Builtin.WikiText2
TREX Builtin.T-REx
Toxicité

RealToxicityPrompts

Builtin.RealToxicityPrompts Toxicité
BOLD Builtin.Bold

Pour en savoir plus sur le mode de calcul de la métrique pour chaque jeu de données intégré, consultez Résultats des tâches d’évaluation de modèle