Pour améliorer la diversité des sorties générées par les Modèles de Langage de Grande Taille (LLM), plusieurs méthodes et techniques peuvent être employées. Les LLM, comme ceux basés sur l’architecture Transformer, ont montré des capacités impressionnantes à générer du texte, mais ils peuvent souvent souffrir de manque de diversité dans les sorties. Voici quelques approches pour aborder cette problématique :
1. Température de l’échantillonnage : Réguler la température de l’échantillonnage est une technique courante pour augmenter la diversité des réponses. La température est un hyperparamètre qui contrôle la probabilité avec laquelle le modèle choisit les mots les moins probables. Une température plus élevée (par exemple, T > 1) augmente l’entropie de la distribution de probabilité, ce qui conduit à des sorties plus diverses mais aussi potentiellement moins cohérentes. À l’inverse, une température plus basse (T < 1) produit des sorties plus cohérentes mais moins variées.
1. Top-k et top-p (nucleus) sampling :
- Top-k sampling : Cette méthode consiste à restreindre la sélection des mots aux k mots les plus probables. Par exemple, si k=50, le modèle ne sélectionnera des mots que parmi les 50 premiers, selon leur probabilité. Cela limite la variété mais peut améliorer la cohérence.
- Top-p sampling : Aussi connu sous le nom de nucleus sampling, cette méthode sélectionne dynamiquement la plus petite liste de mots pour laquelle la somme des probabilités est au moins p (par exemple, p=0.9). Cela équilibre diversité et cohérence en permettant des choix plus variés tout en excluant les options très improbables.
1. Ensembles de modèles (model ensembling) : Utiliser plusieurs modèles et combiner leurs prédictions peut aussi améliorer la diversité. Par exemple, en générant plusieurs sorties provenant de différents modèles ou plusieurs instances du même modèle avec des poids initialisés différemment, puis en sélectionnant ou en combinant ces sorties pour obtenir un texte plus diversifié et créatif.
1. Décalage des contextes (context shifting) : Varier le contexte ou la formulation des invites peut également injecter plus de diversité. Fournir différentes phrases de départ ou modifier légèrement l’énoncé peut entraîner des variations significatives dans les sorties.
1. Formation avec des données diversifiées : Entraîner des LLMs sur un ensemble de données vaste et diversifié peut naturellement accroître la diversité des sorties. Les données doivent inclure une variété de genres, thèmes, styles d’écriture et contextes culturels.
Voici quelques exemples concrets :
- En utilisant une température élevée (par exemple, T=1.5), un modèle langage pourrait passer d’une description formelle d’un événement historique à une narration plus colorée incluant des détails imaginaires ou des perspectives non conventionnelles.
- Le top-p sampling pourrait permettre à un LLM de générer un article sur la biodiversité en variant les exemples d’espèces animales et végétales citées, créant ainsi des articles différents malgré des thèmes similaires.
Ces références constituent la base théorique et pratique pour comprendre les diverses approches à l’amélioration de la diversité dans les générateurs de texte basés sur les LLMs.