Dans la section précédente, nous avons appris que chaque agent a besoin de se baser sur un modèle d’IA et que les LLM sont le type de modèle d’IA le plus courant pour cet usage.
Maintenant, nous allons découvrir ce que sont les LLM et comment ils alimentent les agents.
Cette section offre une explication technique concise sur l’utilisation des LLM. Si vous souhaitez approfondir, vous pouvez consulter notre cours gratuit sur le traitement du langage naturel.
Un LLM est un type de modèle d’IA qui excelle dans la compréhension et la génération du langage humain. Ils sont entraînés sur d’immenses quantités de données textuelles, ce qui leur permet d’apprendre des motifs, la structure, et même les nuances du langage. Ces modèles se composent généralement de plusieurs millions de paramètres.
La plupart des LLM actuels sont basés sur l’architecture Transformer, une architecture d’apprentissage profond basée sur le mécanisme d’attention, qui a suscité un intérêt considérable depuis la sortie de BERT de Google en 2018.
Il existe 3 types de transformers :
Encodeurs
Un transformer basé sur un encodeur prend en entrée un texte (ou d’autres données) et produit une représentation dense (aussi appellée embedding) de ce texte.
Décodeurs
Un transformer basé sur un décodeur se concentre sur la génération de nouveaux tokens pour compléter une séquence, un token à la fois.
Seq2Seq (Encodeur–Décodeur)
Un transformer séquence-à-séquence combine un encodeur et un décodeur. L’encodeur traite d’abord la séquence d’entrée pour en extraire une représentation contextuelle, puis le décodeur génère une séquence de sortie.
Bien que les modèles de langage de grande taille existent sous différentes formes, les LLM sont typiquement des modèles basés sur le décodeur avec des milliards de paramètres. Voici quelques-uns des LLM les plus connus :
| Modèle | Fournisseur |
|---|---|
| Deepseek-R1 | DeepSeek |
| GPT4 | OpenAI |
| Llama | Meta (Facebook AI Research) |
| SmolLM | Hugging Face |
| Gemma | |
| Mistral | Mistral |
Le principe fondamental d’un LLM est simple mais très efficace : son objectif est de prédire le token suivant, étant donné une séquence de tokens précédents. Un token est l’unité d’information avec laquelle travaille un LLM. Vous pouvez considérer un token comme s’il s’agissait d’un mot, mais pour des raisons d’efficacité, les LLM n’utilisent pas des mots entiers.
Par exemple, alors que l’anglais compte environ 600 000 mots, un LLM peut avoir un vocabulaire d’environ 32 000 tokens (comme c’est le cas avec Llama 2). La tokenisation fonctionne souvent sur des unités sous-mot pouvant être combinées.
Par exemple, les tokens “intéress” et “ant” peuvent se combiner pour former “intéressant”, ou “é” peut être ajouté pour former “intéressé”.
Vous pouvez expérimenter (en anglais) avec différents tokenizers avec l’application ci-dessous :
Chaque LLM possède des tokens spéciaux propres au modèle. Le LLM utilise ces tokens pour ouvrir et fermer les composants structurés de sa génération. Par exemple, pour indiquer le début ou la fin d’une séquence, d’un message ou d’une réponse. De plus, les instructions (ou prompt) que nous passons au modèle sont également structurées avec des tokens spéciaux. Le plus important d’entre eux est le token de fin de séquence (EOS).
Les formes des tokens spéciaux varient grandement selon les fournisseurs de modèles.
Le tableau ci-dessous illustre cette diversité :
| Modèle | Fournisseur | Token EOS | Fonctionnalité |
|---|---|---|---|
| GPT4 | OpenAI | <|endoftext|> | Fin du texte du message |
| Llama 3 | Meta (Facebook AI Research) | <|eot_id|> | Fin de la séquence |
| Deepseek-R1 | DeepSeek | <|end_of_sentence|> | Fin du texte du message |
| SmolLM2 | Hugging Face | <|im_end|> | Fin de l'instruction ou du message |
| Gemma | <end_of_turn> | Fin du tour de conversation |
Nous ne vous demandons pas de mémoriser ces tokens spéciaux mais il est important d’apprécier leur diversité et le rôle qu’ils jouent dans la génération de texte par les LLM. Si vous souhaitez en savoir plus sur les tokens spéciaux, vous pouvez consulter la configuration du modèle dans son dépôt sur le 🤗 Hub. Par exemple, vous pouvez trouver les tokens spéciaux du modèle SmolLM2 dans le fichier tokenizer_config.json.
On dit que les LLM sont autoregressifs, ce qui signifie que la sortie d’une passe devient l’entrée de la suivante. Cette boucle continue jusqu’à ce que le modèle prédise que le token suivant est le token EOS, moment où le modèle peut s’arrêter.
En d’autres termes, un LLM décodera le texte jusqu’à atteindre le token EOS. Mais que se passe-t-il lors d’une boucle de décodage unique ?
Bien que le processus complet puisse être assez technique dans le cadre de l’apprentissage des agents, voici un aperçu succinct :
En se basant sur ces scores, plusieurs stratégies existent pour sélectionner les tokens afin de compléter la phrase.
Vous pouvez interagir vous-même avec le processus de décodage de SmolLM2 dans ce Space (n’oubliez pas, il décode jusqu’à atteindre un token EOS qui est <|im_end|> pour ce modèle) :
Si vous souhaitez en savoir plus sur le décodage, vous pouvez jeter un œil au cours de NLP.
Un aspect clé de l’architecture transformer est l’attention. Lors de la prédiction du mot suivant, tous les mots d’une phrase ne sont pas également importants ; des mots comme « France » et « capitale » dans la phrase « La capitale de la France est … » portent le plus de sens.
Ce processus d’identification des mots les plus pertinents pour prédire le token suivant s’est révélé incroyablement efficace.
Bien que le principe de base des LLM — prédire le token suivant — soit resté constant depuis GPT-2, des avancées significatives ont été réalisées lors de la mise à l’échelle des réseaux de neurones et dans le fonctionnement du mécanisme d’attention pour des séquences toujours plus longues.
Si vous avez déjà interagi avec des LLM, vous connaissez probablement le terme longueur de contexte, qui fait référence au nombre maximum de tokens que le LLM peut traiter ainsi qu’à la durée d’attention maximale dont il dispose.
Étant donné que la seule tâche d’un LLM est de prédire le token suivant en examinant chaque token d’entrée, et de choisir ceux qui sont « importants », la formulation de votre séquence d’entrée revêt une importance capitale.
La séquence d’entrée que vous fournissez à un LLM est appelée prompt. Une conception minutieuse du prompt facilite l’orientation de la génération du LLM vers la sortie souhaitée.
Les LLM sont entraînés sur de grands ensembles de données textuelles, où ils apprennent à prédire le mot suivant dans une séquence grâce à un objectif d’apprentissage autosupervisé ou de modélisation du langage masqué.
Grâce à cet apprentissage autosupervisé, le modèle apprend la structure de la langue et les motifs sous-jacents du texte, ce qui lui permet de généraliser à des données inédites.
Après ce pré-entraînement initial, les LLM peuvent être spécialisé via un apprentissage supervisé pour réaliser des tâches spécifiques. Par exemple, certains modèles sont entraînés pour des structures conversationnelles ou l’utilisation d’outils, tandis que d’autres se concentrent sur la classification ou la génération de code.
Vous avez deux options principales :
Exécuter localement (si vous disposez du matériel nécessaire).
Utiliser un service Cloud/API (par exemple, via l’API d’inférence sans serveur d’Hugging Face).
Tout au long de ce cours, nous utiliserons principalement des modèles via des API du Hub d’Hugging Face. Par la suite, nous explorerons comment exécuter ces modèles localement sur votre matériel.
Les LLM sont un composant clé des agents, fournissant la base pour comprendre et générer le langage humain.
Ils peuvent interpréter les instructions de l’utilisateur, maintenir le contexte dans les conversations, définir un plan et décider quels outils utiliser.
Nous explorerons ces étapes en détail dans cette Unité, mais pour l’instant, ce qu’il faut retenir, c’est que le LLM est le cerveau de l’agent.
Cela fait beaucoup d’informations ! Nous avons couvert les bases de ce que sont les LLM, comment ils fonctionnent, et leur rôle pour les agents.
Si vous souhaitez plonger encore plus profondément dans le monde fascinant des modèles de langage et du traitement du langage naturel, n’hésitez pas à consulter notre cours gratuit sur le NLP.
Maintenant que nous comprenons le fonctionnement des LLM, il est temps de voir comment ils structurent leurs générations dans un contexte conversationnel.
Pour exécuter le notebook, vous avez besoin d’un token d’authentication Hugging Face que vous pouvez obtenir sur la page https://hf.co/settings/tokens.
Vous devez également demander l’accès aux modèles Llama 3.2 de Meta.
< > Update on GitHub