Les gabarits de chat sont essentiels pour structurer les interactions entre les modèles de langage et les utilisateurs. Que vous construisiez un simple robot conversationnel ou un agent complexe, il est essentiel de comprendre comment formater correctement vos conversations pour obtenir les meilleurs résultats en utilisant votre modèle. Dans ce guide, nous allons explorer ce que sont les gabarits de chat, pourquoi ils sont importants et comment les utiliser efficacement.
Un modèle de base est entraîné sur des données textuelles brutes pour prédire le prochain token, tandis qu’un modèle instruit est finetuné spécifiquement pour suivre des instructions et converser. Par exemple, SmolLM2-135M
est un modèle de base, tandis que SmolLM2-135M-Instruct
est sa variante finetunée sur des instructions.
Les modèles instruits sont entraînés à suivre une structure conversationnelle spécifique, ce qui les rend plus adaptés aux applications de chatbot. De plus, les modèles d’instruction peuvent gérer des interactions complexes (y compris l’utilisation d’outils), les entrées multimodales et l’appel de fonctions.
Pour qu’un modèle de base se comporte comme un modèle instruit, nous devons formater nos instructions d’une manière cohérente que le modèle peut comprendre. C’est là qu’interviennent les gabarits de chat. ChatML (pour Chat Markup Language) est un de ces gabarits qui structure les conversations avec des indicateurs de rôle clairs (système, utilisateur, assistant). Vous pouvez trouver un guide sur ChatML ici.
Avant de se plonger dans des implémentations spécifiques, il est important de comprendre le formatage des conversations attendu par différents modèles. Explorons quelques gabarits courants à l’aide d’un simple exemple de conversation.
Nous utiliserons la structure de conversation suivante pour tous les exemples :
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"},
{"role": "assistant", "content": "Hi! How can I help you today?"},
{"role": "user", "content": "What's the weather?"},
]
Voici le gabarit ChatML utilisé dans des modèles tels que SmolLM2 et les Qwen 2 :
<|im_start|>system
You are a helpful assistant.<|im_end|>
<|im_start|>user
Hello!<|im_end|>
<|im_start|>assistant
Hi! How can I help you today?<|im_end|>
<|im_start|>user
What's the weather?<|im_start|>assistant
Voici le format de gabarits utilisé par Mistral :
<s>[INST] You are a helpful assistant. [/INST]
Hi! How can I help you today?</s>
[INST] Hello! [/INST]
Les principales différences entre ces formats sont les suivantes :
Gestion du message système :
<<SYS>>
<|system|>
avec des fins </s>
system
explicite avec les balises <|im_start|>
SYSTEM:
Délimitation des messages:
[INST]
et [/INST]
<|system|>
, <|user|>
, <|assistant|>
) avec </s>
comme fin[INST]
et [/INST]
avec <s>
utilise </s>
Tokens spéciaux:
<s>
et </s>
pour les limites de la conversation</s>
pour terminer chaque message<s>
et </s>
pour les limites des toursComprendre ces différences est essentiel pour travailler avec différents modèles. Voyons comment la bibliothèque 🤗 Transformers nous aide à gérer ces variations automatiquement :
from transformers import AutoTokenizer
# Cela utilisera automatiquement des gabarits différents
mistral_tokenizer = AutoTokenizer.from_pretrained("mistralai/Mistral-7B-Instruct-v0.1")
qwen_tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B-Chat")
smol_tokenizer = AutoTokenizer.from_pretrained("HuggingFaceTB/SmolLM2-135M-Instruct")
messages = [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello!"},
]
# Chaque modèle sera formaté en fonction de son gabarit
mistral_chat = mistral_tokenizer.apply_chat_template(messages, tokenize=False)
qwen_chat = qwen_tokenizer.apply_chat_template(messages, tokenize=False)
smol_chat = smol_tokenizer.apply_chat_template(messages, tokenize=False)
Gabarits ChatML de Qwen 2 et SmolLM2 :
<|im_start|>system
You are a helpful assistant.<|im_end|>
<|im_start|>user
Hello!<|im_end|>
<|im_start|>assistant
Hi! How can I help you today?<|im_end|>
<|im_start|>user
What's the weather?<|im_start|>assistant
Gabarit de Mistral :
<s>[INST] You are a helpful assistant. [/INST]
Hi! How can I help you today?</s>
[INST] Hello! [/INST]
Les gabarits de chat peuvent gérer des scénarios plus complexes que les simples interactions conversationnelles, notamment :
Pour les conversations multimodales, les gabarits peuvent inclure des références d’images ou des images codées en base64 :
messages = [
{
"role": "system",
"content": "You are a helpful vision assistant that can analyze images.",
},
{
"role": "user",
"content": [
{"type": "text", "text": "What's in this image?"},
{"type": "image", "image_url": "https://example.com/image.jpg"},
],
},
]
Voici un exemple de gabarits de chat avec l’utilisation d’un outil :
messages = [
{
"role": "system",
"content": "You are an AI assistant that can use tools. Available tools: calculator, weather_api",
},
{"role": "user", "content": "What's 123 * 456 and is it raining in Paris?"},
{
"role": "assistant",
"content": "Let me help you with that.",
"tool_calls": [
{
"tool": "calculator",
"parameters": {"operation": "multiply", "x": 123, "y": 456},
},
{"tool": "weather_api", "parameters": {"city": "Paris", "country": "France"}},
],
},
{"role": "tool", "tool_name": "calculator", "content": "56088"},
{
"role": "tool",
"tool_name": "weather_api",
"content": "{'condition': 'rain', 'temperature': 15}",
},
]
Lorsque vous travaillez avec des gabarits de chat, respectez les pratiques suivantes :
Entraînons-nous à mettre en œuvre des gabarits de chat à l’aide d’un exemple concret.
from datasets import load_dataset
dataset = load_dataset("HuggingFaceTB/smoltalk")
def convert_to_chatml(example):
return {
"messages": [
{"role": "user", "content": example["input"]},
{"role": "assistant", "content": example["output"]},
]
}
N’oubliez pas de vérifier que le format de sortie correspond aux exigences du modèle choisi !