Le finetuning supervisé (SFT) est un processus principalement utilisé pour adapter des modèles de langage pré-entraînés afin qu’ils suivent des instructions, engagent un dialogue et utilisent des formats de sortie spécifiques. Alors que les modèles pré-entraînés ont des capacités générales impressionnantes, le SFT permet de les transformer en modèles de type assistant qui peuvent mieux comprendre et répondre aux instructions de l’utilisateur. Pour ce faire, il faut généralement entraîner sur des jeux de données de conversations et d’instructions écrites par des humains.
Cette page fournit un guide étape par étape pour finetuner le modèle deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
en utilisant le SFTTrainer
. En suivant ces étapes, vous pouvez adapter le modèle pour effectuer des tâches spécifiques plus efficacement.
Avant de se lancer dans son implémentation, il est important de comprendre quand le SFT est le bon choix pour votre projet. Dans un premier temps, vous devez vous demander si l’utilisation d’un modèle existant instruit avec des instructions bien conçues suffirait pour votre cas d’utilisation. Le SFT implique des ressources de calcul et des efforts d’ingénierie considérables, et ne doit donc être envisagé que lorsque les instructions des modèles existants s’avèrent insuffisantes.
Si vous déterminez que le SFT est nécessaire, la décision de procéder dépend de deux facteurs principaux :
Le SFT permet un contrôle précis de la structure de sortie du modèle. Ceci est particulièrement utile lorsque vous avez besoin que le modèle :
Lorsque l’on travaille dans des domaines spécialisés, le SFT permet d’aligner le modèle sur les impératifs propres au domaine en :
Cette évaluation vous aidera à déterminer si le SFT est la bonne approche pour vos besoins.
Le processus de finetuning supervisé nécessite un jeu de données spécifique à la tâche, structuré avec des paires entrée-sortie. Chaque paire doit comprendre
La qualité de vos données d’entraînement est cruciale pour un finetuning réussi. Voyons comment préparer et valider votre jeu de données :
La configuration de SFTTrainer
nécessite la prise en compte de plusieurs paramètres qui contrôlent le processus d`entrainement. Examinons chaque paramètre et son utilité :
Paramètres concernant la durée de l’entraînement:
num_train_epochs
: Contrôle la durée totale de l’entraînementmax_steps
: Alternative aux époques, définit le nombre maximum d’étapes d’entraînement.Paramètres concernant la taille des batchs:
per_device_train_batch_size
: Détermine l’utilisation de la mémoire et la stabilité de l’entraînementgradient_accumulation_steps
: Permet d’augmenter la taille des batchsParamètres concernant le taux d’apprentissage:
learning_rate
: Contrôle les mises à jour de la taille des poidswarmup_ratio
: Partie de l’entraînement utilisée pour l’échauffement du taux d’apprentissageParamètres de contrôle:
logging_steps
: Fréquence de l’enregistrement des métriqueseval_steps
: Fréquence d’évaluation sur les données de validationsave_steps
: Fréquence des sauvegardes des points de contrôle du modèleMaintenant que nous comprenons les composants clés, mettons en œuvre l’entraînement avec une validation et un suivi appropriés. Nous allons utiliser la classe SFTTrainer
de la bibliothèque Transformers Reinforcement Learning (TRL), qui est construite au-dessus de la bibliothèque 🤗 Transformers. Voici un exemple complet utilisant la bibliothèque TRL :
from datasets import load_dataset
from trl import SFTConfig, SFTTrainer
import torch
# Définir l'appareil
device = "cuda" if torch.cuda.is_available() else "cpu"
# Charger le jeu de données
dataset = load_dataset("HuggingFaceTB/smoltalk", "all")
# Configurer les arguments de la classe Trainer
training_args = SFTConfig(
output_dir="./sft_output",
max_steps=1000,
per_device_train_batch_size=4,
learning_rate=5e-5,
logging_steps=10,
save_steps=100,
eval_strategy="steps",
eval_steps=50,
)
# Initialisation de la classe Trainer
trainer = SFTTrainer(
model=model,
args=training_args,
train_dataset=dataset["train"],
eval_dataset=dataset["test"],
processing_class=tokenizer,
)
# Débuter l'entraînement
trainer.train()
SFTTrainer supporte l’empaquetage des exemples afin d’optimiser l’efficacité de l’entraînement. Cette fonctionnalité permet de regrouper plusieurs exemples courts dans la même séquence d’entrée, maximisant ainsi l’utilisation du GPU pendant l’entraînement. Pour activer cette fonctionnalité, il suffit de mettre packing=True
dans le constructeur SFTConfig. Lorsque vous utilisez des jeux de données avec max_steps
, soyez conscient que vous pouvez entraîner pendant plus d’époques que prévu en fonction de votre configuration d’empaquetage. Vous pouvez personnaliser la façon dont les exemples sont combinés en utilisant une fonction de formatage. C’est particulièrement utile lorsque vous travaillez avec des jeux de données qui ont plusieurs champs comme les paires question-réponse. Pour les jeux de données d’évaluation, vous pouvez désactiver l’empaquetage en réglant eval_packing=False
dans SFTConfig. Voici un exemple basique de personnalisation de la configuration d’empaquetage :
# Configuration
training_args = SFTConfig(packing=True)
trainer = SFTTrainer(model=model, train_dataset=dataset, args=training_args)
trainer.train()
Lorsque le jeu de données est rempli de plusieurs champs, vous pouvez définir une fonction de formatage personnalisée pour combiner les champs en une seule séquence d’entrée. Cette fonction doit prendre une liste d’exemples et renvoyer un dictionnaire contenant la séquence d’entrée condensée. Voici un exemple de fonction de formatage personnalisée :
def formatting_func(example):
text = f"### Question: {example['question']}\n ### Answer: {example['answer']}"
return text
training_args = SFTConfig(packing=True)
trainer = SFTTrainer(
"facebook/opt-350m",
train_dataset=dataset,
args=training_args,
formatting_func=formatting_func,
)
Un suivi efficace est essentiel pour un finetuning réussi. Voyons ce qu’il faut surveiller pendant l’entraînement :
La fonction de perte de l’entraînement suit généralement trois phases distinctes :
Un suivi efficace implique le traquage de paramètres quantitatifs et l’évaluation de paramètres qualitatifs. Les mesures disponibles sont les suivantes :
Au fur et à mesure que l’entraînement progresse, les courbes des pertes devraientt se stabiliser progressivement. L’indicateur clé d’un entraînement sain est un faible écart entre la perte d’entraînement et la perte de validation, ce qui suggère que le modèle apprend des schémas généralisables plutôt que de mémoriser des exemples spécifiques. Les valeurs de perte absolues varient en fonction de la tâche et de le jeu de données.
Le graphique ci-dessus illustre une progression typique de l’entraînement. Remarquez que les pertes d’entraînement et de validation diminuent fortement au début, puis se stabilisent progressivement. Ce schéma indique que le modèle apprend efficacement tout en conservant sa capacité de généralisation.
Plusieurs schémas dans les courbes de perte peuvent indiquer des problèmes potentiels. Nous illustrons ci-dessous les signes d’alerte courants et les solutions que nous pouvons envisager.
Si la perte de validation diminue à un rythme nettement plus lent que la perte d’entraînement, votre modèle est probablement surentraîné par rapport aux données d’entraînement. Envisagez de :
Si la perte ne montre pas d’amélioration significative, le modèle pourrait :
Des valeurs de perte extrêmement faibles peuvent suggérer une mémorisation plutôt qu’un apprentissage. Ceci est particulièrement inquiétant si
Il convient de noter que l’interprétation des valeurs de la perte que nous décrivons ici vise le cas le plus courant, et qu’en fait, elles peuvent se comporter de diverses manières en fonction du modèle, du jeu de données, des paramètres d’entraînement, etc. Si vous souhaitez en savoir plus sur les schémas décrits, nous vous invitons à consulter cet article de blog de l’équipe de Fast AI.
Dans la section 11.4, nous apprendrons à évaluer le modèle à l’aide de jeux de données d’évaluation. Pour l’instant, nous nous concentrerons sur l’évaluation qualitative du modèle.
Après avoir terminé le SFT, envisagez les actions de suivi suivantes :
Vous avez appris à finetuner des modèles à l’aide du SFT ! Pour poursuivre votre apprentissage :