Dans la section 2 du chapitre 2, nous avons vu que les modèles de langage génératifs peuvent être finetunés sur des tâches spécifiques telles que le résumé et la réponse aux questions. Cependant, de nos jours, il est beaucoup plus courant de finetuner les modèles de langage sur un large éventail de tâches simultanément ; une méthode connue sous le nom de finetuning supervisé (SFT pour supervised fine-tuning). Ce processus permet aux modèles de devenir plus polyvalents et capables de gérer divers cas d’utilisation. La plupart des grands modèles de langage avec lesquels les individus interagissent sur des plateformes telles que ChatGPT ont été soumis à un SFT afin de les rendre plus utiles et de les aligner sur les préférences humaines. Ce chapitre est divisé en quatre sections :
Les gabarits de chat structurent les interactions entre les utilisateurs et les modèles d’IA, garantissant des réponses cohérentes et appropriées. Ils comprennent des éléments tels que les instructions (prompts en anglais) du système et des balises attribuant les tours de rôle.
Le finetuning supervisé est un processus essentiel pour adapter les modèles de langage pré-entraînés à des tâches spécifiques. Il s’agit d’entraîner le modèle sur un jeu de données spécifique à la tâche avec des exemples étiquetés. Pour un guide détaillé sur le finetuning, y compris les étapes clés et les meilleures pratiques, voir la section sur le finetuning supervisé de la documentation de la bibliothèque TRL.
Low Rank Adaptation (LoRA) est une technique de finetuning ajoutant des matrices de rangs inférieurs aux couches du modèle de langage. Cela permet un finetuning efficace tout en préservant les connaissances pré-entraînées du modèle. L’un des principaux avantages de la méthode LoRA réside dans les économies de mémoire considérables qu’elle offre, ce qui permet de finetuner des modèles de grande taille sur des ressources matérielles limitées.
L’évaluation est une étape cruciale du processus de finetuning. Elle nous permet de mesurer les performances du modèle sur un jeu de données spécifique à une tâche.
SFTTrainer
dans TRL