Aximande commited on
Commit
66e1edc
·
verified ·
1 Parent(s): 7cb82bd

fix - alexlav : ajout du manifesto et update grpahique

Browse files
Files changed (1) hide show
  1. src/display/about.py +43 -17
src/display/about.py CHANGED
@@ -15,7 +15,7 @@ class Tasks(Enum):
15
  task1 = Task("GPQA", "metric_name", "GPQA")
16
  task2 = Task("IFEval", "metric_name", "IFEval")
17
  task3 = Task("MUSR", "metric_name", "MUSR")
18
- task4 = Task("MATH Lvl 5", "metric_name", "MATH Lvl 5")
19
  task5 = Task("MMMLU-fr", "metric_name", "MMMLU-fr")
20
 
21
 
@@ -24,16 +24,40 @@ TITLE = """<h1 align="center" id="space-title"> OpenLLM French leaderboard 🇫
24
 
25
  # What does your leaderboard evaluate?
26
  INTRODUCTION_TEXT = """
27
- Chère communauté, vous voici sur le Leaderboard, une plateforme open-source dédiée à l'évaluation des grands modèles de langage (LLM) en français. Notre mission est de mettre en lumière spécifiquement les modèles qui excellent en langue française, en fournissant des benchmarks et standards qui permettent de donner le "La" sur les avancées techniques dans les LLM en français.
28
 
29
- Si vous êtes développeur ou développeuse, nous vous invitons à soumettre votre modèle pour évaluation, et à contribuer ainsi à l'avancement de la communauté francophone en IA générative.
 
30
 
31
- Nos benchmarks soigneusement sélectionnés par nos soins sont disponibles [ici](https://huggingface.co/collections/le-leadboard/openllmfrenchleadboard-jeu-de-donnees-67126437539a23c65554fd88). Les évaluations sont générées et vérifiées à la fois par GPT-4 et par annotation humaine, garantissant ainsi la précision et la pertinence de nos résultats.
32
 
33
- 🚀 Soumettez votre Modèle 🚀
34
 
35
- Vous avez développé un LLM en français ? Soumettez-le pour évaluation ! Bien que le processus soit actuellement manuel, nous travaillons à son automatisation avec le soutien de la communauté huggingface. Utilisez le 'Eleuther AI Language Model Evaluation Harness' pour une analyse approfondie des performances de votre modèle.
36
- C'est une tâche immense, et nous appelons à toutes les forces vives en France et à l'étranger, et surtout les esprits de la communauté à nous aider dans cette quête.
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
37
  """
38
 
39
 
@@ -41,22 +65,24 @@ C'est une tâche immense, et nous appelons à toutes les forces vives en France
41
 
42
  LLM_BENCHMARKS_TEXT = f"""
43
  ## Comment cela fonctionne
 
44
  ## Reproductibilité
45
- Nous utilisons une version adaptée de LM Evaluation Harness [github](https://github.com/EleutherAI/lm-evaluation-harness) pour garantir que les résultats de notre classement sont à la fois fiables et reproductibles.
 
46
  ## Comment reproduire les résultats :
47
- 1) Configurer le dépôt : Clonez le "lm-evaluation-harness-multilingual" depuis [lm-evaluation-harness-multilingual](https://github.com/mohamedalhajjar/lm-evaluation-harness-multilingual) et suivez les instructions d'installation.
48
- 2) Effectuer les évaluations : Pour obtenir les mêmes résultats que ceux du classement (certains tests peuvent montrer de petites variations), utilisez la commande suivante, en l'ajustant à votre modèle. Par exemple, avec le modèle Trendyol :
49
  ```python
50
- lm_eval --model vllm --model_args="pretrained=OpenLLM-France/Claire-7B-FR-Instruct-0.1,tensor_parallel_size=1,dtype=auto,gpu_memory_utilization=0.8,data_parallel_size=4" --tasks=leaderboard-fr --batch_size=auto
51
  ```
52
- ## Remarques :
53
- - J'utilise actuellement "vllm", qui pourrait différer légèrement par rapport à LM Evaluation Harness.
54
- - Tous les tests utilisent exactement la même configuration que celle du classement original OpenLLMLeaderboard.
55
  Les tâches et les paramètres de few-shot sont :
56
  - BBH : 3-shot, *Big-Bench-Hard* (`acc_norm`)
57
  - IFEval : 0-shot, *Instruction Following Evaluation* (inst_level_strict_acc,none et prompt_level_strict_acc,none)
58
- - MATH : 4-shot, *LVL 5* (exact_match,none)
59
- - MMLU : 5-shot, (average of all the results `acc`)
60
  - MuSR : 5-shot, *MuSR* (`acc_norm`)
61
  - GSM8k : 5-shot, *gsm8k* (`acc`)
62
  """
@@ -73,7 +99,7 @@ tokenizer = AutoTokenizer.from_pretrained("nom de votre modèle", revision=revis
73
  ```
74
  Si ce test échoue, suivez les messages d'erreur pour déboguer votre modèle avant de le soumettre. Il est probable que votre modèle ait été mal téléversé.
75
  Note : assurez-vous que votre modèle est public !
76
- Note : si votre modèle nécessite `use_remote_code=True`, nous ne prenons pas encore en charge cette option, mais nous travaillons à l'ajouter, restez à l'écoute !
77
  ### 2) Convertissez les poids de votre modèle en [safetensors](https://huggingface.co/docs/safetensors/index)
78
  Il s'agit d'un nouveau format pour stocker les poids qui est plus sûr et plus rapide à charger et à utiliser. Cela nous permettra également d'ajouter le nombre de paramètres de votre modèle à la `Vue Étendue` !
79
  ### 3) Assurez-vous que votre modèle dispose d'une licence ouverte !
 
15
  task1 = Task("GPQA", "metric_name", "GPQA")
16
  task2 = Task("IFEval", "metric_name", "IFEval")
17
  task3 = Task("MUSR", "metric_name", "MUSR")
18
+ task4 = Task("GSM8K", "metric_name", "GSM8K")
19
  task5 = Task("MMMLU-fr", "metric_name", "MMMLU-fr")
20
 
21
 
 
24
 
25
  # What does your leaderboard evaluate?
26
  INTRODUCTION_TEXT = """
27
+ # Manifeste du Leaderboard 🇫🇷
28
 
29
+ **Création d'une plateforme d'évaluation pour les modèles de langage (LLM) francophones.**
30
+ Chère communauté, vous voici sur le Leaderboard, un classement open-source dédiée à l'évaluation des grands modèles de langage (LLM) en français. Notre mission est de mettre en lumière spécifiquement les modèles qui excellent en langue française, en fournissant des benchmarks et standards qui permettent de donner le "La" sur les avancées techniques dans les LLM en français.
31
 
32
+ Nous sommes convaincus que les LLM sont une technologie de pointe représentent l'avenir de la compréhension et de la génération du langage. Ces modèles constituent non seulement des perpesctives de productivité pour nos entreprises, mais auront également un impact profond sur la vie de nos concitoyens et dans l'héritage numérique de notre langue. C'est pourquoi nous croyons fermement qu'il est crucial de promouvoir la souveraineté, la transparence et l'ouverture dans ce domaine stratégique des LLM dits multi-langue. La première étape est donc la mise en place d'une évaluation systématique et systémique des modèles actuels et futurs.
33
 
34
+ ## Notre Mission
35
 
36
+ Le Leaderboard est de cette conviction. Notre objectif est de créer une plateforme d'évaluation rigoureuse et transparente pour les LLM francophones, permettant de :
37
+
38
+ 1. Mettre en lumière les modèles qui excellent en langue française
39
+ 2. Fournir des benchmarks et des standards qui stimulent les avancées techniques
40
+ 3. Promouvoir la création de modèles souverains et open source
41
+
42
+ ## Appel à la Communauté
43
+
44
+ Nous lançons un appel clair à tous les acteurs francophones - chercheurs, développeurs, linguistes, entreprises et institutions - qui s'intéressent aux LLM, les testent, les expérimentent et souhaitent contribuer à leur évolution.
45
+
46
+ 🚀 **Soumettez votre LLM français**
47
+ Vous avez développé un LLM en français ? Soumettez-le pour évaluation ! Bien que le processus soit actuellement manuel, nous travaillons à son automatisation avec le soutien de la communauté Hugging Face.
48
+
49
+ 📊 **Nos Benchmarks**
50
+ Découvrez nos benchmarks soigneusement sélectionnés [ici](https://huggingface.co/collections/le-leadboard/openllmfrenchleadboard-jeu-de-donnees-67126437539a23c65554fd88). Les évaluations sont générées et vérifiées à la fois par GPT-4 et par annotation humaine, garantissant ainsi la précision et la pertinence de nos résultats.
51
+
52
+ ## Un Enjeu Stratégique
53
+
54
+ Dans l'écosystème mondial de l'IA archi dominé par la langue anglaise et quelques acteurs américains ou chinois, la voix francophone mérite d'être entendue et amplifiée. En donnant un aperçu honnête des LLMs qui capturent la richesse et les nuances de notre langue, nous nous ouvrons de nouvelles perspectives d'indépendance et de souverraineté dans ce nouveau paradigme. Cette initiative va au-delà de la simple création d'outils ; elle représente une opportunité de façonner un avenir numérique qui reflète notre identité culturelle. C'est un appel à l'action pour que chaque chercheur, développeur et entrepreneur francophone contribue à cette mosaïque technologique. Ensemble, nous pouvons créer des solutions d'IA qui non seulement parlent notre langue, mais comprennent aussi notre contexte, nos valeurs et nos aspirations collectives.
55
+
56
+ **Il est temps d'unir nos efforts et nos expériences pour se doter d'une IA de confiance et renforcer notre autonomie stratégique dans le domaine des LLM.**
57
+
58
+ La tâche est immense. L'IA française de demain se construit dès aujourd'hui, et vous en êtes les architectes !
59
+
60
+ Pour participer, soumettez votre modèle dans la section "🚀 submit here"
61
  """
62
 
63
 
 
65
 
66
  LLM_BENCHMARKS_TEXT = f"""
67
  ## Comment cela fonctionne
68
+
69
  ## Reproductibilité
70
+ Nous utilisons une version adaptée de LM Evaluation Harness [github original](https://github.com/EleutherAI/lm-evaluation-harness) pour garantir que les résultats de notre classement sont à la fois fiables et reproductibles.
71
+
72
  ## Comment reproduire les résultats :
73
+ 1) Configurer le dépôt : Clonez notre repo github "lm-evaluation-harness-multilingual" - [code open-source] (https://github.com/mohamedalhajjar/lm-evaluation-harness-multilingual) et suivez les instructions d'installation.
74
+ 2) Effectuer les évaluations : Pour obtenir les mêmes résultats que ceux du classement (certains tests peuvent montrer de petites variations), utilisez la commande suivante, en l'ajustant à votre modèle. Par exemple, avec le modèle Claire du Consortium OpenLLM France :
75
  ```python
76
+ lm_eval --model vllm --model_args="pretrained=OpenLLM-France/Claire-7B-FR-Instruct-0.1,tensor_parallel_size=1,dtype=auto,gpu_memory_utilization=0.8,data_parallel_size=4" --tasks=leaderboard-fr --batch_size=auto --output_path=/home/claire
77
  ```
78
+ ## Remarques techniques :
79
+ - Nous utilisons actuellement "vllm", qui pourrait différer légèrement par rapport au résultat que vous pourriez avoir avec les standards de LM Evaluation Harness. vLLM est une bibliothèque open source conçue pour optimiser l'inférence de LLM, ce qui est adapté à notre cas d'usage et philosophie.
80
+ - Tous les tests utilisent exactement la même configuration que celle du classement original [OpenLLMLeaderboard](https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard).
81
  Les tâches et les paramètres de few-shot sont :
82
  - BBH : 3-shot, *Big-Bench-Hard* (`acc_norm`)
83
  - IFEval : 0-shot, *Instruction Following Evaluation* (inst_level_strict_acc,none et prompt_level_strict_acc,none)
84
+ - GPQA : 0-shot, *Generalized Purpose Question Answering* (`acc_norm`)
85
+ - MMLU : 5-shot, *hendrycksTest-abstract_algebra,hendrycksTest-anatomy,hendrycksTest-astronomy,hendrycksTest-business_ethics,hendrycksTest-clinical_knowledge,hendrycksTest-college_biology,hendrycksTest-college_chemistry,hendrycksTest-college_computer_science,hendrycksTest-college_mathematics,hendrycksTest-college_medicine,hendrycksTest-college_physics,hendrycksTest-computer_security,hendrycksTest-conceptual_physics,hendrycksTest-econometrics,hendrycksTest-electrical_engineering,hendrycksTest-elementary_mathematics,hendrycksTest-formal_logic,hendrycksTest-global_facts,hendrycksTest-high_school_biology,hendrycksTest-high_school_chemistry,hendrycksTest-high_school_computer_science,hendrycksTest-high_school_european_history,hendrycksTest-high_school_geography,hendrycksTest-high_school_government_and_politics,hendrycksTest-high_school_macroeconomics,hendrycksTest-high_school_mathematics,hendrycksTest-high_school_microeconomics,hendrycksTest-high_school_physics,hendrycksTest-high_school_psychology,hendrycksTest-high_school_statistics,hendrycksTest-high_school_us_history,hendrycksTest-high_school_world_history,hendrycksTest-human_aging,hendrycksTest-human_sexuality,hendrycksTest-international_law,hendrycksTest-jurisprudence,hendrycksTest-logical_fallacies,hendrycksTest-machine_learning,hendrycksTest-management,hendrycksTest-marketing,hendrycksTest-medical_genetics,hendrycksTest-miscellaneous,hendrycksTest-moral_disputes,hendrycksTest-moral_scenarios,hendrycksTest-nutrition,hendrycksTest-philosophy,hendrycksTest-prehistory,hendrycksTest-professional_accounting,hendrycksTest-professional_law,hendrycksTest-professional_medicine,hendrycksTest-professional_psychology,hendrycksTest-public_relations,hendrycksTest-security_studies,hendrycksTest-sociology,hendrycksTest-us_foreign_policy,hendrycksTest-virology,hendrycksTest-world_religions* (average of all the results `acc`)
86
  - MuSR : 5-shot, *MuSR* (`acc_norm`)
87
  - GSM8k : 5-shot, *gsm8k* (`acc`)
88
  """
 
99
  ```
100
  Si ce test échoue, suivez les messages d'erreur pour déboguer votre modèle avant de le soumettre. Il est probable que votre modèle ait été mal téléversé.
101
  Note : assurez-vous que votre modèle est public !
102
+ Note : si votre modèle nécessite `use_remote_code=True`, nous ne prenons pas encore en charge cette option, mais nous travaillons à l'ajouter grâce au soutien de la communauté.
103
  ### 2) Convertissez les poids de votre modèle en [safetensors](https://huggingface.co/docs/safetensors/index)
104
  Il s'agit d'un nouveau format pour stocker les poids qui est plus sûr et plus rapide à charger et à utiliser. Cela nous permettra également d'ajouter le nombre de paramètres de votre modèle à la `Vue Étendue` !
105
  ### 3) Assurez-vous que votre modèle dispose d'une licence ouverte !