fibonacciai commited on
Commit
d348678
·
verified ·
1 Parent(s): ebde322

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +155 -1
README.md CHANGED
@@ -6,4 +6,158 @@ language:
6
  - fa
7
  base_model:
8
  - fibonacciai/fibonacci-1-EN-8b-chat.P1_5
9
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6
  - fa
7
  base_model:
8
  - fibonacciai/fibonacci-1-EN-8b-chat.P1_5
9
+ ---
10
+
11
+ فارسی:
12
+
13
+ markdown
14
+ Copy
15
+ Edit
16
+ # مدل Fibonacci-2-9b
17
+
18
+ ![لوگوی مدل](https://huggingface.co/front/assets/huggingface_logo.svg)
19
+
20
+ ## معرفی
21
+
22
+ مدل **Fibonacci-2-9b** یک مدل زبانی بزرگ (LLM) مبتنی بر معماری Gemma2 است که با ۹٫۲۴ میلیارد پارامتر طراحی شده است. این مدل برای انجام وظایف مرتبط با پردازش زبان طبیعی (NLP) و مکالمات متنی بهینه‌سازی شده است.
23
+
24
+ ## ویژگی‌ها
25
+
26
+ - **معماری:** Gemma2
27
+ - **تعداد پارامترها:** ۹٫۲۴ میلیارد
28
+ - **فرمت‌ها:** GGUF با پشتیبانی از 4-bit (Q4_K_M)، 5-bit (Q5_K_M)، 8-bit (Q8_0)، و 16-bit (F16)
29
+ - **مجوز استفاده:** MIT
30
+
31
+ ## کاربردها
32
+
33
+ - **تولید متن:** ایجاد متون خلاقانه و متنوع
34
+ - **پاسخ به سؤالات:** ارائه پاسخ‌های دقیق به پرسش‌های کاربران
35
+ - **ترجمه ماشینی:** ترجمه متون بین زبان‌های مختلف
36
+ - **تحلیل احساسات:** شناسایی احساسات موجود در متون
37
+
38
+ ## نحوه استفاده
39
+
40
+ برای استفاده از این مدل، می‌توانید از کتابخانه‌های مختلفی مانند `transformers` هاگینگ فیس استفاده کنید. در زیر یک نمونه کد برای بارگذاری و استفاده از مدل آورده شده است:
41
+
42
+ ```python
43
+ from transformers import AutoModelForCausalLM, AutoTokenizer
44
+
45
+ tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
46
+ model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
47
+
48
+ input_text = "سلام! چطور می‌توانم به شما کمک کنم؟"
49
+ inputs = tokenizer(input_text, return_tensors="pt")
50
+ outputs = model.generate(**inputs)
51
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
52
+
53
+ print(response)
54
+ منابع
55
+ صفحه مدل در هاگینگ فیس
56
+
57
+ مستندات هاگینگ فیس
58
+
59
+ مشارکت
60
+ ما از مشارکت‌های شما استقبال می‌کنیم! اگر پیشنهادی برای بهبود مدل دارید یا باگ‌هایی را مشاهده کرده‌اید، لطفاً از طریق Issues با ما در میان بگذارید.
61
+
62
+ مجوز
63
+ این مدل تحت مجوز MIT منتشر شده است. برای اطلاعات بیشتر، فایل LICENSE را مشاهده کنید.
64
+
65
+ less
66
+ Copy
67
+ Edit
68
+
69
+ **انگلیسی:**
70
+
71
+ ```markdown
72
+ # Fibonacci-2-9b Model
73
+
74
+ ![Model Logo](https://huggingface.co/front/assets/huggingface_logo.svg)
75
+
76
+ ## Introduction
77
+
78
+ The **Fibonacci-2-9b** is a large language model (LLM) based on the Gemma2 architecture, designed with 9.24 billion parameters. This model is optimized for natural language processing (NLP) tasks and textual conversations.
79
+
80
+ ## Features
81
+
82
+ - **Architecture:** Gemma2
83
+ - **Number of Parameters:** 9.24 billion
84
+ - **Formats:** GGUF supporting 4-bit (Q4_K_M), 5-bit (Q5_K_M), 8-bit (Q8_0), and 16-bit (F16)
85
+ - **License:** MIT
86
+
87
+ ## Applications
88
+
89
+ - **Text Generation:** Creating creative and diverse texts
90
+ - **Question Answering:** Providing accurate responses to user inquiries
91
+ - **Machine Translation:** Translating texts between different languages
92
+ - **Sentiment Analysis:** Identifying sentiments present in texts
93
+
94
+ ## Usage
95
+
96
+ To use this model, you can utilize various libraries such as Hugging Face's `transformers`. Below is a sample code to load and use the model:
97
+
98
+ ```python
99
+ from transformers import AutoModelForCausalLM, AutoTokenizer
100
+
101
+ tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
102
+ model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
103
+
104
+ input_text = "Hello! How can I assist you today?"
105
+ inputs = tokenizer(input_text, return_tensors="pt")
106
+ outputs = model.generate(**inputs)
107
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
108
+
109
+ print(response)
110
+ Resources
111
+ Model Page on Hugging Face
112
+
113
+ Hugging Face Documentation
114
+
115
+ Contribution
116
+ We welcome your contributions! If you have suggestions for improving the model or have identified any bugs, please share them with us through the Issues section.
117
+
118
+ License
119
+ This model is released under the MIT License. For more information, see the LICENSE file.
120
+
121
+ makefile
122
+ Copy
123
+ Edit
124
+
125
+ **عربی:**
126
+
127
+ ```markdown
128
+ # نموذج Fibonacci-2-9b
129
+
130
+ ![شعار النموذج](https://huggingface.co/front/assets/huggingface_logo.svg)
131
+
132
+ ## المقدمة
133
+
134
+ نموذج **Fibonacci-2-9b** هو نموذج لغة كبير (LLM) يعتمد على بنية Gemma2، تم تصميمه بـ 9.24 مليار معلمة. هذا النموذج مُحسّن لمهام معالجة اللغة الطبيعية (NLP) والمحادثات النصية.
135
+
136
+ ## الميزات
137
+
138
+ - **البنية:** Gemma2
139
+ - **عدد المعلمات:** 9.24 مليار
140
+ - **التنسيقات:** GGUF تد��م 4-بت (Q4_K_M)، 5-بت (Q5_K_M)، 8-بت (Q8_0)، و16-بت (F16)
141
+ - **الترخيص:** MIT
142
+
143
+ ## التطبيقات
144
+
145
+ - **توليد النصوص:** إنشاء نصوص إبداعية ومتنوعة
146
+ - **الإجابة على الأسئلة:** تقديم إجابات دقيقة لاستفسارات المستخدمين
147
+ - **الترجمة الآلية:** ترجمة النصوص بين لغات مختلفة
148
+ - **تحليل المشاعر:** تحديد المشاعر الموجودة في النصوص
149
+
150
+ ## كيفية الاستخدام
151
+
152
+ لاستخدام هذا النموذج، يمكنك الاستفادة من مكتبات مختلفة مثل `transformers` من Hugging Face. فيما يلي مثال لتحميل واستخدام النموذج:
153
+
154
+ ```python
155
+ from transformers import AutoModelForCausalLM, AutoTokenizer
156
+
157
+ tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
158
+ model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
159
+
160
+ input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
161
+ inputs = tokenizer(input_text, return_tensors="pt")
162
+ outputs
163
+ ::contentReference[oaicite:0]{index=0}