|
--- |
|
license: mit |
|
datasets: |
|
- fibonacciai/fibonacci-2025 |
|
language: |
|
- fa |
|
- en |
|
- ar |
|
base_model: |
|
- fibonacciai/fibonacci-1-EN-8b-chat.P1_5 |
|
pipeline_tag: text-generation |
|
new_version: fibonacciai/fibonacci-2-9b |
|
tags: |
|
- text-generation-inference |
|
- text |
|
- chat |
|
- en |
|
- persian |
|
- text generation |
|
--- |
|
|
|
# مدل Fibonacci-2-9b |
|
|
|
 |
|
https://www.youtube.com/watch?v=ATD_LL_QB4E |
|
|
|
https://fibonacci.monster/ |
|
## معرفی |
|
|
|
مدل **Fibonacci-2-9b** یک مدل زبانی بزرگ (LLM) مبتنی بر معماری Gemma2 است که با ۹٫۲۴ میلیارد پارامتر طراحی شده است. این مدل برای انجام وظایف مرتبط با پردازش زبان طبیعی (NLP) و مکالمات متنی بهینهسازی شده است. |
|
|
|
## ویژگیها |
|
|
|
- **معماری:** Gemma2 |
|
- **تعداد پارامترها:** ۹٫۲۴ میلیارد |
|
- **فرمتها:** GGUF با پشتیبانی از 4-bit (Q4_K_M)، 5-bit (Q5_K_M)، 8-bit (Q8_0)، و 16-bit (F16) |
|
- **مجوز استفاده:** MIT |
|
|
|
## کاربردها |
|
|
|
- **تولید متن:** ایجاد متون خلاقانه و متنوع |
|
- **پاسخ به سؤالات:** ارائه پاسخهای دقیق به پرسشهای کاربران |
|
- **ترجمه ماشینی:** ترجمه متون بین زبانهای مختلف |
|
- **تحلیل احساسات:** شناسایی احساسات موجود در متون |
|
|
|
## نحوه استفاده |
|
|
|
برای استفاده از این مدل، میتوانید از کتابخانههای مختلفی مانند `transformers` هاگینگ فیس استفاده کنید. در زیر یک نمونه کد برای بارگذاری و استفاده از مدل آورده شده است: |
|
|
|
```python |
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b") |
|
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b") |
|
|
|
input_text = "سلام! چطور میتوانم به شما کمک کنم؟" |
|
inputs = tokenizer(input_text, return_tensors="pt") |
|
outputs = model.generate(**inputs) |
|
response = tokenizer.decode(outputs[0], skip_special_tokens=True) |
|
|
|
print(response) |
|
منابع |
|
صفحه مدل در هاگینگ فیس |
|
|
|
مستندات هاگینگ فیس |
|
|
|
مشارکت |
|
ما از مشارکتهای شما استقبال میکنیم! اگر پیشنهادی برای بهبود مدل دارید یا باگهایی را مشاهده کردهاید، لطفاً از طریق Issues با ما در میان بگذارید. |
|
|
|
مجوز |
|
این مدل تحت مجوز MIT منتشر شده است. برای اطلاعات بیشتر، فایل LICENSE را مشاهده کنید. |
|
|
|
|
|
|
|
|
|
# Fibonacci-2-9b Model |
|
|
|
 |
|
|
|
## Introduction |
|
|
|
The **Fibonacci-2-9b** is a large language model (LLM) based on the Gemma2 architecture, designed with 9.24 billion parameters. This model is optimized for natural language processing (NLP) tasks and textual conversations. |
|
|
|
## Features |
|
|
|
- **Architecture:** Gemma2 |
|
- **Number of Parameters:** 9.24 billion |
|
- **Formats:** GGUF supporting 4-bit (Q4_K_M), 5-bit (Q5_K_M), 8-bit (Q8_0), and 16-bit (F16) |
|
- **License:** MIT |
|
|
|
## Applications |
|
|
|
- **Text Generation:** Creating creative and diverse texts |
|
- **Question Answering:** Providing accurate responses to user inquiries |
|
- **Machine Translation:** Translating texts between different languages |
|
- **Sentiment Analysis:** Identifying sentiments present in texts |
|
|
|
## Usage |
|
|
|
To use this model, you can utilize various libraries such as Hugging Face's `transformers`. Below is a sample code to load and use the model: |
|
|
|
```python |
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b") |
|
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b") |
|
|
|
input_text = "Hello! How can I assist you today?" |
|
inputs = tokenizer(input_text, return_tensors="pt") |
|
outputs = model.generate(**inputs) |
|
response = tokenizer.decode(outputs[0], skip_special_tokens=True) |
|
|
|
print(response) |
|
Resources |
|
Model Page on Hugging Face |
|
|
|
Hugging Face Documentation |
|
|
|
Contribution |
|
We welcome your contributions! If you have suggestions for improving the model or have identified any bugs, please share them with us through the Issues section. |
|
|
|
License |
|
This model is released under the MIT License. For more information, see the LICENSE file. |
|
|
|
|
|
|
|
|
|
# نموذج Fibonacci-2-9b |
|
|
|
 |
|
|
|
## المقدمة |
|
|
|
نموذج **Fibonacci-2-9b** هو نموذج لغة كبير (LLM) يعتمد على بنية Gemma2، تم تصميمه بـ 9.24 مليار معلمة. هذا النموذج مُحسّن لمهام معالجة اللغة الطبيعية (NLP) والمحادثات النصية. |
|
|
|
## الميزات |
|
|
|
- **البنية:** Gemma2 |
|
- **عدد المعلمات:** 9.24 مليار |
|
- **التنسيقات:** GGUF تدعم 4-بت (Q4_K_M)، 5-بت (Q5_K_M)، 8-بت (Q8_0)، و16-بت (F16) |
|
- **الترخيص:** MIT |
|
|
|
## التطبيقات |
|
|
|
- **توليد النصوص:** إنشاء نصوص إبداعية ومتنوعة |
|
- **الإجابة على الأسئلة:** تقديم إجابات دقيقة لاستفسارات المستخدمين |
|
- **الترجمة الآلية:** ترجمة النصوص بين لغات مختلفة |
|
- **تحليل المشاعر:** تحديد المشاعر الموجودة في النصوص |
|
|
|
## كيفية الاستخدام |
|
|
|
لاستخدام هذا النموذج، يمكنك الاستفادة من مكتبات مختلفة مثل `transformers` من Hugging Face. فيما يلي مثال لتحميل واستخدام النموذج: |
|
|
|
```python |
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
|
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b") |
|
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b") |
|
|
|
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟" |
|
inputs = tokenizer(input_text, return_tensors="pt") |
|
outputs |
|
::contentReference[oaicite:0]{index=0} |