File size: 6,244 Bytes
81e5b44 0cf0f97 81e5b44 222f11f d65d1b0 d348678 0cf0f97 2496ec0 17fb5d6 d348678 d0a865a d348678 5d36e82 d348678 5d36e82 d348678 cca81cb d348678 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 |
---
license: mit
datasets:
- fibonacciai/fibonacci-2025
language:
- fa
- en
- ar
base_model:
- fibonacciai/fibonacci-1-EN-8b-chat.P1_5
pipeline_tag: text-generation
new_version: fibonacciai/fibonacci-2-9b
tags:
- text-generation-inference
- text
- chat
- en
- persian
- text generation
---
# مدل Fibonacci-2-9b

https://www.youtube.com/watch?v=ATD_LL_QB4E
https://fibonacci.monster/
## معرفی
مدل **Fibonacci-2-9b** یک مدل زبانی بزرگ (LLM) مبتنی بر معماری Gemma2 است که با ۹٫۲۴ میلیارد پارامتر طراحی شده است. این مدل برای انجام وظایف مرتبط با پردازش زبان طبیعی (NLP) و مکالمات متنی بهینهسازی شده است.
## ویژگیها
- **معماری:** Gemma2
- **تعداد پارامترها:** ۹٫۲۴ میلیارد
- **فرمتها:** GGUF با پشتیبانی از 4-bit (Q4_K_M)، 5-bit (Q5_K_M)، 8-bit (Q8_0)، و 16-bit (F16)
- **مجوز استفاده:** MIT
## کاربردها
- **تولید متن:** ایجاد متون خلاقانه و متنوع
- **پاسخ به سؤالات:** ارائه پاسخهای دقیق به پرسشهای کاربران
- **ترجمه ماشینی:** ترجمه متون بین زبانهای مختلف
- **تحلیل احساسات:** شناسایی احساسات موجود در متون
## نحوه استفاده
برای استفاده از این مدل، میتوانید از کتابخانههای مختلفی مانند `transformers` هاگینگ فیس استفاده کنید. در زیر یک نمونه کد برای بارگذاری و استفاده از مدل آورده شده است:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "سلام! چطور میتوانم به شما کمک کنم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
منابع
صفحه مدل در هاگینگ فیس
مستندات هاگینگ فیس
مشارکت
ما از مشارکتهای شما استقبال میکنیم! اگر پیشنهادی برای بهبود مدل دارید یا باگهایی را مشاهده کردهاید، لطفاً از طریق Issues با ما در میان بگذارید.
مجوز
این مدل تحت مجوز MIT منتشر شده است. برای اطلاعات بیشتر، فایل LICENSE را مشاهده کنید.
# Fibonacci-2-9b Model

## Introduction
The **Fibonacci-2-9b** is a large language model (LLM) based on the Gemma2 architecture, designed with 9.24 billion parameters. This model is optimized for natural language processing (NLP) tasks and textual conversations.
## Features
- **Architecture:** Gemma2
- **Number of Parameters:** 9.24 billion
- **Formats:** GGUF supporting 4-bit (Q4_K_M), 5-bit (Q5_K_M), 8-bit (Q8_0), and 16-bit (F16)
- **License:** MIT
## Applications
- **Text Generation:** Creating creative and diverse texts
- **Question Answering:** Providing accurate responses to user inquiries
- **Machine Translation:** Translating texts between different languages
- **Sentiment Analysis:** Identifying sentiments present in texts
## Usage
To use this model, you can utilize various libraries such as Hugging Face's `transformers`. Below is a sample code to load and use the model:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "Hello! How can I assist you today?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Resources
Model Page on Hugging Face
Hugging Face Documentation
Contribution
We welcome your contributions! If you have suggestions for improving the model or have identified any bugs, please share them with us through the Issues section.
License
This model is released under the MIT License. For more information, see the LICENSE file.
# نموذج Fibonacci-2-9b

## المقدمة
نموذج **Fibonacci-2-9b** هو نموذج لغة كبير (LLM) يعتمد على بنية Gemma2، تم تصميمه بـ 9.24 مليار معلمة. هذا النموذج مُحسّن لمهام معالجة اللغة الطبيعية (NLP) والمحادثات النصية.
## الميزات
- **البنية:** Gemma2
- **عدد المعلمات:** 9.24 مليار
- **التنسيقات:** GGUF تدعم 4-بت (Q4_K_M)، 5-بت (Q5_K_M)، 8-بت (Q8_0)، و16-بت (F16)
- **الترخيص:** MIT
## التطبيقات
- **توليد النصوص:** إنشاء نصوص إبداعية ومتنوعة
- **الإجابة على الأسئلة:** تقديم إجابات دقيقة لاستفسارات المستخدمين
- **الترجمة الآلية:** ترجمة النصوص بين لغات مختلفة
- **تحليل المشاعر:** تحديد المشاعر الموجودة في النصوص
## كيفية الاستخدام
لاستخدام هذا النموذج، يمكنك الاستفادة من مكتبات مختلفة مثل `transformers` من Hugging Face. فيما يلي مثال لتحميل واستخدام النموذج:
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("fibonacciai/fibonacci-2-9b")
model = AutoModelForCausalLM.from_pretrained("fibonacciai/fibonacci-2-9b")
input_text = "مرحبًا! كيف يمكنني مساعدتك اليوم؟"
inputs = tokenizer(input_text, return_tensors="pt")
outputs
::contentReference[oaicite:0]{index=0} |