Update README.md
Browse files
README.md
CHANGED
@@ -20,7 +20,7 @@ license: apache-2.0
|
|
20 |
- **GGUF**: [F16](https://huggingface.co/ValueFX9507/Tifa-Deepsex-14b-CoT) | [Q4](https://huggingface.co/ValueFX9507/Tifa-Deepsex-14b-CoT-GGUF-Q4)(更多量化版本持续更新中)
|
21 |
- **Demo APK**: [点击下载](http://app.visionsic.com/download/projectchat.apk)
|
22 |
|
23 |
-
本模型基于Deepseek-R1-14B
|
24 |
|
25 |
|
26 |
## 示例(因COT模型特点,上下文不连贯时可以使用Demo软件中的故事模式)
|
@@ -39,7 +39,7 @@ license: apache-2.0
|
|
39 |
|
40 |
## 模型亮点
|
41 |
🔥 **四阶段进化架构**:
|
42 |
-
1. **增量预训练**:注入0.4T Token 小说,使用16k
|
43 |
2. **Tifa-SFT**:融合全球Top4角色扮演模型Tifa的10万条高质量数据
|
44 |
3. **CoT恢复训练**:采用Deepseek-32B/671B数据重建推理能力
|
45 |
4. **RL强化**:保留发散性思维标签的同时优化生成质量
|
|
|
20 |
- **GGUF**: [F16](https://huggingface.co/ValueFX9507/Tifa-Deepsex-14b-CoT) | [Q4](https://huggingface.co/ValueFX9507/Tifa-Deepsex-14b-CoT-GGUF-Q4)(更多量化版本持续更新中)
|
21 |
- **Demo APK**: [点击下载](http://app.visionsic.com/download/projectchat.apk)
|
22 |
|
23 |
+
本模型基于Deepseek-R1-14B进行深度优化,借助Tifa_220B生成的数据集通过三重训练策略显著增强角色扮演、小说文本生成与思维链(CoT)能力。特别适合需要长程上下文关联的创作场景。
|
24 |
|
25 |
|
26 |
## 示例(因COT模型特点,上下文不连贯时可以使用Demo软件中的故事模式)
|
|
|
39 |
|
40 |
## 模型亮点
|
41 |
🔥 **四阶段进化架构**:
|
42 |
+
1. **增量预训练**:注入0.4T Token 小说,使用16k上下文训练,增强文本连贯性
|
43 |
2. **Tifa-SFT**:融合全球Top4角色扮演模型Tifa的10万条高质量数据
|
44 |
3. **CoT恢复训练**:采用Deepseek-32B/671B数据重建推理能力
|
45 |
4. **RL强化**:保留发散性思维标签的同时优化生成质量
|