File size: 3,130 Bytes
ef97849
 
5190aa2
 
ef97849
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
6e7b994
 
 
 
 
 
f88ca37
5e729c7
ef97849
 
 
 
 
 
 
 
 
 
be627d1
ef97849
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
---
license: mit
widget:
- text: "<user>Wie geht es dir?<End><AI Assistent>"
tags:
- legal
- KI
- Machine Learning
- NLP
- Transformers
- Deep Learning
- Sprachmodell
- GPT-2
- Deutsch
- Textgenerierung
- Open Source
- Forschung
- Legal
- Automatisierung
- Modelltraining
- Künstliche Intelligenz
- AI Assistent
- Natural Language Processing
- German NLP
- GPT-2 Fine-Tuning
datasets:
- Atomic-Ai/AtomicGPT2-data
language:
- de
base_model:
- kkirchheim/german-gpt2-medium
pipeline_tag: text-generation
library_name: transformers
---

# AtomicGPT 2.0

## Überblick
AtomicGPT 2.0 ist die neueste Generation unseres KI-Modells und bietet eine deutlich bessere Leistung als unser Vorgänger, AtomicGPT 1.0. Dank eines erheblich erweiterten Datensatzes kann AtomicGPT 2.0 intelligentere Antworten liefern und ein besseres Verständnis der deutschen Sprache demonstrieren.

## Verbesserungen gegenüber AtomicGPT 1.0
- **Größerer Datensatz**: Das Modell wurde mit einem viel umfangreicheren Datensatz trainiert, was zu einer besseren Sprachverarbeitung und allgemein fundierteren Antworten führt.
- **Verbesserte Architektur**: Basierend auf `kkirchheim/german-gpt2-medium`, das bereits eine solide Grundlage für die deutsche Sprache bietet, konnten wir unser Modell effektiver trainieren.
- **Geplante Updates**: Das Modell wird keine updates bekommen, weil AtomicGPT 3.0 kommst schneller als erwartet!

## Installation & Nutzung
### Voraussetzungen
- Python 3.x
- `transformers`
- `torch`

### Codebeispiel zur Nutzung
```python
from transformers import pipeline, AutoTokenizer
import torch

# Modell und Tokenizer laden
MODEL_PATH = "Atomic-Ai/AtomicGPT_2"
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
chatbot = pipeline(
    "text-generation",
    model=MODEL_PATH,
    tokenizer=MODEL_PATH,
    device=0 if torch.cuda.is_available() else -1
)

def generate_response(prompt):
    output = chatbot(
        prompt,
        max_new_tokens=256,
        eos_token_id=tokenizer.eos_token_id,  # Stoppt am <End>-Token
        pad_token_id=tokenizer.pad_token_id,
        do_sample=True,
        temperature=0.7,
        top_p=0.9
    )
    return output[0]['generated_text']

def format_chat(user_input):
    return f"<user>{user_input}<End><AI Assistent>"

def extract_assistant_response(full_text):
    parts = full_text.split("<AI Assistent>")
    if len(parts) > 1:
        return parts[1].split("<End>")[0].strip()
    return "Error: Response format invalid"

def main():
    print("Chat gestartet! Gib 'exit' ein, um zu beenden.")
    print("----------------------------------")

    while True:
        user_input = input("\nDu: ")
        if user_input.lower() == 'exit':
            break

        prompt = format_chat(user_input)
        full_response = generate_response(prompt)
        assistant_response = extract_assistant_response(full_response)
        print(f"\nAI Assistent: {assistant_response}")

if __name__ == "__main__":
    main()
```

## Support & Community
Unterstütze uns und werde Teil unserer Community!
[Discord beitreten](https://discord.com/channels/1347678618133860424/1347685062258327553)