File size: 1,016 Bytes
291dc46
 
 
 
 
 
2250b79
291dc46
 
 
 
 
 
 
 
a063b3a
 
 
291dc46
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
from llama_cpp import Llama
import gradio as gr

# モデルを読み込む
llm = Llama.from_pretrained(
    repo_id="mradermacher/ultiima-78B-i1-GGUF",
    filename="ultiima-78B.i1-IQ1_S.gguf",
)

# モデルからのレスポンスを生成する関数
def generate_response(prompt):
    response = llm(prompt, max_tokens=150)
    return response['choices'][0]['text'].strip()

# Gradio インターフェースを作成
def chat_with_model(input_text, history=None):
    if history is None:
        history = []
    history.append(("You", input_text))
    response = generate_response(input_text)
    history.append(("Model", response))
    return history, history

# Gradio インターフェースの設定
iface = gr.Interface(
    fn=chat_with_model,
    inputs=["text", "state"],
    outputs=["chatbot", "state"],
    title="ULTIIMA-78B Chat Interface",
    description="ULTIIMA-78B モデルを使用したチャットインターフェースです。",
)

# インターフェースを起動
iface.launch()