Update app.py
Browse files
app.py
CHANGED
@@ -1,16 +1,17 @@
|
|
1 |
import gradio as gr
|
2 |
|
3 |
-
#
|
4 |
-
model = gr.load("models/Qwen/Qwen2.5-Coder-32B-Instruct")
|
5 |
-
|
6 |
def generate_response(prompt):
|
7 |
-
|
8 |
-
|
|
|
|
|
9 |
return response[0]['generated_text']
|
10 |
|
|
|
11 |
with gr.Blocks() as demo:
|
12 |
# Título e Descrição
|
13 |
-
gr.Markdown("# Qwen2.5-Coder
|
14 |
gr.Markdown("### Um modelo avançado para geração de texto. Digite o prompt abaixo para obter uma resposta.")
|
15 |
|
16 |
with gr.Row():
|
@@ -27,4 +28,6 @@ with gr.Blocks() as demo:
|
|
27 |
# Conexão do botão com a função
|
28 |
submit_btn.click(generate_response, inputs=[input_text], outputs=[output_text])
|
29 |
|
|
|
30 |
demo.launch()
|
|
|
|
1 |
import gradio as gr
|
2 |
|
3 |
+
# Definindo a função para se conectar à API de inferência da Hugging Face
|
|
|
|
|
4 |
def generate_response(prompt):
|
5 |
+
from transformers import pipeline
|
6 |
+
# Cria um pipeline de geração de texto com o modelo da Hugging Face
|
7 |
+
pipe = pipeline("text-generation", model="Qwen/Qwen2.5-Coder-32B-Instruct")
|
8 |
+
response = pipe(prompt, max_length=200, num_return_sequences=1)
|
9 |
return response[0]['generated_text']
|
10 |
|
11 |
+
# Construindo a interface com Gradio Blocks
|
12 |
with gr.Blocks() as demo:
|
13 |
# Título e Descrição
|
14 |
+
gr.Markdown("# Interface Melhorada para Qwen2.5-Coder")
|
15 |
gr.Markdown("### Um modelo avançado para geração de texto. Digite o prompt abaixo para obter uma resposta.")
|
16 |
|
17 |
with gr.Row():
|
|
|
28 |
# Conexão do botão com a função
|
29 |
submit_btn.click(generate_response, inputs=[input_text], outputs=[output_text])
|
30 |
|
31 |
+
# Lançar a interface
|
32 |
demo.launch()
|
33 |
+
|