from transformers import AutoModel import gradio as gr # Carregar o modelo model = AutoModel.from_pretrained("openbmb/MiniCPM-o-2_6", trust_remote_code=True) # Função para gerar a resposta do modelo def generate_response(input_text): # Aqui você pode adicionar a lógica para processar o texto de entrada e gerar a resposta # Por exemplo, se o modelo for um modelo de geração de texto, você pode usar model.generate() # Como o modelo específico não foi detalhado, estou apenas retornando o texto de entrada como exemplo response = f"Resposta do modelo para: {input_text}" return response # Criar a interface Gradio interface = gr.Interface( fn=generate_response, # Função que será chamada quando o usuário enviar o texto inputs="text", # Tipo de entrada: texto outputs="text", # Tipo de saída: texto title="MiniCPM-o-2_6 Interface", # Título da interface description="Digite um texto e veja a resposta do modelo MiniCPM-o-2_6." # Descrição ) # Iniciar a interface interface.launch()