import gradio as gr import gemini_gradio import google.generativeai as genai import os from dotenv import load_dotenv # Asegúrate de instalar dotenv si no lo tienes: pip install python-dotenv # Cargar las variables de entorno desde el archivo .env load_dotenv() # Verifica la versión de genai print("google-generativeai:", genai.__version__) # Obtener la clave de la API de las variables de entorno GOOGLE_API_KEY = os.getenv("GOOGLE_API_KEY") # Verificar que la clave de la API esté configurada if not GOOGLE_API_KEY: raise ValueError("GOOGLE_API_KEY is not set in environment variables.") # Configuración del modelo Gemini generation_config = { "temperature": 1, "top_p": 0.95, "top_k": 40, "max_output_tokens": 8192, "response_mime_type": "text/plain", } # Configuración del modelo en gemini_gradio def configure_model(): genai.configure(api_key=GOOGLE_API_KEY) # Configura la API Key model = genai.GenerativeModel( model_name="gemini-1.5-flash", generation_config=generation_config ) return model # Función que genera la respuesta usando el modelo configurado def generate_response(input_text): model = configure_model() # Cargar el modelo con los parámetros configurados response = model.generate(input_text) # Generar la respuesta return response.text # Ajusta según la estructura de la respuesta del modelo # Integración con la interfaz Gradio with gr.Blocks() as demo: gr.Markdown("**Gemini Model with Custom Parameters**") input_text = gr.Textbox(label="Enter Text", placeholder="Type here...") output_text = gr.Textbox(label="Generated Response") input_text.submit(generate_response, inputs=input_text, outputs=output_text) demo.launch()