import gradio as gr import base64 import vertexai from vertexai.generative_models import GenerativeModel, Part, SafetySetting # Configuración del modelo y parámetros globales vertexai.init(project="deploygpt", location="us-central1") generation_config = { "max_output_tokens": 8192, "temperature": 0, "top_p": 0.95, } safety_settings = [ SafetySetting( category=SafetySetting.HarmCategory.HARM_CATEGORY_HATE_SPEECH, threshold=SafetySetting.HarmBlockThreshold.OFF ), SafetySetting( category=SafetySetting.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT, threshold=SafetySetting.HarmBlockThreshold.OFF ), SafetySetting( category=SafetySetting.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT, threshold=SafetySetting.HarmBlockThreshold.OFF ), SafetySetting( category=SafetySetting.HarmCategory.HARM_CATEGORY_HARASSMENT, threshold=SafetySetting.HarmBlockThreshold.OFF ), ] def revisar_examen(pdf_docente, pdf_alumno): """Función principal para comparar los PDFs del docente y del alumno.""" try: # Leer los datos de los PDFs cargados docente_data = pdf_docente.read() alumno_data = pdf_alumno.read() # Codificar los datos de los PDFs a base64 document1 = Part.from_data( mime_type="application/pdf", data=base64.b64encode(docente_data).decode("utf-8"), ) document2 = Part.from_data( mime_type="application/pdf", data=base64.b64encode(alumno_data).decode("utf-8"), ) # Configuración del texto de instrucciones text1 = """Información del examen Materia: bioquimica nutricion normal Grado/Nivel: universidad Tema: Metabolismo de lipidos Formato del examen: \"Preguntas de desarrollo\" Instrucciones para el asistente Adjunta los archivos PDF:integracion PDF del alumno: alumno Solicita la revisión: \"Por favor, compara las respuestas del alumno en el PDF adjunto con las preguntas y respuestas del PDF del docente. Evalúa cada respuesta como 'Correcta', 'Incorrecta', 'Incompleta' o 'Vacía'. Considera que el alumno solo respondió a un subconjunto de las preguntas del examen. Para cada pregunta, indica si fue 'Asignada' o 'No asignada' al alumno. Proporciona retroalimentación detallada para cada respuesta de las preguntas asignadas, incluyendo la explicación de errores, la respuesta correcta (del PDF del docente) y sugerencias de temas para reforzar. Al final, ofrece una retroalimentación general sobre el desempeño del alumno y calcula el porcentaje de precisión, basándote solo en las preguntas que le fueron asignadas.\"""""" textsi_1 = """Rol: Actúa como un asistente de docente experto en la materia del examen de Bioquimica. Objetivo: Tu tarea principal es analizar las respuestas del alumno a las preguntas del examen, comparándolas con la clave de respuestas y criterios de evaluación proporcionados en el PDF del docente. Debes identificar las respuestas correctas, incorrectas, incompletas y vacías, tomando en cuenta que el alumno pudo haber recibido un subconjunto aleatorio de las preguntas del examen. Proporciona retroalimentación detallada sobre los errores, áreas de mejora y temas que el alumno necesita reforzar. Además, debes calcular y mostrar el porcentaje de precisión del alumno en el examen, considerando solo las preguntas que le fueron asignadas.""" # Configurar el modelo model = GenerativeModel( "gemini-1.5-pro-001", system_instruction=[textsi_1] ) # Generar la revisión responses = model.generate_content( [document1, document2, text1], generation_config=generation_config, safety_settings=safety_settings, stream=False, ) # Concatenar las respuestas del modelo feedback = "" for response in responses: feedback += response.text return feedback except Exception as e: return f"Error al procesar: {str(e)}" # Crear la interfaz con Gradio interface = gr.Interface( fn=revisar_examen, inputs=[ gr.File(label="PDF del Docente (Preguntas y Respuestas)"), gr.File(label="PDF del Alumno (Respuestas)") ], outputs=gr.Textbox(label="Retroalimentación del Examen"), title="Revisión Automática de Exámenes", description="Sube el PDF del docente y el PDF del alumno para recibir una evaluación detallada." ) # Lanzar la interfaz interface.launch(debug=True)