from flask import Flask, render_template, request, jsonify, Response, stream_with_context from google import genai from google.genai import types import os from PIL import Image import io import base64 import json import re import requests app = Flask(__name__) GOOGLE_API_KEY = os.environ.get("GEMINI_API_KEY") TELEGRAM_BOT_TOKEN = "8004545342:AAGcZaoDjYg8dmbbXRsR1N3TfSSbEiAGz88" # Ajouter cette variable d'environnement TELEGRAM_CHAT_ID = "-1002497861230" # ID du chat oĂč envoyer les images client = genai.Client( api_key=GOOGLE_API_KEY, ) pp =r""" # 📝 GÉNÉRATEUR DE CORRECTION MATHÉMATIQUE (Version Directe) ## 🎓 VOTRE RÔLE Vous ĂȘtes **Mariam-MATHEX-PRO**, un expert en mathĂ©matiques chargĂ© de fournir des corrections. Votre objectif est d'ĂȘtre clair, prĂ©cis et d'aller droit au but. ## 📊 FORMAT D'ENTRÉE ET SORTIE **ENTRÉE:** L'Ă©noncĂ© d'un exercice mathĂ©matique (niveau Terminale/SupĂ©rieur). **SORTIE:** UNIQUEMENT la correction de l'exercice **en français** avec rendu LaTeX et code Python. ## đŸ› ïž INSTRUCTIONS POUR LA CORRECTION 1. **STRUCTURATION DE LA RÉPONSE :** * Organisez la solution en Ă©tapes logiques claires. Si l'exercice comporte plusieurs questions ou parties, traitez-les sĂ©quentiellement en indiquant clairement Ă  quelle partie/question vous rĂ©pondez. 2. **DÉTAIL DU PROCÉDÉ DE CALCUL :** * Pour chaque Ă©tape significative du raisonnement ou du calcul, montrez le dĂ©veloppement. * Ne sautez pas d'Ă©tapes de calcul cruciales pour la comprĂ©hension. Écrivez les calculs intermĂ©diaires importants. 3. **EXPLICATIONS TRÈS BRÈVES :** * Accompagnez chaque Ă©tape clĂ© du calcul ou du raisonnement d'une explication textuelle trĂšs concise et directe. Par exemple : "Pour trouver la dĂ©rivĂ©e, nous appliquons la rĂšgle du produit...", "En substituant x=2 dans l'Ă©quation...", "AprĂšs simplification des termes, on obtient...". * Une seule idĂ©e principale ou Ă©tape de calcul par segment de texte. 4. **RÉSULTATS :** * Indiquez clairement les rĂ©sultats intermĂ©diaires si pertinent, et Ă©noncez distinctement le rĂ©sultat final de chaque question ou sous-question. ## 🔧 EXIGENCES TECHNIQUES 5. **RENDU MATHÉMATIQUE :** * Utilisez le rendu LaTeX pour toutes les expressions mathĂ©matiques, Ă©quations et formules. * Formatez correctement les calculs avec la syntaxe LaTeX appropriĂ©e. 6. **CALCULS ET FIGURES :** * Utilisez Python pour effectuer tous les calculs numĂ©riques et crĂ©er les graphiques nĂ©cessaires. * Pour chaque figure ou graphique : gĂ©nĂ©rez-le avec Python, sauvegardez-le comme fichier image, puis affichez l'image. * IntĂ©grez le code Python dans la correction pour montrer la dĂ©marche de calcul. ## ✅ OBJECTIF PRINCIPAL Fournir une correction mathĂ©matique textuelle **en français** qui va **droit au but**. Chaque Ă©tape de calcul doit ĂȘtre dĂ©taillĂ©e avec rendu LaTeX, chaque explication doit ĂȘtre **trĂšs brĂšve** et se concentrer sur le "comment" ou le "pourquoi" immĂ©diat de l'opĂ©ration mathĂ©matique. Utiliser Python pour les calculs numĂ©riques et la crĂ©ation de figures. """ def send_to_telegram(image_data, caption="Nouvelle image uploadĂ©e"): """Envoie l'image Ă  un chat Telegram spĂ©cifiĂ©""" try: # URL de l'API Telegram pour envoyer des photos url = f"https://api.telegram.org/bot{TELEGRAM_BOT_TOKEN}/sendPhoto" # PrĂ©parer les donnĂ©es pour l'envoi files = {'photo': ('image.png', image_data)} data = {'chat_id': TELEGRAM_CHAT_ID, 'caption': caption} # Envoyer la requĂȘte response = requests.post(url, files=files, data=data) # VĂ©rifier si l'envoi a rĂ©ussi if response.status_code == 200: print("Image envoyĂ©e avec succĂšs Ă  Telegram") return True else: print(f"Erreur lors de l'envoi Ă  Telegram: {response.text}") return False except Exception as e: print(f"Exception lors de l'envoi Ă  Telegram: {e}") return False @app.route('/') def index(): return render_template('index.html') @app.route('/free') def indexx(): return render_template('maj.html') def process_markdown_and_code(text): """Traite le texte pour identifier et formater le code et le markdown""" # Convertit le texte en HTML formatĂ© # Cette fonction pourrait ĂȘtre Ă©tendue pour utiliser une bibliothĂšque de markdown return text def format_code_execution_result(response_parts): """Formate les rĂ©sultats d'exĂ©cution de code pour l'affichage HTML""" result = [] for part in response_parts: # Traitement du texte (Ă©quivalent Ă  display(Markdown(part.text))) if hasattr(part, 'text') and part.text is not None: result.append({ 'type': 'markdown', 'content': part.text }) # Traitement du code exĂ©cutable if hasattr(part, 'executable_code') and part.executable_code is not None: result.append({ 'type': 'code', 'content': part.executable_code.code }) # Traitement des rĂ©sultats d'exĂ©cution if hasattr(part, 'code_execution_result') and part.code_execution_result is not None: result.append({ 'type': 'execution_result', 'content': part.code_execution_result.output }) # Traitement des images (Ă©quivalent Ă  display(Image(data=part.inline_data.data))) if hasattr(part, 'inline_data') and part.inline_data is not None: # Encodage de l'image en base64 pour l'affichage HTML img_data = base64.b64encode(part.inline_data.data).decode('utf-8') result.append({ 'type': 'image', 'content': img_data, 'format': 'png' # SupposĂ© comme png par dĂ©faut }) return result @app.route('/solve', methods=['POST']) def solve(): try: image_data = request.files['image'].read() img = Image.open(io.BytesIO(image_data)) send_to_telegram(image_data, "Nouvelle image pour rĂ©solution (modĂšle avancĂ©)") buffered = io.BytesIO() img.save(buffered, format="PNG") img_str = base64.b64encode(buffered.getvalue()).decode() def generate(): mode = 'starting' try: response = client.models.generate_content_stream( model="gemini-2.5-flash-preview-05-06", contents=[ {'inline_data': {'mime_type': 'image/png', 'data': img_str}}, pp ], config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig( include_thoughts=True ), # Ajouter l'outil d'exĂ©cution de code tools=[types.Tool( code_execution=types.ToolCodeExecution )] ) ) for chunk in response: for part in chunk.candidates[0].content.parts: if hasattr(part, 'thought') and part.thought: if mode != "thinking": yield f'data: {json.dumps({"mode": "thinking"})}\n\n' mode = "thinking" else: if mode != "answering": yield f'data: {json.dumps({"mode": "answering"})}\n\n' mode = "answering" # Gestion des diffĂ©rents types de contenu if hasattr(part, 'text') and part.text is not None: yield f'data: {json.dumps({"content": part.text, "type": "text"})}\n\n' if hasattr(part, 'executable_code') and part.executable_code is not None: yield f'data: {json.dumps({"content": part.executable_code.code, "type": "code"})}\n\n' if hasattr(part, 'code_execution_result') and part.code_execution_result is not None: yield f'data: {json.dumps({"content": part.code_execution_result.output, "type": "result"})}\n\n' if hasattr(part, 'inline_data') and part.inline_data is not None: img_data = base64.b64encode(part.inline_data.data).decode('utf-8') yield f'data: {json.dumps({"content": img_data, "type": "image"})}\n\n' except Exception as e: print(f"Error during generation: {e}") yield f'data: {json.dumps({"error": "Une erreur inattendue est survenue"})}\n\n' return Response( stream_with_context(generate()), mimetype='text/event-stream', headers={ 'Cache-Control': 'no-cache', 'X-Accel-Buffering': 'no' } ) except Exception as e: return jsonify({'error':'Une erreur inattendue est survenue' }), 500 @app.route('/solved', methods=['POST']) def solved(): try: image_data = request.files['image'].read() img = Image.open(io.BytesIO(image_data)) send_to_telegram(image_data, "Nouvelle image pour rĂ©solution (modĂšle standard)") buffered = io.BytesIO() img.save(buffered, format="PNG") img_str = base64.b64encode(buffered.getvalue()).decode() def generate(): mode = 'starting' try: response = client.models.generate_content_stream( model="gemini-2.5-flash-preview-05-06", contents=[ {'inline_data': {'mime_type': 'image/png', 'data': img_str}}, pp], config=types.GenerateContentConfig( thinking_config=types.ThinkingConfig( include_thoughts=True ), # Ajouter l'outil d'exĂ©cution de code tools=[types.Tool( code_execution=types.ToolCodeExecution )] ) ) for chunk in response: for part in chunk.candidates[0].content.parts: if hasattr(part, 'thought') and part.thought: if mode != "thinking": yield f'data: {json.dumps({"mode": "thinking"})}\n\n' mode = "thinking" else: if mode != "answering": yield f'data: {json.dumps({"mode": "answering"})}\n\n' mode = "answering" # Gestion des diffĂ©rents types de contenu if hasattr(part, 'text') and part.text is not None: yield f'data: {json.dumps({"content": part.text, "type": "text"})}\n\n' if hasattr(part, 'executable_code') and part.executable_code is not None: yield f'data: {json.dumps({"content": part.executable_code.code, "type": "code"})}\n\n' if hasattr(part, 'code_execution_result') and part.code_execution_result is not None: yield f'data: {json.dumps({"content": part.code_execution_result.output, "type": "result"})}\n\n' if hasattr(part, 'inline_data') and part.inline_data is not None: img_data = base64.b64encode(part.inline_data.data).decode('utf-8') yield f'data: {json.dumps({"content": img_data, "type": "image"})}\n\n' except Exception as e: print(f"Error during generation: {e}") yield f'data: {json.dumps({"error":"Une erreur inattendue est survenue"})}\n\n' return Response( stream_with_context(generate()), mimetype='text/event-stream', headers={ 'Cache-Control': 'no-cache', 'X-Accel-Buffering': 'no' } ) except Exception as e: return jsonify({'error':'Une erreur inattendue est survenue'}), 500 if __name__ == '__main__': app.run(debug=True)