Update app.py
Browse files
app.py
CHANGED
|
@@ -3,69 +3,56 @@ import json
|
|
| 3 |
from flask import Flask, render_template, request, session, redirect, url_for, flash
|
| 4 |
from dotenv import load_dotenv
|
| 5 |
import google.generativeai as genai
|
| 6 |
-
import requests
|
| 7 |
from werkzeug.utils import secure_filename
|
| 8 |
-
import mimetypes
|
| 9 |
|
| 10 |
load_dotenv()
|
| 11 |
|
| 12 |
app = Flask(__name__)
|
| 13 |
-
# Très important pour utiliser les sessions Flask !
|
| 14 |
app.config['SECRET_KEY'] = os.getenv('FLASK_SECRET_KEY', 'une-clé-secrète-par-défaut-pour-dev')
|
| 15 |
-
# Configuration pour les uploads
|
| 16 |
UPLOAD_FOLDER = 'temp'
|
| 17 |
-
ALLOWED_EXTENSIONS = {'txt', 'pdf', 'png', 'jpg', 'jpeg'}
|
| 18 |
app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER
|
| 19 |
-
app.config['MAX_CONTENT_LENGTH'] = 16 * 1024 * 1024
|
| 20 |
|
| 21 |
-
# Créer le dossier temp s'il n'existe pas
|
| 22 |
os.makedirs(UPLOAD_FOLDER, exist_ok=True)
|
| 23 |
|
| 24 |
-
# Configuration
|
| 25 |
try:
|
| 26 |
genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
|
| 27 |
-
|
| 28 |
safety_settings = [
|
| 29 |
{"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"},
|
| 30 |
{"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_NONE"},
|
| 31 |
{"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_NONE"},
|
| 32 |
{"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_NONE"},
|
| 33 |
]
|
| 34 |
-
|
| 35 |
model = genai.GenerativeModel(
|
| 36 |
-
'gemini-
|
| 37 |
-
# 'gemini-1.5-pro-latest', # Alternative plus puissante
|
| 38 |
safety_settings=safety_settings,
|
| 39 |
system_instruction="Tu es un assistant intelligent. ton but est d'assister au mieux que tu peux. tu as été créé par Aenir et tu t'appelles Mariam"
|
| 40 |
-
# Note: 'tools' n'est pas directement utilisé ici comme dans Streamlit,
|
| 41 |
-
# la logique de recherche web est gérée manuellement.
|
| 42 |
)
|
| 43 |
print("Modèle Gemini chargé.")
|
| 44 |
except Exception as e:
|
| 45 |
print(f"Erreur lors de la configuration de Gemini : {e}")
|
| 46 |
-
model = None
|
| 47 |
-
|
| 48 |
-
# --- Fonctions Utilitaires ---
|
| 49 |
|
|
|
|
| 50 |
def allowed_file(filename):
|
| 51 |
return '.' in filename and \
|
| 52 |
filename.rsplit('.', 1)[1].lower() in ALLOWED_EXTENSIONS
|
| 53 |
|
| 54 |
def perform_web_search(query):
|
| 55 |
-
"""Effectue une recherche web via l'API Serper."""
|
| 56 |
conn_key = "9b90a274d9e704ff5b21c0367f9ae1161779b573"
|
| 57 |
if not conn_key:
|
| 58 |
print("Clé API SERPER manquante dans .env")
|
| 59 |
return None
|
| 60 |
search_url = "https://google.serper.dev/search"
|
| 61 |
-
headers = {
|
| 62 |
-
|
| 63 |
-
'Content-Type': 'application/json'
|
| 64 |
-
}
|
| 65 |
-
payload = json.dumps({"q": query})
|
| 66 |
try:
|
| 67 |
response = requests.post(search_url, headers=headers, data=payload, timeout=10)
|
| 68 |
-
response.raise_for_status()
|
| 69 |
data = response.json()
|
| 70 |
print("Résultats de recherche obtenus.")
|
| 71 |
return data
|
|
@@ -73,232 +60,230 @@ def perform_web_search(query):
|
|
| 73 |
print(f"Erreur lors de la recherche web : {e}")
|
| 74 |
return None
|
| 75 |
except json.JSONDecodeError as e:
|
| 76 |
-
print(f"Erreur lors du décodage
|
| 77 |
print(f"Réponse reçue : {response.text}")
|
| 78 |
return None
|
| 79 |
|
| 80 |
def format_search_results(data):
|
| 81 |
-
|
| 82 |
-
|
| 83 |
-
|
| 84 |
-
|
| 85 |
-
|
| 86 |
-
|
| 87 |
-
|
| 88 |
-
|
| 89 |
-
result +=
|
| 90 |
-
|
| 91 |
-
|
| 92 |
-
|
| 93 |
-
for attr, value in kg['attributes'].items():
|
| 94 |
-
result += f"- {attr}: {value}\n"
|
| 95 |
-
|
| 96 |
-
if 'answerBox' in data:
|
| 97 |
-
ab = data['answerBox']
|
| 98 |
-
result += f"\n## Réponse directe :\n"
|
| 99 |
-
result += f"{ab.get('title','')}\n{ab.get('snippet') or ab.get('answer','')}\n"
|
| 100 |
-
|
| 101 |
-
|
| 102 |
-
if 'organic' in data and data['organic']:
|
| 103 |
-
result += "\n## Résultats principaux :\n"
|
| 104 |
-
for i, item in enumerate(data['organic'][:3], 1): # Limite aux 3 premiers
|
| 105 |
-
result += f"{i}. **{item.get('title', 'N/A')}**\n"
|
| 106 |
-
result += f" {item.get('snippet', 'N/A')}\n"
|
| 107 |
-
result += f" Lien : {item.get('link', '#')}\n\n"
|
| 108 |
-
|
| 109 |
-
if 'peopleAlsoAsk' in data and data['peopleAlsoAsk']:
|
| 110 |
-
result += "## Questions fréquentes :\n"
|
| 111 |
-
for i, item in enumerate(data['peopleAlsoAsk'][:2], 1): # Limite aux 2 premières
|
| 112 |
-
result += f"{i}. **{item.get('question', 'N/A')}**\n"
|
| 113 |
-
# result += f" {item.get('snippet', 'N/A')}\n\n" # Le snippet est souvent redondant
|
| 114 |
-
|
| 115 |
return result
|
| 116 |
|
| 117 |
def prepare_gemini_history(chat_history):
|
| 118 |
-
"""Convertit l'historique stocké en session au format attendu par Gemini API."""
|
| 119 |
gemini_history = []
|
| 120 |
for message in chat_history:
|
| 121 |
role = 'user' if message['role'] == 'user' else 'model'
|
| 122 |
-
|
| 123 |
-
|
| 124 |
-
|
| 125 |
-
|
|
|
|
| 126 |
return gemini_history
|
| 127 |
|
|
|
|
| 128 |
# --- Routes Flask ---
|
| 129 |
|
| 130 |
@app.route('/', methods=['GET'])
|
| 131 |
def index():
|
| 132 |
-
"""Affiche la page principale du chat."""
|
| 133 |
if 'chat_history' not in session:
|
| 134 |
-
session['chat_history'] = []
|
| 135 |
if 'web_search' not in session:
|
| 136 |
-
session['web_search'] = False
|
|
|
|
|
|
|
|
|
|
|
|
|
| 137 |
|
| 138 |
return render_template(
|
| 139 |
'index.html',
|
| 140 |
-
chat_history=session
|
| 141 |
-
web_search_active=session
|
| 142 |
-
error=
|
| 143 |
-
processing_message=
|
| 144 |
)
|
| 145 |
|
| 146 |
@app.route('/chat', methods=['POST'])
|
| 147 |
def chat():
|
| 148 |
-
"""Gère la soumission du formulaire de chat."""
|
| 149 |
if not model:
|
| 150 |
-
session['error'] = "Le modèle Gemini n'a pas pu être chargé.
|
| 151 |
return redirect(url_for('index'))
|
| 152 |
|
| 153 |
prompt = request.form.get('prompt', '').strip()
|
| 154 |
-
# Met à jour l'état de la recherche web depuis la checkbox
|
| 155 |
session['web_search'] = 'web_search' in request.form
|
| 156 |
file = request.files.get('file')
|
| 157 |
uploaded_gemini_file = None
|
| 158 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 159 |
|
| 160 |
if not prompt and not file:
|
| 161 |
session['error'] = "Veuillez entrer un message ou uploader un fichier."
|
|
|
|
| 162 |
return redirect(url_for('index'))
|
| 163 |
|
| 164 |
-
# --- Gestion
|
| 165 |
if file and file.filename != '':
|
| 166 |
if allowed_file(file.filename):
|
| 167 |
try:
|
| 168 |
-
# Sécurise le nom du fichier et détermine le chemin complet
|
| 169 |
filename = secure_filename(file.filename)
|
| 170 |
filepath = os.path.join(app.config['UPLOAD_FOLDER'], filename)
|
| 171 |
file.save(filepath)
|
| 172 |
-
print(f"Fichier
|
| 173 |
-
|
| 174 |
-
# Essayer d'uploader vers Gemini
|
| 175 |
-
print("Upload vers Gemini en cours...")
|
| 176 |
-
# Détecter le mime type pour l'upload Gemini
|
| 177 |
-
mime_type = mimetypes.guess_type(filepath)[0]
|
| 178 |
-
if not mime_type:
|
| 179 |
-
# Fallback si la détection échoue
|
| 180 |
-
mime_type = 'application/octet-stream'
|
| 181 |
-
print(f"Impossible de deviner le mime_type pour {filename}, utilisation de {mime_type}")
|
| 182 |
|
|
|
|
| 183 |
gemini_file_obj = genai.upload_file(path=filepath, mime_type=mime_type)
|
| 184 |
-
uploaded_gemini_file = gemini_file_obj
|
| 185 |
-
|
| 186 |
-
|
| 187 |
-
|
| 188 |
-
|
| 189 |
-
# Optionnel: Supprimer le fichier local après upload vers Gemini
|
| 190 |
-
# try:
|
| 191 |
-
# os.remove(filepath)
|
| 192 |
-
# print(f"Fichier temporaire {filepath} supprimé.")
|
| 193 |
-
# except OSError as e:
|
| 194 |
-
# print(f"Erreur lors de la suppression du fichier temporaire {filepath}: {e}")
|
| 195 |
-
|
| 196 |
|
| 197 |
except Exception as e:
|
| 198 |
-
print(f"Erreur
|
| 199 |
session['error'] = f"Erreur lors du traitement du fichier : {e}"
|
| 200 |
-
# Ne pas
|
| 201 |
-
# return redirect(url_for('index')) # Décommentez si l'upload doit être bloquant
|
| 202 |
else:
|
| 203 |
session['error'] = "Type de fichier non autorisé."
|
|
|
|
| 204 |
return redirect(url_for('index'))
|
| 205 |
-
elif file and file.filename == '':
|
| 206 |
-
# Si un champ fichier existe mais est vide, on l'ignore simplement
|
| 207 |
-
pass
|
| 208 |
-
|
| 209 |
-
# --- Ajout du message utilisateur à l'historique de session ---
|
| 210 |
-
if prompt or uploaded_gemini_file: # N'ajoute que s'il y a du contenu
|
| 211 |
-
# Version simplifiée pour l'affichage HTML (sans l'objet gemini_file)
|
| 212 |
-
display_history_message = {'role': 'user', 'text': user_message_content['text']}
|
| 213 |
-
session['chat_history'].append(display_history_message)
|
| 214 |
-
session.modified = True # Important car on modifie une liste dans la session
|
| 215 |
-
|
| 216 |
-
# --- Préparation et Envoi à Gemini ---
|
| 217 |
-
try:
|
| 218 |
-
# Indiquer qu'un traitement est en cours
|
| 219 |
-
session['processing'] = True
|
| 220 |
-
session.modified = True
|
| 221 |
|
| 222 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 223 |
final_prompt_parts = []
|
| 224 |
if uploaded_gemini_file:
|
| 225 |
final_prompt_parts.append(uploaded_gemini_file)
|
| 226 |
|
| 227 |
-
|
| 228 |
-
|
| 229 |
-
# Effectuer la recherche web si activée ET si un prompt textuel existe
|
| 230 |
if session['web_search'] and prompt:
|
| 231 |
-
|
| 232 |
-
|
| 233 |
-
|
| 234 |
-
|
| 235 |
-
|
| 236 |
-
|
| 237 |
-
|
| 238 |
-
|
| 239 |
-
|
| 240 |
-
|
| 241 |
-
|
| 242 |
-
|
| 243 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 244 |
else:
|
| 245 |
-
|
| 246 |
-
|
| 247 |
-
|
| 248 |
-
final_prompt_parts.append(current_prompt_text)
|
| 249 |
-
|
| 250 |
-
# Préparer l'historique complet pour Gemini
|
| 251 |
-
gemini_history = prepare_gemini_history(session['chat_history'][:-1]) # Exclut le dernier message utilisateur (qui est dans final_prompt_parts)
|
| 252 |
|
| 253 |
-
print(f"\n--- Envoi à Gemini ---")
|
| 254 |
-
print(f"Historique envoyé: {len(gemini_history)} messages")
|
| 255 |
-
print(f"Parties du prompt actuel: {len(final_prompt_parts)}")
|
| 256 |
-
# print(f"Prompt textuel final: {current_prompt_text[:200]}...") # Afficher début du prompt
|
| 257 |
-
# print("----------------------\n")
|
| 258 |
|
| 259 |
-
# Appel à Gemini API
|
| 260 |
-
# Utiliser generate_content qui prend l'historique + le nouveau message
|
| 261 |
full_conversation = gemini_history + [{'role': 'user', 'parts': final_prompt_parts}]
|
| 262 |
response = model.generate_content(full_conversation)
|
| 263 |
|
| 264 |
-
# --- Traitement
|
| 265 |
response_text = response.text
|
| 266 |
-
print(f"
|
| 267 |
-
|
| 268 |
-
#
|
| 269 |
-
|
| 270 |
-
|
| 271 |
-
|
|
|
|
|
|
|
|
|
|
| 272 |
session.modified = True
|
| 273 |
|
| 274 |
except Exception as e:
|
| 275 |
-
print(f"Erreur lors de l'appel à Gemini : {e}")
|
| 276 |
-
session['error'] = f"Une erreur s'est produite
|
| 277 |
-
#
|
| 278 |
-
# pour éviter
|
| 279 |
if session['chat_history'] and session['chat_history'][-1]['role'] == 'user':
|
| 280 |
-
|
| 281 |
-
|
| 282 |
-
|
| 283 |
finally:
|
| 284 |
-
#
|
| 285 |
session['processing'] = False
|
| 286 |
-
session.pop('processing_web_search', None) # Nettoyer
|
| 287 |
session.modified = True
|
|
|
|
| 288 |
|
|
|
|
| 289 |
|
| 290 |
-
|
| 291 |
-
|
| 292 |
@app.route('/clear', methods=['POST'])
|
| 293 |
def clear_chat():
|
| 294 |
-
|
| 295 |
-
session.pop('
|
| 296 |
-
session.pop('
|
|
|
|
| 297 |
print("Historique de chat effacé.")
|
| 298 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 299 |
|
| 300 |
-
# --- Démarrage de l'application ---
|
| 301 |
if __name__ == '__main__':
|
| 302 |
-
# Utiliser
|
| 303 |
-
|
| 304 |
-
app.run(debug=True, host='0.0.0.0', port=5001)
|
|
|
|
| 3 |
from flask import Flask, render_template, request, session, redirect, url_for, flash
|
| 4 |
from dotenv import load_dotenv
|
| 5 |
import google.generativeai as genai
|
| 6 |
+
import requests
|
| 7 |
from werkzeug.utils import secure_filename
|
| 8 |
+
import mimetypes
|
| 9 |
|
| 10 |
load_dotenv()
|
| 11 |
|
| 12 |
app = Flask(__name__)
|
|
|
|
| 13 |
app.config['SECRET_KEY'] = os.getenv('FLASK_SECRET_KEY', 'une-clé-secrète-par-défaut-pour-dev')
|
|
|
|
| 14 |
UPLOAD_FOLDER = 'temp'
|
| 15 |
+
ALLOWED_EXTENSIONS = {'txt', 'pdf', 'png', 'jpg', 'jpeg'}
|
| 16 |
app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER
|
| 17 |
+
app.config['MAX_CONTENT_LENGTH'] = 16 * 1024 * 1024
|
| 18 |
|
|
|
|
| 19 |
os.makedirs(UPLOAD_FOLDER, exist_ok=True)
|
| 20 |
|
| 21 |
+
# --- Configuration Gemini (inchangée) ---
|
| 22 |
try:
|
| 23 |
genai.configure(api_key=os.getenv("GOOGLE_API_KEY"))
|
|
|
|
| 24 |
safety_settings = [
|
| 25 |
{"category": "HARM_CATEGORY_HARASSMENT", "threshold": "BLOCK_NONE"},
|
| 26 |
{"category": "HARM_CATEGORY_HATE_SPEECH", "threshold": "BLOCK_NONE"},
|
| 27 |
{"category": "HARM_CATEGORY_SEXUALLY_EXPLICIT", "threshold": "BLOCK_NONE"},
|
| 28 |
{"category": "HARM_CATEGORY_DANGEROUS_CONTENT", "threshold": "BLOCK_NONE"},
|
| 29 |
]
|
|
|
|
| 30 |
model = genai.GenerativeModel(
|
| 31 |
+
'gemini-2.0-flash',
|
|
|
|
| 32 |
safety_settings=safety_settings,
|
| 33 |
system_instruction="Tu es un assistant intelligent. ton but est d'assister au mieux que tu peux. tu as été créé par Aenir et tu t'appelles Mariam"
|
|
|
|
|
|
|
| 34 |
)
|
| 35 |
print("Modèle Gemini chargé.")
|
| 36 |
except Exception as e:
|
| 37 |
print(f"Erreur lors de la configuration de Gemini : {e}")
|
| 38 |
+
model = None
|
|
|
|
|
|
|
| 39 |
|
| 40 |
+
# --- Fonctions Utilitaires (inchangées) ---
|
| 41 |
def allowed_file(filename):
|
| 42 |
return '.' in filename and \
|
| 43 |
filename.rsplit('.', 1)[1].lower() in ALLOWED_EXTENSIONS
|
| 44 |
|
| 45 |
def perform_web_search(query):
|
|
|
|
| 46 |
conn_key = "9b90a274d9e704ff5b21c0367f9ae1161779b573"
|
| 47 |
if not conn_key:
|
| 48 |
print("Clé API SERPER manquante dans .env")
|
| 49 |
return None
|
| 50 |
search_url = "https://google.serper.dev/search"
|
| 51 |
+
headers = { 'X-API-KEY': conn_key, 'Content-Type': 'application/json' }
|
| 52 |
+
payload = json.dumps({"q": query, "gl": "fr", "hl": "fr"}) # Ajout localisation FR
|
|
|
|
|
|
|
|
|
|
| 53 |
try:
|
| 54 |
response = requests.post(search_url, headers=headers, data=payload, timeout=10)
|
| 55 |
+
response.raise_for_status()
|
| 56 |
data = response.json()
|
| 57 |
print("Résultats de recherche obtenus.")
|
| 58 |
return data
|
|
|
|
| 60 |
print(f"Erreur lors de la recherche web : {e}")
|
| 61 |
return None
|
| 62 |
except json.JSONDecodeError as e:
|
| 63 |
+
print(f"Erreur lors du décodage JSON de Serper : {e}")
|
| 64 |
print(f"Réponse reçue : {response.text}")
|
| 65 |
return None
|
| 66 |
|
| 67 |
def format_search_results(data):
|
| 68 |
+
if not data: return "Aucun résultat de recherche trouvé."
|
| 69 |
+
result = "Résultats de recherche web pertinents :\n"
|
| 70 |
+
# (Formatage légèrement simplifié pour clarté)
|
| 71 |
+
if kg := data.get('knowledgeGraph'):
|
| 72 |
+
result += f"\n## {kg.get('title', '')} ({kg.get('type', '')})\n{kg.get('description', '')}\n"
|
| 73 |
+
if ab := data.get('answerBox'):
|
| 74 |
+
result += f"\n## Réponse rapide :\n{ab.get('title','')}\n{ab.get('snippet') or ab.get('answer','')}\n"
|
| 75 |
+
if org := data.get('organic'):
|
| 76 |
+
result += "\n## Principaux résultats :\n"
|
| 77 |
+
for i, item in enumerate(org[:3], 1):
|
| 78 |
+
result += f"{i}. {item.get('title', 'N/A')}\n {item.get('snippet', 'N/A')}\n [{item.get('link', '#')}]\n"
|
| 79 |
+
# People Also Ask peut être bruyant, on peut l'omettre pour le prompt
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 80 |
return result
|
| 81 |
|
| 82 |
def prepare_gemini_history(chat_history):
|
|
|
|
| 83 |
gemini_history = []
|
| 84 |
for message in chat_history:
|
| 85 |
role = 'user' if message['role'] == 'user' else 'model'
|
| 86 |
+
# Utilise la référence stockée si elle existe
|
| 87 |
+
parts = [message.get('gemini_file')] if message.get('gemini_file') else []
|
| 88 |
+
parts.append(message['text_for_gemini']) # Utilise le texte destiné à Gemini
|
| 89 |
+
# Filtrer les parts None qui pourraient survenir si gemini_file était None
|
| 90 |
+
gemini_history.append({'role': role, 'parts': [p for p in parts if p]})
|
| 91 |
return gemini_history
|
| 92 |
|
| 93 |
+
|
| 94 |
# --- Routes Flask ---
|
| 95 |
|
| 96 |
@app.route('/', methods=['GET'])
|
| 97 |
def index():
|
|
|
|
| 98 |
if 'chat_history' not in session:
|
| 99 |
+
session['chat_history'] = []
|
| 100 |
if 'web_search' not in session:
|
| 101 |
+
session['web_search'] = False
|
| 102 |
+
|
| 103 |
+
# Récupérer l'état de traitement et l'erreur pour les afficher
|
| 104 |
+
processing = session.get('processing', False)
|
| 105 |
+
error = session.pop('error', None) # Utilise pop pour ne l'afficher qu'une fois
|
| 106 |
|
| 107 |
return render_template(
|
| 108 |
'index.html',
|
| 109 |
+
chat_history=session.get('chat_history', []),
|
| 110 |
+
web_search_active=session.get('web_search', False),
|
| 111 |
+
error=error,
|
| 112 |
+
processing_message=processing # Passer l'état de traitement
|
| 113 |
)
|
| 114 |
|
| 115 |
@app.route('/chat', methods=['POST'])
|
| 116 |
def chat():
|
|
|
|
| 117 |
if not model:
|
| 118 |
+
session['error'] = "Le modèle Gemini n'a pas pu être chargé."
|
| 119 |
return redirect(url_for('index'))
|
| 120 |
|
| 121 |
prompt = request.form.get('prompt', '').strip()
|
|
|
|
| 122 |
session['web_search'] = 'web_search' in request.form
|
| 123 |
file = request.files.get('file')
|
| 124 |
uploaded_gemini_file = None
|
| 125 |
+
file_display_name = None # Pour l'affichage
|
| 126 |
+
|
| 127 |
+
# Marquer le début du traitement DANS la session
|
| 128 |
+
session['processing'] = True
|
| 129 |
+
session['processing_web_search'] = False # Reset au début
|
| 130 |
+
session.modified = True # Sauvegarder la session maintenant
|
| 131 |
|
| 132 |
if not prompt and not file:
|
| 133 |
session['error'] = "Veuillez entrer un message ou uploader un fichier."
|
| 134 |
+
session['processing'] = False # Annuler le traitement
|
| 135 |
return redirect(url_for('index'))
|
| 136 |
|
| 137 |
+
# --- Gestion Upload ---
|
| 138 |
if file and file.filename != '':
|
| 139 |
if allowed_file(file.filename):
|
| 140 |
try:
|
|
|
|
| 141 |
filename = secure_filename(file.filename)
|
| 142 |
filepath = os.path.join(app.config['UPLOAD_FOLDER'], filename)
|
| 143 |
file.save(filepath)
|
| 144 |
+
print(f"Fichier sauvegardé: {filepath}")
|
| 145 |
+
mime_type = mimetypes.guess_type(filepath)[0] or 'application/octet-stream'
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 146 |
|
| 147 |
+
print("Upload vers Gemini...")
|
| 148 |
gemini_file_obj = genai.upload_file(path=filepath, mime_type=mime_type)
|
| 149 |
+
uploaded_gemini_file = gemini_file_obj
|
| 150 |
+
file_display_name = filename # Garder le nom pour affichage
|
| 151 |
+
print(f"Fichier {filename} uploadé. MimeType: {mime_type}")
|
| 152 |
+
# Optionnel: Supprimer après upload
|
| 153 |
+
# os.remove(filepath)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 154 |
|
| 155 |
except Exception as e:
|
| 156 |
+
print(f"Erreur upload fichier : {e}")
|
| 157 |
session['error'] = f"Erreur lors du traitement du fichier : {e}"
|
| 158 |
+
# Ne pas arrêter le traitement, continuer sans le fichier si erreur upload
|
|
|
|
| 159 |
else:
|
| 160 |
session['error'] = "Type de fichier non autorisé."
|
| 161 |
+
session['processing'] = False # Annuler le traitement
|
| 162 |
return redirect(url_for('index'))
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 163 |
|
| 164 |
+
# --- Préparation Message Utilisateur ---
|
| 165 |
+
# Texte à afficher dans le chat
|
| 166 |
+
display_text = prompt
|
| 167 |
+
if file_display_name:
|
| 168 |
+
display_text = f"[Fichier joint : {file_display_name}]\n\n{prompt}" if prompt else f"[Fichier joint : {file_display_name}]"
|
| 169 |
+
|
| 170 |
+
# Texte à envoyer à Gemini (peut être différent si recherche web)
|
| 171 |
+
text_for_gemini = prompt
|
| 172 |
+
|
| 173 |
+
# Ajouter à l'historique de session (pour affichage) SEULEMENT s'il y a du contenu
|
| 174 |
+
if display_text:
|
| 175 |
+
# Garder une trace de l'objet fichier Gemini et du texte original pour l'API
|
| 176 |
+
session['chat_history'].append({
|
| 177 |
+
'role': 'user',
|
| 178 |
+
'text': display_text, # Texte pour affichage HTML
|
| 179 |
+
'text_for_gemini': text_for_gemini, # Texte initial pour l'API Gemini
|
| 180 |
+
'gemini_file': uploaded_gemini_file # Référence à l'objet fichier si uploadé
|
| 181 |
+
})
|
| 182 |
+
session.modified = True
|
| 183 |
+
|
| 184 |
+
# --- Logique principale (Recherche Web + Gemini) ---
|
| 185 |
+
try:
|
| 186 |
final_prompt_parts = []
|
| 187 |
if uploaded_gemini_file:
|
| 188 |
final_prompt_parts.append(uploaded_gemini_file)
|
| 189 |
|
| 190 |
+
# Recherche Web si activée ET prompt textuel existe
|
|
|
|
|
|
|
| 191 |
if session['web_search'] and prompt:
|
| 192 |
+
print("Activation recherche web...")
|
| 193 |
+
session['processing_web_search'] = True # Indiquer que la recherche est active
|
| 194 |
+
session.modified = True
|
| 195 |
+
# !! Important: Forcer la sauvegarde de session AVANT l'appel bloquant
|
| 196 |
+
# Ceci est un workaround car Flask sauvegarde normalement en fin de requête.
|
| 197 |
+
# Pour une vraie MAJ live, il faudrait AJAX/WebSockets.
|
| 198 |
+
from flask.sessions import SessionInterface
|
| 199 |
+
app.session_interface.save_session(app, session, Response()) # Pseudo-réponse
|
| 200 |
+
|
| 201 |
+
web_results = perform_web_search(prompt)
|
| 202 |
+
if web_results:
|
| 203 |
+
formatted_results = format_search_results(web_results)
|
| 204 |
+
text_for_gemini = f"Question originale: {prompt}\n\n{formatted_results}\n\nRéponds à la question originale en te basant sur ces informations et ta connaissance."
|
| 205 |
+
print("Prompt enrichi avec recherche web.")
|
| 206 |
+
else:
|
| 207 |
+
print("Pas de résultats web ou erreur.")
|
| 208 |
+
text_for_gemini = prompt # Garde le prompt original
|
| 209 |
+
session['processing_web_search'] = False # Recherche terminée
|
| 210 |
+
|
| 211 |
+
# Ajouter le texte (original ou enrichi) aux parts
|
| 212 |
+
if text_for_gemini: # S'assurer qu'on ajoute pas une string vide
|
| 213 |
+
final_prompt_parts.append(text_for_gemini)
|
| 214 |
+
|
| 215 |
+
# Préparer l'historique pour Gemini en utilisant les données stockées
|
| 216 |
+
# On prend tout sauf le dernier message utilisateur qui est en cours de traitement
|
| 217 |
+
gemini_history = prepare_gemini_history(session['chat_history'][:-1])
|
| 218 |
+
|
| 219 |
+
print(f"\n--- Envoi à Gemini ({len(gemini_history)} hist + {len(final_prompt_parts)} new parts) ---")
|
| 220 |
+
|
| 221 |
+
# Appel API Gemini
|
| 222 |
+
if not final_prompt_parts:
|
| 223 |
+
# Cas où seul un fichier a été envoyé sans prompt textuel,
|
| 224 |
+
# et la recherche web n'était pas activée ou n'a rien retourné.
|
| 225 |
+
# Il faut quand même envoyer qqchose, par ex., demander de décrire le fichier.
|
| 226 |
+
if uploaded_gemini_file:
|
| 227 |
+
final_prompt_parts.append("Décris le contenu de ce fichier.")
|
| 228 |
else:
|
| 229 |
+
# Ne devrait pas arriver vu les checks précédents, mais par sécurité
|
| 230 |
+
raise ValueError("Tentative d'envoyer une requête vide à Gemini.")
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 231 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 232 |
|
|
|
|
|
|
|
| 233 |
full_conversation = gemini_history + [{'role': 'user', 'parts': final_prompt_parts}]
|
| 234 |
response = model.generate_content(full_conversation)
|
| 235 |
|
| 236 |
+
# --- Traitement Réponse ---
|
| 237 |
response_text = response.text
|
| 238 |
+
print(f"--- Réponse Gemini reçue ---")
|
| 239 |
+
|
| 240 |
+
# Ajouter la réponse à l'historique (version simple pour affichage)
|
| 241 |
+
session['chat_history'].append({
|
| 242 |
+
'role': 'assistant',
|
| 243 |
+
'text': response_text,
|
| 244 |
+
'text_for_gemini': response_text # Pour symétrie, même si on ne réutilise pas directement
|
| 245 |
+
# Pas de 'gemini_file' pour les réponses du modèle
|
| 246 |
+
})
|
| 247 |
session.modified = True
|
| 248 |
|
| 249 |
except Exception as e:
|
| 250 |
+
print(f"Erreur lors de l'appel à Gemini ou traitement : {e}")
|
| 251 |
+
session['error'] = f"Une erreur s'est produite : {e}"
|
| 252 |
+
# En cas d'erreur, retirer le dernier message utilisateur de l'historique
|
| 253 |
+
# pour éviter boucle d'erreur si le prompt est problématique.
|
| 254 |
if session['chat_history'] and session['chat_history'][-1]['role'] == 'user':
|
| 255 |
+
session['chat_history'].pop()
|
| 256 |
+
session.modified = True
|
|
|
|
| 257 |
finally:
|
| 258 |
+
# Marquer la fin du traitement DANS la session
|
| 259 |
session['processing'] = False
|
| 260 |
+
session.pop('processing_web_search', None) # Nettoyer au cas où
|
| 261 |
session.modified = True
|
| 262 |
+
# Pas besoin de Response() ici, la sauvegarde se fera avec le redirect
|
| 263 |
|
| 264 |
+
return redirect(url_for('index'))
|
| 265 |
|
| 266 |
+
# Ajouter une route pour effacer la conversation
|
|
|
|
| 267 |
@app.route('/clear', methods=['POST'])
|
| 268 |
def clear_chat():
|
| 269 |
+
session.pop('chat_history', None)
|
| 270 |
+
session.pop('web_search', None)
|
| 271 |
+
session.pop('processing', None) # Nettoyer aussi l'état de process
|
| 272 |
+
session.pop('error', None)
|
| 273 |
print("Historique de chat effacé.")
|
| 274 |
+
flash("Conversation effacée.", "info") # Message feedback (optionnel)
|
| 275 |
+
return redirect(url_for('index'))
|
| 276 |
+
|
| 277 |
+
# Classe Response factice pour sauvegarde session précoce (workaround)
|
| 278 |
+
# Attention: N'est PAS une vraie réponse HTTP. A utiliser avec prudence.
|
| 279 |
+
class Response:
|
| 280 |
+
def __init__(self):
|
| 281 |
+
self.headers = {}
|
| 282 |
+
def set_cookie(self, key, value, **kwargs):
|
| 283 |
+
# Potentiellement stocker les cookies si nécessaire, mais ici on ignore
|
| 284 |
+
pass
|
| 285 |
+
|
| 286 |
|
|
|
|
| 287 |
if __name__ == '__main__':
|
| 288 |
+
# Utiliser un port différent si 5000 est pris
|
| 289 |
+
app.run(debug=True, host='0.0.0.0', port=5002)
|
|
|