Upload 10 files
Browse files- modules/ai_assistant/ai_app.py +0 -0
- modules/document_analysis/analyzer.py +92 -1556
modules/ai_assistant/ai_app.py
CHANGED
The diff for this file is too large to render.
See raw diff
|
|
modules/document_analysis/analyzer.py
CHANGED
@@ -9,10 +9,6 @@ import threading
|
|
9 |
from pathlib import Path
|
10 |
import datetime
|
11 |
import json
|
12 |
-
import base64
|
13 |
-
import time
|
14 |
-
from PIL import Image
|
15 |
-
import io
|
16 |
|
17 |
# تهيئة السجل
|
18 |
logging.basicConfig(
|
@@ -23,33 +19,33 @@ logger = logging.getLogger('document_analysis')
|
|
23 |
|
24 |
class DocumentAnalyzer:
|
25 |
"""فئة تحليل المستندات"""
|
26 |
-
|
27 |
def __init__(self, config=None):
|
28 |
"""تهيئة محلل المستندات"""
|
29 |
self.config = config
|
30 |
self.analysis_in_progress = False
|
31 |
self.current_document = None
|
32 |
self.analysis_results = {}
|
33 |
-
|
34 |
# إنشاء مجلد المستندات إذا لم يكن موجوداً
|
35 |
if config and hasattr(config, 'DOCUMENTS_PATH'):
|
36 |
self.documents_path = Path(config.DOCUMENTS_PATH)
|
37 |
else:
|
38 |
self.documents_path = Path('data/documents')
|
39 |
-
|
40 |
if not self.documents_path.exists():
|
41 |
self.documents_path.mkdir(parents=True, exist_ok=True)
|
42 |
-
|
43 |
def analyze_document(self, document_path, document_type="tender", callback=None):
|
44 |
"""تحليل مستند"""
|
45 |
if self.analysis_in_progress:
|
46 |
logger.warning("هناك عملية تحليل جارية بالفعل")
|
47 |
return False
|
48 |
-
|
49 |
if not os.path.exists(document_path):
|
50 |
logger.error(f"المستند غير موجود: {document_path}")
|
51 |
return False
|
52 |
-
|
53 |
self.analysis_in_progress = True
|
54 |
self.current_document = document_path
|
55 |
self.analysis_results = {
|
@@ -63,7 +59,7 @@ class DocumentAnalyzer:
|
|
63 |
"amounts": [],
|
64 |
"risks": []
|
65 |
}
|
66 |
-
|
67 |
# بدء التحليل في خيط منفصل
|
68 |
thread = threading.Thread(
|
69 |
target=self._analyze_document_thread,
|
@@ -71,15 +67,15 @@ class DocumentAnalyzer:
|
|
71 |
)
|
72 |
thread.daemon = True
|
73 |
thread.start()
|
74 |
-
|
75 |
return True
|
76 |
-
|
77 |
def _analyze_document_thread(self, document_path, document_type, callback):
|
78 |
"""خيط تحليل المستند"""
|
79 |
try:
|
80 |
# تحديد نوع المستند
|
81 |
file_extension = os.path.splitext(document_path)[1].lower()
|
82 |
-
|
83 |
if file_extension == '.pdf':
|
84 |
self.analysis_results = self._analyze_pdf(document_path, document_type)
|
85 |
elif file_extension == '.docx':
|
@@ -92,38 +88,34 @@ class DocumentAnalyzer:
|
|
92 |
logger.error(f"نوع المستند غير مدعوم: {file_extension}")
|
93 |
self.analysis_results["status"] = "فشل التحليل"
|
94 |
self.analysis_results["error"] = "نوع المستند غير مدعوم"
|
95 |
-
|
96 |
# تحديث حالة التحليل
|
97 |
if self.analysis_results["status"] != "فشل التحليل":
|
98 |
self.analysis_results["status"] = "اكتمل التحليل"
|
99 |
self.analysis_results["analysis_end_time"] = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
|
100 |
-
|
101 |
logger.info(f"اكتمل تحليل المستند: {document_path}")
|
102 |
-
|
103 |
except Exception as e:
|
104 |
logger.error(f"خطأ في تحليل المستند: {str(e)}")
|
105 |
self.analysis_results["status"] = "فشل التحليل"
|
106 |
self.analysis_results["error"] = str(e)
|
107 |
-
|
108 |
finally:
|
109 |
self.analysis_in_progress = False
|
110 |
-
|
111 |
# استدعاء دالة الاستجابة إذا تم توفيرها
|
112 |
if callback and callable(callback):
|
113 |
callback(self.analysis_results)
|
114 |
-
|
115 |
def _analyze_pdf(self, document_path, document_type):
|
116 |
"""تحليل مستند PDF باستخدام الذكاء الاصطناعي"""
|
117 |
try:
|
118 |
# استخراج النص من PDF
|
119 |
text = self._extract_text_from_pdf(document_path)
|
120 |
-
|
121 |
# تحليل متقدم للمستند
|
122 |
analysis = {
|
123 |
-
"document_path": document_path,
|
124 |
-
"document_type": document_type,
|
125 |
-
"analysis_start_time": self.analysis_results["analysis_start_time"],
|
126 |
-
"status": "جاري التحليل",
|
127 |
"file_info": {
|
128 |
"name": os.path.basename(document_path),
|
129 |
"type": "PDF",
|
@@ -173,1519 +165,116 @@ class DocumentAnalyzer:
|
|
173 |
except Exception as e:
|
174 |
logger.error(f"خطأ في تحليل PDF: {str(e)}")
|
175 |
raise
|
176 |
-
|
177 |
-
def extract_document_metadata(self, document_path):
|
178 |
-
"""استخراج البيانات الوصفية للمستند"""
|
179 |
-
try:
|
180 |
-
# تحديد نوع المستند
|
181 |
-
file_extension = os.path.splitext(document_path)[1].lower()
|
182 |
-
|
183 |
-
metadata = {
|
184 |
-
"filename": os.path.basename(document_path),
|
185 |
-
"file_type": file_extension.replace('.', '').upper(),
|
186 |
-
"file_size": os.path.getsize(document_path),
|
187 |
-
"creation_date": "غير متوفر",
|
188 |
-
"modification_date": time.ctime(os.path.getmtime(document_path)),
|
189 |
-
"author": "غير متوفر",
|
190 |
-
"title": "غير متوفر"
|
191 |
-
}
|
192 |
-
|
193 |
-
# استخراج البيانات الوصفية حسب نوع المستند
|
194 |
-
if file_extension == '.pdf':
|
195 |
-
pdf_metadata = self._extract_pdf_metadata(document_path)
|
196 |
-
metadata.update(pdf_metadata)
|
197 |
-
elif file_extension == '.docx':
|
198 |
-
docx_metadata = self._extract_docx_metadata(document_path)
|
199 |
-
metadata.update(docx_metadata)
|
200 |
-
elif file_extension == '.xlsx':
|
201 |
-
xlsx_metadata = self._extract_xlsx_metadata(document_path)
|
202 |
-
metadata.update(xlsx_metadata)
|
203 |
-
|
204 |
-
return metadata
|
205 |
-
|
206 |
-
except Exception as e:
|
207 |
-
logger.error(f"خطأ في استخراج البيانات الوصفية: {str(e)}")
|
208 |
-
return None
|
209 |
-
|
210 |
-
def _extract_pdf_metadata(self, document_path):
|
211 |
-
"""استخراج البيانات الوصفية من ملف PDF"""
|
212 |
-
try:
|
213 |
-
import PyPDF2
|
214 |
-
|
215 |
-
metadata = {}
|
216 |
-
|
217 |
-
with open(document_path, 'rb') as file:
|
218 |
-
reader = PyPDF2.PdfReader(file)
|
219 |
-
|
220 |
-
# استخراج البيانات الوصفية المتاحة
|
221 |
-
if reader.metadata:
|
222 |
-
if '/Title' in reader.metadata:
|
223 |
-
metadata["title"] = reader.metadata['/Title']
|
224 |
-
if '/Author' in reader.metadata:
|
225 |
-
metadata["author"] = reader.metadata['/Author']
|
226 |
-
if '/CreationDate' in reader.metadata:
|
227 |
-
metadata["creation_date"] = reader.metadata['/CreationDate']
|
228 |
-
if '/ModDate' in reader.metadata:
|
229 |
-
metadata["modification_date"] = reader.metadata['/ModDate']
|
230 |
-
if '/Producer' in reader.metadata:
|
231 |
-
metadata["producer"] = reader.metadata['/Producer']
|
232 |
-
if '/Creator' in reader.metadata:
|
233 |
-
metadata["creator"] = reader.metadata['/Creator']
|
234 |
-
|
235 |
-
# إضافة عدد الصفحات
|
236 |
-
metadata["pages"] = len(reader.pages)
|
237 |
-
|
238 |
-
return metadata
|
239 |
-
|
240 |
-
except Exception as e:
|
241 |
-
logger.error(f"خطأ في استخراج البيانات الوصفية من PDF: {str(e)}")
|
242 |
-
return {}
|
243 |
-
|
244 |
-
def compare_documents(self, document_path1, document_path2):
|
245 |
-
"""مقارنة مستندين"""
|
246 |
-
try:
|
247 |
-
# تحليل المستندين
|
248 |
-
self.analyze_document(document_path1)
|
249 |
-
analysis1 = self.get_analysis_results()
|
250 |
-
|
251 |
-
self.analyze_document(document_path2)
|
252 |
-
analysis2 = self.get_analysis_results()
|
253 |
-
|
254 |
-
# مقارنة نتائج التحليل
|
255 |
-
comparison = {
|
256 |
-
"document1": {
|
257 |
-
"path": document_path1,
|
258 |
-
"file_info": analysis1.get("file_info", {})
|
259 |
-
},
|
260 |
-
"document2": {
|
261 |
-
"path": document_path2,
|
262 |
-
"file_info": analysis2.get("file_info", {})
|
263 |
-
},
|
264 |
-
"differences": self._find_document_differences(analysis1, analysis2),
|
265 |
-
"similarity_score": self._calculate_similarity_score(analysis1, analysis2)
|
266 |
-
}
|
267 |
-
|
268 |
-
return comparison
|
269 |
-
|
270 |
-
except Exception as e:
|
271 |
-
logger.error(f"خطأ في مقارنة المستندات: {str(e)}")
|
272 |
-
return None
|
273 |
-
|
274 |
-
def _find_document_differences(self, analysis1, analysis2):
|
275 |
-
"""العثور على الاختلافات بين تحليلين"""
|
276 |
-
differences = {}
|
277 |
-
|
278 |
-
# مقارنة البنود
|
279 |
-
if "items" in analysis1 and "items" in analysis2:
|
280 |
-
items1 = set(item["name"] for item in analysis1["items"] if "name" in item)
|
281 |
-
items2 = set(item["name"] for item in analysis2["items"] if "name" in item)
|
282 |
-
|
283 |
-
differences["items"] = {
|
284 |
-
"only_in_doc1": list(items1 - items2),
|
285 |
-
"only_in_doc2": list(items2 - items1),
|
286 |
-
"common": list(items1.intersection(items2))
|
287 |
-
}
|
288 |
-
|
289 |
-
# مقارنة الكيانات
|
290 |
-
if "entities" in analysis1 and "entities" in analysis2:
|
291 |
-
entities1 = set(entity for entity in analysis1["entities"])
|
292 |
-
entities2 = set(entity for entity in analysis2["entities"])
|
293 |
-
|
294 |
-
differences["entities"] = {
|
295 |
-
"only_in_doc1": list(entities1 - entities2),
|
296 |
-
"only_in_doc2": list(entities2 - entities1),
|
297 |
-
"common": list(entities1.intersection(entities2))
|
298 |
-
}
|
299 |
-
|
300 |
-
# مقارنة التواريخ
|
301 |
-
if "dates" in analysis1 and "dates" in analysis2:
|
302 |
-
dates1 = set(date for date in analysis1["dates"])
|
303 |
-
dates2 = set(date for date in analysis2["dates"])
|
304 |
-
|
305 |
-
differences["dates"] = {
|
306 |
-
"only_in_doc1": list(dates1 - dates2),
|
307 |
-
"only_in_doc2": list(dates2 - dates1),
|
308 |
-
"common": list(dates1.intersection(dates2))
|
309 |
-
}
|
310 |
-
|
311 |
-
# مقارنة المبالغ
|
312 |
-
if "amounts" in analysis1 and "amounts" in analysis2:
|
313 |
-
amounts1 = set(amount["amount"] for amount in analysis1["amounts"] if "amount" in amount)
|
314 |
-
amounts2 = set(amount["amount"] for amount in analysis2["amounts"] if "amount" in amount)
|
315 |
-
|
316 |
-
differences["amounts"] = {
|
317 |
-
"only_in_doc1": list(amounts1 - amounts2),
|
318 |
-
"only_in_doc2": list(amounts2 - amounts1),
|
319 |
-
"common": list(amounts1.intersection(amounts2))
|
320 |
-
}
|
321 |
-
|
322 |
-
return differences
|
323 |
-
|
324 |
-
def _calculate_similarity_score(self, analysis1, analysis2):
|
325 |
-
"""حساب درجة التشابه بين تحليلين"""
|
326 |
-
# محاكاة بسيطة لحساب درجة التشابه
|
327 |
-
similarity_score = 0
|
328 |
-
total_factors = 0
|
329 |
-
|
330 |
-
# التشابه في البنود
|
331 |
-
if "items" in analysis1 and "items" in analysis2:
|
332 |
-
items1 = set(item["name"] for item in analysis1["items"] if "name" in item)
|
333 |
-
items2 = set(item["name"] for item in analysis2["items"] if "name" in item)
|
334 |
-
|
335 |
-
if items1 or items2: # تجنب القسمة على صفر
|
336 |
-
similarity_score += len(items1.intersection(items2)) / max(len(items1.union(items2)), 1)
|
337 |
-
total_factors += 1
|
338 |
-
|
339 |
-
# التشابه في الكيانات
|
340 |
-
if "entities" in analysis1 and "entities" in analysis2:
|
341 |
-
entities1 = set(entity for entity in analysis1["entities"])
|
342 |
-
entities2 = set(entity for entity in analysis2["entities"])
|
343 |
-
|
344 |
-
if entities1 or entities2:
|
345 |
-
similarity_score += len(entities1.intersection(entities2)) / max(len(entities1.union(entities2)), 1)
|
346 |
-
total_factors += 1
|
347 |
-
|
348 |
-
# التشابه في التواريخ
|
349 |
-
if "dates" in analysis1 and "dates" in analysis2:
|
350 |
-
dates1 = set(date for date in analysis1["dates"])
|
351 |
-
dates2 = set(date for date in analysis2["dates"])
|
352 |
-
|
353 |
-
if dates1 or dates2:
|
354 |
-
similarity_score += len(dates1.intersection(dates2)) / max(len(dates1.union(dates2)), 1)
|
355 |
-
total_factors += 1
|
356 |
-
|
357 |
-
# التشابه في المبالغ
|
358 |
-
if "amounts" in analysis1 and "amounts" in analysis2:
|
359 |
-
amounts1 = set(amount["amount"] for amount in analysis1["amounts"] if "amount" in amount)
|
360 |
-
amounts2 = set(amount["amount"] for amount in analysis2["amounts"] if "amount" in amount)
|
361 |
-
|
362 |
-
if amounts1 or amounts2:
|
363 |
-
similarity_score += len(amounts1.intersection(amounts2)) / max(len(amounts1.union(amounts2)), 1)
|
364 |
-
total_factors += 1
|
365 |
-
|
366 |
-
# حساب المتوسط
|
367 |
-
if total_factors > 0:
|
368 |
-
similarity_percentage = (similarity_score / total_factors) * 100
|
369 |
-
return round(similarity_percentage, 2)
|
370 |
-
else:
|
371 |
-
return 0.0
|
372 |
-
|
373 |
-
def generate_report(self, analysis_results=None, report_format="html"):
|
374 |
-
"""توليد تقرير من نتائج التحليل"""
|
375 |
-
try:
|
376 |
-
# استخدام نتائج التحليل الحالية إذا لم يتم توفير نتائج
|
377 |
-
if analysis_results is None:
|
378 |
-
analysis_results = self.analysis_results
|
379 |
-
|
380 |
-
if not analysis_results:
|
381 |
-
logger.warning("لا توجد نتائج تحليل لتوليد تقرير")
|
382 |
-
return None
|
383 |
-
|
384 |
-
# توليد التقرير حسب الصيغة المطلوبة
|
385 |
-
if report_format.lower() == "html":
|
386 |
-
return self._generate_html_report(analysis_results)
|
387 |
-
elif report_format.lower() == "pdf":
|
388 |
-
return self._
|
389 |
-
|
390 |
-
def _extract_docx_metadata(self, document_path):
|
391 |
-
"""استخراج البيانات الوصفية من ملف Word"""
|
392 |
-
try:
|
393 |
-
import docx
|
394 |
-
|
395 |
-
metadata = {}
|
396 |
-
|
397 |
-
doc = docx.Document(document_path)
|
398 |
-
|
399 |
-
# استخراج البيانات الوصفية المتاحة
|
400 |
-
core_properties = doc.core_properties
|
401 |
-
|
402 |
-
if core_properties.title:
|
403 |
-
metadata["title"] = core_properties.title
|
404 |
-
if core_properties.author:
|
405 |
-
metadata["author"] = core_properties.author
|
406 |
-
if core_properties.created:
|
407 |
-
metadata["creation_date"] = str(core_properties.created)
|
408 |
-
if core_properties.modified:
|
409 |
-
metadata["modification_date"] = str(core_properties.modified)
|
410 |
-
if core_properties.last_modified_by:
|
411 |
-
metadata["last_modified_by"] = core_properties.last_modified_by
|
412 |
-
if core_properties.revision:
|
413 |
-
metadata["revision"] = core_properties.revision
|
414 |
-
|
415 |
-
# إضافة عدد الصفحات (تقريبي)
|
416 |
-
text_length = sum(len(paragraph.text) for paragraph in doc.paragraphs)
|
417 |
-
estimated_pages = max(1, text_length // 3000)
|
418 |
-
metadata["pages"] = estimated_pages
|
419 |
-
|
420 |
-
return metadata
|
421 |
-
|
422 |
-
except Exception as e:
|
423 |
-
logger.error(f"خطأ في استخراج البيانات الوصفية من Word: {str(e)}")
|
424 |
-
return {}
|
425 |
-
|
426 |
-
def _extract_xlsx_metadata(self, document_path):
|
427 |
-
"""استخراج البيانات الوصفية من ملف Excel"""
|
428 |
-
try:
|
429 |
-
import openpyxl
|
430 |
-
|
431 |
-
metadata = {}
|
432 |
-
|
433 |
-
workbook = openpyxl.load_workbook(document_path, read_only=True)
|
434 |
-
|
435 |
-
# استخراج البيانات الوصفية المتاحة
|
436 |
-
if workbook.properties:
|
437 |
-
if workbook.properties.title:
|
438 |
-
metadata["title"] = workbook.properties.title
|
439 |
-
if workbook.properties.creator:
|
440 |
-
metadata["author"] = workbook.properties.creator
|
441 |
-
if workbook.properties.created:
|
442 |
-
metadata["creation_date"] = str(workbook.properties.created)
|
443 |
-
if workbook.properties.modified:
|
444 |
-
metadata["modification_date"] = str(workbook.properties.modified)
|
445 |
-
if workbook.properties.lastModifiedBy:
|
446 |
-
metadata["last_modified_by"] = workbook.properties.lastModifiedBy
|
447 |
-
if workbook.properties.revision:
|
448 |
-
metadata["revision"] = workbook.properties.revision
|
449 |
-
|
450 |
-
# إضافة عدد الأوراق
|
451 |
-
metadata["sheets"] = len(workbook.sheetnames)
|
452 |
-
metadata["sheet_names"] = workbook.sheetnames
|
453 |
-
|
454 |
-
return metadata
|
455 |
-
|
456 |
-
except Exception as e:
|
457 |
-
logger.error(f"خطأ في استخراج البيانات الوصفية من Excel: {str(e)}")
|
458 |
-
return {}
|
459 |
|
460 |
def _extract_text_from_pdf(self, document_path):
|
461 |
-
"""استخراج النص من ملف PDF"""
|
462 |
-
|
463 |
-
|
464 |
-
|
465 |
-
with open(document_path, 'rb') as file:
|
466 |
-
reader = PyPDF2.PdfReader(file)
|
467 |
-
for page in reader.pages:
|
468 |
-
text += page.extract_text() + "\n"
|
469 |
-
return text
|
470 |
-
except Exception as e:
|
471 |
-
logger.error(f"خطأ في استخراج النص من PDF: {str(e)}")
|
472 |
-
raise
|
473 |
|
474 |
def _analyze_contract_terms(self, text):
|
475 |
"""تحليل بنود العقد"""
|
476 |
-
|
477 |
-
|
478 |
-
for section in sections:
|
479 |
-
if any(keyword in section.lower() for keyword in ['شروط', 'بند', 'يلتزم', 'يجب']):
|
480 |
-
terms.append(section.strip())
|
481 |
-
return terms
|
482 |
|
483 |
def _analyze_financial_terms(self, text):
|
484 |
"""تحليل الجزء المالي"""
|
485 |
-
|
486 |
-
|
487 |
-
# البحث عن الأقسام المالية
|
488 |
-
sections = text.split('\n\n')
|
489 |
-
for section in sections:
|
490 |
-
if any(keyword in section.lower() for keyword in ['مالي', 'تكلفة', 'سعر', 'ميزانية', 'دفع']):
|
491 |
-
financial_terms.append(section.strip())
|
492 |
-
|
493 |
-
# استخراج المبالغ المالية
|
494 |
-
amounts = self._extract_monetary_amounts(text)
|
495 |
-
|
496 |
-
return {
|
497 |
-
"sections": financial_terms,
|
498 |
-
"amounts": amounts,
|
499 |
-
"payment_terms": self._extract_payment_terms(text),
|
500 |
-
"budget_allocation": self._extract_budget_allocation(text)
|
501 |
-
}
|
502 |
-
|
503 |
-
def _extract_monetary_amounts(self, text):
|
504 |
-
"""استخراج المبالغ المالية من النص"""
|
505 |
-
import re
|
506 |
-
# نمط للبحث عن المبالغ المالية بالريال السعودي والدولار الأمريكي
|
507 |
-
pattern = r'(\d{1,3}(?:,\d{3})*(?:\.\d+)?)\s*(?:ريال|دولار|SAR|USD|ر\.س|\$)'
|
508 |
-
matches = re.findall(pattern, text)
|
509 |
-
return [float(amount.replace(',', '')) for amount in matches]
|
510 |
-
|
511 |
-
def _extract_payment_terms(self, text):
|
512 |
-
"""استخراج شروط الدفع"""
|
513 |
-
payment_terms = []
|
514 |
-
sections = text.split('\n\n')
|
515 |
-
for section in sections:
|
516 |
-
if any(keyword in section.lower() for keyword in ['دفع', 'سداد', 'أقساط', 'مستحقات']):
|
517 |
-
payment_terms.append(section.strip())
|
518 |
-
return payment_terms
|
519 |
-
|
520 |
-
def _extract_budget_allocation(self, text):
|
521 |
-
"""استخراج تخصيص الميزانية"""
|
522 |
-
# هذه وظيفة بسيطة لاستخراج تخصيص الميزانية
|
523 |
-
# في التطبيق الحقيقي، قد تحتاج إلى تحليل أكثر تعقيدًا
|
524 |
-
budget_items = []
|
525 |
-
sections = text.split('\n\n')
|
526 |
-
for section in sections:
|
527 |
-
if any(keyword in section.lower() for keyword in ['ميزانية', 'تخصيص', 'تمويل']):
|
528 |
-
budget_items.append(section.strip())
|
529 |
-
return budget_items
|
530 |
|
531 |
def _analyze_legal_terms(self, text):
|
532 |
"""تحليل القانوني للعقد"""
|
533 |
-
|
534 |
-
|
535 |
-
# البحث عن الأقسام القانونية
|
536 |
-
sections = text.split('\n\n')
|
537 |
-
for section in sections:
|
538 |
-
if any(keyword in section.lower() for keyword in ['قانون', 'تشريع', 'نظام', 'حكم', 'قضاء', 'محكمة']):
|
539 |
-
legal_terms.append(section.strip())
|
540 |
-
|
541 |
-
return {
|
542 |
-
"sections": legal_terms,
|
543 |
-
"liability_clauses": self._extract_liability_clauses(text),
|
544 |
-
"dispute_resolution": self._extract_dispute_resolution(text),
|
545 |
-
"legal_references": self._extract_legal_references(text)
|
546 |
-
}
|
547 |
-
|
548 |
-
def _extract_liability_clauses(self, text):
|
549 |
-
"""استخراج بنود المسؤولية"""
|
550 |
-
liability_clauses = []
|
551 |
-
sections = text.split('\n\n')
|
552 |
-
for section in sections:
|
553 |
-
if any(keyword in section.lower() for keyword in ['مسؤولية', 'التزام', 'ضمان', 'تعويض']):
|
554 |
-
liability_clauses.append(section.strip())
|
555 |
-
return liability_clauses
|
556 |
|
557 |
-
def _extract_dispute_resolution(self, text):
|
558 |
-
"""استخراج آلية فض النزاعات"""
|
559 |
-
dispute_clauses = []
|
560 |
-
sections = text.split('\n\n')
|
561 |
-
for section in sections:
|
562 |
-
if any(keyword in section.lower() for keyword in ['نزاع', 'خلاف', 'تحكيم', 'قضاء', 'تسوية']):
|
563 |
-
dispute_clauses.append(section.strip())
|
564 |
-
return dispute_clauses
|
565 |
-
|
566 |
-
def _extract_legal_references(self, text):
|
567 |
-
"""استخراج المراجع القانونية"""
|
568 |
-
import re
|
569 |
-
# نمط للبحث عن المراجع القانونية مثل أرقام القوانين واللوائح
|
570 |
-
pattern = r'قانون رقم \d+|لائحة \d+|نظام \d+|مرسوم \d+'
|
571 |
-
return re.findall(pattern, text)
|
572 |
-
|
573 |
def _analyze_risks(self, text):
|
574 |
"""تحليل المخاطر"""
|
575 |
-
|
576 |
-
|
577 |
-
# البحث عن الأقسام المتعلقة بالمخاطر
|
578 |
-
sections = text.split('\n\n')
|
579 |
-
for section in sections:
|
580 |
-
if any(keyword in section.lower() for keyword in ['مخاطر', 'خطر', 'تهديد', 'ضرر', 'إخلال']):
|
581 |
-
risk_factors.append(section.strip())
|
582 |
-
|
583 |
-
# تصنيف المخاطر
|
584 |
-
risk_categories = {
|
585 |
-
"financial_risks": self._extract_financial_risks(text),
|
586 |
-
"operational_risks": self._extract_operational_risks(text),
|
587 |
-
"legal_risks": self._extract_legal_risks(text),
|
588 |
-
"technical_risks": self._extract_technical_risks(text)
|
589 |
-
}
|
590 |
-
|
591 |
-
# تقييم شدة المخاطر
|
592 |
-
risk_severity = self._assess_risk_severity(risk_factors)
|
593 |
-
|
594 |
-
return {
|
595 |
-
"risk_factors": risk_factors,
|
596 |
-
"risk_categories": risk_categories,
|
597 |
-
"risk_severity": risk_severity,
|
598 |
-
"mitigation_suggestions": self._suggest_risk_mitigation(risk_factors)
|
599 |
-
}
|
600 |
-
|
601 |
-
def _extract_financial_risks(self, text):
|
602 |
-
"""استخراج المخاطر المالية"""
|
603 |
-
financial_risks = []
|
604 |
-
sections = text.split('\n\n')
|
605 |
-
for section in sections:
|
606 |
-
if any(keyword in section.lower() for keyword in ['مخاطر مالية', 'خسارة', 'تكلفة إضافية', 'غرامة']):
|
607 |
-
financial_risks.append(section.strip())
|
608 |
-
return financial_risks
|
609 |
-
|
610 |
-
def _extract_operational_risks(self, text):
|
611 |
-
"""استخراج المخاطر التشغيلية"""
|
612 |
-
operational_risks = []
|
613 |
-
sections = text.split('\n\n')
|
614 |
-
for section in sections:
|
615 |
-
if any(keyword in section.lower() for keyword in ['مخاطر تشغيلية', 'توقف', 'تعطل', 'تأخير']):
|
616 |
-
operational_risks.append(section.strip())
|
617 |
-
return operational_risks
|
618 |
-
|
619 |
-
def _extract_legal_risks(self, text):
|
620 |
-
"""استخراج المخاطر القانونية"""
|
621 |
-
legal_risks = []
|
622 |
-
sections = text.split('\n\n')
|
623 |
-
for section in sections:
|
624 |
-
if any(keyword in section.lower() for keyword in ['مخاطر قانونية', 'نزاع', 'مخالفة', 'تقاضي']):
|
625 |
-
legal_risks.append(section.strip())
|
626 |
-
return legal_risks
|
627 |
-
|
628 |
-
def _extract_technical_risks(self, text):
|
629 |
-
"""استخراج المخاطر الفنية"""
|
630 |
-
technical_risks = []
|
631 |
-
sections = text.split('\n\n')
|
632 |
-
for section in sections:
|
633 |
-
if any(keyword in section.lower() for keyword in ['مخاطر فنية', 'عطل', 'خلل', 'تقني']):
|
634 |
-
technical_risks.append(section.strip())
|
635 |
-
return technical_risks
|
636 |
-
|
637 |
-
def _assess_risk_severity(self, risk_factors):
|
638 |
-
"""تقييم شدة المخاطر"""
|
639 |
-
# في التطبيق الحقيقي، ستحتاج إلى تحليل أكثر تعقيدًا
|
640 |
-
# هذه مجرد محاكاة بسيطة
|
641 |
-
severity_scores = []
|
642 |
-
for risk in risk_factors:
|
643 |
-
# تقييم بسيط بناءً على طول النص والكلمات الرئيسية
|
644 |
-
score = len(risk) / 100 # كلما كان النص أطول، كلما كانت المخاطر أكثر تفصيلاً
|
645 |
-
|
646 |
-
# زيادة الدرجة بناءً على كلمات مفتاحية تدل على شدة الخطر
|
647 |
-
severe_keywords = ['خطير', 'شديد', 'كبير', 'جسيم', 'عالي']
|
648 |
-
for keyword in severe_keywords:
|
649 |
-
if keyword in risk.lower():
|
650 |
-
score += 1
|
651 |
-
|
652 |
-
severity_scores.append(min(score, 10)) # تحديد سقف للدرجة
|
653 |
-
|
654 |
-
# متوسط درجة الشدة
|
655 |
-
average_severity = sum(severity_scores) / len(severity_scores) if severity_scores else 0
|
656 |
-
|
657 |
-
# تصنيف المخاطر بناءً على متوسط الشدة
|
658 |
-
if average_severity >= 7:
|
659 |
-
return "عالية"
|
660 |
-
elif average_severity >= 4:
|
661 |
-
return "متوسطة"
|
662 |
-
else:
|
663 |
-
return "منخفضة"
|
664 |
-
|
665 |
-
def _suggest_risk_mitigation(self, risk_factors):
|
666 |
-
"""اقتراح آليات تخفيف المخاطر"""
|
667 |
-
mitigations = []
|
668 |
-
|
669 |
-
# في التطبيق الحقيقي، ستحتاج إلى محرك استدلال أكثر تعقيدًا
|
670 |
-
# هذه مجرد اقتراحات عامة
|
671 |
-
|
672 |
-
if any("مالي" in risk for risk in risk_factors):
|
673 |
-
mitigations.append("ضمانات مالية وتأمين لتغطية المخاطر المالية")
|
674 |
-
|
675 |
-
if any("تأخير" in risk for risk in risk_factors):
|
676 |
-
mitigations.append("وضع جداول زمنية مرنة وخطط بديلة للطوارئ")
|
677 |
-
|
678 |
-
if any("قانوني" in risk for risk in risk_factors):
|
679 |
-
mitigations.append("مراجعة قانونية شاملة للعقد وبنوده")
|
680 |
-
|
681 |
-
if any("فني" in risk for risk in risk_factors):
|
682 |
-
mitigations.append("اختبارات فنية مسبقة وضمانات للأداء الفني")
|
683 |
-
|
684 |
-
# إضافة توصيات عامة إذا لم يتم العثور على مخاطر محددة
|
685 |
-
if not mitigations:
|
686 |
-
mitigations = [
|
687 |
-
"وضع خطة إدارة مخاطر شاملة",
|
688 |
-
"تحديد مسؤوليات الأطراف بوضوح",
|
689 |
-
"وضع آليات للمتابعة والتقييم الدوري",
|
690 |
-
"توفير ضمانات مالية وفنية كافية"
|
691 |
-
]
|
692 |
-
|
693 |
-
return mitigations
|
694 |
|
695 |
def _analyze_conditions(self, text):
|
696 |
"""دراسة كراسة الشروط"""
|
697 |
-
conditions
|
698 |
-
|
699 |
-
# البحث عن الأقسام المتعلقة بالشروط
|
700 |
-
sections = text.split('\n\n')
|
701 |
-
for section in sections:
|
702 |
-
if any(keyword in section.lower() for keyword in ['شروط', 'متطلبات', 'معايير', 'مواصفات']):
|
703 |
-
conditions.append(section.strip())
|
704 |
-
|
705 |
-
# تصنيف الشروط
|
706 |
-
categorized_conditions = {
|
707 |
-
"general_conditions": self._extract_general_conditions(text),
|
708 |
-
"technical_conditions": self._extract_technical_conditions(text),
|
709 |
-
"administrative_conditions": self._extract_administrative_conditions(text),
|
710 |
-
"financial_conditions": self._extract_financial_conditions(text)
|
711 |
-
}
|
712 |
-
|
713 |
-
# تقييم مدى اكتمال الشروط ووضوحها
|
714 |
-
completeness_score = self._assess_conditions_completeness(conditions)
|
715 |
-
clarity_score = self._assess_conditions_clarity(conditions)
|
716 |
-
|
717 |
-
return {
|
718 |
-
"conditions_list": conditions,
|
719 |
-
"categorized_conditions": categorized_conditions,
|
720 |
-
"completeness_score": completeness_score,
|
721 |
-
"clarity_score": clarity_score,
|
722 |
-
"improvement_suggestions": self._suggest_conditions_improvements(conditions)
|
723 |
-
}
|
724 |
-
|
725 |
-
def _extract_general_conditions(self, text):
|
726 |
-
"""استخراج الشروط العامة"""
|
727 |
-
general_conditions = []
|
728 |
-
sections = text.split('\n\n')
|
729 |
-
for section in sections:
|
730 |
-
if any(keyword in section.lower() for keyword in ['شروط عامة', 'أحكام عامة']):
|
731 |
-
general_conditions.append(section.strip())
|
732 |
-
return general_conditions
|
733 |
-
|
734 |
-
def _extract_technical_conditions(self, text):
|
735 |
-
"""استخراج الشروط الفنية"""
|
736 |
-
technical_conditions = []
|
737 |
-
sections = text.split('\n\n')
|
738 |
-
for section in sections:
|
739 |
-
if any(keyword in section.lower() for keyword in ['شروط فنية', 'مواصفات فنية', 'متطلبات فنية']):
|
740 |
-
technical_conditions.append(section.strip())
|
741 |
-
return technical_conditions
|
742 |
-
|
743 |
-
def _extract_administrative_conditions(self, text):
|
744 |
-
"""استخراج الشروط الإدارية"""
|
745 |
-
admin_conditions = []
|
746 |
-
sections = text.split('\n\n')
|
747 |
-
for section in sections:
|
748 |
-
if any(keyword in section.lower() for keyword in ['شروط إدارية', 'متطلبات إدارية']):
|
749 |
-
admin_conditions.append(section.strip())
|
750 |
-
return admin_conditions
|
751 |
-
|
752 |
-
def _extract_financial_conditions(self, text):
|
753 |
-
"""استخراج الشروط المالية"""
|
754 |
-
financial_conditions = []
|
755 |
-
sections = text.split('\n\n')
|
756 |
-
for section in sections:
|
757 |
-
if any(keyword in section.lower() for keyword in ['شروط مالية', 'متطلبات مالية']):
|
758 |
-
financial_conditions.append(section.strip())
|
759 |
-
return financial_conditions
|
760 |
-
|
761 |
-
def _assess_conditions_completeness(self, conditions):
|
762 |
-
"""تقييم اكتمال الشروط"""
|
763 |
-
# تحقق من وجود جميع أنواع الشروط الرئيسية
|
764 |
-
required_categories = ['عامة', 'فنية', 'إدارية', 'مالية']
|
765 |
-
|
766 |
-
coverage = 0
|
767 |
-
for category in required_categories:
|
768 |
-
if any(category in condition.lower() for condition in conditions):
|
769 |
-
coverage += 1
|
770 |
-
|
771 |
-
# حساب نسبة التغطية
|
772 |
-
completeness_score = (coverage / len(required_categories)) * 10
|
773 |
-
|
774 |
-
return min(round(completeness_score, 1), 10) # تحديد سقف للدرجة
|
775 |
-
|
776 |
-
def _assess_conditions_clarity(self, conditions):
|
777 |
-
"""تقييم وضوح الشروط"""
|
778 |
-
# في التطبيق الحقيقي، ستحتاج إلى تحليل لغوي أكثر تعقيدًا
|
779 |
-
# هذه مجرد محاكاة بسيطة
|
780 |
-
|
781 |
-
clarity_scores = []
|
782 |
-
for condition in conditions:
|
783 |
-
# تقييم بسيط بناءً على وضوح النص
|
784 |
-
score = 10 # نبدأ بدرجة كاملة
|
785 |
-
|
786 |
-
# تقليل الدرجة بناءً على كلمات غامضة
|
787 |
-
ambiguous_terms = ['ربما', 'قد', 'يمكن', 'محتمل', 'حسب الاقتضاء', 'في بعض الحالات']
|
788 |
-
for term in ambiguous_terms:
|
789 |
-
if term in condition.lower():
|
790 |
-
score -= 1
|
791 |
-
|
792 |
-
# تقليل الدرجة إذا كان النص طويلًا جدًا
|
793 |
-
if len(condition) > 500:
|
794 |
-
score -= 2
|
795 |
-
|
796 |
-
clarity_scores.append(max(score, 1)) # الحد الأدنى للدرجة هو 1
|
797 |
-
|
798 |
-
# متوسط درجة الوضوح
|
799 |
-
average_clarity = sum(clarity_scores) / len(clarity_scores) if clarity_scores else 0
|
800 |
-
|
801 |
-
return round(average_clarity, 1)
|
802 |
-
|
803 |
-
def _suggest_conditions_improvements(self, conditions):
|
804 |
-
"""اقتراح تحسينات للشروط"""
|
805 |
-
suggestions = []
|
806 |
-
|
807 |
-
# اقتراحات عامة لتحسين الشروط
|
808 |
-
if not any('عامة' in condition.lower() for condition in conditions):
|
809 |
-
suggestions.append("إضافة قسم للشروط العامة يوضح نطاق العمل والمسؤوليات العامة")
|
810 |
-
|
811 |
-
if not any('فنية' in condition.lower() for condition in conditions):
|
812 |
-
suggestions.append("إضافة قسم للشروط الفنية يحدد المواصفات والمتطلبات الفنية بدقة")
|
813 |
-
|
814 |
-
if not any('إدارية' in condition.lower() for condition in conditions):
|
815 |
-
suggestions.append("إضافة قسم للشروط الإدارية يوضح الإجراءات والمتطلبات الإدارية")
|
816 |
-
|
817 |
-
if not any('مالية' in condition.lower() for condition in conditions):
|
818 |
-
suggestions.append("إضافة قسم للشروط المالية يحدد الالتزامات المالية وآليات الدفع")
|
819 |
-
|
820 |
-
# اقتراحات للشروط الموجودة
|
821 |
-
ambiguous_conditions = []
|
822 |
-
for condition in conditions:
|
823 |
-
if any(term in condition.lower() for term in ['ربما', 'قد', 'يمكن', 'محتمل']):
|
824 |
-
ambiguous_conditions.append(condition)
|
825 |
-
|
826 |
-
if ambiguous_conditions:
|
827 |
-
suggestions.append("توضيح الشروط الغامضة وتحديد المتطلبات بدقة أكبر")
|
828 |
-
|
829 |
-
# إضافة توصيات عامة إذا لم يتم العثور على مشاكل محددة
|
830 |
-
if not suggestions:
|
831 |
-
suggestions = [
|
832 |
-
"تنظيم الشروط في أقسام منفصلة وواضحة",
|
833 |
-
"استخدام لغة بسيطة ومباشرة في صياغة الشروط",
|
834 |
-
"تحديد المعايير الكمية والنوعية بدقة",
|
835 |
-
"تضمين آليات لحل النزاعات في حالة الاختلاف حول تفسير الشروط"
|
836 |
-
]
|
837 |
-
|
838 |
-
return suggestions
|
839 |
|
840 |
def _generate_summary(self, text):
|
841 |
"""توليد ملخص"""
|
842 |
-
#
|
843 |
-
|
844 |
-
|
845 |
-
# استخراج الجمل المهمة من النص
|
846 |
-
important_sentences = []
|
847 |
-
sentences = text.split('.')
|
848 |
-
|
849 |
-
# البحث عن جمل مهمة بناءً على كلمات مفتاحية
|
850 |
-
key_terms = ['شروط', 'بنود', 'التزامات', 'متطلبات', 'تكلفة', 'مدة', 'ضمان', 'غرامة']
|
851 |
-
for sentence in sentences:
|
852 |
-
if any(term in sentence.lower() for term in key_terms):
|
853 |
-
important_sentences.append(sentence.strip())
|
854 |
-
|
855 |
-
# اختيار عدد محدود من الجمل للملخص
|
856 |
-
max_sentences = min(10, len(important_sentences))
|
857 |
-
summary_sentences = important_sentences[:max_sentences]
|
858 |
-
|
859 |
-
# دمج الجمل في ملخص
|
860 |
-
summary = '. '.join(summary_sentences)
|
861 |
-
|
862 |
-
# إضافة خاتمة موجزة
|
863 |
-
summary += f"\n\nيتكون المستند من {len(sentences)} جملة وتم تلخيصه في {len(summary_sentences)} جمل رئيسية."
|
864 |
-
|
865 |
-
return summary
|
866 |
|
867 |
def _generate_recommendations(self, text):
|
868 |
"""توليد التوصيات"""
|
869 |
-
#
|
870 |
-
|
871 |
-
|
872 |
-
recommendations = []
|
873 |
-
|
874 |
-
# توصيات بناءً على وجود أو غياب أقسام معينة
|
875 |
-
if 'شروط' not in text.lower():
|
876 |
-
recommendations.append("إضافة قسم واضح للشروط العامة والخاصة")
|
877 |
-
|
878 |
-
if 'مواصفات فنية' not in text.lower():
|
879 |
-
recommendations.append("توضيح المواصفات الفنية المطلوبة بشكل مفصل")
|
880 |
-
|
881 |
-
if 'غرامات' not in text.lower():
|
882 |
-
recommendations.append("تحديد الغرامات والجزاءات بوضوح في حالة عدم الالتزام")
|
883 |
-
|
884 |
-
if 'ضمان' not in text.lower():
|
885 |
-
recommendations.append("تضمين بنود الضمان والصيانة بشكل واضح")
|
886 |
-
|
887 |
-
# توصيات بناءً على تحليل المخاطر
|
888 |
-
risks = self._analyze_risks(text)
|
889 |
-
if risks["risk_severity"] == "عالية":
|
890 |
-
recommendations.append("مراجعة بنود العقد للتقليل من المخاطر العالية المحددة في التحليل")
|
891 |
-
|
892 |
-
# توصيات بناءً على تحليل الشروط
|
893 |
-
conditions = self._analyze_conditions(text)
|
894 |
-
if conditions["clarity_score"] < 7:
|
895 |
-
recommendations.append("تحسين صياغة الشروط لزيادة الوضوح وتقليل الغموض")
|
896 |
-
|
897 |
-
# توصيات عامة
|
898 |
-
general_recommendations = [
|
899 |
-
"مراجعة العقد من قبل مستشار قانوني متخصص",
|
900 |
-
"التأكد من توافق البنود مع الأنظمة واللوائح الحالية",
|
901 |
-
"تضمين آليات واضحة لحل النزاعات",
|
902 |
-
"تحديد مسؤوليات كل طرف بشكل صريح",
|
903 |
-
"وضع جداول زمنية واضحة للتنفيذ ومؤشرات للأداء"
|
904 |
-
]
|
905 |
-
|
906 |
-
# دمج التوصيات
|
907 |
-
recommendations.extend(general_recommendations)
|
908 |
-
|
909 |
-
return recommendations
|
910 |
-
|
911 |
-
def _analyze_tender_specifics(self, text):
|
912 |
-
"""تحليل خاص بالمناقصات"""
|
913 |
-
return {
|
914 |
-
"eligibility_criteria": self._extract_eligibility_criteria(text),
|
915 |
-
"submission_requirements": self._extract_submission_requirements(text),
|
916 |
-
"evaluation_criteria": self._extract_evaluation_criteria(text),
|
917 |
-
"timeline": self._extract_tender_timeline(text)
|
918 |
-
}
|
919 |
-
|
920 |
-
def _extract_eligibility_criteria(self, text):
|
921 |
-
"""استخراج معايير الأهلية"""
|
922 |
-
criteria = []
|
923 |
-
sections = text.split('\n\n')
|
924 |
-
for section in sections:
|
925 |
-
if any(keyword in section.lower() for keyword in ['أهلية', 'شروط المشاركة', 'متطلبات التأهيل']):
|
926 |
-
criteria.append(section.strip())
|
927 |
-
return criteria
|
928 |
-
|
929 |
-
def _extract_submission_requirements(self, text):
|
930 |
-
"""استخراج متطلبات تقديم العروض"""
|
931 |
-
requirements = []
|
932 |
-
sections = text.split('\n\n')
|
933 |
-
for section in sections:
|
934 |
-
if any(keyword in section.lower() for keyword in ['تقديم العروض', 'متطلبات العرض', 'مستندات']):
|
935 |
-
requirements.append(section.strip())
|
936 |
-
return requirements
|
937 |
-
|
938 |
-
def _extract_evaluation_criteria(self, text):
|
939 |
-
"""استخراج معايير التقييم"""
|
940 |
-
criteria = []
|
941 |
-
sections = text.split('\n\n')
|
942 |
-
for section in sections:
|
943 |
-
if any(keyword in section.lower() for keyword in ['معايير التقييم', 'آلية التقييم', 'ترسية']):
|
944 |
-
criteria.append(section.strip())
|
945 |
-
return criteria
|
946 |
-
|
947 |
-
def _extract_tender_timeline(self, text):
|
948 |
-
"""استخراج الجدول الزمني للمناقصة"""
|
949 |
-
import re
|
950 |
-
|
951 |
-
timeline = {}
|
952 |
-
|
953 |
-
# البحث عن تواريخ محددة مثل تاريخ الإعلان، تاريخ الإغلاق، إلخ.
|
954 |
-
date_pattern = r'(\d{1,2}[-/]\d{1,2}[-/]\d{2,4})'
|
955 |
-
|
956 |
-
# تاريخ الإعلان
|
957 |
-
announcement_match = re.search(r'تاريخ الإعلان\s*[:؛]\s*' + date_pattern, text)
|
958 |
-
if announcement_match:
|
959 |
-
timeline["announcement_date"] = announcement_match.group(1)
|
960 |
-
|
961 |
-
# تاريخ بدء استلام العروض
|
962 |
-
start_submission_match = re.search(r'بدء استلام العروض\s*[:؛]\s*' + date_pattern, text)
|
963 |
-
if start_submission_match:
|
964 |
-
timeline["submission_start_date"] = start_submission_match.group(1)
|
965 |
-
|
966 |
-
# تاريخ إغلاق استلام العروض
|
967 |
-
end_submission_match = re.search(r'إغلاق استلام العروض\s*[:؛]\s*' + date_pattern, text)
|
968 |
-
if end_submission_match:
|
969 |
-
timeline["submission_end_date"] = end_submission_match.group(1)
|
970 |
-
|
971 |
-
# تاريخ فتح المظاريف
|
972 |
-
opening_match = re.search(r'فتح المظاريف\s*[:؛]\s*' + date_pattern, text)
|
973 |
-
if opening_match:
|
974 |
-
timeline["opening_date"] = opening_match.group(1)
|
975 |
-
|
976 |
-
# تاريخ التقييم
|
977 |
-
evaluation_match = re.search(r'تاريخ التقييم\s*[:؛]\s*' + date_pattern, text)
|
978 |
-
if evaluation_match:
|
979 |
-
timeline["evaluation_date"] = evaluation_match.group(1)
|
980 |
-
|
981 |
-
# تاريخ الترسية
|
982 |
-
award_match = re.search(r'تاريخ الترسية\s*[:؛]\s*' + date_pattern, text)
|
983 |
-
if award_match:
|
984 |
-
timeline["award_date"] = award_match.group(1)
|
985 |
-
|
986 |
-
return timeline
|
987 |
-
|
988 |
-
def _analyze_contract_specifics(self, text):
|
989 |
-
"""تحليل خاص بالعقود"""
|
990 |
-
return {
|
991 |
-
"parties": self._extract_contract_parties(text),
|
992 |
-
"duration": self._extract_contract_duration(text),
|
993 |
-
"termination_conditions": self._extract_termination_conditions(text),
|
994 |
-
"penalties": self._extract_penalties(text),
|
995 |
-
"warranties": self._extract_warranties(text)
|
996 |
-
}
|
997 |
-
|
998 |
-
def _extract_contract_parties(self, text):
|
999 |
-
"""استخراج أطراف العقد"""
|
1000 |
-
parties = {}
|
1001 |
-
|
1002 |
-
# البحث عن الطرف الأول
|
1003 |
-
first_party_match = re.search(r'الطرف الأول\s*[:؛]\s*([^\n]+)', text)
|
1004 |
-
if first_party_match:
|
1005 |
-
parties["first_party"] = first_party_match.group(1).strip()
|
1006 |
-
|
1007 |
-
# البحث عن الطرف الثاني
|
1008 |
-
second_party_match = re.search(r'الطرف الثاني\s*[:؛]\s*([^\n]+)', text)
|
1009 |
-
if second_party_match:
|
1010 |
-
parties["second_party"] = second_party_match.group(1).strip()
|
1011 |
-
|
1012 |
-
return parties
|
1013 |
-
|
1014 |
-
def _extract_contract_duration(self, text):
|
1015 |
-
"""استخراج مدة العقد"""
|
1016 |
-
duration = {}
|
1017 |
-
|
1018 |
-
# البحث عن مدة العقد
|
1019 |
-
duration_match = re.search(r'مدة العقد\s*[:؛]\s*([^\n]+)', text)
|
1020 |
-
if duration_match:
|
1021 |
-
duration["text"] = duration_match.group(1).strip()
|
1022 |
-
|
1023 |
-
# البحث عن تاريخ بداية العقد
|
1024 |
-
start_date_match = re.search(r'تاريخ بداية العقد\s*[:؛]\s*(\d{1,2}[-/]\d{1,2}[-/]\d{2,4})', text)
|
1025 |
-
if start_date_match:
|
1026 |
-
duration["start_date"] = start_date_match.group(1)
|
1027 |
-
|
1028 |
-
# البحث عن تاريخ نهاية العقد
|
1029 |
-
end_date_match = re.search(r'تاريخ نهاية العقد\s*[:؛]\s*(\d{1,2}[-/]\d{1,2}[-/]\d{2,4})', text)
|
1030 |
-
if end_date_match:
|
1031 |
-
duration["end_date"] = end_date_match.group(1)
|
1032 |
-
|
1033 |
-
return duration
|
1034 |
-
|
1035 |
-
def _extract_termination_conditions(self, text):
|
1036 |
-
"""استخراج شروط إنهاء العقد"""
|
1037 |
-
conditions = []
|
1038 |
-
sections = text.split('\n\n')
|
1039 |
-
for section in sections:
|
1040 |
-
if any(keyword in section.lower() for keyword in ['إنهاء العقد', 'فسخ العقد', 'إلغاء العقد']):
|
1041 |
-
conditions.append(section.strip())
|
1042 |
-
return conditions
|
1043 |
-
|
1044 |
-
def _extract_penalties(self, text):
|
1045 |
-
"""استخراج الغرامات والجزاءات"""
|
1046 |
-
penalties = []
|
1047 |
-
sections = text.split('\n\n')
|
1048 |
-
for section in sections:
|
1049 |
-
if any(keyword in section.lower() for keyword in ['غرامة', 'جزاء', 'عقوبة', 'تعويض']):
|
1050 |
-
penalties.append(section.strip())
|
1051 |
-
return penalties
|
1052 |
-
|
1053 |
-
def _extract_warranties(self, text):
|
1054 |
-
"""استخراج الضمانات"""
|
1055 |
-
warranties = []
|
1056 |
-
sections = text.split('\n\n')
|
1057 |
-
for section in sections:
|
1058 |
-
if any(keyword in section.lower() for keyword in ['ضمان', 'كفالة', 'تأمين']):
|
1059 |
-
warranties.append(section.strip())
|
1060 |
-
return warranties
|
1061 |
-
|
1062 |
-
def _analyze_technical_specifics(self, text):
|
1063 |
-
"""تحليل خاص بالمستندات الفنية"""
|
1064 |
-
return {
|
1065 |
-
"specifications": self._extract_technical_specifications(text),
|
1066 |
-
"standards": self._extract_technical_standards(text),
|
1067 |
-
"testing_procedures": self._extract_testing_procedures(text),
|
1068 |
-
"quality_requirements": self._extract_quality_requirements(text)
|
1069 |
-
}
|
1070 |
-
|
1071 |
-
def _extract_technical_specifications(self, text):
|
1072 |
-
"""استخراج المواصفات الفنية"""
|
1073 |
-
specifications = []
|
1074 |
-
sections = text.split('\n\n')
|
1075 |
-
for section in sections:
|
1076 |
-
if any(keyword in section.lower() for keyword in ['مواصفات فنية', 'خصائص', 'متطلبات فنية']):
|
1077 |
-
specifications.append(section.strip())
|
1078 |
-
return specifications
|
1079 |
-
|
1080 |
-
def _extract_technical_standards(self, text):
|
1081 |
-
"""استخراج المعايير الفنية"""
|
1082 |
-
standards = []
|
1083 |
-
sections = text.split('\n\n')
|
1084 |
-
for section in sections:
|
1085 |
-
if any(keyword in section.lower() for keyword in ['معايير', 'مقاييس', 'مواصفات قياسية']):
|
1086 |
-
standards.append(section.strip())
|
1087 |
-
return standards
|
1088 |
-
|
1089 |
-
def _extract_testing_procedures(self, text):
|
1090 |
-
"""استخراج إجراءات الاختبار"""
|
1091 |
-
procedures = []
|
1092 |
-
sections = text.split('\n\n')
|
1093 |
-
for section in sections:
|
1094 |
-
if any(keyword in section.lower() for keyword in ['اختبار', 'فحص', 'تجربة']):
|
1095 |
-
procedures.append(section.strip())
|
1096 |
-
return procedures
|
1097 |
-
|
1098 |
-
def _extract_quality_requirements(self, text):
|
1099 |
-
"""استخراج متطلبات الجودة"""
|
1100 |
-
requirements = []
|
1101 |
-
sections = text.split('\n\n')
|
1102 |
-
for section in sections:
|
1103 |
-
if any(keyword in section.lower() for keyword in ['جودة', 'ضمان الجودة', 'رقابة']):
|
1104 |
-
requirements.append(section.strip())
|
1105 |
-
return requirements
|
1106 |
|
1107 |
-
def _extract_entities(self, text):
|
1108 |
-
"""استخراج الكيانات من النص"""
|
1109 |
-
entities = {
|
1110 |
-
"organizations": self._extract_organizations(text),
|
1111 |
-
"people": self._extract_people(text),
|
1112 |
-
"locations": self._extract_locations(text)
|
1113 |
-
}
|
1114 |
-
return entities
|
1115 |
-
|
1116 |
-
def _extract_organizations(self, text):
|
1117 |
-
"""استخراج المنظمات والشركات"""
|
1118 |
-
import re
|
1119 |
-
# نمط بسيط للبحث عن المنظمات والشركات
|
1120 |
-
org_pattern = r'شركة [\u0600-\u06FF\s]+|مؤسسة [\u0600-\u06FF\s]+|وزارة [\u0600-\u06FF\s]+|هيئة [\u0600-\u06FF\s]+'
|
1121 |
-
return list(set(re.findall(org_pattern, text)))
|
1122 |
-
|
1123 |
-
def _extract_people(self, text):
|
1124 |
-
"""استخراج أسماء الأشخاص"""
|
1125 |
-
# في التطبيق الحقيقي، ستحتاج إلى استخدام تقنيات التعرف على الكيانات
|
1126 |
-
# هذه مجرد محاكاة بسيطة
|
1127 |
-
return []
|
1128 |
-
|
1129 |
-
def _extract_locations(self, text):
|
1130 |
-
"""استخراج المواقع"""
|
1131 |
-
import re
|
1132 |
-
# نمط بسيط للبحث عن المواقع
|
1133 |
-
location_pattern = r'مدينة [\u0600-\u06FF\s]+|منطقة [\u0600-\u06FF\s]+|محافظة [\u0600-\u06FF\s]+'
|
1134 |
-
return list(set(re.findall(location_pattern, text)))
|
1135 |
|
1136 |
-
def _extract_materials(self, text):
|
1137 |
-
"""استخراج المواد"""
|
1138 |
-
materials = []
|
1139 |
-
# في التطبيق الحقيقي، ستحتاج إلى قائمة بالمواد الشائعة للبحث عنها
|
1140 |
-
common_materials = ['حديد', 'خشب', 'زجاج', 'ألمنيوم', 'نحاس', 'بلاستيك', 'خرسانة']
|
1141 |
-
for material in common_materials:
|
1142 |
-
if material in text.lower():
|
1143 |
-
# البحث عن السياق المحيط بالمادة
|
1144 |
-
pattern = r'[^.]*\b' + material + r'\b[^.]*\.'
|
1145 |
-
material_contexts = re.findall(pattern, text)
|
1146 |
-
for context in material_contexts:
|
1147 |
-
materials.append(context.strip())
|
1148 |
-
return materials
|
1149 |
-
|
1150 |
-
def _extract_measurements(self, text):
|
1151 |
-
"""استخراج القياسات"""
|
1152 |
-
import re
|
1153 |
-
# البحث عن القياسات مثل الطول والعرض والوزن وغيرها
|
1154 |
-
measurement_pattern = r'\d+(?:\.\d+)?\s*(?:متر|سم|مم|كجم|طن|لتر|مل)'
|
1155 |
-
return re.findall(measurement_pattern, text)
|
1156 |
-
|
1157 |
-
def _extract_standards(self, text):
|
1158 |
-
"""استخراج المعايير"""
|
1159 |
-
standards = []
|
1160 |
-
# معايير شائعة للبحث عنها
|
1161 |
-
common_standards = ['ISO', 'SASO', 'ASTM', 'BS', 'DIN', 'IEC']
|
1162 |
-
for standard in common_standards:
|
1163 |
-
if standard in text:
|
1164 |
-
# البحث عن المعيار مع رقمه
|
1165 |
-
pattern = r'\b' + standard + r'\s*\d+\b'
|
1166 |
-
standard_matches = re.findall(pattern, text)
|
1167 |
-
standards.extend(standard_matches)
|
1168 |
-
return standards
|
1169 |
-
|
1170 |
-
def _analyze_topics(self, text):
|
1171 |
-
"""تحليل المواضيع الرئيسية"""
|
1172 |
-
# في التطبيق الحقيقي، ستحتاج إلى استخدام تقنيات تحليل المواضيع مثل LDA
|
1173 |
-
# هذه مجرد محاكاة بسيطة
|
1174 |
-
|
1175 |
-
topics = {}
|
1176 |
-
|
1177 |
-
# مواضيع شائعة في المناقصات والعقود
|
1178 |
-
common_topics = {
|
1179 |
-
"financial": ['سعر', 'تكلفة', 'ميزانية', 'دفع', 'مالي'],
|
1180 |
-
"technical": ['فني', 'مواصفات', 'معايير', 'تقني'],
|
1181 |
-
"legal": ['قانوني', 'شرط', 'بند', 'التزام', 'حق'],
|
1182 |
-
"administrative": ['إداري', 'إجراء', 'تنظيم', 'إشراف'],
|
1183 |
-
"time": ['مدة', 'فترة', 'موعد', 'تاريخ', 'جدول زمني']
|
1184 |
-
}
|
1185 |
-
|
1186 |
-
# حساب تكرار كلمات كل موضوع في النص
|
1187 |
-
word_count = len(text.split())
|
1188 |
-
|
1189 |
-
for topic, keywords in common_topics.items():
|
1190 |
-
topic_count = 0
|
1191 |
-
for keyword in keywords:
|
1192 |
-
# عدد مرات ظهور الكلمة المفتاحية في النص
|
1193 |
-
topic_count += len(re.findall(r'\b' + keyword + r'\w*\b', text))
|
1194 |
-
|
1195 |
-
# حساب النسبة المئوية للموضوع
|
1196 |
-
if word_count > 0:
|
1197 |
-
topic_percentage = (topic_count / word_count) * 100
|
1198 |
-
topics[topic] = round(topic_percentage, 2)
|
1199 |
-
else:
|
1200 |
-
topics[topic] = 0
|
1201 |
-
|
1202 |
-
return topics
|
1203 |
-
|
1204 |
-
def _check_required_terms(self, text):
|
1205 |
-
"""التحقق من وجود المصطلحات المطلوبة"""
|
1206 |
-
required_terms = {
|
1207 |
-
"general": ['نطاق العمل', 'مدة التنفيذ', 'الشروط العامة'],
|
1208 |
-
"financial": ['قيمة العقد', 'طريقة الدفع', 'الضمان المالي'],
|
1209 |
-
"legal": ['حل النزاعات', 'الإنهاء', 'التعويضات'],
|
1210 |
-
"technical": ['المواصفات الفنية', 'ضمان الجودة', 'معايير القبول']
|
1211 |
-
}
|
1212 |
-
|
1213 |
-
found_terms = {}
|
1214 |
-
|
1215 |
-
for category, terms in required_terms.items():
|
1216 |
-
found_in_category = []
|
1217 |
-
for term in terms:
|
1218 |
-
if term in text:
|
1219 |
-
found_in_category.append(term)
|
1220 |
-
|
1221 |
-
found_terms[category] = found_in_category
|
1222 |
-
|
1223 |
-
return found_terms
|
1224 |
-
|
1225 |
-
def _calculate_compliance_score(self, text):
|
1226 |
-
"""حساب درجة الامتثال"""
|
1227 |
-
# التحقق من وجود الأقسام المطلوبة
|
1228 |
-
missing_sections = self._check_missing_sections(text)
|
1229 |
-
required_terms = self._check_required_terms(text)
|
1230 |
-
|
1231 |
-
# حساب درجة الامتثال
|
1232 |
-
total_required_terms = sum(len(terms) for terms in required_terms.values())
|
1233 |
-
found_terms = sum(len(found) for found in required_terms.values())
|
1234 |
-
|
1235 |
-
if total_required_terms > 0:
|
1236 |
-
compliance_percentage = (found_terms / total_required_terms) * 100
|
1237 |
-
|
1238 |
-
# تقليل الدرجة بناءً على الأقسام المفقودة
|
1239 |
-
compliance_percentage -= len(missing_sections) * 5
|
1240 |
-
|
1241 |
-
# ضمان أن الدرجة في النطاق المناسب
|
1242 |
-
compliance_percentage = max(0, min(100, compliance_percentage))
|
1243 |
-
|
1244 |
-
return round(compliance_percentage, 1)
|
1245 |
-
else:
|
1246 |
-
return 0
|
1247 |
-
|
1248 |
-
def _get_version_info(self, document_path):
|
1249 |
-
"""الحصول على معلومات الإصدار"""
|
1250 |
-
# في التطبيق الحقيقي، قد تحتاج لاستخراج معلومات الإصدار من الملف
|
1251 |
-
version_info = {
|
1252 |
-
"filename": os.path.basename(document_path),
|
1253 |
-
"last_modified": time.ctime(os.path.getmtime(document_path))
|
1254 |
-
}
|
1255 |
-
|
1256 |
-
# البحث عن رقم الإصدار في اسم الملف
|
1257 |
-
match = re.search(r'[vV](\d+(?:\.\d+)*)', os.path.basename(document_path))
|
1258 |
-
if match:
|
1259 |
-
version_info["version_number"] = match.group(1)
|
1260 |
-
else:
|
1261 |
-
version_info["version_number"] = "غير محدد"
|
1262 |
-
|
1263 |
-
return version_info
|
1264 |
|
1265 |
def _analyze_docx(self, document_path, document_type):
|
1266 |
"""تحليل مستند Word"""
|
1267 |
try:
|
1268 |
-
#
|
1269 |
-
|
1270 |
-
|
1271 |
-
#
|
1272 |
-
|
1273 |
-
|
1274 |
-
#
|
1275 |
-
|
|
|
|
|
|
|
|
|
|
|
1276 |
|
1277 |
-
|
|
|
1278 |
|
1279 |
except Exception as e:
|
1280 |
logger.error(f"خطأ في تحليل مستند Word: {str(e)}")
|
1281 |
raise
|
1282 |
-
|
1283 |
-
def _extract_text_from_docx(self, document_path):
|
1284 |
-
"""استخراج النص من ملف Word"""
|
1285 |
-
try:
|
1286 |
-
import docx
|
1287 |
-
|
1288 |
-
doc = docx.Document(document_path)
|
1289 |
-
text = ""
|
1290 |
-
|
1291 |
-
for paragraph in doc.paragraphs:
|
1292 |
-
text += paragraph.text + "\n"
|
1293 |
-
|
1294 |
-
for table in doc.tables:
|
1295 |
-
for row in table.rows:
|
1296 |
-
for cell in row.cells:
|
1297 |
-
text += cell.text + " "
|
1298 |
-
text += "\n"
|
1299 |
-
|
1300 |
-
return text
|
1301 |
-
|
1302 |
-
except Exception as e:
|
1303 |
-
logger.error(f"خطأ في استخراج النص من Word: {str(e)}")
|
1304 |
-
raise
|
1305 |
-
|
1306 |
def _analyze_xlsx(self, document_path, document_type):
|
1307 |
"""تحليل مستند Excel"""
|
1308 |
try:
|
1309 |
-
#
|
1310 |
-
|
1311 |
|
1312 |
-
#
|
1313 |
-
|
1314 |
-
"document_path": document_path,
|
1315 |
-
"document_type": document_type,
|
1316 |
-
"analysis_start_time": self.analysis_results["analysis_start_time"],
|
1317 |
-
"status": "جاري التحليل",
|
1318 |
-
"file_info": {
|
1319 |
-
"name": os.path.basename(document_path),
|
1320 |
-
"type": "XLSX",
|
1321 |
-
"size": os.path.getsize(document_path),
|
1322 |
-
"sheets": self._count_sheets(document_path),
|
1323 |
-
"create_date": "غير متوفر",
|
1324 |
-
"modify_date": time.ctime(os.path.getmtime(document_path))
|
1325 |
-
},
|
1326 |
-
"data_analysis": {
|
1327 |
-
"sheet_summary": data["sheet_summary"],
|
1328 |
-
"total_rows": data["total_rows"],
|
1329 |
-
"total_columns": data["total_columns"],
|
1330 |
-
"numeric_columns": data["numeric_columns"],
|
1331 |
-
"text_columns": data["text_columns"],
|
1332 |
-
"date_columns": data["date_columns"]
|
1333 |
-
}
|
1334 |
-
}
|
1335 |
|
1336 |
-
#
|
1337 |
-
|
1338 |
-
|
1339 |
-
|
1340 |
-
|
|
|
1341 |
|
1342 |
-
|
|
|
|
|
|
|
|
|
|
|
1343 |
|
1344 |
except Exception as e:
|
1345 |
logger.error(f"خطأ في تحليل مستند Excel: {str(e)}")
|
1346 |
raise
|
1347 |
-
|
1348 |
-
def _extract_data_from_xlsx(self, document_path):
|
1349 |
-
"""استخراج البيانات من ملف Excel"""
|
1350 |
-
try:
|
1351 |
-
import pandas as pd
|
1352 |
-
|
1353 |
-
# قراءة جميع الأوراق في الملف
|
1354 |
-
excel_file = pd.ExcelFile(document_path)
|
1355 |
-
sheet_names = excel_file.sheet_names
|
1356 |
-
|
1357 |
-
data = {
|
1358 |
-
"sheet_summary": {},
|
1359 |
-
"total_rows": 0,
|
1360 |
-
"total_columns": 0,
|
1361 |
-
"numeric_columns": 0,
|
1362 |
-
"text_columns": 0,
|
1363 |
-
"date_columns": 0,
|
1364 |
-
"sheets": {}
|
1365 |
-
}
|
1366 |
-
|
1367 |
-
for sheet_name in sheet_names:
|
1368 |
-
# قراءة الورقة إلى DataFrame
|
1369 |
-
df = pd.read_excel(excel_file, sheet_name=sheet_name)
|
1370 |
-
|
1371 |
-
# تحليل أنواع البيانات في الأعمدة
|
1372 |
-
column_types = {}
|
1373 |
-
numeric_columns = 0
|
1374 |
-
text_columns = 0
|
1375 |
-
date_columns = 0
|
1376 |
-
|
1377 |
-
for column in df.columns:
|
1378 |
-
if pd.api.types.is_numeric_dtype(df[column]):
|
1379 |
-
column_types[column] = "numeric"
|
1380 |
-
numeric_columns += 1
|
1381 |
-
elif pd.api.types.is_datetime64_dtype(df[column]):
|
1382 |
-
column_types[column] = "date"
|
1383 |
-
date_columns += 1
|
1384 |
-
else:
|
1385 |
-
column_types[column] = "text"
|
1386 |
-
text_columns += 1
|
1387 |
-
|
1388 |
-
# تحديث ملخص الورقة
|
1389 |
-
data["sheet_summary"][sheet_name] = {
|
1390 |
-
"rows": len(df),
|
1391 |
-
"columns": len(df.columns),
|
1392 |
-
"column_types": column_types
|
1393 |
-
}
|
1394 |
-
|
1395 |
-
# تحديث الإحصائيات الإجمالية
|
1396 |
-
data["total_rows"] += len(df)
|
1397 |
-
data["total_columns"] += len(df.columns)
|
1398 |
-
data["numeric_columns"] += numeric_columns
|
1399 |
-
data["text_columns"] += text_columns
|
1400 |
-
data["date_columns"] += date_columns
|
1401 |
-
|
1402 |
-
# تخزين البيانات (مع حد أقصى للصفوف للتحكم في الحجم)
|
1403 |
-
max_rows = 100
|
1404 |
-
data["sheets"][sheet_name] = df.head(max_rows).to_dict(orient="records")
|
1405 |
-
|
1406 |
-
return data
|
1407 |
-
|
1408 |
-
except Exception as e:
|
1409 |
-
logger.error(f"خطأ في استخراج البيانات من Excel: {str(e)}")
|
1410 |
-
raise
|
1411 |
-
|
1412 |
-
def _count_sheets(self, document_path):
|
1413 |
-
"""حساب عدد الأوراق في ملف Excel"""
|
1414 |
-
try:
|
1415 |
-
import pandas as pd
|
1416 |
-
|
1417 |
-
excel_file = pd.ExcelFile(document_path)
|
1418 |
-
return len(excel_file.sheet_names)
|
1419 |
-
|
1420 |
-
except Exception as e:
|
1421 |
-
logger.error(f"خطأ في حساب عدد الأوراق: {str(e)}")
|
1422 |
-
return 0
|
1423 |
-
|
1424 |
-
def _analyze_excel_tender(self, data):
|
1425 |
-
"""تحليل بيانات المناقصة من ملف Excel"""
|
1426 |
-
# تحليل بسيط لملف Excel خاص بالمناقصة
|
1427 |
-
analysis = {
|
1428 |
-
"items": self._extract_tender_items(data),
|
1429 |
-
"quantities": self._extract_tender_quantities(data),
|
1430 |
-
"pricing": self._extract_tender_pricing(data)
|
1431 |
-
}
|
1432 |
-
|
1433 |
-
return analysis
|
1434 |
-
|
1435 |
-
def _extract_tender_items(self, data):
|
1436 |
-
"""استخراج البنود من بيانات المناقصة"""
|
1437 |
-
items = []
|
1438 |
-
|
1439 |
-
# البحث عن الأوراق التي تحتوي على بنود المناقصة
|
1440 |
-
for sheet_name, sheet_data in data["sheets"].items():
|
1441 |
-
if not sheet_data:
|
1442 |
-
continue
|
1443 |
-
|
1444 |
-
# البحث عن الأعمدة التي قد تحتوي على أسماء البنود
|
1445 |
-
possible_item_columns = ["البند", "الوصف", "المادة", "البيان", "item", "description"]
|
1446 |
-
|
1447 |
-
for row in sheet_data:
|
1448 |
-
item_found = False
|
1449 |
-
|
1450 |
-
# البحث عن أسماء البنود
|
1451 |
-
for column in possible_item_columns:
|
1452 |
-
if column in row and row[column]:
|
1453 |
-
# تحقق من وجود أعمدة الكمية والوحدة
|
1454 |
-
quantity = None
|
1455 |
-
unit = None
|
1456 |
-
|
1457 |
-
for qty_col in ["الكمية", "العدد", "quantity", "qty"]:
|
1458 |
-
if qty_col in row and row[qty_col]:
|
1459 |
-
quantity = row[qty_col]
|
1460 |
-
break
|
1461 |
-
|
1462 |
-
for unit_col in ["الوحدة", "unit", "uom"]:
|
1463 |
-
if unit_col in row and row[unit_col]:
|
1464 |
-
unit = row[unit_col]
|
1465 |
-
break
|
1466 |
-
|
1467 |
-
# إضافة البند إلى القائمة
|
1468 |
-
items.append({
|
1469 |
-
"name": row[column],
|
1470 |
-
"quantity": quantity,
|
1471 |
-
"unit": unit
|
1472 |
-
})
|
1473 |
-
|
1474 |
-
item_found = True
|
1475 |
-
break
|
1476 |
-
|
1477 |
-
if item_found:
|
1478 |
-
break
|
1479 |
-
|
1480 |
-
return items
|
1481 |
-
|
1482 |
-
def _extract_tender_quantities(self, data):
|
1483 |
-
"""استخراج الكميات من بيانات المناقصة"""
|
1484 |
-
quantities = {}
|
1485 |
-
|
1486 |
-
# البحث عن الأوراق التي تحتوي على كميات المناقصة
|
1487 |
-
for sheet_name, sheet_data in data["sheets"].items():
|
1488 |
-
if not sheet_data:
|
1489 |
-
continue
|
1490 |
-
|
1491 |
-
# البحث عن الأعمدة التي قد تحتوي على الكميات
|
1492 |
-
quantity_columns = ["الكمية", "العدد", "quantity", "qty"]
|
1493 |
-
item_columns = ["البند", "الوصف", "المادة", "البيان", "item", "description"]
|
1494 |
-
|
1495 |
-
for row in sheet_data:
|
1496 |
-
item_name = None
|
1497 |
-
quantity = None
|
1498 |
-
|
1499 |
-
# البحث عن اسم البند
|
1500 |
-
for col in item_columns:
|
1501 |
-
if col in row and row[col]:
|
1502 |
-
item_name = row[col]
|
1503 |
-
break
|
1504 |
-
|
1505 |
-
# البحث عن الكمية
|
1506 |
-
for col in quantity_columns:
|
1507 |
-
if col in row and row[col]:
|
1508 |
-
quantity = row[col]
|
1509 |
-
break
|
1510 |
-
|
1511 |
-
# تخزين الكمية إذا وجدت
|
1512 |
-
if item_name and quantity:
|
1513 |
-
quantities[item_name] = quantity
|
1514 |
-
|
1515 |
-
return quantities
|
1516 |
-
|
1517 |
-
def _extract_tender_pricing(self, data):
|
1518 |
-
"""استخراج الأسعار من بيانات المناقصة"""
|
1519 |
-
pricing = {}
|
1520 |
-
|
1521 |
-
# البحث عن الأوراق التي تحتوي على أسعار المناقصة
|
1522 |
-
for sheet_name, sheet_data in data["sheets"].items():
|
1523 |
-
if not sheet_data:
|
1524 |
-
continue
|
1525 |
-
|
1526 |
-
# البحث عن الأعمدة التي قد تحتوي على الأسعار
|
1527 |
-
price_columns = ["السعر", "التكلفة", "المبلغ", "price", "cost", "amount"]
|
1528 |
-
item_columns = ["البند", "الوصف", "المادة", "البيان", "item", "description"]
|
1529 |
-
|
1530 |
-
for row in sheet_data:
|
1531 |
-
item_name = None
|
1532 |
-
price = None
|
1533 |
-
|
1534 |
-
# البحث عن اسم البند
|
1535 |
-
for col in item_columns:
|
1536 |
-
if col in row and row[col]:
|
1537 |
-
item_name = row[col]
|
1538 |
-
break
|
1539 |
-
|
1540 |
-
# البحث عن السعر
|
1541 |
-
for col in price_columns:
|
1542 |
-
if col in row and row[col]:
|
1543 |
-
price = row[col]
|
1544 |
-
break
|
1545 |
-
|
1546 |
-
# تخزين السعر إذا وجد
|
1547 |
-
if item_name and price:
|
1548 |
-
pricing[item_name] = price
|
1549 |
-
|
1550 |
-
return pricing
|
1551 |
-
|
1552 |
-
def _analyze_excel_financial(self, data):
|
1553 |
-
"""تحليل البيانات المالية من ملف Excel"""
|
1554 |
-
# تحليل بسيط لملف Excel مالي
|
1555 |
-
analysis = {
|
1556 |
-
"total_amount": self._calculate_total_amount(data),
|
1557 |
-
"budget_breakdown": self._extract_budget_breakdown(data),
|
1558 |
-
"payment_schedule": self._extract_payment_schedule(data)
|
1559 |
-
}
|
1560 |
-
|
1561 |
-
return analysis
|
1562 |
-
|
1563 |
-
def _calculate_total_amount(self, data):
|
1564 |
-
"""حساب المبلغ الإجمالي من البيانات المالية"""
|
1565 |
-
total = 0
|
1566 |
-
|
1567 |
-
# البحث عن الأوراق التي تحتوي على بيانات مالية
|
1568 |
-
for sheet_name, sheet_data in data["sheets"].items():
|
1569 |
-
if not sheet_data:
|
1570 |
-
continue
|
1571 |
-
|
1572 |
-
# البحث عن الأعمدة التي قد تحتوي على مبالغ
|
1573 |
-
amount_columns = ["المبلغ", "الإجمالي", "المجموع", "amount", "total", "sum"]
|
1574 |
-
|
1575 |
-
for row in sheet_data:
|
1576 |
-
for col in amount_columns:
|
1577 |
-
if col in row and row[col] and isinstance(row[col], (int, float)):
|
1578 |
-
total += row[col]
|
1579 |
-
|
1580 |
-
return total
|
1581 |
-
|
1582 |
-
def _extract_budget_breakdown(self, data):
|
1583 |
-
"""استخراج تفاصيل الميزانية من البيانات المالية"""
|
1584 |
-
breakdown = {}
|
1585 |
-
|
1586 |
-
# البحث عن الأوراق التي تحتوي على تفاصيل الميزانية
|
1587 |
-
for sheet_name, sheet_data in data["sheets"].items():
|
1588 |
-
if not sheet_data:
|
1589 |
-
continue
|
1590 |
-
|
1591 |
-
# البحث عن الأعمدة التي قد تحتوي على بنود الميزانية
|
1592 |
-
category_columns = ["البند", "الفئة", "القسم", "category", "item"]
|
1593 |
-
amount_columns = ["المبلغ", "التكلفة", "القيمة", "amount", "cost", "value"]
|
1594 |
-
|
1595 |
-
for row in sheet_data:
|
1596 |
-
category = None
|
1597 |
-
amount = None
|
1598 |
-
|
1599 |
-
# البحث عن فئة الميزانية
|
1600 |
-
for col in category_columns:
|
1601 |
-
if col in row and row[col]:
|
1602 |
-
category = row[col]
|
1603 |
-
break
|
1604 |
-
|
1605 |
-
# البحث عن المبلغ
|
1606 |
-
for col in amount_columns:
|
1607 |
-
if col in row and row[col] and isinstance(row[col], (int, float)):
|
1608 |
-
amount = row[col]
|
1609 |
-
break
|
1610 |
-
|
1611 |
-
# تخزين بند الميزانية إذا وجد
|
1612 |
-
if category and amount:
|
1613 |
-
breakdown[category] = amount
|
1614 |
-
|
1615 |
-
return breakdown
|
1616 |
-
|
1617 |
-
def _extract_payment_schedule(self, data):
|
1618 |
-
"""استخراج جدول الدفعات من البيانات المالية"""
|
1619 |
-
schedule = []
|
1620 |
-
|
1621 |
-
# البحث عن الأوراق التي تحتوي على جدول الدفعات
|
1622 |
-
for sheet_name, sheet_data in data["sheets"].items():
|
1623 |
-
if not sheet_data:
|
1624 |
-
continue
|
1625 |
-
|
1626 |
-
# البحث عن الأعمدة التي قد تحتوي على معلومات الدفعات
|
1627 |
-
date_columns = ["التاريخ", "الموعد", "date", "schedule"]
|
1628 |
-
amount_columns = ["المبلغ", "الدفعة", "القيمة", "amount", "payment", "value"]
|
1629 |
-
description_columns = ["الوصف", "البيان", "description", "details"]
|
1630 |
-
|
1631 |
-
for row in sheet_data:
|
1632 |
-
date = None
|
1633 |
-
amount = None
|
1634 |
-
description = None
|
1635 |
-
|
1636 |
-
# البحث عن تاريخ الدفعة
|
1637 |
-
for col in date_columns:
|
1638 |
-
if col in row and row[col]:
|
1639 |
-
date = row[col]
|
1640 |
-
break
|
1641 |
-
|
1642 |
-
# البحث عن مبلغ الدفعة
|
1643 |
-
for col in amount_columns:
|
1644 |
-
if col in row and row[col]:
|
1645 |
-
amount = row[col]
|
1646 |
-
break
|
1647 |
-
|
1648 |
-
# البحث عن وصف الدفعة
|
1649 |
-
for col in description_columns:
|
1650 |
-
if col in row and row[col]:
|
1651 |
-
description = row[col]
|
1652 |
-
break
|
1653 |
-
|
1654 |
-
# تخزين الدفعة إذا وجدت
|
1655 |
-
if date and amount:
|
1656 |
-
schedule.append({
|
1657 |
-
"date": date,
|
1658 |
-
"amount": amount,
|
1659 |
-
"description": description
|
1660 |
-
})
|
1661 |
-
|
1662 |
-
return schedule
|
1663 |
-
|
1664 |
def _analyze_txt(self, document_path, document_type):
|
1665 |
"""تحليل مستند نصي"""
|
1666 |
try:
|
1667 |
-
#
|
1668 |
-
|
1669 |
-
text = file.read()
|
1670 |
-
|
1671 |
-
# استخدام نفس آلية تحليل PDF
|
1672 |
-
analysis = self._analyze_pdf(document_path, document_type)
|
1673 |
|
1674 |
-
#
|
1675 |
-
analysis["file_info"]["type"] = "TXT"
|
1676 |
-
analysis["file_info"]["pages"] = self._estimate_pages(text)
|
1677 |
|
1678 |
-
|
|
|
1679 |
|
1680 |
except Exception as e:
|
1681 |
logger.error(f"خطأ في تحليل مستند نصي: {str(e)}")
|
1682 |
raise
|
1683 |
-
|
1684 |
-
def _estimate_pages(self, text):
|
1685 |
-
"""تقدير عدد الصفحات في النص"""
|
1686 |
-
# تقدير بسيط: كل 3000 حرف تعادل صفحة واحدة تقريبًا
|
1687 |
-
return max(1, len(text) // 3000)
|
1688 |
-
|
1689 |
def get_analysis_status(self):
|
1690 |
"""الحصول على حالة التحليل الحالي"""
|
1691 |
if not self.analysis_in_progress:
|
@@ -1693,53 +282,53 @@ class DocumentAnalyzer:
|
|
1693 |
return {"status": "لا يوجد تحليل جارٍ"}
|
1694 |
else:
|
1695 |
return {"status": self.analysis_results.get("status", "غير معروف")}
|
1696 |
-
|
1697 |
return {
|
1698 |
"status": "جاري التحليل",
|
1699 |
"document_path": self.current_document,
|
1700 |
"start_time": self.analysis_results.get("analysis_start_time")
|
1701 |
}
|
1702 |
-
|
1703 |
def get_analysis_results(self):
|
1704 |
"""الحصول على نتائج التحليل"""
|
1705 |
return self.analysis_results
|
1706 |
-
|
1707 |
def export_analysis_results(self, output_path=None):
|
1708 |
"""تصدير نتائج التحليل إلى ملف JSON"""
|
1709 |
if not self.analysis_results:
|
1710 |
logger.warning("لا توجد نتائج تحليل للتصدير")
|
1711 |
return None
|
1712 |
-
|
1713 |
if not output_path:
|
1714 |
# إنشاء اسم ملف افتراضي
|
1715 |
timestamp = datetime.datetime.now().strftime('%Y%m%d_%H%M%S')
|
1716 |
filename = f"analysis_results_{timestamp}.json"
|
1717 |
output_path = os.path.join(self.documents_path, filename)
|
1718 |
-
|
1719 |
try:
|
1720 |
with open(output_path, 'w', encoding='utf-8') as f:
|
1721 |
json.dump(self.analysis_results, f, ensure_ascii=False, indent=4)
|
1722 |
-
|
1723 |
logger.info(f"تم تصدير نتائج التحليل إلى: {output_path}")
|
1724 |
return output_path
|
1725 |
-
|
1726 |
except Exception as e:
|
1727 |
logger.error(f"خطأ في تصدير نتائج التحليل: {str(e)}")
|
1728 |
return None
|
1729 |
-
|
1730 |
def import_analysis_results(self, input_path):
|
1731 |
"""استيراد نتائج التحليل من ملف JSON"""
|
1732 |
if not os.path.exists(input_path):
|
1733 |
logger.error(f"ملف نتائج التحليل غير موجود: {input_path}")
|
1734 |
return False
|
1735 |
-
|
1736 |
try:
|
1737 |
with open(input_path, 'r', encoding='utf-8') as f:
|
1738 |
self.analysis_results = json.load(f)
|
1739 |
-
|
1740 |
logger.info(f"تم استيراد نتائج التحليل من: {input_path}")
|
1741 |
return True
|
1742 |
-
|
1743 |
except Exception as e:
|
1744 |
logger.error(f"خطأ في استيراد نتائج التحليل: {str(e)}")
|
1745 |
return False
|
@@ -1788,11 +377,11 @@ class DocumentAnalyzer:
|
|
1788 |
# البحث عن القيم النقدية
|
1789 |
currency_pattern = r'[\d,]+\.?\d*\s*(?:ريال|دولار|SAR|USD)'
|
1790 |
currencies = re.findall(currency_pattern, text)
|
1791 |
-
|
1792 |
# البحث عن النسب المئوية
|
1793 |
percentage_pattern = r'\d+\.?\d*\s*%'
|
1794 |
percentages = re.findall(percentage_pattern, text)
|
1795 |
-
|
1796 |
return {
|
1797 |
"currencies": currencies,
|
1798 |
"percentages": percentages
|
@@ -1806,16 +395,10 @@ class DocumentAnalyzer:
|
|
1806 |
def _calculate_complexity(self, text):
|
1807 |
"""حساب مستوى تعقيد النص"""
|
1808 |
words = text.split()
|
1809 |
-
if not words:
|
1810 |
-
return 0
|
1811 |
-
|
1812 |
avg_word_length = sum(len(word) for word in words) / len(words)
|
1813 |
sentences = text.split('.')
|
1814 |
-
if not sentences:
|
1815 |
-
return 0
|
1816 |
-
|
1817 |
avg_sentence_length = len(words) / len(sentences)
|
1818 |
-
|
1819 |
# حساب درجة التعقيد (1-10)
|
1820 |
complexity = min((avg_word_length * 0.5 + avg_sentence_length * 0.2), 10)
|
1821 |
return round(complexity, 2)
|
@@ -1830,12 +413,12 @@ class DocumentAnalyzer:
|
|
1830 |
"الغرامات",
|
1831 |
"شروط الدفع"
|
1832 |
]
|
1833 |
-
|
1834 |
missing = []
|
1835 |
for section in required_sections:
|
1836 |
if section not in text:
|
1837 |
missing.append(section)
|
1838 |
-
|
1839 |
return missing
|
1840 |
|
1841 |
def _find_related_documents(self, document_path):
|
@@ -1843,56 +426,9 @@ class DocumentAnalyzer:
|
|
1843 |
directory = os.path.dirname(document_path)
|
1844 |
base_name = os.path.basename(document_path)
|
1845 |
related = []
|
1846 |
-
|
1847 |
for file in os.listdir(directory):
|
1848 |
if file != base_name and file.startswith(base_name.split('_')[0]):
|
1849 |
related.append(file)
|
1850 |
-
|
1851 |
return related
|
1852 |
-
|
1853 |
-
def process_image(self, image_path):
|
1854 |
-
"""معالجة وضغط الصورة"""
|
1855 |
-
try:
|
1856 |
-
# فتح الصورة
|
1857 |
-
with Image.open(image_path) as img:
|
1858 |
-
# تحويل الصورة إلى RGB إذا كانت RGBA
|
1859 |
-
if img.mode == 'RGBA':
|
1860 |
-
img = img.convert('RGB')
|
1861 |
-
|
1862 |
-
# البدء بجودة عالية وتقليلها تدريجياً حتى نصل للحجم المطلوب
|
1863 |
-
quality = 95
|
1864 |
-
max_size = (1200, 1200)
|
1865 |
-
|
1866 |
-
while True:
|
1867 |
-
img.thumbnail(max_size, Image.Resampling.LANCZOS)
|
1868 |
-
buffer = io.BytesIO()
|
1869 |
-
img.save(buffer, format='JPEG', quality=quality, optimize=True)
|
1870 |
-
size = len(buffer.getvalue())
|
1871 |
-
|
1872 |
-
# إذا كان الحجم أقل من 5 ميجابايت، نخرج من الحلقة
|
1873 |
-
if size <= 5000000:
|
1874 |
-
break
|
1875 |
-
|
1876 |
-
# تقليل الجودة والحجم
|
1877 |
-
quality = max(quality - 10, 20) # لا نقلل الجودة عن 20
|
1878 |
-
max_size = (int(max_size[0] * 0.8), int(max_size[1] * 0.8))
|
1879 |
-
|
1880 |
-
# إذا وصلنا للحد الأدنى من الجودة والحجم ولم نصل للحجم المطلوب
|
1881 |
-
if quality == 20 and max_size[0] < 400:
|
1882 |
-
raise ValueError("لا يمكن ضغط الصورة للحجم المطلوب")
|
1883 |
-
|
1884 |
-
# تحويل الصورة المضغوطة إلى base64
|
1885 |
-
return base64.b64encode(buffer.getvalue()).decode('utf-8')
|
1886 |
-
except Exception as e:
|
1887 |
-
logger.error(f"خطأ في معالجة الصورة: {str(e)}")
|
1888 |
-
raise
|
1889 |
-
|
1890 |
-
def convert_pdf_to_images(self, pdf_path):
|
1891 |
-
"""تحويل PDF إلى صور"""
|
1892 |
-
try:
|
1893 |
-
from pdf2image import convert_from_path
|
1894 |
-
images = convert_from_path(pdf_path)
|
1895 |
-
return images
|
1896 |
-
except Exception as e:
|
1897 |
-
logger.error(f"فشل في تحويل ملف PDF إلى صورة: {str(e)}")
|
1898 |
-
raise
|
|
|
9 |
from pathlib import Path
|
10 |
import datetime
|
11 |
import json
|
|
|
|
|
|
|
|
|
12 |
|
13 |
# تهيئة السجل
|
14 |
logging.basicConfig(
|
|
|
19 |
|
20 |
class DocumentAnalyzer:
|
21 |
"""فئة تحليل المستندات"""
|
22 |
+
|
23 |
def __init__(self, config=None):
|
24 |
"""تهيئة محلل المستندات"""
|
25 |
self.config = config
|
26 |
self.analysis_in_progress = False
|
27 |
self.current_document = None
|
28 |
self.analysis_results = {}
|
29 |
+
|
30 |
# إنشاء مجلد المستندات إذا لم يكن موجوداً
|
31 |
if config and hasattr(config, 'DOCUMENTS_PATH'):
|
32 |
self.documents_path = Path(config.DOCUMENTS_PATH)
|
33 |
else:
|
34 |
self.documents_path = Path('data/documents')
|
35 |
+
|
36 |
if not self.documents_path.exists():
|
37 |
self.documents_path.mkdir(parents=True, exist_ok=True)
|
38 |
+
|
39 |
def analyze_document(self, document_path, document_type="tender", callback=None):
|
40 |
"""تحليل مستند"""
|
41 |
if self.analysis_in_progress:
|
42 |
logger.warning("هناك عملية تحليل جارية بالفعل")
|
43 |
return False
|
44 |
+
|
45 |
if not os.path.exists(document_path):
|
46 |
logger.error(f"المستند غير موجود: {document_path}")
|
47 |
return False
|
48 |
+
|
49 |
self.analysis_in_progress = True
|
50 |
self.current_document = document_path
|
51 |
self.analysis_results = {
|
|
|
59 |
"amounts": [],
|
60 |
"risks": []
|
61 |
}
|
62 |
+
|
63 |
# بدء التحليل في خيط منفصل
|
64 |
thread = threading.Thread(
|
65 |
target=self._analyze_document_thread,
|
|
|
67 |
)
|
68 |
thread.daemon = True
|
69 |
thread.start()
|
70 |
+
|
71 |
return True
|
72 |
+
|
73 |
def _analyze_document_thread(self, document_path, document_type, callback):
|
74 |
"""خيط تحليل المستند"""
|
75 |
try:
|
76 |
# تحديد نوع المستند
|
77 |
file_extension = os.path.splitext(document_path)[1].lower()
|
78 |
+
|
79 |
if file_extension == '.pdf':
|
80 |
self.analysis_results = self._analyze_pdf(document_path, document_type)
|
81 |
elif file_extension == '.docx':
|
|
|
88 |
logger.error(f"نوع المستند غير مدعوم: {file_extension}")
|
89 |
self.analysis_results["status"] = "فشل التحليل"
|
90 |
self.analysis_results["error"] = "نوع المستند غير مدعوم"
|
91 |
+
|
92 |
# تحديث حالة التحليل
|
93 |
if self.analysis_results["status"] != "فشل التحليل":
|
94 |
self.analysis_results["status"] = "اكتمل التحليل"
|
95 |
self.analysis_results["analysis_end_time"] = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
|
96 |
+
|
97 |
logger.info(f"اكتمل تحليل المستند: {document_path}")
|
98 |
+
|
99 |
except Exception as e:
|
100 |
logger.error(f"خطأ في تحليل المستند: {str(e)}")
|
101 |
self.analysis_results["status"] = "فشل التحليل"
|
102 |
self.analysis_results["error"] = str(e)
|
103 |
+
|
104 |
finally:
|
105 |
self.analysis_in_progress = False
|
106 |
+
|
107 |
# استدعاء دالة الاستجابة إذا تم توفيرها
|
108 |
if callback and callable(callback):
|
109 |
callback(self.analysis_results)
|
110 |
+
|
111 |
def _analyze_pdf(self, document_path, document_type):
|
112 |
"""تحليل مستند PDF باستخدام الذكاء الاصطناعي"""
|
113 |
try:
|
114 |
# استخراج النص من PDF
|
115 |
text = self._extract_text_from_pdf(document_path)
|
116 |
+
|
117 |
# تحليل متقدم للمستند
|
118 |
analysis = {
|
|
|
|
|
|
|
|
|
119 |
"file_info": {
|
120 |
"name": os.path.basename(document_path),
|
121 |
"type": "PDF",
|
|
|
165 |
except Exception as e:
|
166 |
logger.error(f"خطأ في تحليل PDF: {str(e)}")
|
167 |
raise
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
168 |
|
169 |
def _extract_text_from_pdf(self, document_path):
|
170 |
+
"""استخراج النص من ملف PDF (تحتاج إلى مكتبة مثل PyPDF2 أو pdfplumber)"""
|
171 |
+
# Implementation using a PDF processing library like PyPDF2 or pdfplumber is needed here.
|
172 |
+
# This is a placeholder. Replace with actual PDF text extraction.
|
173 |
+
return "Placeholder text extracted from PDF"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
174 |
|
175 |
def _analyze_contract_terms(self, text):
|
176 |
"""تحليل بنود العقد"""
|
177 |
+
# Implementation for contract term analysis is needed here. This is a placeholder.
|
178 |
+
return "Placeholder contract terms analysis"
|
|
|
|
|
|
|
|
|
179 |
|
180 |
def _analyze_financial_terms(self, text):
|
181 |
"""تحليل الجزء المالي"""
|
182 |
+
# Implementation for financial term analysis is needed here. This is a placeholder.
|
183 |
+
return "Placeholder financial terms analysis"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
184 |
|
185 |
def _analyze_legal_terms(self, text):
|
186 |
"""تحليل القانوني للعقد"""
|
187 |
+
# Implementation for legal term analysis is needed here. This is a placeholder.
|
188 |
+
return "Placeholder legal terms analysis"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
189 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
190 |
def _analyze_risks(self, text):
|
191 |
"""تحليل المخاطر"""
|
192 |
+
# Implementation for risk analysis is needed here. This is a placeholder.
|
193 |
+
return "Placeholder risk analysis"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
194 |
|
195 |
def _analyze_conditions(self, text):
|
196 |
"""دراسة كراسة الشروط"""
|
197 |
+
# Implementation for conditions analysis is needed here. This is a placeholder.
|
198 |
+
return "Placeholder conditions analysis"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
199 |
|
200 |
def _generate_summary(self, text):
|
201 |
"""توليد ملخص"""
|
202 |
+
# Implementation for summary generation is needed here. This is a placeholder.
|
203 |
+
return "Placeholder summary"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
204 |
|
205 |
def _generate_recommendations(self, text):
|
206 |
"""توليد التوصيات"""
|
207 |
+
# Implementation for recommendation generation is needed here. This is a placeholder.
|
208 |
+
return "Placeholder recommendations"
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
209 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
210 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
211 |
|
212 |
def _analyze_docx(self, document_path, document_type):
|
213 |
"""تحليل مستند Word"""
|
214 |
try:
|
215 |
+
# محاكاة تحليل مستند Word
|
216 |
+
logger.info(f"تحليل مستند Word: {document_path}")
|
217 |
+
|
218 |
+
# في التطبيق الفعلي، سيتم استخدام مكتبة مثل python-docx
|
219 |
+
# لاستخراج النص من ملف Word وتحليله
|
220 |
+
|
221 |
+
# محاكاة استخراج البنود والكيانات والتواريخ والمبالغ والمخاطر
|
222 |
+
# (مشابه لتحليل PDF)
|
223 |
+
self.analysis_results["items"] = [
|
224 |
+
{"id": 1, "name": "توريد معدات", "description": "توريد معدات المشروع", "unit": "مجموعة", "estimated_quantity": 10},
|
225 |
+
{"id": 2, "name": "تركيب المعدات", "description": "تركيب وتشغيل المعدات", "unit": "مجموعة", "estimated_quantity": 10},
|
226 |
+
{"id": 3, "name": "التدريب", "description": "تدريب الموظفين على استخدام المعدات", "unit": "يوم", "estimated_quantity": 20}
|
227 |
+
]
|
228 |
|
229 |
+
# محاكاة استخراج الكيانات والتواريخ والمبالغ والمخاطر
|
230 |
+
# (مشابه لتحليل PDF)
|
231 |
|
232 |
except Exception as e:
|
233 |
logger.error(f"خطأ في تحليل مستند Word: {str(e)}")
|
234 |
raise
|
235 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
236 |
def _analyze_xlsx(self, document_path, document_type):
|
237 |
"""تحليل مستند Excel"""
|
238 |
try:
|
239 |
+
# محاكاة تحليل مستند Excel
|
240 |
+
logger.info(f"تحليل مستند Excel: {document_path}")
|
241 |
|
242 |
+
# في التطبيق الفعلي، سيتم استخدام مكتبة مثل pandas أو openpyxl
|
243 |
+
# لاستخراج البيانات من ملف Excel وتحليلها
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
244 |
|
245 |
+
# محاكاة استخراج البنود
|
246 |
+
self.analysis_results["items"] = [
|
247 |
+
{"id": 1, "name": "بند 1", "description": "وصف البند 1", "unit": "وحدة", "estimated_quantity": 100},
|
248 |
+
{"id": 2, "name": "بند 2", "description": "وصف البند 2", "unit": "وحدة", "estimated_quantity": 200},
|
249 |
+
{"id": 3, "name": "بند 3", "description": "وصف البند 3", "unit": "وحدة", "estimated_quantity": 300}
|
250 |
+
]
|
251 |
|
252 |
+
# محاكاة استخراج المبالغ
|
253 |
+
self.analysis_results["amounts"] = [
|
254 |
+
{"type": "item_cost", "amount": 10000, "currency": "SAR", "description": "تكلفة البند 1"},
|
255 |
+
{"type": "item_cost", "amount": 20000, "currency": "SAR", "description": "تكلفة البند 2"},
|
256 |
+
{"type": "item_cost", "amount": 30000, "currency": "SAR", "description": "تكلفة البند 3"}
|
257 |
+
]
|
258 |
|
259 |
except Exception as e:
|
260 |
logger.error(f"خطأ في تحليل مستند Excel: {str(e)}")
|
261 |
raise
|
262 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
263 |
def _analyze_txt(self, document_path, document_type):
|
264 |
"""تحليل مستند نصي"""
|
265 |
try:
|
266 |
+
# محاكاة تحليل مستند نصي
|
267 |
+
logger.info(f"تحليل مستند نصي: {document_path}")
|
|
|
|
|
|
|
|
|
268 |
|
269 |
+
# في التطبيق الفعلي، سيتم قراءة الملف النصي وتحليله
|
|
|
|
|
270 |
|
271 |
+
# محاكاة استخراج البنود والكيانات والتواريخ والمبالغ والمخاطر
|
272 |
+
# (مشابه للتحليلات الأخرى)
|
273 |
|
274 |
except Exception as e:
|
275 |
logger.error(f"خطأ في تحليل مستند نصي: {str(e)}")
|
276 |
raise
|
277 |
+
|
|
|
|
|
|
|
|
|
|
|
278 |
def get_analysis_status(self):
|
279 |
"""الحصول على حالة التحليل الحالي"""
|
280 |
if not self.analysis_in_progress:
|
|
|
282 |
return {"status": "لا يوجد تحليل جارٍ"}
|
283 |
else:
|
284 |
return {"status": self.analysis_results.get("status", "غير معروف")}
|
285 |
+
|
286 |
return {
|
287 |
"status": "جاري التحليل",
|
288 |
"document_path": self.current_document,
|
289 |
"start_time": self.analysis_results.get("analysis_start_time")
|
290 |
}
|
291 |
+
|
292 |
def get_analysis_results(self):
|
293 |
"""الحصول على نتائج التحليل"""
|
294 |
return self.analysis_results
|
295 |
+
|
296 |
def export_analysis_results(self, output_path=None):
|
297 |
"""تصدير نتائج التحليل إلى ملف JSON"""
|
298 |
if not self.analysis_results:
|
299 |
logger.warning("لا توجد نتائج تحليل للتصدير")
|
300 |
return None
|
301 |
+
|
302 |
if not output_path:
|
303 |
# إنشاء اسم ملف افتراضي
|
304 |
timestamp = datetime.datetime.now().strftime('%Y%m%d_%H%M%S')
|
305 |
filename = f"analysis_results_{timestamp}.json"
|
306 |
output_path = os.path.join(self.documents_path, filename)
|
307 |
+
|
308 |
try:
|
309 |
with open(output_path, 'w', encoding='utf-8') as f:
|
310 |
json.dump(self.analysis_results, f, ensure_ascii=False, indent=4)
|
311 |
+
|
312 |
logger.info(f"تم تصدير نتائج التحليل إلى: {output_path}")
|
313 |
return output_path
|
314 |
+
|
315 |
except Exception as e:
|
316 |
logger.error(f"خطأ في تصدير نتائج التحليل: {str(e)}")
|
317 |
return None
|
318 |
+
|
319 |
def import_analysis_results(self, input_path):
|
320 |
"""استيراد نتائج التحليل من ملف JSON"""
|
321 |
if not os.path.exists(input_path):
|
322 |
logger.error(f"ملف نتائج التحليل غير موجود: {input_path}")
|
323 |
return False
|
324 |
+
|
325 |
try:
|
326 |
with open(input_path, 'r', encoding='utf-8') as f:
|
327 |
self.analysis_results = json.load(f)
|
328 |
+
|
329 |
logger.info(f"تم استيراد نتائج التحليل من: {input_path}")
|
330 |
return True
|
331 |
+
|
332 |
except Exception as e:
|
333 |
logger.error(f"خطأ في استيراد نتائج التحليل: {str(e)}")
|
334 |
return False
|
|
|
377 |
# البحث عن القيم النقدية
|
378 |
currency_pattern = r'[\d,]+\.?\d*\s*(?:ريال|دولار|SAR|USD)'
|
379 |
currencies = re.findall(currency_pattern, text)
|
380 |
+
|
381 |
# البحث عن النسب المئوية
|
382 |
percentage_pattern = r'\d+\.?\d*\s*%'
|
383 |
percentages = re.findall(percentage_pattern, text)
|
384 |
+
|
385 |
return {
|
386 |
"currencies": currencies,
|
387 |
"percentages": percentages
|
|
|
395 |
def _calculate_complexity(self, text):
|
396 |
"""حساب مستوى تعقيد النص"""
|
397 |
words = text.split()
|
|
|
|
|
|
|
398 |
avg_word_length = sum(len(word) for word in words) / len(words)
|
399 |
sentences = text.split('.')
|
|
|
|
|
|
|
400 |
avg_sentence_length = len(words) / len(sentences)
|
401 |
+
|
402 |
# حساب درجة التعقيد (1-10)
|
403 |
complexity = min((avg_word_length * 0.5 + avg_sentence_length * 0.2), 10)
|
404 |
return round(complexity, 2)
|
|
|
413 |
"الغرامات",
|
414 |
"شروط الدفع"
|
415 |
]
|
416 |
+
|
417 |
missing = []
|
418 |
for section in required_sections:
|
419 |
if section not in text:
|
420 |
missing.append(section)
|
421 |
+
|
422 |
return missing
|
423 |
|
424 |
def _find_related_documents(self, document_path):
|
|
|
426 |
directory = os.path.dirname(document_path)
|
427 |
base_name = os.path.basename(document_path)
|
428 |
related = []
|
429 |
+
|
430 |
for file in os.listdir(directory):
|
431 |
if file != base_name and file.startswith(base_name.split('_')[0]):
|
432 |
related.append(file)
|
433 |
+
|
434 |
return related
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|