Spaces:
Running
Running
metadata
title: Baseer Self-Driving API
emoji: 🚗
colorFrom: blue
colorTo: green
sdk: docker
app_port: 7860
pinned: false
license: mit
short_description: Self-driving API using InterFuser model
tags:
- computer-vision
- autonomous-driving
- deep-learning
- fastapi
- pytorch
- interfuser
- graduation-project
- carla
- self-driving
🚗 Baseer Self-Driving API
📋 وصف المشروع
Baseer هو نظام قيادة ذاتية متقدم يستخدم نموذج InterFuser المدرب على بيانات محاكاة CARLA. يوفر هذا المشروع واجهة برمجة تطبيقات (API) قوية ومستضافة على Hugging Face Spaces للتفاعل مع نموذج القيادة الذاتية.
✨ الميزات الرئيسية
🧠 نموذج InterFuser متقدم
- مدرب على بيانات PDM_Lite_Carla
- يركز على اكتشاف الكائنات المرورية (Traffic Detection)
- دقة عالية في تحديد المسارات (Waypoint Prediction)
- تحليل متقدم للمشهد البصري
🏗️ بنية خادم-عميل
- FastAPI للأداء العالي
- معالجة متوازية للطلبات
- إدارة جلسات متعددة
- واجهة RESTful سهلة الاستخدام
📊 مخرجات شاملة
- أوامر التحكم: انعطاف، تسارع، فرملة
- خريطة المرور: اكتشاف المركبات والمشاة
- تحليل المشهد: إشارات المرور، علامات التوقف، التقاطعات
- لوحة معلومات: صورة تفاعلية شاملة
🚀 كيفية الاستخدام
1. بدء جلسة جديدة
curl -X POST "https://adam-it-baseer-server.hf.space/start_session"
2. إرسال إطار للمعالجة
curl -X POST "https://adam-it-baseer-server.hf.space/run_step" \
-H "Content-Type: application/json" \
-d '{
"session_id": "your-session-id",
"image_b64": "base64-encoded-image",
"measurements": {
"pos": [0.0, 0.0],
"theta": 0.0,
"speed": 0.0,
"command": 4
}
}'
3. إنهاء الجلسة
curl -X POST "https://adam-it-baseer-server.hf.space/end_session?session_id=your-session-id"
📡 نقاط النهاية (API Endpoints)
النقطة | الطريقة | الوصف |
---|---|---|
/ |
GET | معلومات الـ API |
/start_session |
POST | بدء جلسة جديدة |
/run_step |
POST | معالجة إطار واحد |
/end_session |
POST | إنهاء جلسة |
/sessions |
GET | عرض الجلسات النشطة |
/docs |
GET | توثيق تفاعلي للـ API |
🔧 المواصفات التقنية
النموذج
- النوع: InterFuser (Fine-tuned)
- Backbone: ResNet-50 للصور
- البعد المدمج: 256
- طبقات المحول: 6 encoder + 6 decoder
- حجم النموذج: 545 MB
المدخلات
- الصور: 224x224 RGB
- القياسات: الموقع، السرعة، الاتجاه
- الأوامر: أوامر القيادة عالية المستوى
المخرجات
- أوامر التحكم: steer, throttle, brake
- خريطة المرور: شبكة 20x20 للكائنات
- المسارات: 10 نقاط مستقبلية
- تحليل المشهد: junction, traffic_light, stop_sign
🎯 حالات الاستخدام المثلى
- ✅ القيادة في الطرق المستقيمة
- ✅ اكتشاف المركبات والمشاة
- ✅ تجنب العوائق
- ✅ التنبؤ بالمسارات
- ✅ تحليل المشهد المروري
⚠️ القيود
- محدود بكاميرا أمامية واحدة
- لا يستخدم بيانات LiDAR
- مُحسن للبيئات المحاكاة (CARLA)
- قد يحتاج تعديل للبيئات الحقيقية
🛠️ التطوير والمساهمة
هذا المشروع جزء من مشروع تخرج في مجال الذكاء الاصطناعي والقيادة الذاتية. تم تطويره باستخدام:
- PyTorch للتعلم العميق
- FastAPI لواجهة البرمجة
- OpenCV لمعالجة الصور
- NumPy للحوسبة العلمية
📞 التواصل والدعم
للاستفسارات والدعم التقني، يرجى استخدام:
- Issues في مستودع GitHub
- Community في Hugging Face
- Discussions في صفحة Space
تم تطويره بواسطة: Adam-IT
الترخيص: MIT
النسخة: 1.0.0