Spaces:
Running
Running
title: Baseer Self-Driving API | |
emoji: 🚗 | |
colorFrom: blue | |
colorTo: green | |
sdk: docker | |
app_port: 7860 | |
pinned: false | |
license: mit | |
short_description: Self-driving API using InterFuser model | |
tags: | |
- computer-vision | |
- autonomous-driving | |
- deep-learning | |
- fastapi | |
- pytorch | |
- interfuser | |
- graduation-project | |
- carla | |
- self-driving | |
# 🚗 Baseer Self-Driving API | |
[](https://huggingface.co/spaces/Adam-IT/Baseer_Server) | |
[](https://fastapi.tiangolo.com/) | |
[](https://pytorch.org/) | |
## 📋 وصف المشروع | |
**Baseer** هو نظام قيادة ذاتية متقدم يستخدم نموذج **InterFuser** المدرب على بيانات محاكاة CARLA. يوفر هذا المشروع واجهة برمجة تطبيقات (API) قوية ومستضافة على Hugging Face Spaces للتفاعل مع نموذج القيادة الذاتية. | |
## ✨ الميزات الرئيسية | |
### 🧠 **نموذج InterFuser متقدم** | |
- مدرب على بيانات PDM_Lite_Carla | |
- يركز على اكتشاف الكائنات المرورية (Traffic Detection) | |
- دقة عالية في تحديد المسارات (Waypoint Prediction) | |
- تحليل متقدم للمشهد البصري | |
### 🏗️ **بنية خادم-عميل** | |
- **FastAPI** للأداء العالي | |
- معالجة متوازية للطلبات | |
- إدارة جلسات متعددة | |
- واجهة RESTful سهلة الاستخدام | |
### 📊 **مخرجات شاملة** | |
- **أوامر التحكم**: انعطاف، تسارع، فرملة | |
- **خريطة المرور**: اكتشاف المركبات والمشاة | |
- **تحليل المشهد**: إشارات المرور، علامات التوقف، التقاطعات | |
- **لوحة معلومات**: صورة تفاعلية شاملة | |
## 🚀 كيفية الاستخدام | |
### 1. بدء جلسة جديدة | |
```bash | |
curl -X POST "https://adam-it-baseer-server.hf.space/start_session" | |
``` | |
### 2. إرسال إطار للمعالجة | |
```bash | |
curl -X POST "https://adam-it-baseer-server.hf.space/run_step" \ | |
-H "Content-Type: application/json" \ | |
-d '{ | |
"session_id": "your-session-id", | |
"image_b64": "base64-encoded-image", | |
"measurements": { | |
"pos": [0.0, 0.0], | |
"theta": 0.0, | |
"speed": 0.0, | |
"command": 4 | |
} | |
}' | |
``` | |
### 3. إنهاء الجلسة | |
```bash | |
curl -X POST "https://adam-it-baseer-server.hf.space/end_session?session_id=your-session-id" | |
``` | |
## 📡 نقاط النهاية (API Endpoints) | |
| النقطة | الطريقة | الوصف | | |
|--------|---------|--------| | |
| `/` | GET | معلومات الـ API | | |
| `/start_session` | POST | بدء جلسة جديدة | | |
| `/run_step` | POST | معالجة إطار واحد | | |
| `/end_session` | POST | إنهاء جلسة | | |
| `/sessions` | GET | عرض الجلسات النشطة | | |
| `/docs` | GET | توثيق تفاعلي للـ API | | |
## 🔧 المواصفات التقنية | |
### النموذج | |
- **النوع**: InterFuser (Fine-tuned) | |
- **Backbone**: ResNet-50 للصور | |
- **البعد المدمج**: 256 | |
- **طبقات المحول**: 6 encoder + 6 decoder | |
- **حجم النموذج**: 545 MB | |
### المدخلات | |
- **الصور**: 224x224 RGB | |
- **القياسات**: الموقع، السرعة، الاتجاه | |
- **الأوامر**: أوامر القيادة عالية المستوى | |
### المخرجات | |
- **أوامر التحكم**: steer, throttle, brake | |
- **خريطة المرور**: شبكة 20x20 للكائنات | |
- **المسارات**: 10 نقاط مستقبلية | |
- **تحليل المشهد**: junction, traffic_light, stop_sign | |
## 🎯 حالات الاستخدام المثلى | |
- ✅ **القيادة في الطرق المستقيمة** | |
- ✅ **اكتشاف المركبات والمشاة** | |
- ✅ **تجنب العوائق** | |
- ✅ **التنبؤ بالمسارات** | |
- ✅ **تحليل المشهد المروري** | |
## ⚠️ القيود | |
- محدود بكاميرا أمامية واحدة | |
- لا يستخدم بيانات LiDAR | |
- مُحسن للبيئات المحاكاة (CARLA) | |
- قد يحتاج تعديل للبيئات الحقيقية | |
## 🛠️ التطوير والمساهمة | |
هذا المشروع جزء من مشروع تخرج في مجال الذكاء الاصطناعي والقيادة الذاتية. تم تطويره باستخدام: | |
- **PyTorch** للتعلم العميق | |
- **FastAPI** لواجهة البرمجة | |
- **OpenCV** لمعالجة الصور | |
- **NumPy** للحوسبة العلمية | |
## 📞 التواصل والدعم | |
للاستفسارات والدعم التقني، يرجى استخدام: | |
- **Issues** في مستودع GitHub | |
- **Community** في Hugging Face | |
- **Discussions** في صفحة Space | |
--- | |
**تم تطويره بواسطة**: Adam-IT | |
**الترخيص**: MIT | |
**النسخة**: 1.0.0 | |