Baseer_Server / README.md
altawil
Update README.md
adff7c4 verified
|
raw
history blame
5.11 kB
---
title: Baseer Self-Driving API
emoji: 🚗
colorFrom: blue
colorTo: green
sdk: docker
app_port: 7860
pinned: false
license: mit
short_description: Self-driving API using InterFuser model
tags:
- computer-vision
- autonomous-driving
- deep-learning
- fastapi
- pytorch
- interfuser
- graduation-project
- carla
- self-driving
---
# 🚗 Baseer Self-Driving API
[![Hugging Face Spaces](https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https://huggingface.co/spaces/Adam-IT/Baseer_Server)
[![FastAPI](https://img.shields.io/badge/FastAPI-005571?style=flat&logo=fastapi)](https://fastapi.tiangolo.com/)
[![PyTorch](https://img.shields.io/badge/PyTorch-%23EE4C2C.svg?style=flat&logo=PyTorch&logoColor=white)](https://pytorch.org/)
## 📋 وصف المشروع
**Baseer** هو نظام قيادة ذاتية متقدم يستخدم نموذج **InterFuser** المدرب على بيانات محاكاة CARLA. يوفر هذا المشروع واجهة برمجة تطبيقات (API) قوية ومستضافة على Hugging Face Spaces للتفاعل مع نموذج القيادة الذاتية.
## ✨ الميزات الرئيسية
### 🧠 **نموذج InterFuser متقدم**
- مدرب على بيانات PDM_Lite_Carla
- يركز على اكتشاف الكائنات المرورية (Traffic Detection)
- دقة عالية في تحديد المسارات (Waypoint Prediction)
- تحليل متقدم للمشهد البصري
### 🏗️ **بنية خادم-عميل**
- **FastAPI** للأداء العالي
- معالجة متوازية للطلبات
- إدارة جلسات متعددة
- واجهة RESTful سهلة الاستخدام
### 📊 **مخرجات شاملة**
- **أوامر التحكم**: انعطاف، تسارع، فرملة
- **خريطة المرور**: اكتشاف المركبات والمشاة
- **تحليل المشهد**: إشارات المرور، علامات التوقف، التقاطعات
- **لوحة معلومات**: صورة تفاعلية شاملة
## 🚀 كيفية الاستخدام
### 1. بدء جلسة جديدة
```bash
curl -X POST "https://adam-it-baseer-server.hf.space/start_session"
```
### 2. إرسال إطار للمعالجة
```bash
curl -X POST "https://adam-it-baseer-server.hf.space/run_step" \
-H "Content-Type: application/json" \
-d '{
"session_id": "your-session-id",
"image_b64": "base64-encoded-image",
"measurements": {
"pos": [0.0, 0.0],
"theta": 0.0,
"speed": 0.0,
"command": 4
}
}'
```
### 3. إنهاء الجلسة
```bash
curl -X POST "https://adam-it-baseer-server.hf.space/end_session?session_id=your-session-id"
```
## 📡 نقاط النهاية (API Endpoints)
| النقطة | الطريقة | الوصف |
|--------|---------|--------|
| `/` | GET | معلومات الـ API |
| `/start_session` | POST | بدء جلسة جديدة |
| `/run_step` | POST | معالجة إطار واحد |
| `/end_session` | POST | إنهاء جلسة |
| `/sessions` | GET | عرض الجلسات النشطة |
| `/docs` | GET | توثيق تفاعلي للـ API |
## 🔧 المواصفات التقنية
### النموذج
- **النوع**: InterFuser (Fine-tuned)
- **Backbone**: ResNet-50 للصور
- **البعد المدمج**: 256
- **طبقات المحول**: 6 encoder + 6 decoder
- **حجم النموذج**: 545 MB
### المدخلات
- **الصور**: 224x224 RGB
- **القياسات**: الموقع، السرعة، الاتجاه
- **الأوامر**: أوامر القيادة عالية المستوى
### المخرجات
- **أوامر التحكم**: steer, throttle, brake
- **خريطة المرور**: شبكة 20x20 للكائنات
- **المسارات**: 10 نقاط مستقبلية
- **تحليل المشهد**: junction, traffic_light, stop_sign
## 🎯 حالات الاستخدام المثلى
-**القيادة في الطرق المستقيمة**
-**اكتشاف المركبات والمشاة**
-**تجنب العوائق**
-**التنبؤ بالمسارات**
-**تحليل المشهد المروري**
## ⚠️ القيود
- محدود بكاميرا أمامية واحدة
- لا يستخدم بيانات LiDAR
- مُحسن للبيئات المحاكاة (CARLA)
- قد يحتاج تعديل للبيئات الحقيقية
## 🛠️ التطوير والمساهمة
هذا المشروع جزء من مشروع تخرج في مجال الذكاء الاصطناعي والقيادة الذاتية. تم تطويره باستخدام:
- **PyTorch** للتعلم العميق
- **FastAPI** لواجهة البرمجة
- **OpenCV** لمعالجة الصور
- **NumPy** للحوسبة العلمية
## 📞 التواصل والدعم
للاستفسارات والدعم التقني، يرجى استخدام:
- **Issues** في مستودع GitHub
- **Community** في Hugging Face
- **Discussions** في صفحة Space
---
**تم تطويره بواسطة**: Adam-IT
**الترخيص**: MIT
**النسخة**: 1.0.0