--- title: Baseer Self-Driving API emoji: 🚗 colorFrom: blue colorTo: green sdk: docker app_port: 7860 pinned: false license: mit short_description: Self-driving API using InterFuser model tags: - computer-vision - autonomous-driving - deep-learning - fastapi - pytorch - interfuser - graduation-project - carla - self-driving --- # 🚗 Baseer Self-Driving API [![Hugging Face Spaces](https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https://huggingface.co/spaces/Adam-IT/Baseer_Server) [![FastAPI](https://img.shields.io/badge/FastAPI-005571?style=flat&logo=fastapi)](https://fastapi.tiangolo.com/) [![PyTorch](https://img.shields.io/badge/PyTorch-%23EE4C2C.svg?style=flat&logo=PyTorch&logoColor=white)](https://pytorch.org/) ## 📋 وصف المشروع **Baseer** هو نظام قيادة ذاتية متقدم يستخدم نموذج **InterFuser** المدرب على بيانات محاكاة CARLA. يوفر هذا المشروع واجهة برمجة تطبيقات (API) قوية ومستضافة على Hugging Face Spaces للتفاعل مع نموذج القيادة الذاتية. ## ✨ الميزات الرئيسية ### 🧠 **نموذج InterFuser متقدم** - مدرب على بيانات PDM_Lite_Carla - يركز على اكتشاف الكائنات المرورية (Traffic Detection) - دقة عالية في تحديد المسارات (Waypoint Prediction) - تحليل متقدم للمشهد البصري ### 🏗️ **بنية خادم-عميل** - **FastAPI** للأداء العالي - معالجة متوازية للطلبات - إدارة جلسات متعددة - واجهة RESTful سهلة الاستخدام ### 📊 **مخرجات شاملة** - **أوامر التحكم**: انعطاف، تسارع، فرملة - **خريطة المرور**: اكتشاف المركبات والمشاة - **تحليل المشهد**: إشارات المرور، علامات التوقف، التقاطعات - **لوحة معلومات**: صورة تفاعلية شاملة ## 🚀 كيفية الاستخدام ### 1. بدء جلسة جديدة ```bash curl -X POST "https://adam-it-baseer-server.hf.space/start_session" ``` ### 2. إرسال إطار للمعالجة ```bash curl -X POST "https://adam-it-baseer-server.hf.space/run_step" \ -H "Content-Type: application/json" \ -d '{ "session_id": "your-session-id", "image_b64": "base64-encoded-image", "measurements": { "pos": [0.0, 0.0], "theta": 0.0, "speed": 0.0, "command": 4 } }' ``` ### 3. إنهاء الجلسة ```bash curl -X POST "https://adam-it-baseer-server.hf.space/end_session?session_id=your-session-id" ``` ## 📡 نقاط النهاية (API Endpoints) | النقطة | الطريقة | الوصف | |--------|---------|--------| | `/` | GET | معلومات الـ API | | `/start_session` | POST | بدء جلسة جديدة | | `/run_step` | POST | معالجة إطار واحد | | `/end_session` | POST | إنهاء جلسة | | `/sessions` | GET | عرض الجلسات النشطة | | `/docs` | GET | توثيق تفاعلي للـ API | ## 🔧 المواصفات التقنية ### النموذج - **النوع**: InterFuser (Fine-tuned) - **Backbone**: ResNet-50 للصور - **البعد المدمج**: 256 - **طبقات المحول**: 6 encoder + 6 decoder - **حجم النموذج**: 545 MB ### المدخلات - **الصور**: 224x224 RGB - **القياسات**: الموقع، السرعة، الاتجاه - **الأوامر**: أوامر القيادة عالية المستوى ### المخرجات - **أوامر التحكم**: steer, throttle, brake - **خريطة المرور**: شبكة 20x20 للكائنات - **المسارات**: 10 نقاط مستقبلية - **تحليل المشهد**: junction, traffic_light, stop_sign ## 🎯 حالات الاستخدام المثلى - ✅ **القيادة في الطرق المستقيمة** - ✅ **اكتشاف المركبات والمشاة** - ✅ **تجنب العوائق** - ✅ **التنبؤ بالمسارات** - ✅ **تحليل المشهد المروري** ## ⚠️ القيود - محدود بكاميرا أمامية واحدة - لا يستخدم بيانات LiDAR - مُحسن للبيئات المحاكاة (CARLA) - قد يحتاج تعديل للبيئات الحقيقية ## 🛠️ التطوير والمساهمة هذا المشروع جزء من مشروع تخرج في مجال الذكاء الاصطناعي والقيادة الذاتية. تم تطويره باستخدام: - **PyTorch** للتعلم العميق - **FastAPI** لواجهة البرمجة - **OpenCV** لمعالجة الصور - **NumPy** للحوسبة العلمية ## 📞 التواصل والدعم للاستفسارات والدعم التقني، يرجى استخدام: - **Issues** في مستودع GitHub - **Community** في Hugging Face - **Discussions** في صفحة Space --- **تم تطويره بواسطة**: Adam-IT **الترخيص**: MIT **النسخة**: 1.0.0