Catégorie : Revue d’article

  • 🧠 Estimation de la vitesse des véhicules via l’IMU des smartphones : le modèle DVSE

    Estimation de la vitesse inertielle : une approche sans GNSS !

    Auteurs : Xuan Xiao, Xiaotong Ren, Haitao Li
    Année : 2025
    Source : arXiv:2505.18490
    Expression clé : estimation de la vitesse inertielle

    🚗 Une estimation de la vitesse inertielle via smartphone

    L’estimation de la vitesse inertielle à partir des capteurs IMU des smartphones constitue une alternative prometteuse aux systèmes GNSS traditionnels, notamment en cas de perte de signal. Le modèle DVSE, basé sur l’apprentissage profond, apporte une solution robuste sans matériel supplémentaire.

    🧠 Le modèle DVSE : architecture modulaire et efficacité

    • Compensation du bruit inertiel avec GRU
    • Transformation des coordonnées smartphone → véhicule avec TCN
    • Alignement GNSS/IMU par fonction de perte adaptative

    Grâce à une technique d’augmentation de données simulant les rotations du smartphone, DVSE renforce sa robustesse face à des postures variées.

    estimation de la vitesse inertielle via IMU du smartphone
    Architecture de DVSE pour l’estimation de la vitesse inertielle à partir d’un smartphone

    📊 Résultats et validation sur données réelles

    Le modèle a été entraîné sur 200 heures de données issues de 300 conducteurs, avec un MAE inférieur à 2.35 m/s. Il surpasse les approches classiques comme DeepTrack ou AI-IMU, tout en étant plus léger et déployable sur smartphone.

    🔍 Intégration dans RoadSimulator3

    Cette méthode peut être utilisée pour valider les vitesses simulées dans RoadSimulator3 dans les scénarios GNSS dégradés. Elle complète les approches existantes par apprentissage ou par filtrage de Kalman.

    🔗 Ressources complémentaires

    📎 Référence BibTeX

    @article{xiaoDVSEsmartphoneIMUspeed2025,
      title={An Inertial Sequence Learning Framework for Vehicle Speed Estimation via Smartphone IMU},
      author={Xuan Xiao and Xiaotong Ren and Haitao Li},
      journal={arXiv preprint arXiv:2505.18490},
      year={2025}
    }
      
  • 🎯 Réduire les Erreurs des Gyroscopes MEMS grâce au Carrouseling

    Le carrouseling gyroscope MEMS est une méthode innovante visant à améliorer la précision des systèmes de navigation à l’estime. Elle consiste à faire tourner continuellement un gyroscope autour d’un axe pour compenser les erreurs systématiques des capteurs MEMS. Dans leur publication intitulée “The Effect of Carouseling on Angular Error Growth in MEMS Gyroscopes”, Collin et al. (2015) démontrent l’impact significatif de cette technique sur la réduction des erreurs d’estimation angulaire.

    🔧 Qu’est-ce que le carrouseling gyroscope MEMS ?

    Cette approche repose sur une rotation continue du capteur gyroscopique autour de l’axe vertical. Ce mouvement permet de neutraliser le biais additif, de lisser le bruit blanc et de réduire les effets du bruit 1/f. Contrairement aux techniques statiques, le carrouseling redistribue ces erreurs dans le temps, ce qui améliore la stabilité et la fidélité des mesures dans les systèmes embarqués.

    📉 Réduction des erreurs gyroscopiques par carrouseling

    Les résultats expérimentaux présentés par Collin et ses collègues indiquent une diminution significative de la marche aléatoire de vitesse angulaire. Leur modèle permet aussi de mieux simuler le comportement des gyroscopes dans des environnements bruités. Une nouvelle méthode de génération du bruit 1/f est également proposée, apportant un gain notable en réalisme pour les simulateurs inertiels.

    🚗 Intégration dans les simulateurs comme RoadSimulator3

    Dans le contexte de RoadSimulator3, intégrer le carrouseling gyroscope MEMS permet de simuler les erreurs gyroscopiques de manière plus crédible. Cela favorise une validation plus robuste des algorithmes de détection d’événements ou de navigation inertielle.

    🔗 Étude originale : Collin et al., 2015doi.org/10.1109/ION.2015.7139291

    carrouseling gyroscope MEMS en navigation inertielle

  • Auto-calibration inertielle sur smartphone : vers une fusion IMU-GPS fiable

    📱 Auto-calibration smartphone véhicule : une approche robuste sans magnétomètre

    La auto-calibration smartphone véhicule est un défi fondamental pour garantir la qualité des mesures
    inertielle embarquées. L’étude de Almazan et al. (2013) propose une solution ingénieuse, sans recours
    au magnétomètre, pour estimer automatiquement l’orientation du smartphone dans un véhicule en mouvement.

    🔍 Objectif : orienter le smartphone sans capteur magnétique

    Contrairement aux méthodes classiques dépendant du compas magnétique (souvent perturbé dans les habitacles),
    cette méthode exploite les signaux GPS et IMU (accéléromètre, gyroscope) intégrés au smartphone pour estimer
    dynamiquement l’orientation inertielle du téléphone, y compris le cap (lacet).

    ⚙️ Méthode de calibration inertielle embarquée

    Le cœur de l’approche repose sur une modélisation statistique avancée :

    • 📈 Suivi de l’accélération longitudinale du véhicule pour estimer l’axe principal
    • 🔄 Estimation de l’angle de lacet par ajustement d’un modèle de Gaussiennes mixtes
    • 🎯 Filtrage de Kalman pour combiner inertie et mouvement GPS, même sur routes inclinées

    🧪 Résultats : précision et robustesse en conditions réelles

    Les tests, réalisés sur route avec des iPhones non modifiés, montrent une précision élevée, même sans
    calibration manuelle ni accessoire externe. L’algorithme est robuste aux variations de pente, aux perturbations internes
    du véhicule et aux erreurs GPS classiques.

    🚗 Intégration dans RoadSimulator3

    Dans RoadSimulator3, cette technique permet de simuler des scénarios
    de mauvaise orientation ou de calibration dynamique. Cela renforce le réalisme des données simulées et permet de
    tester la résilience d’algorithmes de détection à des signaux faiblement calibrés.

    🔗 Article original

    Almazan et al., 2013

    doi.org/10.1109/IVS.2013.6629502

    auto-calibration smartphone véhicule

  • 📱 Reconnaissance des Événements de Conduite via Deep Learning sur Smartphone

    Reconnaissance événements conduite smartphone : détection inertielle fiable

    La reconnaissance événements conduite smartphone devient une technologie clé pour l’analyse du comportement routier sans infrastructure complexe. En exploitant les capteurs inertiels (IMU) déjà présents dans les téléphones, il est possible d’identifier des événements comme le freinage brusque, les virages ou les accélérations violentes.

    Pourquoi utiliser le smartphone pour la détection d’événements de conduite ?

    Les smartphones sont omniprésents et embarquent des capteurs capables de mesurer les accélérations et rotations. Cela permet de réaliser une détection inertielle fiable sans matériel additionnel. La simulation inertielle bénéficie de ces signaux pour enrichir les scénarios réalistes dans des outils comme RoadSimulator3.

    Fan et al. (2019) : détection inertielle avancée sur smartphone

    Dans leur étude “Accelerometer-Based Driving Event Detection Using Deep Learning”, Fan et ses collègues présentent une approche deep learning pour détecter des événements à partir de l’IMU d’un smartphone. En combinant des réseaux de neurones convolutifs avec des séquences de capteurs, ils atteignent des performances robustes, même en conditions réelles.

    Utilisation dans RoadSimulator3

    Cette méthode inspire directement le module d’injection d’événements inertiels de RoadSimulator3, qui permet de générer automatiquement des scénarios de conduite réalistes à 10 Hz. Le couplage avec la reconnaissance sur smartphone ouvre la voie à une validation croisée entre simulation et mesure réelle.

    reconnaissance événements conduite smartphone

    Mots-clés : reconnaissance, conduite, inertielle, deep learning, smartphone, IMU, détection

  • 📚 Revue scientifique par thèmes

    📚 Revue scientifique par thèmes

    Cette synthèse regroupe les publications majeures analysées pour le projet RoadSimulator3. Chaque article est associé à une revue détaillée sur le blog, expliquant son intérêt, ses apports, et ses limites.

    👉 Pour une bibliographie complète avec fiches détaillées et accès direct :
    📖 Voir la bibliographie complète


    🔁 Fusion de capteurs & navigation

    ⚙️ Simulation & génération de données inertielle

    🧠 Détection d’événements

    🚘 Conduite autonome & plateformes

    📱 Applications smartphone & multimodalité


    🔎 Pour aller plus loin, accédez à toutes les revues d’articles ou explorez la bibliographie scientifique du projet.

  • Revue scientifique — Open-Source ADS Platforms 2025

    Plateformes open-source ADS : comparatif complet 2025

    Auteurs : Zhang, Ma, Lee & Lee (2025) — publié dans MDPI Electronics

    📊 Panorama 2025 des plateformes open-source ADS

    Les plateformes open-source ADS (Autonomous Driving Software) sont devenues des outils essentiels dans le développement et le test de logiciels embarqués. Zhang et al. proposent une comparaison détaillée des solutions les plus connues comme Apollo, Autoware, OpenPilot, LGSVL ou CARLA, en évaluant modules, capteurs, interfaces et complexité de mise en œuvre.

    L’étude introduit une grille comparative normalisée et effectue des tests en environnement simulé, apportant un cadre d’analyse rigoureux. Cette enquête constitue une référence utile pour orienter les choix selon les objectifs (perception, simulation, interopérabilité).

    🚗 RoadSimulator3 comme outil complémentaire

    Si les plateformes open-source ADS visent une simulation 3D complète, RoadSimulator3 se positionne différemment : il privilégie la génération de données GPS/IMU à 10 Hz, légères et réalistes, sans GPU.

    • ⚙️ Peut fournir des entrées inertielle + GNSS à CARLA ou Autoware.
    • 📈 Utilisable en aval pour valider les sorties 3D via données inertielle.
    • 🧪 Basé sur une simulation réaliste des événements de conduite (freinage, virage, etc.).

    ⚠️ Limites des solutions analysées

    • 🎮 Focalisation sur la visualisation 3D, peu d’attention aux données capteurs temps réel.
    • 🔌 Absence de plateformes orientées relief, topographie et inertie comme RoadSimulator3.

    📥 Liens et citation

    📊 Citation suggérée

    @article{surveyOpenSourceADS2025,
      author  = {Zhang, Xiaoyi and Ma, Qiang and Lee, Jaeyoung and Lee, Seungchul},
      title   = {An Updated Survey of Open-Source Autonomous Driving Software Platforms},
      journal = {Electronics},
      year    = {2025},
      volume  = {14},
      number  = {2},
      pages   = {410},
      doi     = {10.3390/electronics14020410}
    }
  • Revue scientifique — Yazgan et al. (2024)

    🧠 Perception collaborative V2X : vers une mobilité autonome coopérative

    Auteurs : Yazgan et al. (2024) — Publication dans IEEE Transactions on Intelligent Vehicles

    🧠 Résumé de l’étude

    Cet article propose une revue exhaustive de la perception collaborative entre véhicules et infrastructures, aussi appelée V2X Collaborative Perception. L’objectif est de dépasser les limites de la perception embarquée en permettant aux véhicules d’échanger des informations visuelles et inertielle via des réseaux 5G ou DSRC.

    L’étude décrit les architectures coopératives les plus prometteuses (centrées véhicule, centrées infrastructure, fusion hybride), les protocoles de communication (CV2X, 802.11p) et les principaux défis :
    latence, synchronisation temporelle, redondance d’informations, cybersécurité.

    🎯 Intérêt pour RoadSimulator3

    • 📡 Permet d’étendre RoadSimulator3 vers des cas d’usage de perception coopérative (ex. détection conjointe d’obstacles dans des zones non visibles directement).
    • 🧭 Possibilité de simuler des scènes partagées entre véhicules et de tester la fusion collaborative des données IMU / GNSS.
    • 🧪 Utile pour la validation d’algorithmes de fusion inter-véhicules, en combinant les traces inertielle multi-agents.

    ⚠️ Limites de l’étude

    • 📉 Peu d’exemples de simulateurs capables de produire des traces multi-véhicules synchronisées.
    • ⚙️ Les aspects inertiels (acc_x, gyro) sont mentionnés mais peu explorés comparés à la perception caméra/LiDAR.

    🔗 Intégration avec RoadSimulator3

    RoadSimulator3 pourrait être étendu pour générer plusieurs trajectoires simultanées, chacune avec son signal inertiel, et des événements synchronisés (ex. freinage collectif, virage groupé). Cela rend possible une simulation V2X légère orientée capteurs embarqués, sans nécessiter de rendu visuel 3D lourd.

    📥 Liens utiles

    📊 Citation suggérée

    @article{yazganCollaborativePerception2024,
      author    = {Yazgan, Gorkem and Sarker, Mohammad and Islam, Rashedul and Chowdhury, Mashrur},
      title     = {Collaborative Perception for Connected Autonomous Vehicles: A Survey},
      journal   = {IEEE Transactions on Intelligent Vehicles},
      year      = {2024},
      volume    = {9},
      number    = {3},
      pages     = {761--781},
      doi       = {10.1109/TIV.2024.3341282}
    }
    
  • 🧠 Revue scientifique — Sarker et al. (2024)

    🧠 Sarker et al. (2024) — Jeux de données et simulateurs pour la conduite autonome

    Auteurs : Sarker, Yazgan et al. (2024) — Publication dans IEEE Transactions on Intelligent Transportation Systems

    🧠 Résumé de l’étude

    Cet article propose une revue systématique des simulateurs de conduite et des jeux de données associés, avec un accent particulier sur les stratégies d’annotation, de génération et de validation des données multimodales (vision, inertie, LiDAR, GNSS). L’étude compare des simulateurs comme CARLA, LGSVL, BeamNG, TORCS, et les relie aux jeux de données dérivés ou utilisés pour l’entraînement de modèles IA embarqués.

    Les auteurs proposent un cadre méthodologique pour évaluer un simulateur selon cinq critères : réalisme physique, diversité des scénarios, flexibilité d’annotation, support multi-capteurs, et modularité. Le lien avec les besoins des véhicules autonomes est explicitement établi.

    🎯 Intérêt pour RoadSimulator3

    • 🔗 Cette étude permet de positionner RoadSimulator3 dans l’écosystème des simulateurs légers, centrés sur l’inertie, la topographie, la météo, et les annotations réalistes à haute fréquence (10 Hz).
    • 📌 Met en évidence la complémentarité entre données simulées IMU et benchmarks existants.
    • 💡 Propose une taxonomie utile pour structurer les évolutions futures de RoadSimulator3 (ajout de capteurs, environnement 3D…)

    ⚠️ Limites de l’étude

    • 📉 L’étude reste très axée sur les simulateurs visuels (véhicules dans un moteur 3D), ce qui peut négliger les besoins de simulation inertielle avancée comme ceux de RoadSimulator3.
    • 🔬 Peu de métriques proposées pour évaluer la qualité inertielle des signaux générés.

    🔗 Intégration avec RoadSimulator3

    RoadSimulator3 peut s’intégrer dans les futures revues comme un outil spécifique focalisé sur les données GPS/IMU enrichies, à haute fréquence, et avec une annotation contextuelle des événements inertiels (freinage, virage, trottoir…). L’étude de Sarker fournit un canevas pertinent pour étendre RoadSimulator3 en intégrant des modules de rendu visuel ou des outils de comparaison inter‑simulateurs.

    📥 Liens utiles

    📊 Citation suggérée

    @article{sarkerDatasetsSimulators2024,
      author    = {Sarker, Mohammad and Yazgan, Gorkem and Cheng, William and Islam, Rashedul and Chowdhury, Mashrur},
      title     = {A Comprehensive Review of Autonomous Vehicle Simulation Tools and Datasets},
      journal   = {IEEE Transactions on Intelligent Transportation Systems},
      year      = {2024},
      volume    = {25},
      number    = {4},
      pages     = {7534--7556},
      doi       = {10.1109/TITS.2024.3336671}
    }
    
  • 🧠 Revue scientifique — Liu et al. (2024)

    🧠 Liu et al. (2024) – Survey sur les ensembles de données pour la navigation inertielle

    Auteurs : Liu, Zhang, Tang, et al.
    Source : Sensors, 2024
    DOI : 10.3390/s24010034


    🎯 Objectif de l’étude

    Ce survey passe en revue plus de 90 ensembles de données publics utilisés dans la navigation inertielle et la reconnaissance de mouvement.

    • Comparaison des capteurs utilisés (IMU, GPS, magnétomètre, etc.)
    • Types de scénarios couverts : piéton, véhicule, mobile
    • Résolutions et fréquences d’échantillonnage disponibles
    • Analyse des usages typiques : fusion de capteurs, apprentissage automatique, SLAM, détection d’activités

    🔍 Apports principaux

    • Tableaux synthétiques très lisibles des datasets open-source
    • Classification utile pour tout projet exploitant des données IMU ou multi-capteurs
    • Analyse des biais et manques dans les jeux de données actuels

    📌 Intérêt pour RoadSimulator3

    Ce travail a guidé la création du simulateur en identifiant les lacunes des jeux de données existants :

    • Peu de datasets avec données IMU/GNSS à haute fréquence synchronisées
    • Peu de cas réalistes de livraison urbaine avec événements inertiels annotés
    • Justification claire de l’approche synthétique proposée par RoadSimulator3

    ⚠️ Limites

    • Revue descriptive, peu d’analyse comparative qualitative
    • Pas de benchmark direct sur l’efficacité des datasets

    🧩 Intégration dans RoadSimulator3

    Utilisé dans la thèse comme référence pour le chapitre sur les données réelles. Mentionné dans l’introduction pour motiver le simulateur 10 Hz enrichi.


    🔗 Liens utiles


    📚 Référence BibTeX

    @article{liuSurveyDatasetsIMU2024,
      title={Survey on Inertial Navigation Datasets: Applications, Characteristics and Gaps},
      author={Liu, Zheng and Zhang, Fang and Tang, Wei and others},
      journal={Sensors},
      volume={24},
      number={1},
      pages={34},
      year={2024},
      publisher={MDPI}
    }
    
  • 🚘 Yurtsever et al. (2020) – Panorama des technologies pour la conduite autonome

    🚘 Yurtsever et al. (2020) – Panorama des technologies pour la conduite autonome

    Auteurs : Yurtsever, Lambert, Carballo, Takeda
    Source : IEEE Access, 2020
    DOI : 10.1109/ACCESS.2020.2983149


    🎯 Objectif de l’étude

    Ce survey emblématique dresse un état de l’art complet des systèmes de conduite autonome, en décrivant :

    • Les capteurs embarqués (caméras, LiDAR, radar, IMU, GPS)
    • Les étapes clés : perception, localisation, planification, contrôle
    • Les architectures logicielles typiques utilisées dans les véhicules autonomes
    • Les jeux de données de référence utilisés pour l’apprentissage et la validation

    🔍 Apports principaux

    • Classification claire des composants des systèmes autonomes
    • Analyse comparative des capteurs et algorithmes associés
    • Présentation synthétique des pipelines logiciels industriels
    • Vision à long terme sur les défis ouverts (fusion de capteurs, IA explicable, etc.)

    📌 Intérêt pour RoadSimulator3

    L’étude sert de socle théorique pour situer RoadSimulator3 dans l’écosystème de la conduite autonome :

    • Justification du focus sur l’IMU et le GNSS dans la chaîne ADAS
    • Appui sur l’usage des données synthétiques pour l’apprentissage
    • Contextualisation du simulateur parmi les besoins industriels

    ⚠️ Limites

    • Peu de place accordée à la simulation ou aux données synthétiques
    • Absence d’analyse des plateformes low-cost type smartphone

    🧩 Intégration dans RoadSimulator3

    Cette publication est citée dans l’introduction de la thèse comme panorama de référence, et dans le chapitre sur les systèmes de navigation embarqués.


    🔗 Liens utiles


    📚 Référence BibTeX

    @article{yurtseverSurveyAutonomousDriving2020,
      title={A Survey of Autonomous Driving: Common Practices and Emerging Technologies},
      author={Yurtsever, Ekim and Lambert, John and Carballo, Alejandro and Takeda, Karl},
      journal={IEEE Access},
      volume={8},
      pages={58443--58469},
      year={2020},
      publisher={IEEE}
    }