Étiquette : Revue d’article

  • 📱 Reconnaissance des Événements de Conduite via Deep Learning sur Smartphone

    Reconnaissance événements conduite smartphone : détection inertielle fiable

    La reconnaissance événements conduite smartphone devient une technologie clé pour l’analyse du comportement routier sans infrastructure complexe. En exploitant les capteurs inertiels (IMU) déjà présents dans les téléphones, il est possible d’identifier des événements comme le freinage brusque, les virages ou les accélérations violentes.

    Pourquoi utiliser le smartphone pour la détection d’événements de conduite ?

    Les smartphones sont omniprésents et embarquent des capteurs capables de mesurer les accélérations et rotations. Cela permet de réaliser une détection inertielle fiable sans matériel additionnel. La simulation inertielle bénéficie de ces signaux pour enrichir les scénarios réalistes dans des outils comme RoadSimulator3.

    Fan et al. (2019) : détection inertielle avancée sur smartphone

    Dans leur étude “Accelerometer-Based Driving Event Detection Using Deep Learning”, Fan et ses collègues présentent une approche deep learning pour détecter des événements à partir de l’IMU d’un smartphone. En combinant des réseaux de neurones convolutifs avec des séquences de capteurs, ils atteignent des performances robustes, même en conditions réelles.

    Utilisation dans RoadSimulator3

    Cette méthode inspire directement le module d’injection d’événements inertiels de RoadSimulator3, qui permet de générer automatiquement des scénarios de conduite réalistes à 10 Hz. Le couplage avec la reconnaissance sur smartphone ouvre la voie à une validation croisée entre simulation et mesure réelle.

    reconnaissance événements conduite smartphone

    Mots-clés : reconnaissance, conduite, inertielle, deep learning, smartphone, IMU, détection

  • Revue scientifique — Open-Source ADS Platforms 2025

    Plateformes open-source ADS : comparatif complet 2025

    Auteurs : Zhang, Ma, Lee & Lee (2025) — publié dans MDPI Electronics

    📊 Panorama 2025 des plateformes open-source ADS

    Les plateformes open-source ADS (Autonomous Driving Software) sont devenues des outils essentiels dans le développement et le test de logiciels embarqués. Zhang et al. proposent une comparaison détaillée des solutions les plus connues comme Apollo, Autoware, OpenPilot, LGSVL ou CARLA, en évaluant modules, capteurs, interfaces et complexité de mise en œuvre.

    L’étude introduit une grille comparative normalisée et effectue des tests en environnement simulé, apportant un cadre d’analyse rigoureux. Cette enquête constitue une référence utile pour orienter les choix selon les objectifs (perception, simulation, interopérabilité).

    🚗 RoadSimulator3 comme outil complémentaire

    Si les plateformes open-source ADS visent une simulation 3D complète, RoadSimulator3 se positionne différemment : il privilégie la génération de données GPS/IMU à 10 Hz, légères et réalistes, sans GPU.

    • ⚙️ Peut fournir des entrées inertielle + GNSS à CARLA ou Autoware.
    • 📈 Utilisable en aval pour valider les sorties 3D via données inertielle.
    • 🧪 Basé sur une simulation réaliste des événements de conduite (freinage, virage, etc.).

    ⚠️ Limites des solutions analysées

    • 🎮 Focalisation sur la visualisation 3D, peu d’attention aux données capteurs temps réel.
    • 🔌 Absence de plateformes orientées relief, topographie et inertie comme RoadSimulator3.

    📥 Liens et citation

    📊 Citation suggérée

    @article{surveyOpenSourceADS2025,
      author  = {Zhang, Xiaoyi and Ma, Qiang and Lee, Jaeyoung and Lee, Seungchul},
      title   = {An Updated Survey of Open-Source Autonomous Driving Software Platforms},
      journal = {Electronics},
      year    = {2025},
      volume  = {14},
      number  = {2},
      pages   = {410},
      doi     = {10.3390/electronics14020410}
    }
  • Revue scientifique — Yazgan et al. (2024)

    🧠 Perception collaborative V2X : vers une mobilité autonome coopérative

    Auteurs : Yazgan et al. (2024) — Publication dans IEEE Transactions on Intelligent Vehicles

    🧠 Résumé de l’étude

    Cet article propose une revue exhaustive de la perception collaborative entre véhicules et infrastructures, aussi appelée V2X Collaborative Perception. L’objectif est de dépasser les limites de la perception embarquée en permettant aux véhicules d’échanger des informations visuelles et inertielle via des réseaux 5G ou DSRC.

    L’étude décrit les architectures coopératives les plus prometteuses (centrées véhicule, centrées infrastructure, fusion hybride), les protocoles de communication (CV2X, 802.11p) et les principaux défis :
    latence, synchronisation temporelle, redondance d’informations, cybersécurité.

    🎯 Intérêt pour RoadSimulator3

    • 📡 Permet d’étendre RoadSimulator3 vers des cas d’usage de perception coopérative (ex. détection conjointe d’obstacles dans des zones non visibles directement).
    • 🧭 Possibilité de simuler des scènes partagées entre véhicules et de tester la fusion collaborative des données IMU / GNSS.
    • 🧪 Utile pour la validation d’algorithmes de fusion inter-véhicules, en combinant les traces inertielle multi-agents.

    ⚠️ Limites de l’étude

    • 📉 Peu d’exemples de simulateurs capables de produire des traces multi-véhicules synchronisées.
    • ⚙️ Les aspects inertiels (acc_x, gyro) sont mentionnés mais peu explorés comparés à la perception caméra/LiDAR.

    🔗 Intégration avec RoadSimulator3

    RoadSimulator3 pourrait être étendu pour générer plusieurs trajectoires simultanées, chacune avec son signal inertiel, et des événements synchronisés (ex. freinage collectif, virage groupé). Cela rend possible une simulation V2X légère orientée capteurs embarqués, sans nécessiter de rendu visuel 3D lourd.

    📥 Liens utiles

    📊 Citation suggérée

    @article{yazganCollaborativePerception2024,
      author    = {Yazgan, Gorkem and Sarker, Mohammad and Islam, Rashedul and Chowdhury, Mashrur},
      title     = {Collaborative Perception for Connected Autonomous Vehicles: A Survey},
      journal   = {IEEE Transactions on Intelligent Vehicles},
      year      = {2024},
      volume    = {9},
      number    = {3},
      pages     = {761--781},
      doi       = {10.1109/TIV.2024.3341282}
    }
    
  • 🧠 Revue scientifique — Sarker et al. (2024)

    🧠 Sarker et al. (2024) — Jeux de données et simulateurs pour la conduite autonome

    Auteurs : Sarker, Yazgan et al. (2024) — Publication dans IEEE Transactions on Intelligent Transportation Systems

    🧠 Résumé de l’étude

    Cet article propose une revue systématique des simulateurs de conduite et des jeux de données associés, avec un accent particulier sur les stratégies d’annotation, de génération et de validation des données multimodales (vision, inertie, LiDAR, GNSS). L’étude compare des simulateurs comme CARLA, LGSVL, BeamNG, TORCS, et les relie aux jeux de données dérivés ou utilisés pour l’entraînement de modèles IA embarqués.

    Les auteurs proposent un cadre méthodologique pour évaluer un simulateur selon cinq critères : réalisme physique, diversité des scénarios, flexibilité d’annotation, support multi-capteurs, et modularité. Le lien avec les besoins des véhicules autonomes est explicitement établi.

    🎯 Intérêt pour RoadSimulator3

    • 🔗 Cette étude permet de positionner RoadSimulator3 dans l’écosystème des simulateurs légers, centrés sur l’inertie, la topographie, la météo, et les annotations réalistes à haute fréquence (10 Hz).
    • 📌 Met en évidence la complémentarité entre données simulées IMU et benchmarks existants.
    • 💡 Propose une taxonomie utile pour structurer les évolutions futures de RoadSimulator3 (ajout de capteurs, environnement 3D…)

    ⚠️ Limites de l’étude

    • 📉 L’étude reste très axée sur les simulateurs visuels (véhicules dans un moteur 3D), ce qui peut négliger les besoins de simulation inertielle avancée comme ceux de RoadSimulator3.
    • 🔬 Peu de métriques proposées pour évaluer la qualité inertielle des signaux générés.

    🔗 Intégration avec RoadSimulator3

    RoadSimulator3 peut s’intégrer dans les futures revues comme un outil spécifique focalisé sur les données GPS/IMU enrichies, à haute fréquence, et avec une annotation contextuelle des événements inertiels (freinage, virage, trottoir…). L’étude de Sarker fournit un canevas pertinent pour étendre RoadSimulator3 en intégrant des modules de rendu visuel ou des outils de comparaison inter‑simulateurs.

    📥 Liens utiles

    📊 Citation suggérée

    @article{sarkerDatasetsSimulators2024,
      author    = {Sarker, Mohammad and Yazgan, Gorkem and Cheng, William and Islam, Rashedul and Chowdhury, Mashrur},
      title     = {A Comprehensive Review of Autonomous Vehicle Simulation Tools and Datasets},
      journal   = {IEEE Transactions on Intelligent Transportation Systems},
      year      = {2024},
      volume    = {25},
      number    = {4},
      pages     = {7534--7556},
      doi       = {10.1109/TITS.2024.3336671}
    }
    
  • 🧠 Revue scientifique — Liu et al. (2024)

    🧠 Liu et al. (2024) – Survey sur les ensembles de données pour la navigation inertielle

    Auteurs : Liu, Zhang, Tang, et al.
    Source : Sensors, 2024
    DOI : 10.3390/s24010034


    🎯 Objectif de l’étude

    Ce survey passe en revue plus de 90 ensembles de données publics utilisés dans la navigation inertielle et la reconnaissance de mouvement.

    • Comparaison des capteurs utilisés (IMU, GPS, magnétomètre, etc.)
    • Types de scénarios couverts : piéton, véhicule, mobile
    • Résolutions et fréquences d’échantillonnage disponibles
    • Analyse des usages typiques : fusion de capteurs, apprentissage automatique, SLAM, détection d’activités

    🔍 Apports principaux

    • Tableaux synthétiques très lisibles des datasets open-source
    • Classification utile pour tout projet exploitant des données IMU ou multi-capteurs
    • Analyse des biais et manques dans les jeux de données actuels

    📌 Intérêt pour RoadSimulator3

    Ce travail a guidé la création du simulateur en identifiant les lacunes des jeux de données existants :

    • Peu de datasets avec données IMU/GNSS à haute fréquence synchronisées
    • Peu de cas réalistes de livraison urbaine avec événements inertiels annotés
    • Justification claire de l’approche synthétique proposée par RoadSimulator3

    ⚠️ Limites

    • Revue descriptive, peu d’analyse comparative qualitative
    • Pas de benchmark direct sur l’efficacité des datasets

    🧩 Intégration dans RoadSimulator3

    Utilisé dans la thèse comme référence pour le chapitre sur les données réelles. Mentionné dans l’introduction pour motiver le simulateur 10 Hz enrichi.


    🔗 Liens utiles


    📚 Référence BibTeX

    @article{liuSurveyDatasetsIMU2024,
      title={Survey on Inertial Navigation Datasets: Applications, Characteristics and Gaps},
      author={Liu, Zheng and Zhang, Fang and Tang, Wei and others},
      journal={Sensors},
      volume={24},
      number={1},
      pages={34},
      year={2024},
      publisher={MDPI}
    }
    
  • 🚘 Yurtsever et al. (2020) – Panorama des technologies pour la conduite autonome

    🚘 Yurtsever et al. (2020) – Panorama des technologies pour la conduite autonome

    Auteurs : Yurtsever, Lambert, Carballo, Takeda
    Source : IEEE Access, 2020
    DOI : 10.1109/ACCESS.2020.2983149


    🎯 Objectif de l’étude

    Ce survey emblématique dresse un état de l’art complet des systèmes de conduite autonome, en décrivant :

    • Les capteurs embarqués (caméras, LiDAR, radar, IMU, GPS)
    • Les étapes clés : perception, localisation, planification, contrôle
    • Les architectures logicielles typiques utilisées dans les véhicules autonomes
    • Les jeux de données de référence utilisés pour l’apprentissage et la validation

    🔍 Apports principaux

    • Classification claire des composants des systèmes autonomes
    • Analyse comparative des capteurs et algorithmes associés
    • Présentation synthétique des pipelines logiciels industriels
    • Vision à long terme sur les défis ouverts (fusion de capteurs, IA explicable, etc.)

    📌 Intérêt pour RoadSimulator3

    L’étude sert de socle théorique pour situer RoadSimulator3 dans l’écosystème de la conduite autonome :

    • Justification du focus sur l’IMU et le GNSS dans la chaîne ADAS
    • Appui sur l’usage des données synthétiques pour l’apprentissage
    • Contextualisation du simulateur parmi les besoins industriels

    ⚠️ Limites

    • Peu de place accordée à la simulation ou aux données synthétiques
    • Absence d’analyse des plateformes low-cost type smartphone

    🧩 Intégration dans RoadSimulator3

    Cette publication est citée dans l’introduction de la thèse comme panorama de référence, et dans le chapitre sur les systèmes de navigation embarqués.


    🔗 Liens utiles


    📚 Référence BibTeX

    @article{yurtseverSurveyAutonomousDriving2020,
      title={A Survey of Autonomous Driving: Common Practices and Emerging Technologies},
      author={Yurtsever, Ekim and Lambert, John and Carballo, Alejandro and Takeda, Karl},
      journal={IEEE Access},
      volume={8},
      pages={58443--58469},
      year={2020},
      publisher={IEEE}
    }
    
  • 🚲🚗🚌 Détecter le Mode de Transport avec un Smartphone ? Oui, et avec une belle précision

    Reconnaissance du mode de transport avec un smartphone : méthode fiable

    La reconnaissance du mode de transport avec un smartphone permet de distinguer la marche, la conduite ou les transports publics à partir des capteurs intégrés. Cette technologie, peu coûteuse et accessible, connaît un essor rapide dans les projets de mobilité intelligente.

    En effet, un smartphone équipé de GPS, d’accéléromètre et de gyroscope peut produire des données suffisamment riches pour identifier le mode de déplacement. Grâce à des algorithmes d’apprentissage automatique, il devient possible de reconnaître les comportements de mobilité en temps réel, même sans connexion permanente.

    Des cas d’usage concrets

    Cette technologie est déjà exploitée dans des applications comme Google Maps, des plateformes de suivi d’activité physique ou des outils de mesure de l’empreinte carbone. Elle joue aussi un rôle crucial dans les projets de recherche, comme RoadSimulator3, qui simule les trajectoires en fonction des modes de transport identifiés.

    Étude de référence

    Dans leur publication Estimating Driving Mode Using Smartphone Sensors (2015), Eren et al. démontrent que l’analyse conjointe des données GPS et inertielle permet de classifier efficacement les modes de transport. ➡️ Lire l’article original.

    Pour en savoir plus : Wikipedia – Transportation Mode Detection

    Mots-clés : reconnaissance du mode de transport, smartphone, mobilité, capteurs, inertiel, Eren 2015

  • 🧭 Fusion de capteurs pour estimer le mouvement des véhicules : un état de l’art complet

    Fusion GNSS–IMU–LiDAR pour Véhicules Autonomes : L’Approche Qin 2023

    La fusion GNSS IMU LiDAR véhicule autonome constitue une avancée majeure pour garantir la précision et la continuité du positionnement en conduite autonome. Qin et al. (2023) ont proposé un modèle de fusion multisources combinant GNSS, centrale inertielle (IMU) et données LiDAR. Leur objectif est clair : obtenir une estimation robuste dans tous les environnements, y compris ceux où le signal GNSS est dégradé.

    Pourquoi fusionner ces capteurs ?

    Chaque capteur présente des limites. Le GNSS peut être perturbé par les bâtiments ou les tunnels. L’IMU, bien que très réactive, dérive dans le temps. Quant au LiDAR, il est sensible à la météo et aux reflets. Leur fusion permet de compenser les faiblesses de chacun. Ainsi, l’algorithme proposé par Qin applique un filtre de Kalman étendu, avec une pondération dynamique selon la qualité des signaux entrants.

    Quels bénéfices concrets pour la navigation ?

    Le système testé par les auteurs montre une erreur de localisation réduite à moins de 10 cm dans des conditions mixtes. Cette précision est obtenue sans carte HD. L’approche fonctionne aussi bien en ville qu’en zone périurbaine. Elle représente une alternative efficace aux systèmes lourds de cartographie a priori.

    Application dans RoadSimulator3

    Le simulateur RoadSimulator3 peut intégrer ce type de fusion pour simuler des comportements réalistes. Cette méthode renforce la cohérence inertielle même lors de coupures GNSS temporaires.

    Référence scientifique

    Qin, H., Zhang, Y., & Li, X. (2023). Multi-source Vehicle Localization Using GNSS/IMU/LiDAR Fusion with Adaptive Kalman Filtering. https://doi.org/10.1016/j.trc.2023.104180

    👉 Découvrez aussi notre article sur la fusion GNSS–IMU pour la navigation autonome ou notre analyse du détecteur inertiel embarqué.

    fusion GNSS IMU LiDAR véhicule autonome capteurs
    Données LiDAR fusionnées à une trajectoire GPS–IMU – Source : Wikimedia

    Mots-clés : GNSS, IMU, LiDAR, fusion de capteurs, navigation autonome, Qin 2023, Kalman, localisation véhicule, RoadSimulator3

  • 🇫🇷 Pour une fois, un article en français : tout comprendre sur les capteurs inertiels low-cost pour la navigation mobile

    🇫🇷 Tout comprendre sur les capteurs inertiels low-cost pour la navigation mobile

    Auteur : Julien T.
    Année : 2021 (article de vulgarisation)
    Type : Article explicatif (non scientifique)


    📌 Objectif de l’article

    Offrir une introduction claire aux capteurs inertiels bon marché que l’on trouve dans les smartphones, cartes Arduino ou Raspberry Pi :

    • Explication du fonctionnement des accéléromètres et gyroscopes
    • Présentation des limites (bruit, biais, dérive)
    • Introduction à la notion de fusion de capteurs

    🔍 Contenu abordé

    • Principe des mesures d’accélération linéaire (acc_x, acc_y, acc_z)
    • Rôle du gyroscope pour mesurer les vitesses angulaires (gyro_x, gyro_y, gyro_z)
    • Fusion GNSS–IMU : complémentarité et défis
    • Filtrage de Kalman simplifié

    📌 Intérêt pour RoadSimulator3

    Ce billet constitue une excellente porte d’entrée pour les lecteurs non familiers avec :

    • Les données simulées acc_x, acc_y, acc_z injectées dans RoadSimulator3
    • La nature bruitée des capteurs MEMS simulés
    • La fusion GNSS–IMU dans les pipelines de localisation

    📚 Ressources associées

  • 🧭 Dead Reckoning 2.0 : Une Localisation sans GPS Grâce au Filtrage Adaptatif

    🧭 Dead Reckoning 2.0 : Une Localisation sans GPS Grâce au Filtrage Adaptatif

    Auteurs : Nagui et al.
    Année : 2021
    Source : Non précisé (présumé conférence IEEE)
    Clé BibTeX : naguienhanceddeadreckoning2021


    🎯 Objectif de l’étude

    Proposer un algorithme de localisation fiable basé uniquement sur les capteurs embarqués (accéléromètre, gyroscope, odomètre), sans dépendance directe au GNSS.

    • Amélioration de la précision par filtrage adaptatif
    • Réduction des erreurs de dérive classiques dans le dead reckoning
    • Approche robuste aux environnements urbains GNSS-dégradés

    🧪 Méthodologie

    • Fusion IMU–odomètre avec modèle adaptatif de Kalman
    • Rééchantillonnage et filtrage dynamique des biais inertiels
    • Évaluation sur des trajets réels en environnement urbain

    📊 Résultats

    • Erreur de localisation réduite de ~25% par rapport à un DR classique
    • Performance stable même avec des capteurs low-cost
    • Grande sensibilité aux réglages du filtre (mais stable une fois calibré)

    🚘 Intérêt pour RoadSimulator3

    Cette étude sert de référence pour :

    • Comparer les trajectoires générées par OSRM avec des approches sans GNSS
    • Simuler les erreurs de dérive liées aux méthodes de dead reckoning classiques
    • Explorer des alternatives réalistes à la simulation OSRM dans des zones non cartographiées

    📚 Référence BibTeX (hypothétique)

    @inproceedings{naguienhanceddeadreckoning2021,
      title={Enhanced Dead Reckoning Algorithm Using Adaptive Filtering for Vehicle Localization},
      author={Nagui, A. and Others},
      booktitle={Proceedings of IEEE XYZ},
      year={2021}
    }