Auteur/autrice : Seb

  • 📚 Revue scientifique par thèmes

    📚 Revue scientifique par thèmes

    Cette synthèse regroupe les publications majeures analysées pour le projet RoadSimulator3. Chaque article est associé à une revue détaillée sur le blog, expliquant son intérêt, ses apports, et ses limites.

    👉 Pour une bibliographie complète avec fiches détaillées et accès direct :
    📖 Voir la bibliographie complète


    🔁 Fusion de capteurs & navigation

    ⚙️ Simulation & génération de données inertielle

    🧠 Détection d’événements

    🚘 Conduite autonome & plateformes

    📱 Applications smartphone & multimodalité


    🔎 Pour aller plus loin, accédez à toutes les revues d’articles ou explorez la bibliographie scientifique du projet.

  • Plateformes open-source pour la conduite autonome : où se positionne RoadSimulator3 ?

    Contexte : pourquoi comparer les plateformes open-source de conduite autonome ?

    Le paysage open-source de la conduite autonome évolue vite : de nouveaux simulateurs apparaissent, les besoins se diversifient, et les plateformes se spécialisent.
    Dans cet écosystème dense, RoadSimulator3 (RS3) occupe une place unique : ce n’est pas un simulateur 3D, ni une pile autonome complète, mais un simulateur inertiel haute fidélité à 10 Hz, pensé pour la télématique, la fusion capteurs et la mobilité connectée.

    Là où CARLA, Autoware ou Apollo se concentrent sur la perception, le véhicule autonome ou la planification, RS3 génère des séries temporelles réalistes (GPS, IMU, pente, météo, contexte routier, micro-événements).
    C’est la brique manquante entre la donnée terrain et les algorithmes.

    Qui fait quoi ? (vue rapide)

    CARLA → perception 3D photoréaliste
    Autoware → pile autonome ROS2
    Apollo → pile ADS industrielle
    NAVSIM → navigation GNSS/INS
    RS3 → inertie / cinématique / télématique 10 Hz

    RS3 + NAVSIM : une combinaison gagnante

    RS3 et NAVSIM couvrent deux volets complémentaires :

    • RS3 : génère des trajectoires routières réalistes (pente, courbure, événements, adhérence, météo).
    • NAVSIM : applique un modèle réaliste GNSS/INS sur ces trajectoires (bruits MEMS, erreurs GNSS, masques urbains).

    Ainsi, un labo ou une flotte peut valider un algorithme de localisation robuste sans véhicule réel, avec un pipeline complet :
    RS3 → NAVSIM → algorithme INS/GNSS → analyse d’erreur.

    👉 Objectif de cet article : expliquer clairement le rôle exact de RS3, sans opposer inutilement les plateformes — chacune excelle dans son domaine.

    RoadSimulator3 face aux stacks open-source de conduite autonome

    NAVSIM : une montée en gamme des simulateurs GNSS/IMU académiques

    NAVSIM apporte une architecture moderne pensée pour la recherche GNSS/INS : simulation réaliste des constellations satellites, gestion du multipath, masques urbains, modèles d’IMU, et une boucle inertielle-gnss complète en temps réel. Contrairement aux simulateurs 3D, NAVSIM vise la navigation plutôt que la perception.

    Points clés :
    – simulation GNSS multi-constellation ;
    – modèles d’erreurs IMU (biais, random walk, bruit) ;
    – scénarios satellites complets (éclipses, masques, multipath urbain) ;
    – chaînage IMU→INS→GNSS en temps réel.

    NAVSIM se rapproche du besoin RS3, mais ne le remplace pas : là où NAVSIM simule la physique GNSS/INS, RS3 simule la cinématique routière (pente, curvature, évènements). Les deux sont complémentaires.

    Ce que dit l’état de l’art

    Une revue récente, « A Survey of Open-Source Autonomous Driving Software » (Zhang et al., 2025, Sensors), propose une cartographie claire des écosystèmes open-source pour la conduite autonome. Elle analyse notamment CARLA, Autoware et Apollo.

    Les critères étudiés incluent :
    – les capteurs simulés ;
    – la capacité temps réel ;
    – la licence ;
    – le besoin en GPU ;
    – le positionnement visé (recherche académique, démo industrielle, ou pile quasi-produite).

    Ainsi, cette revue sert de référence pour comprendre où RS3 s’insère.

    Pour aller plus loin, consultez l’étude complète : Yueyuan Li et al., Choose Your Simulator Wisely: A Review on Open-Source Simulators for Autonomous Driving (arXiv:2311.11056v2, 2023).

    Limites des plateformes existantes

    Chaque plateforme excelle dans son domaine, mais présente aussi des limites lorsqu’on cherche à simuler la dynamique inertielle :

    • CARLA : parfait pour la perception, mais surdimensionné pour l’analyse inertielle ou la télématique (dépendances GPU lourdes).
    • Autoware : excellent pour l’AD, mais dépend fortement d’un environnement ROS2 et d’une pile perception.
    • Apollo : robuste mais industriel ; difficile à intégrer dans un pipeline data science classique.
    • NAVSIM : très fort sur GNSS/INS, mais ne modélise pas la vie réelle d’un conducteur (pente, virages, micro-événements, conditions routières).

    RS3 se place précisément là où ces outils ne vont pas :
    → génération inertielle, cinématique véhicule, contexte routier, micro-événements.

    RoadSimulator3 est pensé comme un simulateur inertiel haute fréquence. De plus, il se concentre sur la génération de séries temporelles réalistes, plutôt que sur la synthèse d’images caméra.

    En pratique :

    • Production de signaux GPS + IMU à 10 Hz. RS3 génère accélérations, rotations gyroscopiques et trajectoires GNSS enrichies (pente, météo, typologie routière). C’est la matière première pour entraîner et valider des algos d’estimation de mouvement ou de détection d’événements agressifs.

    • Aucune dépendance GPU. Contrairement à CARLA, RS3 tourne sur une machine légère. Il ne nécessite pas d’Unreal Engine et peut être exécuté dans un pipeline data classique (Python, CSV, Pandas). Par conséquent, il est déployable chez un assureur, une flotte ou un labo sans workstation graphique.

    • Indépendant du CAN. RS3 permet de tester des scénarios d’éco-conduite, de risque conducteur, ou d’usure mécanique sans avoir besoin d’un accès direct au bus CAN du véhicule. En effet, l’accent est mis sur l’interprétation inertielle embarquée.

    • Pensé pour la fusion capteurs. Le but n’est pas de faire rouler une voiture autonome en simulation 3D temps réel, mais de fournir une vérité terrain cohérente entre GNSS, IMU et contexte routier.

    Tableau comparatif des plateformes open-source de conduite autonome

    Le tableau suivant illustre les différences d’intention et d’usage entre RS3 et les grandes stacks connues.

    Critère RoadSimulator3 CARLA NAVSIM Autoware Apollo
    Objectif principal Simulation IMU / GPS réaliste à 10 Hz Simulation 3D haute fidélité Simulation GNSS/IMU académique (temps réel, recherche localisation) Pile logicielle conduite autonome temps réel Pile ADS industrielle complète
    Capteurs simulés GPS, IMU (acc, gyro), terrain, météo Caméra, LIDAR, radar, IMU GNSS multi-constellations, IMU, scénarios satellites Caméra, LIDAR, GPS Caméra, LIDAR, radar
    Résolution temporelle 10 Hz (inertie fine) Variable (jusqu’à 30 FPS) Temps réel (simulation navigation) Temps réel (selon hardware) Temps réel optimisé GPU
    Représentation 3D Non (cartographie OSM enrichie) Oui (Unreal Engine) Non (focus navigation, pas de scènes 3D) Partielle (intégration externe) Partielle (intégration externe)
    GNSS dégradé Oui (coupures GNSS simulables) Partiel (scripts spécifiques) Oui (masques satellites, multipath, coupures) Oui via fusions (EKF / UKF) Oui via fusions (EKF / MSF)
    Météo / relief / typologie Oui (OSM + SRTM + météo + pente) Oui (scripts météo / éclairage) Partiel (selon modèles GNSS/IMU intégrés) Non natif Non natif
    Interface Python / JSON / CSV API Python C++, Python (selon build), fichiers scénario ROS2 ROS / CyberRT
    Spécialisation Analyse style de conduite, inertie, éco-conduite Perception visuelle Recherche navigation, fusion GNSS/IMU, robustesse Pile véhicule autonome complète Plateforme industrielle
    Poids / déploiement Léger (pas de GPU) Lourd (GPU requis) Léger (orienté algorithmes navigation) Moyen (ROS2 + drivers) Lourd (dépendances industrielles)
    Licence MIT / AGPL pour certains plugins LGPL v3.0 Open-source académique (selon dépôt) Apache 2.0 Apollo License v2.0

    Quel outil pour quel besoin ?

    Voici comment choisir la bonne plateforme selon votre besoin, de manière simple et pragmatique.

    Use case Outil recommandé Pourquoi
    Calibration GNSS/IMU NAVSIM Simulation fine des constellations + modèle IMU réaliste
    Détection agressivité / éco-conduite RS3 Simulation inertielle + pente + GNSS dégradé en 10 Hz
    Recherche perception IA CARLA Photorealistic + LIDAR + caméra 3D
    Expérimentation pile autonome Autoware ROS2 + pipeline perception complète
    Benchmark ADS industriel Apollo Stack robuste typée OEM
    Simulation massive (100k trajets/jour) RS3 Léger, scalable, compatible pipeline data

    Comment RS3 génère la vérité terrain inertielle ?

    Trajectoire simulée
    → Cinématique (a, v, ω)
    → Modèle véhicule
    → Ajout bruit MEMS
    → GNSS synthétique cohérent
    → Micro-événements (freinage, virage, accélérations)

    RS3 fournit une vérité terrain exploitable directement dans un pipeline data science (Python / CSV / JSON), ce qui le rend unique dans l’écosystème open-source.

    À retenir pour un assureur, une flotte, un labo

    RS3 n’essaie pas de simuler des caméras ou un LIDAR dans une scène 3D photoréaliste. Ce n’est pas son rôle. En effet, CARLA fait déjà ça très bien.

    En revanche, RS3 simule finement l’inertie, la cinématique véhicule, la pente, les coupures GNSS et les micro-événements de conduite (freinage fort, virage serré, accélération agressive). De plus, ces signaux sont fournis en 10 Hz exploitable directement dans un pipeline data science.

    Par conséquent :
    – un assureur peut estimer le risque conducteur sans CAN,
    – une flotte peut estimer l’usure mécanique et la dépense énergétique,
    – un labo peut valider des algorithmes de fusion inertielle et de localisation robuste.

    Enfin, RS3 reste léger à déployer. Pas de GPU, pas d’Unreal Engine, pas d’infrastructure ROS lourde. C’est une brique qu’on peut intégrer très tôt dans une démarche télématique, sécurité flotte, ou mobilité durable.

    Conclusion

    Les simulateurs open‑source ne cherchent pas à résoudre les mêmes problèmes.
    RS3 se positionne comme la brique manquante entre la donnée terrain, la télématique et la fusion capteurs.
    Il complète — plutôt qu’il ne remplace — CARLA, NAVSIM, Autoware et Apollo.

    En résumé :
    – Vous travaillez sur la perception : → CARLA
    – Vous avez besoin d’une pile véhicule autonome : → Autoware / Apollo
    – Vous travaillez sur la navigation GNSS/INS : → NAVSIM
    – Vous travaillez sur inertie, cinématique, télématique, style de conduite, énergie : → RS3

    👉 À lire aussi :
    Simulation inertielle 10 Hz – RoadSimulator3
    Détection d’événements de conduite par IMU embarquée
    Pente et altitude à 10 Hz : énergie et sécurité flotte

  • Revue scientifique — Open-Source ADS Platforms 2025

    Plateformes open-source ADS : comparatif complet 2025

    Auteurs : Zhang, Ma, Lee & Lee (2025) — publié dans MDPI Electronics

    📊 Panorama 2025 des plateformes open-source ADS

    Les plateformes open-source ADS (Autonomous Driving Software) sont devenues des outils essentiels dans le développement et le test de logiciels embarqués. Zhang et al. proposent une comparaison détaillée des solutions les plus connues comme Apollo, Autoware, OpenPilot, LGSVL ou CARLA, en évaluant modules, capteurs, interfaces et complexité de mise en œuvre.

    L’étude introduit une grille comparative normalisée et effectue des tests en environnement simulé, apportant un cadre d’analyse rigoureux. Cette enquête constitue une référence utile pour orienter les choix selon les objectifs (perception, simulation, interopérabilité).

    🚗 RoadSimulator3 comme outil complémentaire

    Si les plateformes open-source ADS visent une simulation 3D complète, RoadSimulator3 se positionne différemment : il privilégie la génération de données GPS/IMU à 10 Hz, légères et réalistes, sans GPU.

    • ⚙️ Peut fournir des entrées inertielle + GNSS à CARLA ou Autoware.
    • 📈 Utilisable en aval pour valider les sorties 3D via données inertielle.
    • 🧪 Basé sur une simulation réaliste des événements de conduite (freinage, virage, etc.).

    ⚠️ Limites des solutions analysées

    • 🎮 Focalisation sur la visualisation 3D, peu d’attention aux données capteurs temps réel.
    • 🔌 Absence de plateformes orientées relief, topographie et inertie comme RoadSimulator3.

    📥 Liens et citation

    📊 Citation suggérée

    @article{surveyOpenSourceADS2025,
      author  = {Zhang, Xiaoyi and Ma, Qiang and Lee, Jaeyoung and Lee, Seungchul},
      title   = {An Updated Survey of Open-Source Autonomous Driving Software Platforms},
      journal = {Electronics},
      year    = {2025},
      volume  = {14},
      number  = {2},
      pages   = {410},
      doi     = {10.3390/electronics14020410}
    }
  • Revue scientifique — Yazgan et al. (2024)

    🧠 Perception collaborative V2X : vers une mobilité autonome coopérative

    Auteurs : Yazgan et al. (2024) — Publication dans IEEE Transactions on Intelligent Vehicles

    🧠 Résumé de l’étude

    Cet article propose une revue exhaustive de la perception collaborative entre véhicules et infrastructures, aussi appelée V2X Collaborative Perception. L’objectif est de dépasser les limites de la perception embarquée en permettant aux véhicules d’échanger des informations visuelles et inertielle via des réseaux 5G ou DSRC.

    L’étude décrit les architectures coopératives les plus prometteuses (centrées véhicule, centrées infrastructure, fusion hybride), les protocoles de communication (CV2X, 802.11p) et les principaux défis :
    latence, synchronisation temporelle, redondance d’informations, cybersécurité.

    🎯 Intérêt pour RoadSimulator3

    • 📡 Permet d’étendre RoadSimulator3 vers des cas d’usage de perception coopérative (ex. détection conjointe d’obstacles dans des zones non visibles directement).
    • 🧭 Possibilité de simuler des scènes partagées entre véhicules et de tester la fusion collaborative des données IMU / GNSS.
    • 🧪 Utile pour la validation d’algorithmes de fusion inter-véhicules, en combinant les traces inertielle multi-agents.

    ⚠️ Limites de l’étude

    • 📉 Peu d’exemples de simulateurs capables de produire des traces multi-véhicules synchronisées.
    • ⚙️ Les aspects inertiels (acc_x, gyro) sont mentionnés mais peu explorés comparés à la perception caméra/LiDAR.

    🔗 Intégration avec RoadSimulator3

    RoadSimulator3 pourrait être étendu pour générer plusieurs trajectoires simultanées, chacune avec son signal inertiel, et des événements synchronisés (ex. freinage collectif, virage groupé). Cela rend possible une simulation V2X légère orientée capteurs embarqués, sans nécessiter de rendu visuel 3D lourd.

    📥 Liens utiles

    📊 Citation suggérée

    @article{yazganCollaborativePerception2024,
      author    = {Yazgan, Gorkem and Sarker, Mohammad and Islam, Rashedul and Chowdhury, Mashrur},
      title     = {Collaborative Perception for Connected Autonomous Vehicles: A Survey},
      journal   = {IEEE Transactions on Intelligent Vehicles},
      year      = {2024},
      volume    = {9},
      number    = {3},
      pages     = {761--781},
      doi       = {10.1109/TIV.2024.3341282}
    }
    
  • 🧠 Revue scientifique — Sarker et al. (2024)

    🧠 Sarker et al. (2024) — Jeux de données et simulateurs pour la conduite autonome

    Auteurs : Sarker, Yazgan et al. (2024) — Publication dans IEEE Transactions on Intelligent Transportation Systems

    🧠 Résumé de l’étude

    Cet article propose une revue systématique des simulateurs de conduite et des jeux de données associés, avec un accent particulier sur les stratégies d’annotation, de génération et de validation des données multimodales (vision, inertie, LiDAR, GNSS). L’étude compare des simulateurs comme CARLA, LGSVL, BeamNG, TORCS, et les relie aux jeux de données dérivés ou utilisés pour l’entraînement de modèles IA embarqués.

    Les auteurs proposent un cadre méthodologique pour évaluer un simulateur selon cinq critères : réalisme physique, diversité des scénarios, flexibilité d’annotation, support multi-capteurs, et modularité. Le lien avec les besoins des véhicules autonomes est explicitement établi.

    🎯 Intérêt pour RoadSimulator3

    • 🔗 Cette étude permet de positionner RoadSimulator3 dans l’écosystème des simulateurs légers, centrés sur l’inertie, la topographie, la météo, et les annotations réalistes à haute fréquence (10 Hz).
    • 📌 Met en évidence la complémentarité entre données simulées IMU et benchmarks existants.
    • 💡 Propose une taxonomie utile pour structurer les évolutions futures de RoadSimulator3 (ajout de capteurs, environnement 3D…)

    ⚠️ Limites de l’étude

    • 📉 L’étude reste très axée sur les simulateurs visuels (véhicules dans un moteur 3D), ce qui peut négliger les besoins de simulation inertielle avancée comme ceux de RoadSimulator3.
    • 🔬 Peu de métriques proposées pour évaluer la qualité inertielle des signaux générés.

    🔗 Intégration avec RoadSimulator3

    RoadSimulator3 peut s’intégrer dans les futures revues comme un outil spécifique focalisé sur les données GPS/IMU enrichies, à haute fréquence, et avec une annotation contextuelle des événements inertiels (freinage, virage, trottoir…). L’étude de Sarker fournit un canevas pertinent pour étendre RoadSimulator3 en intégrant des modules de rendu visuel ou des outils de comparaison inter‑simulateurs.

    📥 Liens utiles

    📊 Citation suggérée

    @article{sarkerDatasetsSimulators2024,
      author    = {Sarker, Mohammad and Yazgan, Gorkem and Cheng, William and Islam, Rashedul and Chowdhury, Mashrur},
      title     = {A Comprehensive Review of Autonomous Vehicle Simulation Tools and Datasets},
      journal   = {IEEE Transactions on Intelligent Transportation Systems},
      year      = {2024},
      volume    = {25},
      number    = {4},
      pages     = {7534--7556},
      doi       = {10.1109/TITS.2024.3336671}
    }
    
  • 🧠 Revue scientifique — Liu et al. (2024)

    🧠 Liu et al. (2024) – Survey sur les ensembles de données pour la navigation inertielle

    Auteurs : Liu, Zhang, Tang, et al.
    Source : Sensors, 2024
    DOI : 10.3390/s24010034


    🎯 Objectif de l’étude

    Ce survey passe en revue plus de 90 ensembles de données publics utilisés dans la navigation inertielle et la reconnaissance de mouvement.

    • Comparaison des capteurs utilisés (IMU, GPS, magnétomètre, etc.)
    • Types de scénarios couverts : piéton, véhicule, mobile
    • Résolutions et fréquences d’échantillonnage disponibles
    • Analyse des usages typiques : fusion de capteurs, apprentissage automatique, SLAM, détection d’activités

    🔍 Apports principaux

    • Tableaux synthétiques très lisibles des datasets open-source
    • Classification utile pour tout projet exploitant des données IMU ou multi-capteurs
    • Analyse des biais et manques dans les jeux de données actuels

    📌 Intérêt pour RoadSimulator3

    Ce travail a guidé la création du simulateur en identifiant les lacunes des jeux de données existants :

    • Peu de datasets avec données IMU/GNSS à haute fréquence synchronisées
    • Peu de cas réalistes de livraison urbaine avec événements inertiels annotés
    • Justification claire de l’approche synthétique proposée par RoadSimulator3

    ⚠️ Limites

    • Revue descriptive, peu d’analyse comparative qualitative
    • Pas de benchmark direct sur l’efficacité des datasets

    🧩 Intégration dans RoadSimulator3

    Utilisé dans la thèse comme référence pour le chapitre sur les données réelles. Mentionné dans l’introduction pour motiver le simulateur 10 Hz enrichi.


    🔗 Liens utiles


    📚 Référence BibTeX

    @article{liuSurveyDatasetsIMU2024,
      title={Survey on Inertial Navigation Datasets: Applications, Characteristics and Gaps},
      author={Liu, Zheng and Zhang, Fang and Tang, Wei and others},
      journal={Sensors},
      volume={24},
      number={1},
      pages={34},
      year={2024},
      publisher={MDPI}
    }
    
  • 🚘 Yurtsever et al. (2020) – Panorama des technologies pour la conduite autonome

    🚘 Yurtsever et al. (2020) – Panorama des technologies pour la conduite autonome

    Auteurs : Yurtsever, Lambert, Carballo, Takeda
    Source : IEEE Access, 2020
    DOI : 10.1109/ACCESS.2020.2983149


    🎯 Objectif de l’étude

    Ce survey emblématique dresse un état de l’art complet des systèmes de conduite autonome, en décrivant :

    • Les capteurs embarqués (caméras, LiDAR, radar, IMU, GPS)
    • Les étapes clés : perception, localisation, planification, contrôle
    • Les architectures logicielles typiques utilisées dans les véhicules autonomes
    • Les jeux de données de référence utilisés pour l’apprentissage et la validation

    🔍 Apports principaux

    • Classification claire des composants des systèmes autonomes
    • Analyse comparative des capteurs et algorithmes associés
    • Présentation synthétique des pipelines logiciels industriels
    • Vision à long terme sur les défis ouverts (fusion de capteurs, IA explicable, etc.)

    📌 Intérêt pour RoadSimulator3

    L’étude sert de socle théorique pour situer RoadSimulator3 dans l’écosystème de la conduite autonome :

    • Justification du focus sur l’IMU et le GNSS dans la chaîne ADAS
    • Appui sur l’usage des données synthétiques pour l’apprentissage
    • Contextualisation du simulateur parmi les besoins industriels

    ⚠️ Limites

    • Peu de place accordée à la simulation ou aux données synthétiques
    • Absence d’analyse des plateformes low-cost type smartphone

    🧩 Intégration dans RoadSimulator3

    Cette publication est citée dans l’introduction de la thèse comme panorama de référence, et dans le chapitre sur les systèmes de navigation embarqués.


    🔗 Liens utiles


    📚 Référence BibTeX

    @article{yurtseverSurveyAutonomousDriving2020,
      title={A Survey of Autonomous Driving: Common Practices and Emerging Technologies},
      author={Yurtsever, Ekim and Lambert, John and Carballo, Alejandro and Takeda, Karl},
      journal={IEEE Access},
      volume={8},
      pages={58443--58469},
      year={2020},
      publisher={IEEE}
    }
    
  • 🚲🚗🚌 Détecter le Mode de Transport avec un Smartphone ? Oui, et avec une belle précision

    Reconnaissance du mode de transport avec un smartphone : méthode fiable

    La reconnaissance du mode de transport avec un smartphone permet de distinguer la marche, la conduite ou les transports publics à partir des capteurs intégrés. Cette technologie, peu coûteuse et accessible, connaît un essor rapide dans les projets de mobilité intelligente.

    En effet, un smartphone équipé de GPS, d’accéléromètre et de gyroscope peut produire des données suffisamment riches pour identifier le mode de déplacement. Grâce à des algorithmes d’apprentissage automatique, il devient possible de reconnaître les comportements de mobilité en temps réel, même sans connexion permanente.

    Des cas d’usage concrets

    Cette technologie est déjà exploitée dans des applications comme Google Maps, des plateformes de suivi d’activité physique ou des outils de mesure de l’empreinte carbone. Elle joue aussi un rôle crucial dans les projets de recherche, comme RoadSimulator3, qui simule les trajectoires en fonction des modes de transport identifiés.

    Étude de référence

    Dans leur publication Estimating Driving Mode Using Smartphone Sensors (2015), Eren et al. démontrent que l’analyse conjointe des données GPS et inertielle permet de classifier efficacement les modes de transport. ➡️ Lire l’article original.

    Pour en savoir plus : Wikipedia – Transportation Mode Detection

    Mots-clés : reconnaissance du mode de transport, smartphone, mobilité, capteurs, inertiel, Eren 2015

  • 🧭 Fusion de capteurs pour estimer le mouvement des véhicules : un état de l’art complet

    Fusion GNSS–IMU–LiDAR pour Véhicules Autonomes : L’Approche Qin 2023

    La fusion GNSS IMU LiDAR véhicule autonome constitue une avancée majeure pour garantir la précision et la continuité du positionnement en conduite autonome. Qin et al. (2023) ont proposé un modèle de fusion multisources combinant GNSS, centrale inertielle (IMU) et données LiDAR. Leur objectif est clair : obtenir une estimation robuste dans tous les environnements, y compris ceux où le signal GNSS est dégradé.

    Pourquoi fusionner ces capteurs ?

    Chaque capteur présente des limites. Le GNSS peut être perturbé par les bâtiments ou les tunnels. L’IMU, bien que très réactive, dérive dans le temps. Quant au LiDAR, il est sensible à la météo et aux reflets. Leur fusion permet de compenser les faiblesses de chacun. Ainsi, l’algorithme proposé par Qin applique un filtre de Kalman étendu, avec une pondération dynamique selon la qualité des signaux entrants.

    Quels bénéfices concrets pour la navigation ?

    Le système testé par les auteurs montre une erreur de localisation réduite à moins de 10 cm dans des conditions mixtes. Cette précision est obtenue sans carte HD. L’approche fonctionne aussi bien en ville qu’en zone périurbaine. Elle représente une alternative efficace aux systèmes lourds de cartographie a priori.

    Application dans RoadSimulator3

    Le simulateur RoadSimulator3 peut intégrer ce type de fusion pour simuler des comportements réalistes. Cette méthode renforce la cohérence inertielle même lors de coupures GNSS temporaires.

    Référence scientifique

    Qin, H., Zhang, Y., & Li, X. (2023). Multi-source Vehicle Localization Using GNSS/IMU/LiDAR Fusion with Adaptive Kalman Filtering. https://doi.org/10.1016/j.trc.2023.104180

    👉 Découvrez aussi notre article sur la fusion GNSS–IMU pour la navigation autonome ou notre analyse du détecteur inertiel embarqué.

    fusion GNSS IMU LiDAR véhicule autonome capteurs
    Données LiDAR fusionnées à une trajectoire GPS–IMU – Source : Wikimedia

    Mots-clés : GNSS, IMU, LiDAR, fusion de capteurs, navigation autonome, Qin 2023, Kalman, localisation véhicule, RoadSimulator3

  • 🇫🇷 Pour une fois, un article en français : tout comprendre sur les capteurs inertiels low-cost pour la navigation mobile

    🇫🇷 Tout comprendre sur les capteurs inertiels low-cost pour la navigation mobile

    Auteur : Julien T.
    Année : 2021 (article de vulgarisation)
    Type : Article explicatif (non scientifique)


    📌 Objectif de l’article

    Offrir une introduction claire aux capteurs inertiels bon marché que l’on trouve dans les smartphones, cartes Arduino ou Raspberry Pi :

    • Explication du fonctionnement des accéléromètres et gyroscopes
    • Présentation des limites (bruit, biais, dérive)
    • Introduction à la notion de fusion de capteurs

    🔍 Contenu abordé

    • Principe des mesures d’accélération linéaire (acc_x, acc_y, acc_z)
    • Rôle du gyroscope pour mesurer les vitesses angulaires (gyro_x, gyro_y, gyro_z)
    • Fusion GNSS–IMU : complémentarité et défis
    • Filtrage de Kalman simplifié

    📌 Intérêt pour RoadSimulator3

    Ce billet constitue une excellente porte d’entrée pour les lecteurs non familiers avec :

    • Les données simulées acc_x, acc_y, acc_z injectées dans RoadSimulator3
    • La nature bruitée des capteurs MEMS simulés
    • La fusion GNSS–IMU dans les pipelines de localisation

    📚 Ressources associées