La perception optimisée par la fusion de bas niveau des données

La plateforme logicielle LeddarVision combine l’intelligence artificielle et des technologies de vision numérique ainsi que des réseaux de neurones profonds et l’efficacité computationnelle afin d’optimiser la performance des capteurs et du matériel embarqués essentielle à la planification de la trajectoire dans les véhicules automatisés.
Cette solution d’avant-garde permet la détection des différents objets de la scène, y compris les véhicules, les piétons, les vélos, la voie carrossable, les obstacles, les panneaux, les voies de circulation, les lignes de délimitation des voies et autres.  Le système LeddarVision détecte également de très petits obstacles sur la route avec un meilleur taux de détection et moins de fausses alertes que les solutions héritées axées sur la fusion de données « de niveau objet ».  Les obstacles non classifiés sont également détectés, ce qui confère un niveau de sécurité additionnel au véhicule.

  • Plateforme complète de fusion de données de capteurs et de perception
  • Combine les données du LiDAR, du radar et de la caméra
  • Offre la performance du LiDAR au niveau 2 en utilisant seulement caméras et radars
  • Améliore la performance et réduit les coûts du LiDAR aux niveaux 3 et plus
  • Modèle environnemental de haute précision
  • Système précurseur de fusion de bas niveau de données à suréchantillonnage
  • Information sur la taille, la forme et la vitesse de chaque objet environnant
  • Détection et classification extrêmement précises et fiables

Produits pour ADAS automobile

La famille de produits logiciels de classe automobile LeddarVision récemment lancée relève les défis auxquels font face les fournisseurs de rang 1-2 et les équipementiers lorsqu’ils développent des applications ADAS de niveau 2/2+, comme la sécurité ou l’utilisation d’un logiciel de fusion et de perception modulable capable d’offrir des performances élevées à faible coût. Ces solutions logicielles complètes de fusion de capteurs et de perception combinent de manière optimale les modalités de capteurs et visent les applications ADAS de niveau 2/2+ conformes aux exigences 5 étoiles NCAP 2025 et GSR 2022.

LVF-E
LeddarVision frontal – Entrée de gamme

Pour les clients désireux de développer des applications ADAS de niveau 2/2+ d’entrée de gamme pour l’aide à la conduite sur autoroute

LVF-E est une solution complète de fusion de données et de perception à vue frontale qui vise les applications ADAS de niveau 2/2+ d’entrée de gamme pour l’aide à la conduite sur autoroute et répondant aux exigences de sécurité 5 étoiles NCAP 2025 et GSR 2022. Le savoir-faire en fusion de bas niveau de données de LeddarTech repousse les limites du progrès technologique en doublant la portée effective des capteurs et en permettant, pour la première fois, une solution ne comportant qu’une caméra frontale unique de 1,2 mégapixel et 120 degrés et deux radars d’angle frontaux à courte portée dans une configuration 1V2R. L’abordabilité de la méthode de détection utilisée et le recours judicieux à la plateforme TDA4L permettent d’obtenir les coûts les plus bas pour un système ADAS de niveau 2/2+ d’entrée de gamme. 

Page produit LVF-E       Communiqué de presse

LVF-H
LeddarVision frontal – Haut de gamme

Pour les clients désireux de développer des applications ADAS de niveau 2/2+ haut de gamme pour l’aide à la conduite sur autoroute

Supportant une configuration de capteurs étendue à 1V5R comprenant une caméra unique de 3 mégapixels et 120 degrés, un radar frontal unique à moyenne portée et quatre radars d’angle à courte portée, la solution LVF-H étend la perception aux applications d’aide à la conduite sur autoroute, y compris la régulation de vitesse adaptative jusqu’à 160 km/h, une portée de détection atteignant 200 mètres et le changement de voie semi-automatisé. Le système renforce également la cote de sécurité NCAP 2025 en couvrant les scénarios de dépassement, de marche arrière et d’ouverture de porte. De plus, des combinaisons de capteurs à moindre coût peuvent être utilisées grâce au recours à la plateforme TDA4L et à un seul processeur IA Hailo-8, permettant de répondre de manière économique aux exigences des applications ADAS haut de gamme de niveau 2/2+.

Page produit LVF-H       Communiqué de presse

LVS-2+
LeddarVision périphérique

Pour les applications ADAS de niveau 2/2+ supérieures d’aide à la conduite sur autoroute et de sécurité 5 étoiles NCAP 2025 et GSR 2022

Le LVS-2+, nouvellement lancé, est une solution logicielle complète de fusion des données de capteurs et de perception à vue périphérique (« surround view ») qui supporte les applications ADAS de niveau 2/2+ supérieures d’aide à la conduite sur autoroute et de sécurité 5 étoiles NCAP 2025 et GSR 2022.  Reposant sur l’architecture de LeddarVision, le LVS-2+ étend efficacement la configuration de capteurs 1VxR de la famille de produits à vue frontale LVF à une configuration 5V5R en améliorant la prise en charge de l’aide à la conduite en embouteillage (TJA) et de l’aide à la conduite sur autoroute (HWA), et en permettant le changement de voie automatisé, le dépassement ainsi que la régulation de vitesse adaptative (ACC) sur une plus grande plage de vitesse.

Page produit LVS-2+       Communiqué de presse

  • Le système LeddarVision excelle à détecter même des objets inconnus absents du jeu de données d’apprentissage.

  • Une approche novatrice et une sécurité fonctionnelle inhérente permettent au système de détecter les objets et les dangers même durant une défaillance de capteur.

UNE CONDUITE
AUTONOME
PLUS SÛRE

Grâce à une meilleure détection

Détection précise des objets

Aucun type spécifique de capteur ne suffit pour détecter tous les objets.  Les caméras ne perçoivent pas la profondeur, tandis que les capteurs de distance comme les LiDARs et les radars offrent moins de résolution.  LeddarVision propose la solution recherchée : la fusion de bas niveau de données avec suréchantillonnage.

Détection d’objets de petites dimensions absents des jeux de données d’apprentissage

Données de profondeur attribuées à chaque pixel de l’image de la caméra

Définition précise de la forme des véhicules, des personnes et de tout autre objet

Une perception optimale à faible coût

 

Cette solution économique axée sur la fusion de données à suréchantillonnage présente de faibles exigences en matière de capteurs et de calculs. Des capteurs de profondeur à faible coût et basse résolution suffisent pour assurer une perception environnementale hautement fiable.

Une technologie de perception environnementale inégalée

Notre technologie de fusion de bas niveau des données des capteurs avec suréchantillonnage génère le modèle environnemental 3D le plus complet avec grille d’occupation, liste des objets classifiés statiques et dynamiques avec leur vitesse et leurs vecteurs de mouvement, repérage et autres.

  • LeddarVision pour niveaux d’autonomie ADAS 1 et 2
  • LeddarVision pour niveaux d’autonomie 3 à 5
  • LeddarVision pour mobilité urbaine et véhicules hors route

Un modèle environnemental ultra-précis

Pour créer un modèle environnemental de haute précision permettant une conduite autonome sûre et fiable, de multiples processus doivent travailler en synchronisation.  Voici un descriptif général de notre cadre logiciel de perception environnementale.  Le processus débute par la réception des données brutes directement des capteurs du véhicule via une API logicielle, et termine par le transfert des données du modèle environnemental complet vers le module logiciel de conduite autonome.

 

Génération d’un modèle RGBD 3D haute définition grâce à des algorithmes de fusion de données et le suréchantillonnage

Un module de calibration, de déroulement et d’appariement reçoit les données brutes des capteurs avant de les synchroniser et de les fusionner dans un modèle 3D unifié.  Le suréchantillonnage augmente la résolution effective des capteurs de distance, ce qui a pour résultat l’obtention d’un modèle RGBD dense, chaque pixel contenant de l’information sur la couleur et la profondeur.  La localisation et le suivi de mouvement aident à déterminer l’auto-position et la vitesse.

La perception grâce à l’application d’algorithmes contextuels au modèle RGBD 3D

La détection d’objets image par image et la segmentation de la route permettent d’identifier les obstacles, les véhicules, les piétons, les vélos, les motos, les bordures de voies, l’espace libre disponible, etc.  La détection par classification se fait par des algorithmes basés sur les réseaux de neurones profonds qui nécessitent un apprentissage.  En parallèle, la détection sans classification se fait par un autre ensemble d’algorithmes, ce qui permet la détection d’obstacles inattendus.  Le repérage d’objets multi-images inclut la modélisation 3D, le suivi de mouvement et le dimensionnement de chaque objet.

Création du modèle environnemental 3D

L’accès aux données du modèle environnemental qui en résulte se fait par notre API logicielle.  Ces données comprennent une grille d’occupation et une liste de paramètres pour chaque objet repéré, notamment la localisation, l’orientation et le vecteur de mouvement.

Information complémentaire

e-book / Technologies de fusion de données de capteurs et de perception

Ce livre électronique explique et illustre les principaux avantages et fonctionnalités liés à la fusion de données de capteurs brutes  et de perception avancée appliqué à l’automobile et aux applications ADAS.

Accéder au document

Avantages de la fusion de bas niveau de capteurs pour les systèmes ADAS

Note technique – Ce document explique le principe, les configurations et le fonctionnement de la fusion des données de capteurs et propose une application pratique de la fusion de données dans un système ADAS grâce à l’estimation de l’attitude, et conclut en présentant la solution commercialement disponible sur le marché aujourd’hui.

Télécharger la note technique

Les réseaux neuronaux profonds dans les systèmes de perception

Note technique – Les réseaux neuronaux sont des éléments de base essentiels pour permettre le développement des systèmes avancés d’aide à la conduite (systèmes ADAS) et sont utilisés dans les diverses tâches requises pour y parvenir telles que la localisation, la planification de la trajectoire et la perception. La présente note technique explique la nature des réseaux neuronaux, leur fonctionnement et les diverses techniques utilisées pour la détection et la classification des objets dans les systèmes de perception.

Télécharger la note technique