Conduire dans la neige est un effort d’équipe pour les capteurs IA – –

Personne n’aime conduire dans une tempête de neige, y compris les véhicules autonomes. Pour rendre les voitures autonomes plus sûres sur les routes enneigées, les ingénieurs examinent le problème du point de vue de la voiture.

Un défi majeur pour les véhicules entièrement autonomes est la navigation par mauvais temps. La neige confond en particulier les données de capteurs cruciales qui aident un véhicule à mesurer la profondeur, à trouver les obstacles et à rester du bon côté de la ligne jaune, en supposant qu’elle soit visible. Avec en moyenne plus de 200 pouces de neige chaque hiver, la péninsule de Keweenaw au Michigan est l’endroit idéal pour pousser la technologie des véhicules autonomes à ses limites. Dans deux articles présentés à SPIE Defence + Commercial Sensing 2021, des chercheurs de la Michigan Technological University discutent de solutions pour des scénarios de conduite enneigés qui pourraient aider à offrir des options de conduite autonome dans des villes enneigées comme Chicago, Detroit, Minneapolis et Toronto.

Tout comme la météo parfois, l’autonomie n’est pas une désignation oui-non ensoleillée ou enneigée. Les véhicules autonomes couvrent un spectre de niveaux, des voitures déjà sur le marché avec avertissement d’angle mort ou assistance au freinage, aux véhicules qui peuvent basculer dans et hors des modes de conduite autonome, à d’autres qui peuvent naviguer entièrement par eux-mêmes. Les grands constructeurs automobiles et les universités de recherche peaufinent encore la technologie et les algorithmes de conduite autonome. Parfois, des accidents se produisent, soit en raison d’une mauvaise appréciation de l’intelligence artificielle (IA) de la voiture, soit d’une mauvaise utilisation par un conducteur humain des fonctions de conduite autonome.

Les humains ont aussi des capteurs: nos yeux scanneurs, notre sens de l’équilibre et du mouvement, et la puissance de traitement de notre cerveau nous aident à comprendre notre environnement. Ces intrants apparemment basiques nous permettent de conduire dans pratiquement tous les scénarios, même s’ils sont nouveaux pour nous, car le cerveau humain est doué pour généraliser de nouvelles expériences. Dans les véhicules autonomes, deux caméras montées sur des cardans scannent et perçoivent la profondeur en utilisant la vision stéréo pour imiter la vision humaine, tandis que l’équilibre et le mouvement peuvent être mesurés à l’aide d’une unité de mesure inertielle. Mais les ordinateurs ne peuvent réagir qu’aux scénarios qu’ils ont rencontrés auparavant ou qu’ils ont été programmés pour reconnaître.

Lire aussi  Les poissons clowns évitent la piqûre de leurs hôtes anémones avec de la bave sucrée

Étant donné que les cerveaux artificiels ne sont pas encore là, les algorithmes d’intelligence artificielle (IA) spécifiques aux tâches doivent prendre le volant – ce qui signifie que les véhicules autonomes doivent s’appuyer sur plusieurs capteurs. Les caméras Fisheye élargissent la vue tandis que les autres caméras agissent un peu comme l’œil humain. L’infrarouge capte les signatures thermiques. Le radar peut voir à travers le brouillard et la pluie. La détection et la télémétrie de la lumière (lidar) transpercent l’obscurité et tissent une tapisserie au néon de fils de faisceau laser.

«Chaque capteur a des limites, et chaque capteur couvre le dos d’un autre», a déclaré Nathir Rawashdeh, professeur adjoint d’informatique au Michigan Tech’s College of Computing et l’un des principaux chercheurs de l’étude. Il travaille à rassembler les données des capteurs via un processus d’IA appelé fusion de capteurs.

«La fusion de capteurs utilise plusieurs capteurs de différentes modalités pour comprendre une scène», a-t-il déclaré. “Vous ne pouvez pas programmer de manière exhaustive pour chaque détail lorsque les entrées ont des modèles difficiles. C’est pourquoi nous avons besoin d’IA.”

Les collaborateurs de Rawashdeh dans le Michigan Tech comprennent Nader Abu-Alrub, son doctorant en génie électrique et informatique, et Jeremy Bos, professeur adjoint de génie électrique et informatique, ainsi que des étudiants en maîtrise et des diplômés du laboratoire de Bos: Akhil Kurup, Derek Chopp et Zach Jeffries. Bos explique que les capteurs lidar, infrarouges et autres sont à eux seuls comme le marteau d’un vieil adage. “” Pour un marteau, tout ressemble à un clou “”, a déclaré Bos. “Eh bien, si vous avez un tournevis et un pistolet à riveter, alors vous avez plus d’options.”

Lire aussi  Comment insérer une signature manuscrite dans Google Docs

La plupart des capteurs autonomes et des algorithmes de conduite autonome sont développés dans des paysages ensoleillés et clairs. Sachant que le reste du monde n’est pas comme l’Arizona ou le sud de la Californie, le laboratoire de Bos a commencé à collecter des données locales dans un véhicule autonome Michigan Tech (conduit en toute sécurité par un humain) lors de fortes chutes de neige. L’équipe de Rawashdeh, notamment Abu-Alrub, a déversé plus de 1000 images de données lidar, radar et image provenant de routes enneigées en Allemagne et en Norvège pour commencer à enseigner à leur programme d’intelligence artificielle à quoi ressemble la neige et comment voir au-delà.

«Toutes les neiges ne sont pas créées égales», a déclaré Bos, soulignant que la variété de la neige rend la détection des capteurs un défi. Rawashdeh a ajouté que le prétraitement des données et la garantie d’un étiquetage précis sont une étape importante pour assurer l’exactitude et la sécurité: “L’IA est comme un chef – si vous avez de bons ingrédients, il y aura un excellent repas”, a-t-il déclaré. “Donnez au réseau d’apprentissage AI des données de capteur sales et vous obtiendrez un mauvais résultat.”

Les données de mauvaise qualité sont un problème, tout comme la saleté réelle. Tout comme la saleté de la route, l’accumulation de neige sur les capteurs est un problème résoluble mais gênant. Une fois la vue dégagée, les capteurs des véhicules autonomes ne sont toujours pas toujours d’accord sur la détection des obstacles. Bos a mentionné un excellent exemple de découverte d’un cerf tout en nettoyant les données recueillies localement. Lidar a déclaré que le blob n’était rien (30% de chance d’un obstacle), la caméra l’a vu comme un humain endormi au volant (50% de chance) et le capteur infrarouge a crié WHOA (90% sûr que c’est un cerf).

Lire aussi  Miles et nuits illimités : vulnérabilité trouvée dans les programmes de récompenses

Faire en sorte que les capteurs et leurs évaluations des risques se parlent et apprennent les uns des autres est comme la parabole indienne de trois aveugles qui trouvent un éléphant: chacun touche une partie différente de l’éléphant – l’oreille, le tronc et la jambe de la créature – et arrive à une conclusion différente sur le type d’animal dont il s’agit. En utilisant la fusion de capteurs, Rawashdeh et Bos veulent que des capteurs autonomes trouvent collectivement la réponse – que ce soit un éléphant, un cerf ou un banc de neige. Comme le dit Bos, “Plutôt que de voter strictement, en utilisant la fusion de capteurs, nous proposerons une nouvelle estimation.”

Bien que naviguer dans une tempête de neige à Keweenaw soit une solution pour les véhicules autonomes, leurs capteurs peuvent mieux se renseigner sur les intempéries et, avec des progrès tels que la fusion de capteurs, pourront un jour conduire en toute sécurité sur des routes enneigées.

.

Related News

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick