Avec les progrès technologiques dans les programmes de commande vocale, tels qu’Alexa d’Amazon, Google Assistant et Apple Siri, il est devenu une nouvelle norme pour les gens de parler dans leurs appareils pour faire fonctionner leurs appareils électroménagers et gadgets. Mais une start-up technologique canadienne travaille sur des appareils distants sans que les utilisateurs n’aient besoin de faire quoi que ce soit.
Aavaaune entreprise montréalaise de fabrication d’ordinateurs et de produits électroniques, affirme avoir construit un casque qui traduit les signaux cérébraux et biologiques en commandes pour les appareils, permettant à divers appareils de comprendre les besoins d’un utilisateur sans aucune invite physique ou vocale.
«Nous construisons des interfaces de calcul cérébral», a déclaré Naeem Komeilipoor, directeur technique et fondateur d’Aavaa, à CTVNews.ca. « Cette technologie peut comprendre l’attention et les intentions des utilisateurs. Il suit les mouvements de leur tête, leurs yeux, leurs gestes faciaux comme le clignement des yeux ou les crispations, et les utilise comme entrée pour contrôler leurs appareils.
Komeilipoor, un neuroscientifique qui a travaillé auparavant à l’Université de Montréal, affirme que les appareils Aavaa, notamment des écouteurs, des lunettes et des casques d’écoute, permettent aux gens de faire fonctionner des appareils électroménagers simplement en bougeant les yeux.
Pourtant, au-delà de la capacité apparemment télékinésique d’allumer votre téléviseur simplement en le regardant, Komeilipoor a souligné que cette technologie pourrait avoir des applications médicales importantes, telles que permettre à des personnes paralysées de diriger un fauteuil roulant ou de surveiller plus minutieusement les données biométriques des patients en soins intensifs. .
Et, a-t-il ajouté, ces appareils peuvent également aider les personnes souffrant de troubles de la parole et de l’audition.
“J’ai grandi avec des grands-parents qui utilisaient des appareils auditifs”, a déclaré Komeilipoor, debout devant son exposition au Hardware Tech and Founders Showcase, une exposition à Toronto organisée par l’organisation de soutien aux fondateurs. Le voyage la semaine dernière.
“Le problème avec les aides auditives est que dans un environnement bruyant comme celui-ci, elles échouent souvent parce qu’elles ne savent pas à quels sons vous prêtez attention.”
Le concept auquel Komeilipoor fait référence est appelé « analyse de scène auditive » ou « ségrégation des flux auditifs » – le processus par lequel le système auditif humain traite et organise différents sons. La technologie des aides auditives est souvent capable de réduire le bruit de fond, mais l’équipement n’est pas encore capable de comprendre l’intention ou l’attention de l’auditeur.
Pour comprendre cela, a-t-il déclaré, « vous devez surveiller leurs signaux cérébraux et biologiques, ou leurs mouvements de tête, de yeux. »
Grâce au suivi de l’attention, à l’amélioration de la parole et aux capteurs portables, les appareils d’Aavaa tentent d’exploiter les processus cognitifs qui sont restés hors de portée des ordinateurs, a-t-il déclaré.
« Jusqu’à présent, c’était nous qui essayions de faire en sorte que les machines nous comprennent. Avec ce type de technologie, les machines pourraient facilement comprendre notre intention et nous fournir des services.