Cette application utilise la réalité augmentée, le "son 3D" et une caméra pour guider les personnes aveugles dans les grandes villes

Jean Delaunay

Cette application utilise la réalité augmentée, le « son 3D » et une caméra pour guider les personnes aveugles dans les grandes villes

Une start-up française développe une application qui aide les personnes malvoyantes à se déplacer grâce à un suivi GPS de haute précision et un « son 3D » spatial.

Lorsque des personnes aveugles ou malvoyantes essaient de se déplacer dans une ville comme Paris, elles peuvent facilement se perdre dès qu’elles sortent d’une station de métro.

Deux jeunes étudiants ingénieurs français tentent de résoudre ce problème en développant une application de navigation en réalité augmentée (AR) qui identifie l’itinéraire le plus pratique pour eux et utilise le « son spatial » – également appelé son 3D – pour les guider dans la bonne direction. direction.

« Nous essayons de faire quelque chose de très simple où vous obtenez le son 3D dans la bonne direction. Vous tournez dans la direction d’où vient le son, et vous êtes prêt à partir », a déclaré Nathan Daix, co-fondateur et PDG de SonarVision, à L’Observatoire de l’Europe Next.

L’application est actuellement en cours de développement et de test, mais la jeune start-up a pour objectif de la rendre disponible en 2023. Le prototype fonctionne à Paris mais peut « assez facilement » être déployé dans d’autres grandes capitales européennes, a-t-il déclaré.

Le projet vient d’être sélectionné par l’incubateur de start-up de son école d’ingénieurs, 21e by CentraleSupelec, qui apportera aide à l’expérimentation, au financement, au coaching entrepreneurial et au soutien de son vaste réseau de chercheurs et alumni.

SonarVision aura également une place à Station F, le plus grand campus de start-up au monde, situé à Paris.

Il existe déjà des applications qui alertent l’utilisateur des points d’intérêt environnants – tels que Blindsquare et Soundscape – mais la valeur ajoutée de SonarVision, a-t-il dit, est de guider les utilisateurs du point A au point B comme un « GPS de très haute précision ». aussi très intuitif.

Les applications d’orientation grand public telles que Google Maps et Apple Maps n’ont pas été conçues pour répondre aux besoins des personnes malvoyantes et sont difficiles à utiliser avec les lecteurs d’écran, a-t-il déclaré.

« L’un des problèmes les plus frustrants avec beaucoup de ces produits est la précision », a expliqué Daix.

« Le GPS dans les villes peut avoir une précision d’environ 4 à 5 mètres dans les bons moments. Mais dans les pires moments, c’est-à-dire au moins 30 % du temps, vous obtenez une imprécision de plus de 10 mètres.

« Cela signifie que le GPS vous dira que vous êtes arrivé à votre arrêt de bus mais que vous êtes en fait de l’autre côté de la rue, et que vous devez toujours trouver un moyen de vous rendre à votre arrêt de bus réel et vous n’avez pas indice où il se trouve ».

Numérisation des bâtiments et des rues de la ville

Pour résoudre ce problème, SonarVision utilise l’appareil photo du téléphone pour scanner les bâtiments à l’aide de la technologie AR et les compare à la base de données d’Apple des bâtiments scannés pour une ville donnée.

« Cela nous permet de géolocaliser avec précision nos utilisateurs avec une précision allant de 20 centimètres à un mètre », a déclaré Daix, ajoutant que cela permettait à l’application de garder l’utilisateur sur les passages à niveau et les trottoirs tout en évitant, dans la mesure du possible, les escaliers et les zones de construction. .

Pour que la technologie fonctionne, tout ce dont l’utilisateur a besoin est un casque et un iPhone avec une caméra pointée vers la route – bien qu’à l’avenir, la caméra puisse faire partie des lunettes AR pour plus de commodité.

« Votre téléphone serait dans votre poche et vous auriez les lunettes sur votre visage qui feraient la partie vision et le son 3D sortant des branches », a déclaré Daix.

Pas de remplacement pour une canne blanche

Cependant, l’application ne fait aucune détection d’obstacles en temps réel et est uniquement conçue pour être un « complément » à une canne blanche, un chien-guide ou d’autres appareils que les personnes ayant une déficience visuelle utilisent pour se déplacer.

Cependant, la technologie pour le faire existe : la technologie LiDAR, ou détection et télémétrie de la lumière, a le potentiel de « vraiment aider les personnes malvoyantes », a-t-il déclaré.

« Ce que cela permet de faire, c’est de scanner la profondeur de l’environnement. Nous avons en fait commencé à travailler avec LiDAR sur un iPhone 12 Pro et avons pu développer un prototype qui remplace essentiellement la canne blanche.

« Cela nous permet de détecter les obstacles, mais pas seulement les obstacles au sol – les obstacles qui sont au niveau de la tête, au niveau du corps… C’est vraiment très puissant ».

La principale raison pour laquelle SonarVision ne se concentre pas encore sur l’utilisation du LiDAR, a déclaré Daix, est que les smartphones qui en sont équipés (comme l’iPhone 12 Pro) sont chers et SonarVision vise à rendre sa technologie aussi accessible que possible.

« Aujourd’hui, la fonctionnalité la plus importante sur laquelle nous pouvons travailler est l’orientation – une orientation précise et abordable est vraiment l’un des plus gros problèmes qui n’a pas encore été résolu pour les personnes ayant une déficience visuelle », a-t-il déclaré.

Aux côtés de SonarVision, 21st by CentraleSupelec a sélectionné 10 autres start-up qui visent à répondre aux grands enjeux sociétaux et environnementaux de ce siècle.

« Nous avons des étudiants qui veulent s’attaquer à ces problèmes beaucoup plus qu’avant », a déclaré Anita de Voisins, directrice de l’entrepreneuriat à CentraleSupelec, à L’Observatoire de l’Europe Next.

« C’est une génération qui veut vraiment donner un sens à la start-up qu’elle crée ».

Laisser un commentaire

dix-huit + 5 =