Quand les objets connectés redonnent “la vue” aux personnes déficientes

Grâce à l’écholocalisation, les personnes malvoyantes peuvent situer leur environnement, et c’est de ce constat que sont partis plusieurs entrepreneurs cherchant à améliorer le quotidien des personnes en situation en handicap visuel.

L’écholocation, ou écholocalisation, consiste à émettre des ondes sonores et à écouter leur écho afin de localiser des éléments de notre environnement. Bien connue de nos amies les chauves-souris et de certains cétacés tels que les dauphins, sachez que cette technique est également pratiquée par l’Homme, notamment par ceux dont la vue est déficiente.

En émettant un son (coup de canne sur le sol, petit claquement avec la langue etc.), les personnes atteintes de déficiences visuelles peuvent cartographier l’environnement qui les entoure. Daniel Kish, expert américain en écholocalisation humaine, et atteint de cécité totale, nous dit que l’écho génère une image mentale de l’environnement qu’il décrit lui-même comme des « éclairs de lumière dans l’obscurité totale ».

objet connecté d'écholocation

Sunu, le premier bracelet haptique à ultrasons

C’est pour épauler les personnes malvoyantes que Cuauhtli Padilla Arias et Marco Antonio Trujillo Tejeda, deux chercheurs mexicains de l’institut Tec de Monterrey, ont récemment conçu le bracelet connecté Sunu. Celui-ci embarque un système d’écholocation similaire à celui qu’utilisent les animaux dans la nature. Des ondes à haute fréquence sont émises par un capteur spécifique et rebondissent sur les obstacles qui se trouvent sur la route. Le bracelet peut ainsi prévenir son utilisateur de la présence d’un obstacle.

Sunu appareil connecté pour aveugles

Sunu est donc le premier bracelet utilisant les ultrasons doublés d’un retour haptique au poignet de son porteur. Mais ses créateurs ne se sont pas arrêtés là puisqu’ils ont aussi créé des capteurs spécifiques à fixer sur des objets de la vie quotidienne (clés, téléphone, portefeuille etc.). Le système aidera alors le porteur à localiser ces derniers très rapidement en augmentant l’intensité des vibrations à mesure que l’objet est plus proche.

Bien entendu, les personnes atteintes de déficiences visuelles n’ont pas attendu ce bracelet connecté pour sortir et se promener. Toutefois, grâce à celui-ci, leurs déplacements seront facilités, optimisés. Ils sauront en amont quels obstacles se trouvent sur leur chemin, avant même que leur canne ou leur chien ne leur signifie.

Le brevet de cet objet a été déposé et est actuellement en cours de commercialisation. Une campagne de financement participatif a également vu le jour sur Indiegogo.

BuzzClip, Dot Watch… d’autres appareils qui facilitent la vie

D’autres accessoires connectés sont également en préparation pour les déficients visuels, tel que le BuzzClip, un petit appareil relativement identique à Sunu, qui se fixe aux vêtements et qui, grâce aux ultrasons, détecte les obstacles et prévient le porteur en vibrant. La distance de détection est d’un ou deux mètres, au choix du porteur. Cette version canadienne est disponible en précommande sur Indiegogo, pour une livraison annoncée courant avril 2016.

Buzzclip appareil à ultrasons pour aveugles

Enfin, venue de Corée du Sud et compatible avec les appareils iOS et Android, la Dot Watch est
la première montre connectée en braille. Elle aussi en cours de développement, elle ne permettra
pas aux personnes déficientes visuelles de se contextualiser, mais de lire l’heure et les SMS reçus, dès lors qu’elle sera connectée à un appareil mobile. Disponible en précommande dès
maintenant, elle sera d’abord proposée aux marchés britanniques, coréens et américains en
2016.

montre connectée en braille

De l’art de rendre la technologie utile !

Marine Daeffler (@MarineDaeffler)
Professionnelle de la gestion des ressources humaine et passionnée par l’innovation et ses retombées dans la société.

Cet article Quand les objets connectés redonnent “la vue” aux personnes déficientes est apparu en premier sur H+ Magazine.

Quand les objets connectés redonnent “la vue” aux personnes déficientes

L’AFNOR organise une grande enquête sur l’industrie du futur

Le plan « Industrie du futur », mis en place cette année par le gouvernement, a pour ambition « de rendre les usines intelligentes et flexibles ».

Elles devront être économes en énergie et intégrer le développement durable dans leurs activités. Elles devront également faire communiquer différents types de machines, mettre en réseau fournisseurs et clients, tendre vers une fourniture de produits et de services personnalisés, favoriser l’écoconception, etc.
Ces enjeux sont cruciaux et préfigurent le schéma de l’usine du futur (smart factories).

AFNOR participe activement au sujet en invitant les fédérations professionnelles, les industriels et les acteurs du plan « Industrie du futur » à participer à une consultation qui mettra en lumière les besoins et les attentes dans la construction de ce nouveau schéma industriel.

Siège AFNOR Saint-Denis

L’enquête aborde neuf grands sujets :
– la chaîne de contrôle,
– la chaine numérique de production,
– les nouvelles techniques,
– les nouveaux matériaux,
– la robotique,
– l’efficacité énergétique,
– l’économie circulaire,
– la logistique
– les aspects humains dans l’industrie.

Elle vise à recueillir les attentes des professionnels pour disposer de seuils de qualité, de critères de sécurité ou simplement des termes partagés pour développer l’industrie du futur.

Pour AFNOR, « c’est bien la demande et le concours actif des professionnels intéressés qui feront naître les normes volontaires ».

La consultation publique sera close le 15 janvier 2016.

Informations sur www.afnor.org

Cet article L’AFNOR organise une grande enquête sur l’industrie du futur est apparu en premier sur H+ Magazine.

L’AFNOR organise une grande enquête sur l’industrie du futur

Les robots vous souhaitent de joyeuses fêtes de Noël

Comme à l’habitude, les roboticiens rivalisent d’idées pour nous faire sourire en cette fin d’année. C’est aussi l’occasion pour certains de montrer à travers des vidéos les progrès qu’ont fait leurs robots. Petit tour mondiales des vidéos publiées ces derniers jours…

Boston Dynamics (racheté depuis par Alphabet, la holding de Google) démarre les festivités avec quatre robots quadrupèdes Spot déguisés en rennes. Ces derniers, développés pour l’armée américaine, tirent ici un traîneau avec une membre du staff habillée en Mère-Noël à bord… Idée très originale et qui nous permet en plus, de constater que les robots Spot sont non seulement capables d’évoluer sur des terrains accidentés, mais surtout de tirer derrière eux des objets plus ou moins lourds.

Le petit humanoïde Robi, à monter pièce par pièce, s’est déguisé et nous souhaite un Joyeux Noël en japonais !

L’institut technologique fédéral suisse, plus connu sous le nom d’ETH Zurich, a réalisé un conte de Noël en vidéo mélangeant robots, drones et images de synthèse. On y retrouve le robot éducatif Thymio, un robot mobile de la société BlueBotics, les drones de l’équipe de Raffaello D’Andrea. Tout ce monde se retrouve en fin de film au pied d’une échelle, transformée en sapin de Noël pour l’occasion.

RE^2 Robotics, spinoff de l’universtié Carnegie Mellon (Pittsburgh, USA) spécialisée dans les technologies de mobilité pour les robots, en profite pour faire faire à sa plateforme robotisée à double bras des cocottes en papier, et montrer ainsi la rapidité et la précision de leurs mouvements.

L’Institut Italien de Technologie (IIT de Pise), qui développe entre autres le célèbre enfant robot iCub, met en scène dans une vidéo toute la magie de Noël : le sapin décoré par un bras Kuka et un bras, le Père Noël transformé en Walk-Man, un des humanoïdes qui a participé au Darpa Robotics Challenge, un renne qui est en fait le quadrupède HyQ, et bien sûr, l’enfant qui écrit une lettre au Père Noël incarné par le petit iCub.

Cet article Les robots vous souhaitent de joyeuses fêtes de Noël est apparu en premier sur H+ Magazine.

Les robots vous souhaitent de joyeuses fêtes de Noël

New technique to examine how the brain categorizes images

Despite the obvious difference between a chihuahua and a doberman, the human brain effortlessly categorizes them both as dogs, a feat that is thus far beyond the abilities of artificial intelligence. Previous research has established that the brain can recognize and categorize objects extremely rapidly, however the way this process occurs is still largely unknown. Researchers now have pioneered a new image modulation technique known as semantic wavelet-induced frequency-tagging (SWIFT) to further test how images are processed.
New technique to examine how the brain categorizes images