Comment les lunettes de traduction en langue des signes ont été créées
Grâce à Hackster.io, les détails de ce développement ont été révélés, qui utilisent l'intelligence artificielle et ont encore quelques choses à améliorer pour s'adapter aux contextes d'utilisation réels.
Pour donner vie à ses fonctions, une carte appelée Raspberry Pi Zero 2 a été utilisée, qui permet de bonnes performances à faible coût, en plus d'avoir une très petite taille. Grâce à ce traitement , il a été possible de traiter différentes couches d'images via un module de caméra et d'exécuter des algorithmes de reconnaissance spécifiquement entraînés pour détecter et analyser les gestes de la main.
De cette façon, la caméra se situe entre les verres des lunettes et commence à enregistrer les mouvements de la personne qui se trouve devant. Ces données visuelles sont envoyées au Raspberry Pi, où elles sont traitées par des algorithmes de vision par ordinateur.
C’est là qu’intervient l’intelligence artificielle. Un système méticuleusement entraîné reconnaît les gestes de la main et les corrèle avec les lettres de l'alphabet de la langue des signes. Ce processus de traduction est crucial pour la compréhension car il permet de convertir les signes en parole via un système de synthèse vocale.
La capacité d’adaptation et d’apprentissage de ces algorithmes permet une amélioration continue de la précision et de la fluidité de la traduction, donnant ainsi la possibilité d’avoir une communication plus naturelle et fluide.
L'utilisateur Nekhill, qui a partagé l'ensemble du processus de développement, a assuré que le plus grand défi était de trouver tous les composants matériels idéaux à assembler dans un si petit espace, comme celui des lunettes, dont la monture était imprimée en 3D.
En plus du module caméra et de la carte Raspberry Pi, des éléments tels qu'un haut-parleur 3 W, une carte son USB et un amplificateur ont été inclus pour garantir une expérience d'écoute optimale.
Même si ces lunettes représentent une avancée significative en matière d’accessibilité pour les personnes ayant des troubles de la parole, il reste encore des défis à relever. Le système actuel n'est capable de traduire que des lettres individuelles, et non des phrases entières, ce qui limite son utilité dans certains contextes.
Cependant, cette technologie a un grand potentiel, étant donné que tout le monde ne comprend pas la langue des signes, c'est une alternative idéale pour communiquer avec ceux qui ont un handicap auditif ou verbal.
Les malvoyants peuvent désormais ressentir une éclipse
Un groupe de chercheurs a développé une technologie qui permettra aux personnes malvoyantes d'apprécier et de ressentir une éclipse en temps réel.
La technologie, connue sous le nom de LightSound, a été développée grâce à une collaboration entre l'astronome de Harvard Allyson Bieryla et l'astronome aveugle Wanda Díaz-Merced. Cet appareil a été spécialement conçu pour permettre aux personnes aveugles ou malvoyantes de vivre une éclipse solaire d'une manière complètement nouvelle et de plus près.
Le fonctionnement de cet appareil est le suivant : lorsque la lumière du soleil est présente, l'appareil émet une tonalité musicale aiguë. À mesure que la Lune commence à bloquer progressivement la lumière du Soleil, cette tonalité diminue progressivement. Lorsque la lumière est complètement bloquée, l’appareil commence à émettre une série de clics, fournissant une représentation sonore de l’obscurité pendant l’éclipse.