Une technologie s’adapte spontanément aux déficiences visuelles des utilisateurs d’écrans pour diffuser une image qui apparaît nette.

Trois américains sur quatre ont besoin de verres correcteurs et beaucoup d’entre eux regardent la télé. Des chercheurs de Berkeley – dirigé par Gordon Wetzstein – ont mis au point une solution qui permet aux écrans de s’adapter aux déficiences visuelles en temps réel. L’idée est de rompre avec le paradigme des verres correcteurs puisque c’est au niveau de l’émetteur – des pixels – que les images s’adaptent en temps réel. Mis au point par une équipe de chercheurs américains, l’algorithme permet d’anticiper la distortion de l’image. Toujours à l’état expérimental – et confronté à beaucoup de complications techniques – des écrans dotés d’une telle technologie pourraient simplifier la lecture d’une population de plus en plus âgée.

Jouer sur le signal lumineux et le filtre

Le rendu de l’image est modifié a priori si bien qu’il apparaît net pour la rétine de l’observateur. Pour se faire, un filtre lumineux est appliqué sur un écran pour ajuster l’image à la déficience visuelle du spectateur. L’algorithme fait varier l’intensité lumineuse de chaque pixel pris individuellement et modifie ainsi l’image perçue par la rétine. Le filtre est en fait constitué de multiple trous répartis également sur toute sa surface. Et l’algorithme joue à la fois sur l’intensité du signal lumineux et la composition du filtre. L’expérience séminale a ainsi consisté à rendre nette une image altérée telle qu’un myope et un astigmate la verrait. À ce stade, c’est à l’aide d’un appareil Canon 5D que les chercheurs simulent les déficiences optiques traditionnelles. Si la technologie n’est pas nouvelle, l’équipe de Brian A. Barsky offre un degré de qualité d’image unique dans ce champs de la recherche. Pour devenir opérationnelle, cette technologie doit néanmoins dépasser un obstacle de taille, disent les chercheurs : celui de la capture de mouvement.

Améliorer la capture de mouvements oculaires

Pour l’instant les tests fonctionnent avec un capteur de caméra qui reste fixe. Le fait que des yeux humains bougent sans cesse fait du capteur de mouvement le passage essentiel pour commercialiser cette technologie. Car les ondes lumineuses doivent pouvoir "faire le point" sur l’image à partir de la localisation de la rétine. Cet obstacle correspond pourtant à une tendance de fond pour le hardware. Le smartphone "Fire" d’Amazon, récemment mis en vente aux Etats-Unis, a par exemple été construit autour de sa technologie de capture de mouvements par sa caméra intégrée. Dans le cas du géant Américain, l’objectif n’est pas de remplacer les verres correcteurs mais de pouvoir reconnaître facilement des objets, identifier des films ou des musiques. La technologie utilisée veut faciliter la lecture d’un e-book sur la plateforme en adaptant la vitesse de lecture aux mouvements occulaires – ou encore en mettant une vidéo en pause lorsque les yeux s’en détournent. Bien des synergies existent donc entre la technologie des écrans et les capteurs de mouvements.

Rédigé par Simon Guigue