top of page

Easygn

Easygn est un logiciel d’apprentissage de la langue des signes développé par des étudiants de l’UCL.

Apprenez-en un peu plus sur ce projet inclusif mêlant humanité et intelligence artificielle à travers mon storytelling !

lisa-de-paola-storytelling-easygn-portfolio.jpg

Vous est-il déjà arrivé de ne pas vous faire comprendre par un étranger car vous ne parlez pas la même langue? Une petite recherche sur Google et le tour est joué! Aujourd’hui se faire comprendre dans n’importe quelle situation est devenu normal pour tout le monde, ou presque… Les personnes sourdes et malentendantes, elles, sont les grandes oubliées en ce qui concerne l’accès normalisé à la communication.

 

En effet, si vous voulez échanger avec un ami ou un membre de votre famille sourd ou malentendant, vos options sont réduites. Les seuls moyens d’apprendre la langue des signes de manière auto-didacte sont via la lecture ou des sites internet mais ceux-ci ne garantissent pas un apprentissage optimal puisqu’il est impossible d’avoir une correction en direct.

 

Le mot d’ordre d’Easygn: l’inclusion!

L’inclusion, c’est la raison d’être d’Easygn, un logiciel d’apprentissage de la langue des signes sur desktop, qui sera ensuite décliné en application mobile.

 

Concrètement, en tant qu’utilisateur : vous vous connectez, vous activez votre caméra frontale et vous choisissez un thème d’apprentissage regroupant plusieurs mots. Ensuite, à l’aide du modèle et du texte descriptif, vous signez devant votre caméra, le programme détecte votre mouvement et vous signale si celui-ci est correctement effectué ou pas. S’il est incorrect, le système vous corrige et vous donne une explication sur l’histoire du signe.

 

Cette correction précise et immédiate est possible grâce à l’intelligence artificielle. L’ergonomie et les graphismes du site sont pensés de manière à rendre l’expérience la plus ludique et agréable possible.

 

Et de manière plus identitaire, Easygn c’est trois jeunes qui s’éclatent autour d’un projet qui les passionne.

 

Des êtres différents mais complémentaires

Alex, Bek et Archibald s’unissent autour d’un but commun: l’inclusion des personnes sourdes et malentendantes.

 

Bek est l’extraverti du groupe, toujours à l’écoute d’autrui. Il est animé par les projets communautaires et adore l’échec parce que cela l’oblige à aller au-delà de sa zone de confort. Il gère la communication et le marketing du projet. Alex, responsable des opérations et des finances, mène et recadre le groupe lorsqu’il le faut. Il aime rencontrer des gens jugés hors-normes et apprendre d’eux. Enfin, Archibald, la force tranquille du groupe tend à comprendre le fonctionnement de la société. C’est lui qui programme l’intelligence artificielle.

 

Dès le départ, il est clair pour tous les trois que leur projet, né dans un cadre académique, sera développé dans la vraie vie. Jean-Raymond Naveau, leur mentor, est en quelque sorte la synthèse de leur trois dimensions, de par son parcours, notamment dans la Silicon Valley. Leur intégration à l’Yncubator leur donne accès à un écosystème entreuprenarial précieux et à des formations ou des conseils professionnels. De plus, leur option CPME (création de petite ou moyenne entreprise) leur offre un cadre de travail au sein des locaux de l’UCL.

 

Un enthousiasme général stimulant

L’engouement autour de leur projet, tant virtuellement que sur le terrain leur prouve qu’ils sont sur la bonne voie. Et cerise sur le gâteau, ils remportent le premier prix de Mind & Market dans la catégorie Engineering, Deep tech & Biotech en avril 2021.

 

Et si on inversait la tendance? Si ce n’était plus à la personne sourde ou malentendante de faire un effort pour être comprise, mais nous qui faisions un pas vers elle pour l’inclure davantage? Peut-être que ce qui est encore considéré comme une utopie constituera bientôt la norme…

 

Une chose est sûre, l’équipe ne compte pas s’arrêter là et met tout en oeuvre pour développer ce projet jusqu’à ce que l’inclusion des personnes sourdes et malentendantes soit totale. 

bottom of page