Es de Mar del Plata, estudia Ingeniería en Sistemas y diseñó un prototipo que ya puede reconocer cuatro términos básicos; contó su proyecto en las redes sociales y recibió miles de elogios
Un hermoso proyecto inclusivo tiene como protagonista a un estudiante de Mar del Plata. Se trata de Nacho Gorriti, quien con mucho esfuerzo y entusiasmo diseñó una tecnología especial para entender la lengua natural de las personas sordas. A través de sus redes sociales compartió los detalles del prototipo y rápidamente se llevó los elogios de los usuarios. “Mi principal objetivo es facilitar una herramienta”, expresó en diálogo con LA NACION.
Con las expectativas a flor de piel, el 4 de julio publicó en Twitter el video de su creación y lo acompañó con un mensaje. “Durante estos días me mandé con un nuevo proyecto, una inteligencia artificial que pueda entender la lengua de señas y mostrar en pantalla su significado”, expresó en la red social del pajarito.
En otro tuit, dio más detalles y aseguró: “El objetivo del proyecto era aprender un poco más de Python, Tensorflow y la lengua de señas. Tiene unos días de vida nomás”.
Gorriti tiene 20 años y desde muy joven demostró tener empatía con el otro. Luego de terminar la secundaria se trasladó desde la ciudad donde vivió hasta su adolescencia y siguió su camino en Tandil, con el férreo objetivo de estudiar una de sus pasiones: Ingeniería en Sistemas. Se anotó en la Universidad Nacional del Centro de la Provincia de Buenos Aires (UNICEN) y encabezó diversos proyectos de programación, siempre en base a un tema que le llamaba la atención. No obstante, hay uno que quería concretar desde hace tiempo y finalmente tomó el desafío de hacerlo.
“Me puse a pensar sobre cómo haría si tuviese que entender a alguna persona que se comunica por lengua de señas, y mi principal objetivo fue facilitar una herramienta. Nunca había hecho nada propio con inteligencia artificial y esto me pareció una buena oportunidad. Fue por un interrogante, siempre me llamó la atención y me pasó de ir a restaurantes y ver a parejas comunicándose de esta forma, algo que me generaba curiosidad”, relató a este medio el joven que cursa el tercer año de la carrera.
En la actualidad, ya tiene un prototipo semifuncional para transformar el proyecto en una web app. “Es para que la IA pueda ser utilizada por cualquier persona desde sus teléfonos celulares. El problema con el que me enfrentaba es que para eso yo tenía que contratar un servicio de Cloud –red de servidores remotos conectados a internet- y como el proyecto está en una fase beta, de momento no me pareció muy idóneo contratarlo”, reconoció. Hasta el momento, el programa que diseñó puede reconocer cuatro términos básicos: “Hola”, “Chau”, “Por favor” y “Gracias”.
Respecto de la repercusión del tuit -que en cuestión de días superó los 200 mil Me gusta- admitió que no esperaba tener tanta difusión. “Ahora me organizo para la próxima etapa. En un principio, la idea sería hacer un formulario para que todo aquel que esté interesado se pueda sumar al proyecto. Ya me hablaron varias organizaciones vinculadas a personas que se comunican a través de la lengua de señas y quiero que trabajemos en conjunto. Ellos son fundamentales en el desarrollo porque la idea es entrenar más a la inteligencia artificial y hacerlo juntos”.
Además de mostrarse agradecido por el constante apoyo que recibe de sus profesores y compañeros de la universidad, piensa en frío por un momento y se da cuenta de lo que consiguió hasta el momento. “Me pondría muy contento si la gente que se comunica con lengua de señas se alegra y emociona, creo que es una forma muy linda de incluirlos”, expresó entusiasmado.
FUENTE: LA NACION