Tecnologías para la lengua de señas

¿Qué desafíos encuentran las nuevas aplicaciones informáticas y la inteligencia artificial para la inclusión social? TSS dialogó con especialistas que trabajan en dos proyectos diferentes destinados a facilitar la comunicación y el desarrollo de personas con problemas auditivos.

Por Vanina Lombardi  
__

Agencia TSS – En la Argentina, la discapacidad auditiva corresponde al 18% de las discapacidades, entre las cuales un 86,6% tiene que ver con la dificultad auditiva y un 13,4% con la sordera. Según datos del censo de 2010, estas discapaciades afecta a unas 200.000 personas, aunque se cree que esa cifra puede ser mayor, ya que muchas personas sordas pueden no haberse registrado. Para que estas últimas puedan comunicarse y desenvolverse socialmente con más facilidad, es importante no solo la detección temprana de esta condición sino también el acceso temprano a la lengua de señas.

Desde el año pasado, el lenguaje de señas ha sido reconocido mediante la Ley 27710/23 como “una lengua natural y originaria, que conforma un legado histórico inmaterial como parte de la identidad lingüística y la herencia cultural de las personas sordas, en todo el territorio de la Nación Argentina, y que garantiza su participación e inclusión plena”.

Diversos desarrollos tecnológicos buscan facilitar el aprendizaje y la comunicación a través de la Lengua de Señas Argentina (LSA). Una de ellas es LSA en familia, una aplicación de descarga gratuita desarrollada por Proyecto Dane, una de la líneas de trabajo de la Fundación TINC (Tecnología por la Inclusión Social), entidad sin fines de lucro especializada en el desarrollo de apps educativas para personas con discapacidad intelectual y auditiva, en colaboración con FUNDASOR (Fundación de Padres y Familiares de Personas Sordas para su Integración) y la empresa de tecnología Global Logic.

“El mes pasado lanzamos la cuarta versión para Android, con modificaciones y mejoras siempre vamos sumando, según las reseñas y sugerencias que nos dejan los usuarios”, afirma Pablo Fiuza, Presidente de Fundacion TINC, y adelanta que proximamente también estará disponible la cuarta versión para iOS. “En general solo hacemos estas aplicaciones para Android, pero en este caso su adopción fue tan masiva que decidimos desarrollarla también para iPhone”, destaca Fiuza, y detalla que esta aplicación ya tiene alrededor de 250.000 descargas.

Otro caso es un proyecto más ambicioso en el que están trabajando estudiantes, docentes e investigadores de la Universidad Nacional de Córdoba (UNC). Mediante el uso de inteligencia artificial esperan desarrollar un sistema que pueda traducir en tiempo real lo que una persona dice en lengua de señas, y que le permita también recibir la respuesta de su interlocutor.

“Nuestro objetivo es generar un producto que también permita, a partir de la ley aprobada el año pasado, sensibilizar a las personas en ese sentir y ayudar a formar talento humano tecnológico comprometido con una inteligencia artificial centrada en la persona y para el bien común”, dice la docente e investigadora Laura Cecilia Diaz Dávila, del Laboratorio de Investigación y Desarrollo de Software e Inteligencia Artificial (LIDeSIA) de la UNC, que coordina distintas líneas de investigación vinculadas a este proyecto.

LSA en familia es una aplicación de descarga gratuita desarrollada por Proyecto Dane, una de la líneas de trabajo de la Fundación TINC (Tecnología por la Inclusión Social). Foto: Gentileza Fundación TINC.

Aplicación gratuita para aprender en familia

LSA en familia surgió en 2017 a pedido de integrantes de FUNDASOR, que se acercaron a Fundación TINC y les comentaron sobre la dificultad de padres y madres oyentes que debían aprender la lengua de señas al enterarse de que su hijo o hija tenía sordera.

“La lengua de señas no es solamente los símbolos que podés ver en la aplicación, es una forma de razonar, una forma de pensar, y les resultaba muy difícil. Entonces, nos pedían si podíamos hacer algo y empezamos a investigar. Yo tenía un libro que en aquel entonces tenía unas 700 señas, que le daban a los padres pero que era una incomodidad terrible porque el objetivo era, básicamente, que si el padre o la madre no sabían alguna seña o no se acordaban, fueran al libro y la buscaran”, recuerda Fiuza.

Entonces, lo primero que decidieron hacer fue pasar el libro a una aplicación para el celular y, de ese modo, dejó de ser algo estático, ya que ahora había videos para cada seña. “Los videos los hacen intérpretes de FUNDASOR, nosotros siempre trabajamos con entidades de las personas interesadas”, aclara Fiuza, y agrega que, originalmente, pensaron esta aplicación para que padres y madres pudieran comunicarse con sus hijos no oyentes, pero con el tiempo se dieron cuenta que los usuarios empezaron a utilizarla para aprender la lengua de señas.

Así, LSA en familia se convirtió en una herramienta digital que ofrece acceso a las señas básicas a través de más de mil videos que muestran, con imágenes y escritura, cómo realizarlas, agrupadas en distintas categorías temáticas como casa, escuela, ropa, comida, cuerpo humano, tecnología, salud e incluso Educación Sexual Integral (ESI), que fue agregada recientemente.

Este desarrollo fue creado originalmente por la empresa Argentina Hexacta, que luego fue vendida a la empresa internacional Global Logic, que decidió continuar con el proyecto. Desde el comienzo, en él han participado alrededor de 30 voluntarios que trabajan ad honorem, siempre en conjunto con un intérprete avalado por FUNDASOR.

LSA en familia se convirtió en una herramienta digital que ofrece acceso a las señas básicas a través de más de mil videos que muestran, con imágenes y escritura, cómo realizarlas. Foto: Gentileza Fundación TINC.

Inteligencia artificial para las señas

“Tenemos un gran objetivo que es ofrecer un producto que sea permeable para la comunidad de sordos y que les ayude a sentirse comunicados en su entorno desde su primer momento de vida, y para eso hay que atravesar muchas barreras”, comenta Diaz Dávila, y aclara que en el laboratorio en el que trabaja hay cuatro áreas específicas que trabajan en distintas líneas de investigación que son transversales a ellas: ética e impacto de la inteligencia artificial, matemáticas para la inteligencia artificial, nuevas tendencias de software e inteligencia artificial e infraestructura tecnológica y datos. De un modo u otro, en algún momento del proceso todas han aportado para este proyecto vinculado a lengua de señas.

En particular, actualmente hay cuatro líneas de investigación vinculadas al desarrollo de interprete de lengua de señas, que van concretando micro objetivos dentro de un proyecto más abarcativo. “La primera motivación surgió por una invitación de una autora de la Universidad de Boyacá, en Colombia, con quien firmamos un convenio, y el año pasado se unió otro aliado más, también de ese país, de la Universidad Nacional de Colombia”, afirma Diaz Dávila, y advierte que las lenguas de señas, al igual que otros idiomas, cambian en cada país.

“Incluso en Colombia tienen dos lenguas de señas diferentes”, sostiene Díaz Dávila. “Entonces hay que ponerse en diálogo con la comunidad de sordos de cada país, de cada región, hay que ver cómo son los datos y cómo podemos usarlos, y todos esos interrogantes fueron dando lugar a estas líneas de investigación”, en las que actualmente participan alrededor de 15 especialistas.

En una segunda línea comenzaron a trabajar específicamente para la Argentina. Para eso cuentan con la colaboración de interpretes de la UNC, que trabajan con asesores no oyentes, que les permitieron generar un data set para entrenar a otro de los proyectos vinculados: el desarrollo de una aplicación a través de la cual las personas sordas puedan hacer señas y que estas sean traducidas y respondidas.

“Por ahora son palabras, no es continuo, y fue hecho sobre la arquitectura más nueva de inteligencia artificial”, detalla Díaz Dávila. La gran contribución de este trabajo es que los investigadores tomaron el modelo más potente y lo adaptaron para que funcione en LSA. “Para eso se enfrentaron al problema del data set, porque había que tomar nuevos datos ya que las IA generativas necesitan contexto y los datos públicos que había en la Argentina para entrenar a los modelos no se adaptaban a un contexto institucional de educación superior”, explica la especialista.

La tercera línea trabaja más en contacto con los intérpretes y la comunidad de personas sordas y ha realizado una búsqueda exhaustiva de antecedentes y una prueba con la herramienta que ellos manipulan mejor. Ese proyecto fue premiado este año en la 53 Jornadas Argentinas de Informática (JAIIO), que se desarrollaron en la Universidad Nacional del Sur, en Bahía Blanca.

“El gran problema es que es que la persona sorda tiene un comportamiento distinto, su forma de razonar es distinta porque tiene otra lengua y la tiene desde que nace y en su contexto pequeño. Por eso, no estamos apurados por sacar un producto que sea útil ya, sino que estamos ocupados por sacar un producto que sea importante”, concluye.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *