TRADUSEÑAS:

SISTEMA DE TRADUCCIÓN DE LENGUAJE DE SEÑAS MEXICANO A TEXTO

DOI: https://doi.org/10.51896/tectzapic/NRUO1487

Fecha recibido: 23/03/2026 | Fecha publicado: 23/03/2026 | Fecha corregido: 23/03/2026 |

Autores

Castillo Bautista, N.M; García Villedas, J: Posada del Toro, L,A; Delgado Meraz, J.J.

RESUMEN          

 En México, cerca de 2.3 millones de personas viven con algún tipo de discapacidad auditiva, y su principal medio de expresión es la Lengua de Señas Mexicana (LSM). Sin embargo, comunicarse con personas oyentes sigue siendo un obstáculo cotidiano, sobre todo por la escasez de intérpretes certificados. Ante esta realidad, el presente trabajo propone TRADUSEÑAS, un prototipo portátil que captura movimientos de los dedos mediante cinco sensores flexibles integrados en un guante, los procesa con un microcontrolador Arduino Uno y los clasifica en Python con técnicas de aprendizaje automático. Las pruebas realizadas con 30 señas del alfabeto manual de la LSM arrojaron una precisión superior al 85% y una latencia de respuesta de entre 1 y 2 segundos. La evaluación con 10 usuarios —cinco con discapacidad auditiva y cinco oyentes— reportó un 80% de satisfacción general. Los resultados validan TRADUSEÑAS como una alternativa accesible y de bajo costo para reducir barreras comunicativas y favorecer la inclusión social.

     Palabras clave: Lenguaje de señas mexicano, tecnologías de asistencia, sensores flexibles, inclusión social, aprendizaje automático.

 TRADUSEÑAS: MEXICAN SIGN LANGUAGE TRANSLATION SYSTEM TO TEXT

Abstract

 In Mexico, approximately 2.3 million people live with some degree of hearing disability, and their primary means of communication is Mexican Sign Language (MSL). Nevertheless, day-to-day interaction with hearing people remains a persistent challenge, mainly due to the shortage of certified interpreters. To address this gap, this paper introduces TRADUSEÑAS, a wearable prototype that captures finger movements through five flexible sensors embedded in a glove, processes the signals with an Arduino Uno microcontroller, and classifies them in Python using machine-learning algorithms. Tests covering 30 signs from the MSL manual alphabet yielded accuracy above 85% and a response latency of 1–2 seconds. A usability evaluation with 10 participants —five deaf and five hearing— reported 80% overall satisfaction. The results support TRADUSEÑAS as an affordable, accessible alternative for reducing communication barriers and fostering social inclusion.

 Key words: Mexican sign language, assistive technologies, flexible sensors, social inclusion.

Abrir PDF
Esta revista provee acceso libre inmediato a su contenido bajo el principio de poner disponible gratuitamente toda la información posible.

Este obra está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.