Desarrollo de un sistema de reconocimiento para frases básicas del lenguaje de señas ecuatoriano utilizando visión por computadora

Para citar o enlazar este item, por favor use el siguiente identificador: http://dspace.ups.edu.ec/handle/123456789/32820
Title: Desarrollo de un sistema de reconocimiento para frases básicas del lenguaje de señas ecuatoriano utilizando visión por computadora
Authors: Cevallos Samaniego, Dayanna Paola
León Correa, Andrea Mariana
Advisor: Paillacho Corredores, Jonathan Salvador
Abstract: The main objective of this project is to develop an algorithm assisted by computer vision to recognize and translate Ecuadorian Sign Language (LSEC) into text in real time. This work arises from the need to support the more than 10 million people in Ecuador who live with hearing or speech disabilities. It is based on experiences observed in schools across the country, where teachers with mutism and students with hearing disabilities lack tools to communicate, aiming to optimize interaction and reduce learning barriers in the classrooms. For the capture of movements, the system uses the webcam to extract three-dimensional coordinates of the hands, face, and posture. For the training of the neural network, the LSTM (Long Short-Term Memory) architecture was used as the main tool; this technology excels in sequence recognition, as it helps process the movement of signs over time, allowing the system to identify complete sentences smoothly. The main components used were a computer with an internet connection, an HD camera, and an Arduino Uno for interface control. To run the code, the program captures sequences of 60 frames per gesture. Once the algorithm is started, if the camera does not detect a limb due to lack of light or sudden movement, the system automatically fills those gaps with zero arrays; this prevents the program from stopping due to missing information and ensures that the model receives consistent data for translation. Finally, the interface immediately displays on the screen the text of the recognized sign. During testing, the system achieved an accuracy of 96% in environments with artificial light and an overall average of 81.3%, confirming that it is a technically viable and cost-effective solution to improve users' communication in their daily lives.
Translated abstract: El presente proyecto tiene como objetivo principal desarrollar un algoritmo asistido por visión artificial para realizar el reconocimiento y traducción de la Lengua de Señas Ecuatoriana (LSEC) a texto en tiempo real. Este trabajo surge de la necesidad de apoyar a las más de 10 millones de personas en Ecuador que viven con discapacidad auditiva o de lenguaje. Se tomó como base la experiencia observada en escuelas del país, donde docentes con mutismo y estudiantes con discapacidad auditiva carecen de herramientas para comunicarse, buscando optimizar la interacción y reducir las barreras de aprendizaje en las aulas. Para la captura de los movimientos, el sistema utiliza la cámara web para extraer coordenadas tridimensionales de las manos, el rostro y la postura. Para el entrenamiento de la red neuronal se utilizó la arquitectura LSTM (Long Short-Term Memory) como herramienta principal; esta tecnología destaca en el reconocimiento de secuencias, ya que ayuda a procesar el movimiento de las señas a través del tiempo, permitiendo que el sistema identifique frases completas de forma fluida. Como componentes principales se utilizaron una computadora con conexión a internet, una cámara HD y un Arduino Uno para el control de la interfaz. Para ejecutar el funcionamiento del código, el programa captura secuencias de 60 fotogramas por cada gesto. Una vez iniciado el algoritmo, si la cámara no identifica una extremidad por falta de luz o movimiento brusco, el sistema rellena esos espacios con arreglos de ceros automáticamente; esto evita que el programa se detenga por falta de información y asegura que el modelo reciba datos constantes para la traducción. Para finalizar, la interfaz muestra en pantalla el texto de la seña reconocida de manera inmediata. Durante las pruebas, el sistema alcanzó una precisión del 96% en entornos con luz artificial y un promedio general del 81.3%, confirmando que es una solución técnica viable y económica para mejorar la comunicación de los usuarios en su vida diaria.
Keywords: VISIÓN ARTIFICIAL
SMAD
LENGUA DE SEÑAS
INCLUSIÓN TECNOLÓGICA
APRENDIZAJE AUTOMÁTICO
Issue Date: 2026
URI: http://dspace.ups.edu.ec/handle/123456789/32820
Language: spa
Appears in Collections:Grado

Files in This Item:
File Description SizeFormat 
UPS-GT007114.pdfTexto Completo1,72 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons