Desarrollo de un prototipo electrónico que guíe a persona invidentes en la recolección de objetos mediante audio y visión artificial

Para citar o enlazar este item, por favor use el siguiente identificador: http://dspace.ups.edu.ec/handle/123456789/17816
Título : Desarrollo de un prototipo electrónico que guíe a persona invidentes en la recolección de objetos mediante audio y visión artificial
Autor : Gutiérrez Gavilánez, Cristhian Andrés
Herrera Orbea, Hedian Xavier
Director de Tesis: Rumipamba López, José Alcides
Resumen traducido: In this document we present the work done to develop a prototype that guides visually impaired people through audio and artificial vision. For this purpose, a system was implemented based on a Raspberry Pi 3 model B + electronic card that acquires images of two webcams connected to its USB inputs and processes the captures to recognize a green object by marking its center with a red box. The given center is used in Cartesian coordinates (x, y) to calculate the angle of deviation of the object with respect to the web cameras. In addition, the stereo vision of the prototype is used to calculate the distance of the object with respect to the two video cameras. For this last case, experimental measurements were made to determine the equation that will calculate the distance. With the help of audio signals, people are guided to correct the angle of deviation of the object with respect to the cameras, and with the calculated distance, voice messages are generated that inform the user about the distance to the object. In addition, the results are presented in the tests carried out with the prototype, which were 70% assertive so that the person manages to take an object, using an average time of 4.8 seconds among the users and with a relative error of 3.7%. Through these satisfactory results, the authors' conclusions and recommendations regarding the operation of the prototype are presented.
Resumen : En este documento se expone el trabajo realizado para desarrollar un prototipo que guíe a personas discapacitadas visualmente mediante audio y visión artificial. Para tal efecto se implementó un sistema basado en una tarjeta electrónica Raspberry Pi 3 modelo B+ que adquiere imágenes de dos cámaras web conectadas a sus entradas USB y procesa las capturas para reconocer un objeto de color verde marcando su centro con un recuadro rojo. Se utiliza el centro dado en coordenadas cartesianas (x) para calcular el ángulo de desviación del objeto con respecto a las cámaras web. Además, se aprovecha la visión estéreo del prototipo para calcular la distancia del objeto con respecto a las dos cámaras de video. Para este último caso se realizaron mediciones experimentales para determinar la ecuación que calculará la distancia. Con la ayuda de señales de audio se guía a las personas para corregir el ángulo de desviación del objeto con respecto a las cámaras, y con la distancia calculada se generan mensajes de voz que le informan al usuario sobre la distancia que tiene hasta el objeto. Además, se presentan los resultados en las pruebas realizadas con el prototipo, los cuales fueron asertivos en un 70% para que la persona logre tomar un objeto, empleando un tiempo promedio de 4.8 segundos entre los usuarios y con un error relativo de 3.7%. Mediante estos resultados satisfactorios se presentan las conclusiones y recomendaciones de los autores con respecto al funcionamiento del prototipo.
Palabras clave : INGENIERÍA ELECTRÓNICA
INGENIERÍA DE PROTOTIPOS
INTELIGENCIA ARTIFICIAL
ASISTENCIA TÉCNICA
CIEGOS
Fecha de publicación : sep-2019
URI : https://dspace.ups.edu.ec/handle/123456789/17816
Idioma: spa
Pertenece a las colecciones: Grado

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
UPS - ST004357.pdfTexto completo1,3 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons