Please use this identifier to cite or link to this item: http://dspace.ups.edu.ec/handle/123456789/15225
Title: Prototipo de sistema de visión artificial en un vehículo aéreo no tripulado para la detección de órdenes gestuales
Authors: Bustillos Catota, Ana Belen
Farinango Defaz, Daniel Patricio
Advisor: Montalvo López, William Manuel
Keywords: PROGRAMAS PARA COMPUTADOR
TELECOMUNICACIONES
CONTROL AUTOMÁTICO
VEHÍCULOS AÉREOS NO TRIPULADOS
Issue Date: Feb-2018
Abstract: El presente proyecto de grado tiene como principal objetivo facilitar la navegación de una nave aérea no tripulada a través de una cámara y utilizando un sistema de visión artificial será capaz de reconocer patrones gestuales que permita controlar sus movimientos. Utilizando el cuadricóptero Ar dron 2.0 se desarrolló un sistema de control basado en gestos corporales que permite manejar los movimientos de translación utilizando visión artificial para identificar los gestos realizados con el torso y brazo de una persona captados por la cámara abordo y trasmitirlos hacia una estación fija es decir un computador portátil que permite procesar el flujo de video haciendo uso del software de Matlab el cual responderá con una acción de movimiento realizada por el operador. El método basado en la apariencia de la imagen permite seleccionar los comandos adecuados que se utilizaron para la creación de la base de datos y el diseño del sistema de vuelo. El sistema de control consta de tres eventos: despegue donde se accede a los pixeles centrales de la imagen y se espera a que las componentes RGB tenga un valor de cero, navegación se utiliza el método de adaptación de correlación para identificar los patrones y aterrizaje donde se extrae las coordenadas del centroide del operador y al salir de la zona de histéresis se procede a realizar dicha acción. Los resultados y factibilidad del sistema desarrollado se comprueban por varios usuarios comparándolo con el sistema convencional permitiendo observar y documentar la versatilidad del proyecto.
Description: The main objective of this degree project is to facilitate the navigation of the operator of an unmanned aerial vessel through a camera and using an artificial vision system will be able to recognize patterns made with the back and arm of a person fully identified. Using quadripopter Ar dron 2.0, a control system based on body gestures was developed that allows handling translation movements using artificial vision. The titling work allows to identify the gestures made with the torso and arm of a person captured by the camera on board and transmitted to a fixed station, that is to say, a portable computer that allows to process the video flow making use of the Matlab software. The method based on the appearance of the image allows selecting the appropriate commands that were used for the creation of the database and the design of the control system. The work carried out consists of three events: take off where the central pixels of the image are accessed and wait for the RGB components to have a value of zero, navigation is used to adapt the correlation method to identify the patterns and landing where it extracts the coordinates of the centroid of the operator and if they leave the hysteresis zone it proceeds to perform said action. The results and feasibility of the developed system are checked by several users comparing the proposed project with the conventional system allowing observing and documenting the versatility of the project.
URI: http://dspace.ups.edu.ec/handle/123456789/15225
Appears in Collections:Ingeniería Electrónica SUR - Tesis de Pregrado

Files in This Item:
File Description SizeFormat 
UPS - ST003427.pdfTexto completo3.49 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons