Simulación de estrategias de optimización de producción usando reinforcement learning
Para citar o enlazar este item, por favor use el siguiente identificador:
http://dspace.ups.edu.ec/handle/123456789/29010Full metadata record
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.advisor | Mollocana Lara, Juan Gabriel | - |
| dc.contributor.author | Jara Freire, Esteban Mateo | - |
| dc.date.accessioned | 2024-10-08T13:39:48Z | - |
| dc.date.available | 2024-10-08T13:39:48Z | - |
| dc.date.issued | 2024 | - |
| dc.identifier.uri | http://dspace.ups.edu.ec/handle/123456789/29010 | - |
| dc.description | En este estudio se evalúa dos algoritmos entrenados mediante Reinforcement Learning en un ambiente de simulación del proceso de cambio de dientes de tres modelos de sierras circulares. Para las simulaciones se tomó en cuenta datos reales del proceso, incluyendo los tiempos de procesamiento específicos para cada tipo de sierra. En total se realizan tres simulaciones diferentes del proceso. La primera simulación se simula el proceso original como lo indica el documento de donde se obtuvieron los datos. En la segunda simulación, se aplica un algoritmo entrenado para optimizar el orden de selección de tipos de sierras y aumentar las unidades procesadas dentro de una sesión de trabajo. Por último, la tercera simulación utiliza un algoritmo entrenado para modificar la prioridad de las estaciones de trabajo con el fin de reducir los tiempos muertos de los operadores. Para evaluar el rendimiento de los algoritmos entrenados, se compararon las unidades procesadas dentro de una sesión normal de trabajo de 8 horas, y los tiempos muertos de los trabajadores. Se llevaron a cabo 100 iteraciones diferentes para cada simulación, en donde se recolectaron los datos para su interpretación y comparación mediante pruebas de hipótesis. Finalmente, de acuerdo con los resultados obtenidos el algoritmo de optimización en la selección de tipos de sierras efectivamente mejoró la productividad del proceso. En contraste, el algoritmo de priorización de estaciones no mostró mejoras significativas en este aspecto. Además, ambos algoritmos no lograron reducir los tiempos muertos de los operarios. | spa |
| dc.description.abstract | In this study, two algorithms trained using Reinforcement Learning are evaluated in a simulation environment for a process of changing saw blades among three different saw models. The simulations took into account real data from the process, which includes processing times for each process depending on the type of saw. A total of three different simulations of the process were conducted: the first simulation was the original simulation where the process was simulated as described in the document from which the data were obtained; for the second simulation, an algorithm trained to apply a strategy for selecting saw types to process and increase the number of units processed within a work session was implemented; and finally, for the third simulation, an algorithm trained to modify the priority of workstations to reduce operator downtime was applied. To evaluate the performance of the trained algorithms, the main comparison metrics were the number of units processed during a normal work session (8 hours) and the downtime of the workers. For this purpose, 100 different iterations were performed for each simulation, from which data were collected for interpretation and comparison. The productivity results showed that the saw type selection algorithm improved upon the procedure simulation, whereas the process prioritization algorithm did not achieve any improvements. Unfortunately, no improvements in operator downtime were observed. | spa |
| dc.language.iso | spa | spa |
| dc.rights | openAccess | spa |
| dc.rights | Atribución-NoComercial-SinDerivadas 3.0 Ecuador | * |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/ec/ | * |
| dc.subject | INGENIERÍA INDUSTRIAL | spa |
| dc.subject | REINFORCEMENT LEARNING | spa |
| dc.subject | INTELIGENCIA ARTIFICIAL | spa |
| dc.subject | PRODUCCIÓN | spa |
| dc.title | Simulación de estrategias de optimización de producción usando reinforcement learning | spa |
| dc.type | bachelorThesis | spa |
| ups.carrera | Ingeniería Industrial | spa |
| ups.sede | Sede Quito | spa |
| Appears in Collections: | Grado | |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| TTQ1832.pdf | Texto completo | 2,11 MB | Adobe PDF | View/Open |
This item is licensed under a Creative Commons License