Show simple item record

dc.contributor.advisorGarcía Daza, Iván 
dc.contributor.authorOliveros Fernández, Jesús Ángel 
dc.date.accessioned2021-09-13T09:14:02Z
dc.date.available2021-09-13T09:14:02Z
dc.date.issued2021
dc.identifier.urihttp://hdl.handle.net/10017/49368
dc.description.abstractEl empleo de técnicas de aprendizaje por refuerzo para optimizar sistemas de conducción autónoma está en constante crecimiento en la actualidad. Los objetivos de este proyecto están basados en mejorar el comportamiento de un controlador MPC de trayectorias de un vehículo autónomo mediante el uso de técnicas de aprendizaje por refuerzo para estimar el valor óptimo de los pesos de la función de costes del MPC asociados al error de distancia lateral y de yaw. El proyecto se inicia desde una versión del controlador MPC en la que los pesos de error de distancia lateral y de yaw (wd y wy respectivamente) tomaban ambos un valor de 10000. Estos valores obtenidos experimentalmente no presentaban errores altos, aunque aun así se propuso encontrar los valores de pesos óptimos que consiguiesen mejorar el comportamiento del vehículo reduciendo en mayor parte ambos errores a lo largo de la trayectoria. Tras un estudio teórico de las técnicas de aprendizaje por refuerzo, se escogió el algoritmo Actor - Critic por sus similitudes de funcionamiento con las características del problema a resolver. Inicialmente se realizaron una serie de ensayos sobre el entorno de simulación CartPole para entender su funcionamiento y posteriormente implementarlo sobre el sistema del controlador MPC y analizar su comportamiento en el entorno de simulación de vehículos CARLA. El peso asociado al error de distancia lateral fue el primero en ser optimizado buscando así unos valores de este peso que consiguieran reducir lo máximo posible dicho error. Después, fue modificada la arquitectura del MPC y hubo que adaptar el algoritmo Actor - Critic a esta nueva versión para estimar unos nuevos valores de pesos óptimos de error de distancia lateral. Por último, de forma similar, en la versión final del controlador MPC se procedió a optimizar el error de yaw del vehículo de nuevo con el algoritmo Actor - Critic obteniendo un rango de valores de peso de error de yaw que consiguiesen reducir su error respecto a la versión original del MPC. En ambos casos se obtienen unos resultados bastante favorables que consiguen reducir significativamente los errores originales de distancia lateral y de yaw del MPC respecto a su versión original, además de ofrecer una respuesta mucho más suave del sistema, resultado así de una conducción más agradable y segura para los integrantes del vehículo.es_ES
dc.description.abstractThe use of Reinforcement Learning techniques to optimize autonomous driving systems is constantly increasing nowadays. The objectives of this project are based on improving the performance of an MPC controller of trajectories of an autonomous vehicle by using Reinforcement Learning techniques to estimate the optimal value of the weights of the cost function of the MPC related to the lateral distance and yaw error. The project begins since an initial MPC controller version in which the weights of lateral distance and yaw (wd and wy respectively) were both 10000. These values experimentaly obtained do not reach to high errors, although it was proposed to search the optimal values of them that will get a better performance of the vehicle decreasing as much as posible both errors over all the trajectory. After a theoretical study of the different Reinforcement Learning techniques, it was chosen the Actor - Critic algorithim due to the similarities of its operation characteristics according to the problem to solve. At the beginning, there were tested some trials over the CartPole enviroment in order to understand its performance and then code it in the complete system with the MPC controller and analyze its performance over the simulation enviroment of autonomous vehicles CARLA. The weight related to the lateral distance error was the first to be optimized by searching the weights values that decreases it as much as possible. Afterwards, it was modified the architecture of the MPC controller and the Actor - Critic algorithim had to be modified also in order to adapt it to the new version of the MPC to search the new optimal weight values of lateral distance error. Finally, in a similar way, in the last version of the MPC controller there was obtained also with the Actor - Critic algorithim the optimal values of the weight associated to the yaw error that decrease as much as possible this error respect to the original version of the MPC. In both cases there were obtained excellent results that significantly decrease the original errors of lateral distance and yaw of the MPC, besides their offer an smoothness system response that leads to a more confortable and secure driving for the integrals of the vehicle.en
dc.format.mimetypeapplication/pdfen
dc.language.isospaen
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectControladores_ES
dc.subjectOptimizaciónes_ES
dc.subjectErrores_ES
dc.subjectLaterales_ES
dc.subjectControlleren
dc.subjectOptimizationen
dc.subjectYawen
dc.titleControlador MPC adaptativo por DQN orientado a la conducción autónomaes_ES
dc.typeinfo:eu-repo/semantics/bachelorThesisen
dc.subject.ecienciaElectrónicaes_ES
dc.subject.ecienciaIngeniería industriales_ES
dc.subject.ecienciaElectronicsen
dc.subject.ecienciaIndustrial engineeringen
dc.contributor.affiliationUniversidad de Alcalá. Escuela Politécnica Superiores_ES
dc.type.versioninfo:eu-repo/semantics/acceptedVersionen
dc.description.degreeGrado en Ingeniería en Electrónica y Automática Industriales_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccessen


Files in this item

Thumbnail

This item appears in the following Collection(s)

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Este ítem está sujeto a una licencia Creative Commons.