Show simple item record

dc.contributor.advisorBergasa Pascual, Luis Miguel 
dc.contributor.authorGómez Huélamo, Carlos 
dc.date.accessioned2019-11-08T17:09:14Z
dc.date.available2019-11-08T17:09:14Z
dc.date.issued2019
dc.identifier.urihttp://hdl.handle.net/10017/39970
dc.description.abstractEl presente trabajo propone una arquitectura software precisa y en tiempo real para el seguimiento de múltiples objetos basada en aprendizaje profundo (Deep Learning) en el contexto de la navegación autónoma. Se ha llevado a cabo una fusión sensorial entre el seguimiento visual 2D basado en los algoritmos CenterNet y Deep SORT [2] [49] usando una cámara y el clusterizado de la nube de puntos 3D procedent del LiDAR [11] sobre la plataforma de desarrollo robótico ROS y contenedores Docker. Se ha llevado a cabo una comparación entre el enfoque tradicional Precision-Tracking [46], tracking visual basado en Deep Learning y fusión sensorial con LiDAR comparando las posiciones estimadas para cada uno de ellos. Las propuestas han sido validadas en el benchmark de KITTI para seguimiento de vehículos [69], en el simulador de CARLA [31] para el seguimiento de peatones y en el campus de la Universidad de Alcalá sobre nuestro vehículo autónomo desarrollado en el proyecto SmartElderlyCar.es_ES
dc.description.abstractThe present work proposes an accurate and real-time Deep Learning based Multi-Object Tracking architecture in the context of self-driving applications. A sensor fusion is performed merging 2D visual tracking based on CenterNet and Deep SORT algorithms [2] [49] using a camera, and 3D proposals using LiDAR point cloud [11] over the ROS framework and Docker containers. A comparison between the traditional Precision-Tracking [46] strategy, Visual Object Tracking based on deep learning and sensor fusion approach with LiDAR is carried out comparing the obtained pose estimations for each of them. The proposals have been validated on KITTI benchmark dataset for vehicle tracking [69], on CARLA simulator [31] for pedestrian tracking and on the Campus of the University of Alcalá using our autonomous vehicle developed for the SmartElderlyCar project.en
dc.format.mimetypeapplication/pdfen
dc.language.isoengen
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/en
dc.subjectSeguimiento de múltiples objetoses_ES
dc.subjectDeep Learningen
dc.subjectROS (Robot Operating System)en
dc.subjectCARLA (Car Learning to Act)en
dc.subjectSmartElderlyCaren
dc.subjectMulti-Object Trackingen
dc.titlePredictive Techniques for Scene Understanding by using Deep Learningen
dc.typeinfo:eu-repo/semantics/masterThesisen
dc.subject.ecienciaIngeniería industriales_ES
dc.subject.ecienciaIndustrial engineeringen
dc.contributor.affiliationUniversidad de Alcalá. Escuela Politécnica Superiores_ES
dc.type.versioninfo:eu-repo/semantics/acceptedVersionen
dc.description.degreeMáster Universitario en Ingeniería Industrial (M141)es_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccessen


Files in this item

Thumbnail

This item appears in the following Collection(s)

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Este ítem está sujeto a una licencia Creative Commons.