Show simple item record

dc.contributor.advisorBergasa Pascual, Luis Miguel 
dc.contributor.authorRomera Carmena, Eduardo 
dc.date.accessioned2020-05-13T07:54:17Z
dc.date.available2020-05-13T07:54:17Z
dc.date.issued2018
dc.identifier.urihttp://hdl.handle.net/10017/42710
dc.description.abstractLos vehículos autónomos son uno de los retos más importantes de nuestra era. Sin embargo, para tenerlos funcionando en nuestras calles, necesitan conducir al menos de forma tan segura y precisa como los humanos. Desarrollar buenas capacidades de percepción para entender el entorno de conducción es esencial para lograrlo. Esta tesis busca aprovechar los avances recientes en visión computacional y técnicas de aprendizaje profundo para proveer a un coche de un entendimiento completo de la escena de conducción a partir de imágenes. Desarrollada en el contexto de un proyecto para construir un coche eléctrico autónomo en el campus, la eficiencia, precisión y robustez se han tenido en mente para proveer una solución realista. Proponemos unificar las tareas de percepción con una red convolucional de fin-a-fin (``end-to-end'') que obtiene segmentación semántica (i.e. clasificación de clases pixel a pixel) en imágenes de gran tama\~no de forma tanto eficiente como precisa. Además de testear en datasets existentes, analizamos concienzudamente y mejoramos la robustez de nuestro método en imágenes del mundo real que no fueron vistas durante el entrenamiento, de forma que pueda funcionar correctamente en un entorno real. Adicionalmente, nuestra red convolucional propuesta, ERFNet, se ha usado exitosamente en otros trabajos colaborativos tales como la asistencia a los discapacitados visuales usando gafas inteligentes. Todo el código es open-source y el trabajo derivado de esta tesis ha sido publicado en diversas conferencias y revistas de reconocido prestigio.es_ES
dc.format.mimetypeapplication/pdfen
dc.language.isoengen
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectInteligencia Artificiales_ES
dc.subjectSistemas en Tiempo Reales_ES
dc.subjectRobóticaes_ES
dc.subjectVisión Artificiales_ES
dc.titleSemantic 3D scene understanding for autonomous vehicles using deep learninges_ES
dc.typeinfo:eu-repo/semantics/doctoralThesisen
dc.subject.ecienciaElectrónicaes_ES
dc.subject.ecienciaElectronicsen
dc.contributor.affiliationUniversidad de Alcalá. Departamento de Electrónicaes_ES
dc.contributor.affiliationUniversidad de Alcalá. Programa de Doctorado en Sistemas Electrónicos Avanzados. Sistemas Inteligenteses_ES
dc.type.versioninfo:eu-repo/semantics/acceptedVersionen
dc.rights.accessRightsinfo:eu-repo/semantics/openAccessen


Files in this item

Thumbnail

This item appears in the following Collection(s)

Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Este ítem está sujeto a una licencia Creative Commons.