Show simple item record

dc.contributor.advisorPizarro Pérez, Daniel 
dc.contributor.advisorMarrón Romera, Marta 
dc.contributor.advisorGatica Pérez, Daniel
dc.contributor.authorMarcos Ramiro, Álvaro 
dc.date.accessioned2014-10-08T11:03:05Z
dc.date.available2014-10-08T11:03:05Z
dc.date.issued2014
dc.identifier.urihttp://hdl.handle.net/10017/20557
dc.description.abstractEn esta tesis se trata el problema de la extracción automática de la comunicación no verbal en un contexto conversacional, gracias a distintos métodos de visión computacional. La comunicación no verbal juega un papel significativo en la percepción social de las personas, por lo que ha sido ampliamente analizado en psicología. Sin embargo, tradicionalmente ha sido necesaria la presencia de una persona que juzgue las características percibidas de los sujetos (es decir, un anotador), lo que supone una tediosa tarea e inconsistencias entre distintos evaluadores. Para tratar este problema, un elemento clave es el uso de métodos automáticos que permitan la abstracción sobre los anotadores, dotando de consistencia a los estudios de comportamiento. Abordamos esta tarea gracias a la captura de movimiento humana sin marcadores. La captura de movimiento sin marcadores consiste en la extracción de la posición de distintas partes del cuerpo a partir de imágenes y vídeos. Aunque existen sensores físicos aplicables directamente sobre los sujetos, han demostrado comprometer la naturalidad de los movimientos, algo fundamental a la hora de analizar el comportamiento conversacional. Existen tres configuraciones en captura de movimiento sin marcadores: multi-cámara, cámara única, y cámara de profundidad. En esta tesis realizamos contribuciones en todas. Primero se ha propuesto un método multi-cámara basado en la reconstrucción 3D del entorno mediante Visual Hull. Utilizamos regresores no lineales para simplificar la búsqueda de la pose humana en el espacio altamente dimensional. De esta forma, conseguimos seguir múltiples personas simultáneamente con un único estimador. Y, gracias a un proceso de refinamiento, mejoramos la generalización. Después, se ha desarrollado un método con cámara única, utilizando la idea de ?saliencia? de manos: asumiendo que las manos son la parte de la imagen que más rápido se mueve a lo largo de una secuencia, hemos desarrollado nuevos seguidores basados en árboles de decisiones. Posteriormente se ha extendido este método con la información proporcionada por una cámara de profundidad. Finalmente, se ha desarrollado un método altamente invariante a la apariencia en el caso también de cámara única. Gracias al flujo óptico denso y un detector de torso, se ha obtenido la configuración de la pose a partir de la clasificación de las distintas partes corporales en la imagen. Hemos evaluado todas las contribuciones con bases de datos públicas y privadas, obteniendo o mejorando precisiones de estado del arte. Adicionalmente, se han aplicado algunas de las ideas de los métodos mencionados para inferir una serie de variables sociales, a partir de una base de datos que contiene entrevistas de trabajo reales. Se han extraído y agregado una serie de características anotadas manualmente u obtenidas automáticamente, y se ha demostrado la correlación entre ellas y distintos rasgos de personalidad o rendimiento laboral. Finalmente, se ha conseguido predecir algunos de estos rasgos mediante un regresor.es_ES
dc.format.mimetypeapplication/pdfes_ES
dc.language.isoenges_ES
dc.subjectComunicación no verbales_ES
dc.subjectInteligencia artificiales_ES
dc.subjectComunicación no verbales_ES
dc.titleAutomatic body communication extraction through markerless motion capturees_ES
dc.typeinfo:eu-repo/semantics/doctoralThesisen
dc.subject.ecienciaElectrónicaes_ES
dc.subject.ecienciaPsicologíaes_ES
dc.subject.ecienciaElectronicsen
dc.subject.ecienciaPsychologyen
dc.contributor.affiliationUniversidad de Alcalá. Departamento de Electrónicaes_ES
dc.type.versioninfo:eu-repo/semantics/acceptedVersionen
dc.rights.accessRightsinfo:eu-repo/semantics/openAccessen


Files in this item

Thumbnail

This item appears in the following Collection(s)