Multi-modal interface for offline robot programming
Authors
García Morcillo, ÁlvaroDate
2018Keywords
Multi-Modal Interface
Offline programming
Leap Motion Sensor
Robot Studio
Speech
Document type
info:eu-repo/semantics/masterThesis
Version
info:eu-repo/semantics/acceptedVersion
Rights
Attribution-NonCommercial-NoDerivatives 4.0 Internacional
Access rights
info:eu-repo/semantics/openAccess
Abstract
This thesis presents an approach for improving robot offline programming using input methods based on
the human natural skills. The approach is focused to teach basic assembly and manipulation operations
using a pair of industrial robots in an existing simulation environment and is meant to be improved in
future works, that are also proposed in this thesis.
In order to develop this approach, and regarding the available resources, an Add-In for the simulation
and offline programming software RobotStudio was developed. This Add-In combines human pose, a
graphical user interface and optionally speech to teach the robot a sequence of targets, along with the
simulation environment, to automatically generate instructions.
Two different kinds of sensors, Kinect and Leap Motion Sensor have been evaluated based on references
in order to select the most suitable one for the implementation of this work.
The executions of the programmed instructions have been evaluated in simulation. Este trabajo presenta una propuesta para mejorar al programación de robots fuera de línea usando
métodos de entrada basados en habilidades humanas naturales. La propuesta se enfoca en enseñar
operaciones básicas de ensamblaje y manipulación, utilizando un par de robots industriales en un entorno
de simulación ya existente y se dispone para ser mejorado en trabajos futuros, los cuales también se
proponen en este trabajo.
Con el fin de desarrollar esta propuesta y teniendo en cuenta los recursos disponibles, se ha desarrollado
un Add-In para el programa de simulación y programación fuera de línea Robot Studio. Este Add-In
combina pose humana, una interfaz gráfica de usuario y opcionalmente habla para enseñar al robot una
secuencia de objetivos junto con el entorno de simulación para automáticamente generar instrucciones.
Dos diferentes tipos de sensores, Kinect y Leap Motion Sensor han sido evaluados en base a referencias
para seleccionar el más adecuado para la implementación de este trabajo.
Las ejecuciones de las instrucciones programadas han sido evaluadas en simulación.
Files in this item
Files | Size | Format |
|
---|---|---|---|
TFM_García_Morcillo_2018.pdf | 9.897Mb |
|
Files | Size | Format |
|
---|---|---|---|
TFM_García_Morcillo_2018.pdf | 9.897Mb |
|