Este proyecto integra el uso y manipulación de un robot Motoman Yaskawa SDA10F con un sensor Kinect, este robot posee dos brazos con 7 grados de libertad cada uno, lo cual permite imitar los movimientos de los brazos humanos a partir de las referencias ingresadas a su controlador. Consiste en realizar un sistema de control servo visual, del tipo Dynamic look and move, el cual se compone de un sistema de visión, que permite la lectura de las posiciones a las cuales llegan los brazos humanos después de ejecutar los movimientos, estas posiciones son transformadas de tal manera que puedan ser leídas por el controlador del robot. En este proyecto se contempla como se realizó la extracción de las posiciones por medio del sensor Kinect, el envío de las posiciones al controlador del robot, como se realizó dicha comunicación, y la medición de estándares de desempeño del sensor Kinect al realizar la extracción de los puntos y el nivel de seguimiento por parte del robot de los puntos ingresados como referencias. El análisis del desempeño del sensor Kinect se hizo mediante la comparación de las posiciones obtenidas por medio de un sistema de movimiento Vicon y los datos obtenidos por medio del sensor Kinect, para el análisis del seguimiento del robot se usó el teach pendant del robot. Por último, y adicional a los trabajos ya mencionados se realizó una simulación que permitiera validar el seguimiento de los puntos extraídos por el sensor Kinect en un entorno de simulación.