Browsing by Author "Tejada Begazo, María Fernanda"
Now showing 1 - 3 of 3
Results Per Page
Sort Options
Item Control visual de un brazo manipulador con 7GDL, en base a visión monocular, para el seguimiento de objetivos(Universidad Católica San Pablo, 2018) Tejada Begazo, María Fernanda; Barrios Aranibar, DennisLa necesidad de incrementar la producción de las grandes empresas en la Primera Revolución Industrial permitió el desarrollo de nuevas máquinas, tecnologías y actividades, configurando el entorno perfecto para la aplicación de máquinas y procedimientos autónomos como los brazos manipuladores. En la última década se han ampliado las actividades que realizan los brazos manipuladores a diversas áreas como rescate, medicina e industria aeroespacial. La principal tarea de un brazo manipulador es alcanzar un objetivo por medio de sus elementos perceptivos. Esta tarea conlleva escoger los sensores necesarios para percibir el mundo tomando en cuenta el costo, el peso y el espacio. En esta investigación se dará solución a este problema con el uso de un sensor de visión, es decir una cámara. El mecanismo de control que se presenta se basa en dividir el movimiento tridimensional en dos movimientos sobre dos planos: Uno de estos planos es el mismo que el plano de la cámara (plano XY ) y el otro plano será perpendicular al primero y se refiere a la profundidad (plano XZ). El movimiento del objetivo en el plano de la cámara será calculado por medio del flujo óptico, es decir la traslación del objetivo del tiempo t al t + 1 en el plano XY . En cambio, el movimiento en el plano de la profundidad se estimará mediante el filtro de Kalman usando las variaciones de la traslación obtenida del flujo óptico y de la rotación dada por la matriz de cinemática directa. Finalmente, el movimiento planificado en cada plano se ejecutará de forma intercalada infinitesimalmente, obteniendo así un movimiento continuo para los tres ejes coordenados (XY Z). Los resultados experimentales obtenidos, han demostrado que se realiza un camino limpio y suavizado. Se han llevado a cabo pruebas con diferentes intensidades de iluminación, mostrando un error promedio de la trayectoria de movimiento de µx,y,z = 5.05, 4.80, 3.0 en centímetros con iluminación constante, por lo que se tiene una desviación estándar σx,y,z = 2.21, 2.77, 1.45 en centímetros. Al obtener resultados satisfactorios en las pruebas elaboradas. Se puede concluir que es posible solucionar el problema del movimiento tridimensional de un brazo manipulador dividiéndolo en dos subproblemas que trabajan en planos perpendiculares. Esta solución nos proporciona una trayectoria suave, ya que el mecanismo de control se realiza en cada instante de tiempo obteniendo un movimiento natural.Item Mixed Reality Applied to the Teleoperation of a 7-DOF Manipulator in Rescue Missions(Institute of Electrical and Electronics Engineers Inc., 2016) Lovon Ramos, Percy; Ripas Mamani, Roger; Rosas Cuevas, Yessica; Tejada Begazo, María Fernanda; Marroquin Mogrovejo, Renato; Barrios Aranibar, DennisThe need for complementing robot's autonomy behaviour with human reasoning has made robot teleoperation a research topic for more than fifty years. And while most of the research work usually deploys a master-slave architecture for controlling robots (whether using a joystick and/or desktop computer), recently Mixed Reality has come into play. This is because it is able to improve the teleoperator's view with less bandwidth consumption than traditional teleoperation architectures. In this paper a new approach for teleoperating a manipulator is presented. The virtual representation of the manipulator is made by using encoder sensors, and also, a camera image is displayed through an Android interface to complement the teleoperator's view. We can show with our results that the real positions of the manipulator and the virtual model are closed to be the same with some differences due to the transmission time delay which is minimum. © 2016 IEEE.Item People Detection and Localization in Real Time during Navigation of Autonomous Robots(Institute of Electrical and Electronics Engineers Inc., 2016) Lovon Ramos, Percy; Rosas Cuevas, Yessica; Cervantes Jilaja, Claudia; Tejada Begazo, María Fernanda; Patiño Escarcina, Raquel Esperanza; Barrios Aranibar, DennisCurrently the navigation involves the interaction of the robot with its environment, this means that the robot has to find the position of obstacles (natural brands and artificial) with respect to its plane. Its environment is time-variant and computer vision can help it to localization and people detection in real time. This article focuses on the detection and localization of people with respect to plane of the robot during the navigation of autonomous robot, for people detection is used Morphological HOG Face Detection algorithm in real-time, where our goal is to localization people in the plane of the robot, obtaining position information relative to the X-Axis (left, right, obstacle) and with the Y-Axis (near, medium, far) with respect robot, to identify the environment in that it's located in the robot is applied the vanishing point detection. Experiments show that people detection and localization is better in the medium region (201 to 600 cm) obtaining 93.13% of accuracy, this allows the robot has enough time to evade the obstacle during navigation, the navigation getting 97.03% of accuracy for the vanishing point detection. © 2016 IEEE.