Control Embebido de Robots Móviles con Recursos Limitados Basado en Flujo Óptico
DOI:
https://doi.org/10.1016/j.riai.2011.06.012Palabras clave:
control de movimiento, flujo óptico, sistemas robotizados, recursos limitados, control de robotsResumen
Desde el punto de vista de la robótica móvil, la visión artificial juega un papel muy importante para obtener información global del entorno imprescindible para, por ejemplo, la generación automática de trayectorias o la evitación de obstáculos. Mediante técnicas de flujo óptico de visión artificial se puede obtener la estimación de movimientos del observador y de objetos, la estructura de éstos, el entorno, etc.
Desde el punto de vista de la implementación, la carga computacional que presenta un algoritmo para el cálculo del flujo óptico es elevada, lo que suele provocar problemas para su utilización en aplicaciones de robótica móvil, aviones y/o helicópteros autoguiados, robots submarinos, etc.
En este artículo se presenta la implementación realizada de un control de movimiento basado en el flujo óptico de un micro robot móvil con recursos muy limitados. Además, los resultados obtenidos con este robot son extrapolables a cualquier otro tipo de sistemas móviles.
Descargas
Citas
Aires K.R.T., A.M. Santana y A.D. Medeiros (2008). Optical Flow Using Color Information. ACM New York, NY, USA.
Barron J.L., S.S. Beauchemin y D. J. Fleet, (1994). On optical flow. AIICSR.
Barron J.L., D.J. Fleet y S.S. Beauchemin (1994). Performance of optical flow techniques. Int. J. of Computer Vision, vol. 12, n. 1, pp 43-77.
Barron J.L. y N.A. Thacker (2005). Tutorial: Computing 2D and 3D Optical Flow. Tina Memo No. 2004-012, 2005.
Beauchemin S.S. y J.L. Barron (1995). The computation of optical flow. ACM New York, USA.
Bonin-Font F., A.Ortiz y G. Oliver (2008). Visual Navigation for Mobile Robots: A Survey, J. Intell. Robotics Syst, vol 53, n 3, pp. 263-296.
Braillon C., C. Pradalier, J.L. Crowley y C. Laugier (2006). Real-time moving obstacle detection using optical flow models. Intelligent Vehicles Symposium, pp. 466-471.
Brown C.M. (1987). Advances in Computer Vision. Ed. Lawrence Erlbaum Associates.
Bruhn A., J. Weickert, T. Kohlberger y C. Schnörr (2006). A multigrid platform for real-time motion computation with discontinuitypreserving variational methods. International Journal of Computer Vision, vol 70, n 3, pp. 257 -277.
Corke P.I. (1994). Visual control of robot manipulators – a review. En Visual servoing. Ed. Singapore: World Scientific, pp. 1-32.
De Castro E. y C. Morandi (1987). Registration of Translated and Rotated Images Using Finite Fourier Transforms. IEEE Transactions on pattern analysis and machine intelligence
Fleet D.J. y A.D. Jepson (1990). Computation of component image velocity from local phase information. IJCV, vol. 5, n. 1, pp 77-104.
Humphreys G. y V. Bruce (1989). Visual Cognition: Computational, Experimental, and Neuropsychological Perspectives. Psychology Press.
Glocker B., N. Komodakis, G. Tziritas, N. Navab y N. Paragios (2008). Dense Image Registration through MRFs and Efficient Linear Programming. Medical Image Analysis Journal.
Horn B.K.P. y B.G. Schunck, (1981). Determining optical flow. Artificial Intelligence, vol. 17, pp 185-203.
Koenderink J.J. y A.J. Van Doorn (1987). Facts on optic flow. Biological Cybernetics,vol. 56, n. 4, pp. 247-254.
Lei C. y Y.H. Yang (2009). Optical flow estimation on coarse-to-fine region-trees using discrete optimization. 12th IEEE Int. Conference on Computer Vision. pp. 1562 – 1569.
Lookingbill A., J. Rogers, D. Lieb, J. Curry y S. Thrun (2007). Reverse optical flow for self-supervised adaptive autonomous robot navigation, International Journal of Computer Vision 74 (3) pp. 287–30.
Low T. y G. Wyeth (2005). Obstacle detection using optical flow. Australasian Conference on Robotics and Automation, pp. 1–10
Lucas B.D. y T. Kanade (1981). An iterative image registration technique with an application to stereo vision. DARPA Proceedings of Image Understanding workshop, pp 121-130.
McCarthy C. y N. Barnes (2004). Performance of optical flow techniques for indoor navigation with a mobile robot. In Int. Conf. on Robotics and Automation (ICRA Q04), pp. 5093-5098.
Mondada F., M. Bonani, X. Raemy, J. Pugh, C. Cianci, A. Klaptocz, S. Magnenat, J.-C. Zufferey, D. Floreano y A. Martinoli. (2009). The epuck, a robot designed for education in engineering. Proceedings of the 9th Conference on Autonomous Robot Systems and Competitions, pp. 59–65.
Murray D.W. y B.F. Buxton (1990). Experiments in the machine interpretation of visual motion. Ed. MIT Press. Cambridge, Massachusetts.
MPLAB Integrated Development Environment (2010). Disponible en: http://www.microchip.com/stellent/ idcplg?IdcService=SS_GET_PAGE&nodeId=1406&dDocName=en01 9469&redirects=mplab.
MPLAB C Compiler for Academic Use (2010). Disponible en: http://www.microchip.com/stellent/ idcplg?IdcService=SS_GET_PAGE&nodeId=1406&dDocName=en53 6656.
Reddy B.S. y B.N. Chatterji, (1996). An FFT-based technique for translation, rotation, and scale-invariant image registration. IEEE Transactions on Image Processing, vol. 5, n. 8, pp. 1266-1271.
Romero H., S. Salazar, J. Escareño y R. Lozano (2010). Fusión de Flujo Óptico y Sensores Inerciales para la Estabilización de un Mini Helicóptero de Cuatro Rotores. RIAI, vol.7, n. 2, pp. 49-56.
Srinivasan M.V. (1994). An image interpolation technique for the computation of optic flow and egomotion. Biological Cybernetic, vol. 71, pp. 401-416.
Tiny PIC bootloader (2010). Disponible en: http://www.etc.ugal.ro/cchiculita/software/picbootloader.htm
Uras S., F. Girosi, A. Verri y V. Torre (1988). A computational approach to motion perception. Biological Cybernetics, vol. 60, pp 79-87.
Weickert J., A. Ruhn y C. Schnörr (2005). Lucas/Kanade meets Horn/Schunck: Combining local and global optic flow methods. Int. J. Comput. Vis., vol. 61, no. 3, pp. 211–231.
Zufferey J.C. (2005). Bio-inspired vision-based flying robots, PhdThesis, École Polytechnique Fédérale de Lausanne.
Descargas
Cómo citar
Número
Sección
Licencia
Esta revista se publica bajo una Licencia Creative Commons Attribution-NonCommercial-CompartirIgual 4.0 International (CC BY-NC-SA 4.0)