Problemas y requisitos en el diseño de un robot de guiado para personas ciegas y mayores
Contenido principal del artículo
Resumen
La Organización Nacional de Ciegos Españoles (ONCE) y el Instituto Nacional de Estadística (INE) estiman que hay aproximadamente 72 000 personas ciegas o con discapacidad visual grave registradas en España. Además, si se tiene en cuenta a las personas con algún grado de discapacidad visual (moderada o severa), la cifra puede ascender a alrededor de un millón. Por otro lado, el envejecimiento de la población aumenta cada vez más rápido y genera una mayor demanda de dispositivos que prolonguen su vida independiente. Por lo tanto, existe una gran necesidad de desarrollar sistemas robóticos que ayuden a las personas mayores y ciegas a ser más independientes y a sentirse más seguras en sus hogares. El objetivo de este artículo es presentar un robot hexápodo que pueda guiar tanto a personas con discapacidad visual como a personas mayores por entornos interiores y exteriores. Este robot guía se diseñará con sensores que le permitan percibir y analizar el entorno en el que se mueve la persona asistida, generar una ruta de navegación adecuada y proporcionar información en tiempo real. A continuación, la persona asistida seguirá al robot mediante retroalimentación verbal y/o a través de una interfaz mecánica. El robot debe proporcionar información verbal clara mediante un sistema de voz y ser capaz de entender y ejecutar órdenes verbales de la persona asistida, lo que facilitará la interacción sin necesidad de interfaces mecánicas como pantallas táctiles o botones. En este artículo se aborda el análisis de los problemas y requisitos de las soluciones de guiado destinadas a personas invidentes y de la tercera edad. A partir de este análisis, se identifican los requisitos esenciales que deben cumplir las posibles soluciones para ser efectivas y seguras, y esto servirá de base para el desarrollo de un diseño conceptual de un robot guía. Se presenta el diseño conceptual de un robot hexápodo que combina dos patas delanteras con ruedas y cuatro ruedas, dos de ellas motorizadas, todas unidas a una plataforma hexagonal que constituye el cuerpo del robot. Las ruedas están distribuidas de manera simétrica en torno al eje del cuerpo y se ubican detrás de las patas delanteras. Cada pata delantera está compuesta por un actuador lineal. El robot utilizará las ruedas para desplazarse de manera eficiente sobre superficies planas, mientras que las patas delanteras con ruedas le permitirán superar obstáculos como escaleras.
Detalles del artículo

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
CC BY-NC-SA 4.0)
El lector puede compartir, copiar y redistribuir el material en cualquier medio o formato, siempre y cuando cumpla con las siguientes condiciones:
-
Atribución (BY): Debe dar crédito adecuado al autor original, proporcionando un enlace a la licencia y señalando si se han realizado cambios.
-
No Comercial (NC): No puede utilizar el material con fines comerciales. Esto significa que no puede venderlo ni obtener ganancias directas de su uso.
-
Compartir Igual (SA): Si adapta, transforma o construye sobre el material, debe distribuir sus contribuciones bajo la misma licencia que el original.
Recuerda que esta licencia no afecta los derechos legales del autor, como el derecho moral o las excepciones de uso justo.
Citas
Kulyukin V., Gharpure C., Nicholson J., Osborne G., “Robot-assisted wayfinding for the visually impaired in structured indoor environments”, Autonomous robots 21, 29-41 (2006). https://doi.org/10.1007/s10514-006-7223-8
Ulrich I., Borenstein J., “The GuideCane-applying mobile robot technologies to assist the visually impaired”, IEEE Transactions on Systems, Man, and Cybernetics-Part A: Systems and Humans 31, 131-136 (2001)
Capi G., “Assisting and guiding visually impaired in indoor environments”, International Journal of Mechanical Engineering and Mechatronics 1, 9-14 (2012). https://doi.org/10.11159/ijmem.2012.002
Toha S. F., Yusof H. M., Razali M. F., Halim, A. H. A., “Intelligent path guidance robot for blind person assistance”, en 2015 International Conference on Informatics, Electronics & Vision (ICIEV), 1-5 (2015)
Ye C., Hong S., Qian X., Wu W., “Co-robotic cane: A new robotic navigation aid for the visually impaired”, IEEE Systems, Man, and Cybernetics Magazine 2, 33-42 (2016). https://doi.org/10.1109/MSMC.2015.2501167
Bhaskar Nikhil S., Sharma A., Nair N. S., Sai Srikar C., Wutla Y., Rahul B., Jhavar S., Tambe, P., “Design and Evaluation of a Multi-Sensor Assistive Robot for the Visually Impaired”, en International Conference on Advances in Mechanical Engineering and Material Science. Singapore: Springer Nature Singapore. 119-131 (2023). https://doi.org/10.1007/978-981-99-5613-5_10
Kulkarni A., Wang A., Urbina L., Steinfeld A., Dias B., “Robotic assistance in indoor navigation for people who are blind,” 2016 11th ACM/IEEE International Conference on Human-Robot Interaction (HRI), Christchurch, New Zealand. 461-462 (2016). https://doi.org/10.1109/HRI.2016.7451806
Guerreiro J., Sato D., Asakawa S., Dong H., Kitani K. M., Asakawa C., “Cabot: Designing and evaluating an autonomous navigation robot for blind people”, en Proceedings of the 21st international ACM SIGACCESS conference on computers and accessibility. 68-82 (2019). https://doi.org/10.1145/3308561.3353771
Albogamy F., Alotaibi T., Alhawdan G., Mohammed F., “SRAVIP: smart robot assistant for visually impaired persons”, International Journal of Advanced Computer Science and Applications, 12 (2021)
Wachaja A., Agarwal P., Zink M., Adame M. R., Möller K., Burgard W., “Navigating blind people with walking impairments using a smart walker”, Autonomous Robots 41, 555-573 (2017). https://doi.org/10.1007/s10514-016-9595-8
Wang Z., Yang L., Liu X., Wang T., Gao F., “HexGuide: A Hexapod Robot for Autonomous Blind Guidance in Challenging Environments”, en: Yang, H., et al. Intelligent Robotics and Applications. ICIRA 2023. Lecture Notes in Computer Science 14271. Springer, Singapore (2023). https://doi.org/10.1007/978-981-99-6495-6_42
Xiao A., Tong W., Yang L., Zeng J., Li Z., Sreenath K., “Robotic guide dog: Leading a human with leash-guided hybrid physical interaction”, en IEEE International Conference on Robotics and Automation (ICRA), 11470-11476 (2021). https://doi.org/10.1109/ICRA48506.2021.9561786
Chen Y., Xu Z., Jian Z., Tang G., Yang L., Xiao A., Wang X., Liang B., “Quadruped guidance robot for the visually impaired: A comfort-based approach”, en IEEE International Conference on Robotics and Automation (ICRA), 12078-12084 (2023). https://doi.org/10.1109/ICRA48891.2023.10160854
NSK develops four-legged robot “guide dog”. https://newatlas.com/nsk-four-legged-robot-guide-dog/20559/ (2024, 3 de octubre).
Guo Y., Hao L., Wu Y., “Research on vision based outdoor blind guiding robot”, en IEEE 12th International Conference on CYBER Technology in Automation, Control, and Intelligent Systems (CYBER), 283-288 (2022). https://doi.org/10.1109/CYBER55403.2022.9907114
Zhang L., Jia K., Liu J., Wang G., Huang W., “Design of Blind Guiding Robot Based on Speed Adaptation and Visual Recognition”, IEEE Access 11, 75971-75978 (2023). https://doi.org/10.1109/ACCESS.2023.3296066
Bai J., Lian S., Liu Z., Wang K., Liu D., “Virtual-blind-road following-based wearable navigation device for blind people”, IEEE Transactions on Consumer Electronics 64, 136-143 (2018). https://doi.org/10.1109/TCE.2018.2812498
Hsieh Y. Z., Lin S. S., Xu F. X., “Development of a wearable guide device based on convolutional neural network for blind or visually impaired persons”, Multimedia Tools and Applications 79, 29473-29491 (2020). https://doi.org/10.1007/s11042-020-09464-7
Rahman M. A., Siddika S., Al-Baky M. A., Mia M. J., “An automated navigation system for blind people”, Bulletin of Electrical Engineering and Informatics 11, 201-212 (2022). https://doi.org/10.11591/eei.v11i1.3452
Wangmo T., Duong V., Felber N. A., Tian Y. J., Mihailov E., “No playing around with robots? Ambivalent attitudes toward the use of Paro in elder care”, Nursing Inquiry, e12645 (2024). https://doi.org/10.1111/nin.12645
Jones J. L., “Robots at the tipping point: the road to iRobot Roomba”, IEEE Robotics & Automation Magazine 13, 76-78 (2006). https://doi.org/10.1109/MRA.2006.1598056
Robot Mabu. Catalia health. Disponible online: https://robotsguide.com/robots/mabu (2024, 18 de noviembre).
Robot LEA (Lean Empowering Assistant). Disponible online: https://www.sparkdesign.nl/projects/lea-care-robot (2024, 18 de noviembre).
Robot Beam. AWABOT beyond Robotic. Disponible online: https://awabot.com (2024, 18 de noviembre).
Robot Elli Q. Disponible online: https://blog.elliq.com/2022-elliq-impact-report (2024, 18 de noviembre).
Temibots: temi V3 Robot – Black. Disponible online: https://temibots.com/product/temi-v3-robot-black-buy/ (2024, 18 de noviembre).
Adomavičienė A., Daunoravičienė K., Kubilius R., Varžaitytė L., Raistenskis J., “Influence of new technologies on post-stroke rehabilitation: a comparison of armeo spring to the kinect system”, Medicina 55, 98 (2019). https://doi.org/10.3390/medicina55040098
Kompaï Assist. Disponible online: https://www.kompairobotics.com/kompai-assist (2024, 19 de noviembre).
Care-o-bot. Disponible online: http://www.care-o-bot.de/ (2024, 19 de noviembre).
Zorabots. Disponible online: https://www.zorarobotics.be/robots/nao (2024, 19 de noviembre).
Organización Nacional de Ciegos Españoles (ONCE). Disponible online: https://www.once.es/ (2024, 4 de diciembre).