Configuración óptima de una RNA para la resolución del problema cinemático inverso en manipuladores paralelos: caso del 5R
Contenido principal del artículo
Resumen
En este artículo se aborda la optimización y el estudio de hiperparámetros clave (número de neuronas por capa oculta, número de capas ocultas y tipo de funciones de activación) de una RNA (Red Neuronal Artificial), concretamente de un perceptrón multicapa (MLP), para la resolución del problema cinemático inverso (IKP) completo de un manipulador paralelo. Se realiza un estudio en profundidad del efecto de dichos hiperparámetros en el desempeño de la red, tanto a nivel de error en las inferencias a lo largo del espacio de trabajo, como a nivel de coste computacional. Concretamente, se aborda el problema para un manipulador paralelo 5R asimétrico, cuya cinemática es bien conocida, de forma que, dadas una o varias posiciones del elemento terminal, la RNA permita obtener las soluciones del IKP asociadas a todos los modos de trabajo del 5R. Para facilitar las inferencias por parte del usuario final, se introduce la red en una función que incluye un preproceso y postproceso (donde se tiene en cuenta el método empleado para resolver la discontinuidad de los ángulos en el valor de cero radianes) para las variables de entrada y de salida de la red, respectivamente. En este artículo se presentan dos experimentos de variación de hiperparámetros, de los que se extraen una serie de conclusiones. Con estos experimentos se han observado aspectos significativos como la degradación de los resultados al exceder un cierto número de capas ocultas, demostrando la importancia de la selección de unos hiperparámetros adecuados y de no caer en el error de suponer que una red más compleja vaya a otorgar siempre mejores aproximaciones. Este estudio para la resolución del IKP completo de un 5R se puede considerar como un caso particular, pudiendo servir de base para la optimización de hiperparámetros en MLPs que resuelvan el IKP completo para manipuladores paralelos de cinemática más compleja. No obstante, se debe tener presente que los valores óptimos de los hiperparámetros dependen de la complejidad del problema, así como de la cantidad de datos disponibles para el entrenamiento. Para estos últimos manipuladores, los contenidos de este artículo son especialmente beneficiosos, debido al elevado coste computacional de los métodos numéricos empleados para la resolución de su cinemática, frente al coste computacional de las inferencias de una red entrenada.
Detalles del artículo

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.
CC BY-NC-SA 4.0)
El lector puede compartir, copiar y redistribuir el material en cualquier medio o formato, siempre y cuando cumpla con las siguientes condiciones:
-
Atribución (BY): Debe dar crédito adecuado al autor original, proporcionando un enlace a la licencia y señalando si se han realizado cambios.
-
No Comercial (NC): No puede utilizar el material con fines comerciales. Esto significa que no puede venderlo ni obtener ganancias directas de su uso.
-
Compartir Igual (SA): Si adapta, transforma o construye sobre el material, debe distribuir sus contribuciones bajo la misma licencia que el original.
Recuerda que esta licencia no afecta los derechos legales del autor, como el derecho moral o las excepciones de uso justo.
Citas
Macho E., Altuzarra O., Pinto C., Hernandez A., “Workspaces associated to assembly modes of the 5R planar parallel manipulator”, Robotica 26, 10.1017/S0263574707004109 (2008).
Zubizarreta A., Larrea M., Irigoyen E., Cabanes I., Portillo E., “Real time direct kinematic problem computation of the 3PRS robot using neural networks”, Neurocomputing 271, 10.1016/j.neucom.2017.02.098 (2018).
Zhang Z., Yang L., Sun C., Shang W., Pan J., “CafkNet: GNN-Empowered Forward Kinematic Modeling for Cable-Driven Parallel Robots”, 10.48550/arXiv.2402.18420 (2024).
Yahia I. B., Merlet J.-P., Papegay Y., “Mixing neural networks and the Newton method for the kinematics of simple cable-driven parallel robots with sagging cables”, 2021 20th International Conference on Advanced Robotics (ICAR), 241–246, 10.1109/ICAR53236.2021.9659400, Ljubljana (2021).
Merlet J.-P., “Advances in the Use of Neural Network for Solving the Direct Kinematics of CDPR with Sagging Cables”, CabeleCon - 6th International conference on calble-driven parallel robots, 10.1007/978-3-031-32322-5_3, Nantes (2023).
Merlet J.-P., “The Inverse Kinematics of Cable-Driven Parallel Robot with More Than 6 Sagging Cables Part 2: Using Neural Networks”, ARK 2024 - 19th International Symposium on advances in robot kinematics 31, 17-24, 10.1007/978-3-031-64057-5_3, Ljlubljana (2024).
Ioffe S., Szegedy C., "Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift", Proceedings of the 32nd International Conference on Machine Learning (ICML) 37, 10.48550/arXiv.1502.03167, (2015).
He K., Zhang X., Ren S., Sun J., “Deep Residual Learning for Image Recognition”, 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 10.1109/cvpr.2016.90, Las Vegas (2016).
Kingma D. P., Ba J. L., “Adam: A Method for Stochastic Optimization”, 3rd International Conference for Learning Representations, 10.48550/arXiv.1412.6980, San Diego (2017).
Zou H., Hastie T., “Regularization and Variable Selection Via the Elastic Net”, Journal of the Royal Statistical Society Series B: Statistical Methodology 67, 10.1111/j.1467-9868.2005.00503.x (2005).
He K., Zhang X., Ren S., Sun J., “Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification”, Proceedings of the IEEE International Conference on Computer Vision (ICCV), 10.48550/arXiv.1502.01852, (2015).
Ramachandran P., Zoph B., Le Q. V., “Searching for Activation Functions”, 10.48550/arXiv.1710.05941 Preprint at https://doi.org/10.48550/arXiv.1710.05941, (2017).
Elfwing S., Uchibe E., Doya K., “Sigmoid-weighted linear units for neural network function approximation in reinforcement learning”, Neural Networks 107, 10.1016/j.neunet.2017.12.012 (2018).
Misra D., “Mish: A Self Regularized Non-Monotonic Activation Function”, 10.48550/arXiv.1908.08681 Preprint at https://doi.org/10.48550/arXiv.1908.08681 (2020).
Glorot X., Bengio Y., “Understanding the difficulty of training deep feedforward neural networks”, Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics 9, Available at: https://proceedings.mlr.press/v9/glorot10a.html, Sardinia (2010).