¿Puede una máquina aprender a agarrar objetos como lo haría una persona? Esa es la pregunta que guio el proyecto de Pablo Kevin Pereira, estudiante de la Universidad Tecnológica (UTEC), que desarrolló un sistema que combina robótica e inteligencia artificial (IA) para que una mano mecánica identifique herramientas y decida por sí misma cómo sujetarlas.

“Mi proyecto final se llama ‘Adaptación de un prototipo de humano robótica en hardware y software para la emulación de agarres usando métodos de machine learning (aprendizaje automático)’”, explicó Pereira, estudiante de Ingeniería en Mecatrónica y egresado del Tecnólogo en Mecatrónica, en diálogo con la diaria.

El proyecto combina análisis de imágenes, reconocimiento de objetos y sistemas de aprendizaje que funcionan por prueba y error, todo integrado en una mano robótica que se conecta a señales cerebrales.

Este tipo de desarrollos tienen aplicaciones concretas en áreas como la rehabilitación y las prótesis inteligentes. En el futuro, podría permitir que personas que perdieron una mano utilicen una prótesis capaz de adaptarse a distintos objetos o incluso controlarla con sus propios pensamientos, mejorando su autonomía en tareas cotidianas como agarrar una taza, usar herramientas o manipular objetos con mayor precisión, explicó Pereira.

La iniciativa mostró resultados concretos en su funcionamiento. El sistema logró un 75% de precisión, mientras que el modelo orientado a definir el agarre adecuado llegó a un 88% luego de miles de pruebas.

Foto del artículo 'Una mano robótica que aprende sola: el proyecto de UTEC que acerca la inteligencia artificial al cuerpo humano'

Foto: UTEC

Cómo funciona

Para desarrollar el proyecto, se creó un sistema que conecta distintos componentes entre sí, además de simular el comportamiento de la mano en un entorno virtual antes de llevarlo al prototipo real. También se diseñó el software interno y la electrónica que permiten que la mano funcione.

El movimiento de la mano se logró mediante pequeños motores y cables que imitan el funcionamiento de los tendones humanos, replicando principios del agarre y permitiendo estudiar combinaciones de movimiento con mayor precisión.

En el centro del sistema hay modelos de IA entrenados en simulaciones diseñadas especialmente para este proyecto. En particular, un modelo de la IA se encarga de reconocer herramientas a partir de imágenes, mientras que otro sistema aprende, mediante prueba y error, cuál es la mejor posición de los dedos.

Asimismo, el proyecto utilizó electroencefalografía, una técnica no invasiva que registra la actividad eléctrica del cerebro mediante sensores ubicados en el cuero cabelludo, lo que habilita el análisis en tiempo real de patrones neuronales y su posible traducción en acciones.

Según detalló el estudiante, el trabajo consiste en un sistema mecatrónico compuesto por varios módulos que integran procesamiento de datos, aprendizaje automático y control físico de una mano robótica. “A esto se le llama ‘comunicación máquina a máquina’”, afirmó.

El sistema funciona en varias etapas: primero analiza la imagen, luego reconoce el objeto y finalmente decide cómo agarrarlo. “No es un único modelo de machine learning, sino que son tres principales”, indicó, al describir las etapas de segmentación, observación y acción que permiten al sistema reconocer herramientas y ejecutar movimientos.

Uno de los aspectos más relevantes del proyecto es su potencial para ir más allá de un conjunto limitado de objetos. “Estas son las ventajas de utilizar machine learning”, señaló Pereira, al destacar la capacidad de la iniciativa para generalizar y adaptarse a nuevas situaciones.

IA y señales cerebrales

El proyecto también se inscribe en un campo más amplio que busca integrar IA con señales cerebrales. En ese sentido, Pereira explicó que estos sistemas permiten procesar grandes volúmenes de datos biológicos para identificar patrones de actividad neuronal.

En el caso concreto de su proyecto, la IA permite que el sistema aprenda a partir de la experiencia. “A partir de prueba y error, error y recompensa, la red neuronal artificial aprende, lo que le permite predecir el agarre adecuado para la herramienta”, explicó. “Básicamente, aprende igual que un humano”.

Sin embargo, el desarrollo de interfaces cerebro-computadora todavía enfrenta límites importantes. “No es que se puede saber qué está pensando ahora una persona”, aclaró Pereira, al señalar que actualmente solo se pueden identificar ciertos patrones asociados a movimientos simples, como abrir o cerrar la mano. “No pasa con pensamientos mucho más complejos, eso involucra zonas del cerebro mucho más grandes y señales mucho más entreveradas”, explicó.

La iniciativa abre interrogantes sobre hasta qué punto es posible interpretar la actividad cerebral. En ese sentido, Pereira remarcó que el proyecto utiliza una técnica no invasiva para medir las señales del cerebro, por lo que solo se pueden detectar movimientos simples y no una IA.

En cuanto a las aplicaciones de estas tecnologías, Pereira destacó su potencial en el campo de la salud, particularmente en el tratamiento de enfermedades mentales y neurológicas. También mencionó que la combinación con herramientas como la realidad virtual y aumentada podría ampliar aún más sus usos, tanto en el ámbito terapéutico como en áreas vinculadas al entretenimiento y los videojuegos.

Un campo con potencial en la región

Pereira subrayó que la combinación de robótica e IA es clave para la llamada industria 4.0, pero que su desarrollo en América Latina es aún incipiente. “La investigación sobre machine learning enfocado en emulación de agarre de manos robótica es limitada en América Latina, lo que hace este proyecto algo bastante relevante. Si encima filtramos por investigaciones en Uruguay, el número es muy acotado”, indicó.

En una mirada más amplia, planteó que el desarrollo de estas herramientas debería apuntar a transformar el rol del trabajo humano. “Para mí el avance es que la IA y la robótica hagan el trabajo que el ser humano necesita y que realmente no quiere hacer, dejándole lugar al ser humano para dedicarse a la autorrealización y tareas más sociales”, afirmó.

No obstante, advirtió que ese escenario no depende solo del desarrollo tecnológico, sino también de decisiones políticas y económicas. “Se necesita apoyo estatal, porque si no, es inviable”, señaló, y remarcó que la investigación requiere condiciones materiales que permitan a las personas dedicarse plenamente a estas tareas.

En paralelo, Pereira subrayó los desafíos éticos que plantean estas tecnologías, en particular en el campo de las interfaces cerebro-computadora. “Creo que algo muy importante es mantener la privacidad sobre los pensamientos de cada persona, y mucho más aún, el control sobre su propio pensamiento”, indicó al advertir sobre los riesgos de un uso indebido de estos sistemas.

También cuestionó el modo en que se aborda el impacto de la automatización en el trabajo. “¿El problema es que la IA quite trabajo o que el sistema actual estipule el valor de una persona de manera proporcional a qué tan productiva sea?”, se preguntó.

En ese sentido, sostuvo que el desafío no es frenar la tecnología, sino orientar su desarrollo. “Yo creo que la clave no es limitar la tecnología, sino crear un sistema que la pueda adoptar y aprovechar al máximo, dándole un correcto propósito”, afirmó, y apuntó a áreas como la medicina, la producción de alimentos y el cuidado del medioambiente como prioridades.