Robots estudian el cerebro y logran evitar errores antes de que sucedan

Madrid, 8 abr.- ¿Te imaginas cómo debe ser trabajar junto a un robot humanoide, codo con codo, día tras día? Pues no tienes que exigirle a tu imaginación demasiado, ya que está sucediendo en el mundo real. Ya son varias las empresas que han implementado este tipo de máquinas en sus fábricas o líneas de montaje, con el objetivo de agilizar los procesos y ordenarles que realicen las tareas más físicamente exigentes para las personas de carne y hueso.

BMW es, ahora mismo, uno de los referentes más sólidos del sector. Tras una prueba exitosa en la planta de Spartanburg (Estados Unidos), el gigante de la automoción ha expandido el uso de humanoides a sus plantas en Alemania. Concretamente, utiliza los Figure 02 de Figure AI, empresa estadounidense que ha sabido hacerse un hueco en este mundillo cada vez más grande. Se dedican a insertar piezas de chapa metálica en soportes específicos para soldadura y manipulación de componentes en la fabricación de baterías.

Aunque trabajar con robots humanoides pueda parecer un sueño, tiene más peligros de los que pensamos. Rodney Brooks, fundador de iRobot, aconsejó “no acercarse a menos de tres metros” de uno, ya que emplean motores eléctricos muy potentes y algoritmos avanzados que, si bien son avanzados, no siempre son perfectos y a veces sufren errores. El daño que puede generar el golpe de un robot humanoide es considerable. A pesar de los riesgos, es cuestión de tiempo que debamos convivir con ellos en el espacio de trabajo por sus potenciales beneficios. Investigadores han logrado incluso que puedan evitar errores antes de que ocurran en tiempo real.

Investigadores de la Universidad Estatal de Oklahoma han desarrollado un sistema de control neuroadaptativo que permite a los robots captar señales del cerebro humano y ajustar sus acciones al instante, de modo que si un operador humano percibe que algo va mal, el robot debería reaccionar antes de que el problema se agrave.

La investigación está liderada por el Dr. Hemanth Manjunatha, profesor adjunto de la Escuela de Ingeniería Mecánica y Aeroespacial. El proyecto está basado en las interfaces cerebro-computadora (BCI, por sus siglas en inglés) con restricciones formales de seguridad. Es posible que hayas escuchado hablar de las BCI, ya que es lo que desarrollan empresas como Neuralink o la china Neuracle Medical Technology (NMT), que le está tomando la delantera a la de Elon Musk.

Manjunatha afirma que la teleoperación actual (proceso mediante el cual los humanos controlan robots a distancia) resulta agotadora para las personas y carece de medidas de seguridad. Esta investigación se centra en mejorar la teleoperación en entornos impredecibles. “En entornos de alto riesgo, como el desmantelamiento de una instalación nuclear o la realización de inspecciones en aguas profundas, todavía no podemos delegar completamente el control a un robot”, afirmó.

El experto añade: “Cuando un robot se encuentra con algo que no ha visto antes, como un montón de desechos espaciales en movimiento o una complicación quirúrgica compleja, carece del «sentido común» y la intuición de un ser humano. Todavía necesitamos la intervención humana para proporcionar un juicio de alto nivel y una adaptabilidad que la IA aún no domina”.

La clave de esta tecnología reside en una señal producida por el cerebro humano conocida como potencial relacionado con el error (ErrP). Estas señales se producen casi instantáneamente cuando una persona reconoce un error. “Al detectar estos ErrP, no solo leemos la actividad cerebral, sino que capturamos el momento instintivo de ‘¡Oh, no!’ del ser humano. Esto indica al robot: ‘Lo acabas de hacer, no lo vuelvas a hacer o deja de hacerlo’”, explica Manjunatha.

El equipo, mediante un gorro con electroencefalograma portátil, detecta las señales y las introduce en un sistema robótico de control compartido. Cuando el sistema detecta un ErrP, puede reducir la velocidad, detenerse o devolver el control al operador humano en milisegundos, proporcionando una alerta temprana que mejora la seguridad. Para garantizar que el sistema funcione de forma fiable para diferentes personas, el equipo creó un método de decodificación adaptativa.

El proyecto se implementa utilizando NVIDIA Isaac Lab e Isaac ROS para simular miles de interacciones robóticas y permitir la comunicación en tiempo real con el hardware físico. El potencial de esta investigación se extiende a la atención médica y la rehabilitación. Entre las posibles aplicaciones futuras se incluyen prótesis o exoesqueletos que ajustan el movimiento según la comodidad y la intención del usuario. (Texto y foto: National Geographic)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *