logo Imagen no disponible

Radio Cadena Agramonte emisiora de Camagüey

chatbots inteligencia artificial

Los chatbots pueden establecer sus propias reglas


EE.UU, 16 may.- Los chatbots, el más famoso de los cuales es ChatGpt, son capaces de darse reglas y organizarse de forma autónoma, sin necesidad de intervención humana.

Cuando están en grupos, establecen espontáneamente normas de comportamiento y convenciones sociales, de forma similar a lo que ocurre en las sociedades humanas.
    
Esto es lo que se desprende de un estudio único en su género, publicado en la revista Science Advances y coordinado por el italiano Andrea Baronchelli, que trabaja en Gran Bretaña en el City St George's de la Universidad de Londres.
    
"El mecanismo es el mismo que subyace a comportamientos mucho más complejos en las sociedades humanas, como las normas de cortesía, los códigos de vestimenta o las reglas morales", explicó a ANSA Baronchelli, quien estudió en la Universidad La Sapienza de Roma.
    
"Un ejemplo cotidiano y conocido por todos es la palabra 'spam': nadie la decidió desde arriba, sino que surgió del uso colectivo para indicar un fenómeno que hace 30 años ni siquiera existía", agregó.
    
Para el experimento, los investigadores adaptaron un juego clásico utilizado para estudiar las convenciones sociales en humanos: el "juego del nombre".

En este caso se crearon grupos más o menos grandes de modelos lingüísticos, los llamados Grandes Modelos de Lenguaje (Llm) que son capaces de procesar el lenguaje y responder de forma muy similar a como lo haría una persona: dos de estos dentro de cada grupo fueron emparejados de vez en cuando y se les pidió que seleccionaran un "nombre", en este caso una letra del alfabeto o una cadena aleatoria de caracteres, de las opciones disponibles.
    
"Los Llm recibieron puntos positivos cuando lograron coordinarse con éxito en el uso del mismo nombre y puntos negativos por el fracaso", afirmó Baronchelli.
    
"Este mecanismo sirve para motivar a los agentes a intentar llegar a un acuerdo en una única interacción local.

Es el mismo esquema que hemos utilizado en experimentos previos con humanos en el laboratorio, donde los participantes recibieron pequeñas recompensas económicas", detalló.
    
"La clave es que los incentivos solo existen a nivel local", enfatizó el investigador, "mientras que el consenso global que observamos, es decir, la convergencia de toda la población en torno a un mismo nombre, surge espontáneamente, sin ningún incentivo explícito a ese nivel".

De igual manera, agregó, "no les dijimos a los Llm que formaban parte de un grupo precisamente para evitar que adoptaran estrategias globales: cada agente interactuaba únicamente con el socio de turno, sin ninguna consciencia del sistema más amplio".
    
Después de muchas interacciones de este tipo, los autores del estudio observaron que una regla de comportamiento compartida puede surgir espontáneamente, sin ninguna coordinación central o solución predefinida.
    
"Por ejemplo -continúó Baronchelli- en muchos casos los grupos acabaron utilizando sistemáticamente la letra 'M' o 'Q'".
    
Lo que es aún más sorprendente es que también han surgido distorsiones y tendencias colectivas que no pueden atribuirse a sistemas individuales.
    
"Lo más interesante que observamos es que, incluso cuando los agentes individualmente no tenían preferencia, el grupo a menudo terminaba convergiendo sistemáticamente hacia una de las opciones disponibles, aunque todas fueran equivalentes", destacó el experto.

"Solo mediante interacciones repetidas entre agentes puede surgir una preferencia colectiva por una determinada opción: esto es lo que hemos definido como "sesgo colectivo", un fenómeno nuevo en el contexto de la IA.

Por ello —concluyó—, creemos que es crucial empezar a probar y estudiar estos aspectos también en contextos con múltiples agentes, un aspecto que actualmente se descuida por completo en el ámbito de la seguridad de la IA".  (Texto y Foto: Cubasí)


En esta categoría

Comentarios


Tu dirección de correo no será publicada *