
EE.UU, 12 nov.- El típico video de Sora, creado en la aplicación de OpenAI y difundido en TikTok, Instagram, X y Facebook, está diseñado para ser lo suficientemente divertido como para que hagas clic y compartas.
Podría ser la Reina Isabel II rapeando o algo más ordinario y creíble. Un género popular de la plataforma es el de falsos videos de cámaras de timbre que captan algo ligeramente inquietante, como una boa constrictor en el porche o un caimán acercándose a un niño imperturbable, y termina con un leve sobresalto, como una abuela gritando mientras golpea al animal con una escoba.
Sin embargo, cada vez más grupos de defensa, académicos y expertos han hecho sonar la alarma sobre los peligros de permitir que las personas creen videos de IA sobre casi cualquier cosa que puedan escribir en una indicación, lo que lleva a la proliferación de imágenes no consensuadas y deepfakes (ultrafalsos) realistas en un mar de “bazofia de IA” menos dañina.
OpenAI ha tomado medidas contra las creaciones de IA de figuras públicas, entre ellas Michael Jackson, Martin Luther King Jr. y Mister Rogers, haciendo cosas extravagantes, pero solo después de que los herederos de los afectados y un sindicato de actores emitieran protestas.
En carta enviada el martes a la empresa y al CEO, Sam Altman, la organización sin fines de lucro Public Citizen ha exigido que OpenAI retire Sora 2 del público.
Public Citizen dijo que el lanzamiento apresurado de la aplicación para adelantarse a los competidores muestra un “patrón constante y peligroso en el que OpenAI se apresura a salir al mercado con un producto que es inherentemente inseguro o carece de las salvaguardias necesarias”.
Según la misiva, Sora 2 muestra un “imprudente desprecio” por la seguridad del producto y por el derecho de las personas a su propia imagen y la estabilidad de la democracia. El grupo también envió la carta al Congreso de Estados Unidos.
Hasta el martes, OpenAI no había respondió a una solicitud de comentarios de la AP.
“Nuestra mayor preocupación es la amenaza potencial a la democracia”, dijo en una entrevista J.B. Branch, defensor de políticas tecnológicas de Public Citizen.
“Creo que estamos entrando en un mundo en el que la gente realmente no puede confiar en lo que ve. Y comenzamos a ver estrategias en la política donde la primera imagen, el primer video que se publica, es lo que la gente recuerda”, agregó.
Branch, autor de la carta enviada el martes, también ve preocupaciones más amplias sobre la privacidad de las personas, las cuales afectan desproporcionadamente a las poblaciones vulnerables en línea.
OpenAI bloquea la desnudez, pero Branch dijo que “las mujeres son acosadas en línea” de otras maneras, como con contenido fetichizado de nicho que elude las restricciones de las aplicaciones. El medio de comunicación 404 Media informó el viernes sobre una avalancha de videos hechos con Sora de mujeres siendo estranguladas.
OpenAI introdujo su nueva aplicación Sora en iPhones hace más de un mes. Se lanzó en teléfonos Android la semana pasada en Estados Unidos, Canadá y varios países asiáticos, entre ellos, Japón y Corea del Sur.
Gran parte de la oposición más fuerte se ha producido en Hollywood y otras áreas del entretenimiento, como la industria del manga japonés.
OpenAI anunció sus primeros grandes cambios pocos días después del lanzamiento, diciendo que “la moderación excesiva es superfrustrante” para los usuarios, pero que es importante ser conservador “mientras el mundo aún se adapta a esta nueva tecnología”.
A esto siguieron varios acuerdos anunciados públicamente el 16 de octubre con la familia de Martin Luther King Jr., en el que se evitan las “representaciones irrespetuosas” del líder de los derechos civiles mientras la empresa trabajaba en mejores salvaguardias, y otro, alcanzado el 20 de octubre con el actor de Breaking Bad Bryan Cranston, el sindicato SAG-AFTRA y agencias de talentos.
“Eso está muy bien si eres famoso”, comentó Branch. “Es una especie de patrón que tiene OpenAI, donde están dispuestos a responder a la indignación de una población muy pequeña. Están dispuestos a lanzar algo y disculparse después. Pero muchos de estos problemas son decisiones de diseño que se pueden tomar antes de lanzar el producto”. (Textoy Foto: Cubadebate)