logo Imagen no disponible

Radio Cadena Agramonte emisiora de Camagüey

Économie, fausses nouvelles, intelligence artificielle, internet, manipulation, marché

Un groupe de vigilance exige à OpenAI de retirer l’application Sora en raison des risques de deepfakes


États-Unis, 12 novembre - Le typique vidéo de Sora, créé dans l’application d’OpenAI et diffusé sur TikTok, Instagram, X et Facebook, est conçu pour être suffisamment divertissant pour inciter à cliquer et à partager.

Cela pourrait être la reine Elizabeth II en train de rapper ou quelque chose de plus ordinaire et crédible. Un genre populaire sur la plateforme consiste en de faux vidéos de caméras de surveillance capturant des scènes légèrement inquiétantes, comme un serpent constricteur sur un porche ou un caïman s’approchant d’un enfant impassible, se terminant souvent par un léger sursaut, comme une grand-mère criant tout en frappant l’animal avec un balai.

Cependant, de plus en plus de groupes de défense, d’académiciens et d’experts ont tiré la sonnette d’alarme sur les dangers de permettre aux gens de créer des vidéos basées sur l’IA sur pratiquement n’importe quel sujet qu’ils peuvent écrire dans une instruction, ce qui entraîne la prolifération d’images non consensuelles et de deepfakes réalistes dans un océan de « contenu d’IA » moins nuisible.

OpenAI a pris des mesures contre les créations d’IA impliquant des figures publiques, telles que Michael Jackson, Martin Luther King Jr. et Mister Rogers, les représentant dans des situations extravagantes, mais uniquement après que les héritiers des personnes concernées et un syndicat d’acteurs aient protesté.

Dans une lettre envoyée mardi à la société et à son PDG, Sam Altman, l’organisation à but non lucratif Public Citizen a exigé qu’OpenAI retire Sora 2 du public.

Public Citizen a déclaré que le lancement précipité de l’application pour devancer les concurrents montre un “modèle constant et dangereux où OpenAI se précipite sur le marché avec un produit qui est intrinsèquement dangereux ou manque des garanties nécessaires”.

Selon la lettre, Sora 2 manifeste un “mépris imprudent” pour la sécurité du produit, pour le droit des personnes à leur propre image et pour la stabilité de la démocratie. Le groupe a également transmis la lettre au Congrès des États-Unis.

Jusqu’à mardi, OpenAI n’avait pas répondu à une demande de commentaire de l’AP.

« Notre plus grande préoccupation est la menace potentielle pour la démocratie », a déclaré en entretien J.B. Branch, défenseur des politiques technologiques de Public Citizen.

« Je crois que nous entrons dans un monde où les gens ne peuvent vraiment plus faire confiance à ce qu’ils voient. Et nous commençons à observer des stratégies en politique où la première image, la première vidéo publiée, est ce que le public retiendra », a-t-il ajouté.

Branch, auteur de la lettre envoyée mardi, voit également des préoccupations plus larges concernant la vie privée des individus, qui affectent de manière disproportionnée les populations vulnérables en ligne.

OpenAI bloque la nudité, mais Branch a déclaré que « les femmes sont harcelées en ligne » d’autres manières, comme avec des contenus fétichisés de niche qui contournent les restrictions des applications. Le média 404 Media a rapporté vendredi une avalanche de vidéos créées avec Sora montrant des femmes étranglées.

OpenAI a lancé sa nouvelle application Sora sur iPhones il y a plus d’un mois. Elle a été lancée sur les téléphones Android la semaine dernière aux États-Unis, au Canada et dans plusieurs pays asiatiques, notamment le Japon et la Corée du Sud.

Une grande partie de l’opposition la plus forte s’est manifestée à Hollywood et dans d’autres secteurs du divertissement, comme l’industrie du manga japonais.

OpenAI a annoncé ses premiers grands changements quelques jours après le lancement, déclarant que « la modération excessive est extrêmement frustrante » pour les utilisateurs, mais qu’il est important de rester prudent « tandis que le monde s’adapte encore à cette nouvelle technologie ».

Cela a été suivi de plusieurs accords annoncés publiquement le 16 octobre avec la famille de Martin Luther King Jr., dans lesquels sont évitées les “représentations irrespectueuses” du leader des droits civiques, tandis que l’entreprise travaillait sur de meilleures garanties, et un autre accord, atteint le 20 octobre avec l’acteur de Breaking Bad, Bryan Cranston, le syndicat SAG-AFTRA et des agences de talents.

« C’est très bien si vous êtes célèbre », a commenté Branch. « C’est une sorte de modèle qu’a OpenAI, où ils sont prêts à répondre à l’indignation d’une population très restreinte. Ils sont prêts à lancer quelque chose et à s’excuser après. Mais beaucoup de ces problèmes sont des décisions de conception qui pourraient être prises avant le lancement du produit. » (Texte et photo: Cubadebate)


Dans cette catégorie

Comentarios


Tu dirección de correo no será publicada *