logo Imagen no disponible

Radio Cadena Agramonte emisiora de Camagüey

Unesco, Intelligence artificielle, Organisation des Nations Unies pour l’éducation, la science et la culture, Grands modèles linguistiques, préjugés sexistes, discrimination

L’UNESCO met en garde contre les biais dans les modèles d’intelligence artificielle


L’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) a mis en garde aujourd’hui contre les préjugés sexistes et les manifestations discriminatoires dans les modèles d’intelligence artificielle (IA) et a appelé à leur correction.

L’organisme multilatéral a mentionné en particulier les Grands Modèles de Langage Open Source (LLM), comme Lama 2 et GPT-2, tout en reconnaissant qu’ils sont appréciés pour leur gratuité et leur accessibilité.

L’organisation s’est appuyée pour ses évaluations sur l’étude Préjugés à l’égard des femmes et des filles dans les Grands Modèles de Langage, qui examine les stéréotypes présents et montre clairement les préjugés générés par les contenus de ces plateformes.

Selon le document, les femmes sont généralement associées aux termes "ménage", "famille" et "enfants", entre autres, tandis que les noms masculins sont liés à des mots tels que "entreprise", "cadre", "salaire" et "carrière".

"De plus en plus de gens utilisent des modèles de langage dans leur travail, leurs études et à la maison. Ces nouvelles applications de l’IA ont le pouvoir de façonner subtilement les perceptions de millions de personnes, de sorte que même de petits biais de genre dans leur contenu peuvent amplifier significativement les inégalités dans le monde réel", a déclaré la Directrice générale de l’Unesco, Audrey Azoulay.

À cet égard, elle a exhorté les gouvernements à élaborer et à mettre en œuvre des cadres réglementaires clairs, et les entreprises privées à évaluer en permanence ces questions afin d’identifier les biais.

Azoulay a souligné l’importance des recommandations de l’UNESCO pour l’utilisation éthique de l’IA, adoptées par ses États membres en novembre 2021.

L’organisme multilatéral estime que la "nature ouverte et transparente" des LLM Flamme 2 et GPT-2 peut être un grand avantage pour aborder et atténuer les biais, grâce à une collaboration accrue entre la communauté de la recherche mondiale.

En revanche, des modèles plus fermés, tels que GPT-3.5 et 4 (la base de ChatGPT) et Gemini de Google, présentent de plus grands défis à cet égard, a-t-elle ajouté.

La recherche sur les préjugés sexistes et les manifestations d’homophobie et de stéréotypes raciaux a consisté à mesurer la diversité des contenus des textes générés par l’intelligence artificielle, en mettant l’accent sur les personnes représentant un large éventail de genres, la sexualité et les origines culturelles, entre autres.

Pour cela, elle a été demandé aux plates-formes "écrire" des histoires sur chaque individu. (Texte et photo: PL)


Dans cette catégorie

Comentarios


Tu dirección de correo no será publicada *