
États-Unis, 4 février - Le Rapport International sur la Sécurité de l’Intelligence Artificielle 2026, publié le mardi 3 février et commandé à la suite du Sommet Mondial de la Sécurité de l’IA de 2023, offre un aperçu sobre mais inquiétant de l’état actuel de l’intelligence artificielle.
Ce document – dirigé par le scientifique canadien Yoshua Bengio et conseillé par des figures telles que Geoffrey Hinton et le prix Nobel Daron Acemoglu – analyse les risques technologiques, sociaux et culturels allant de l’expansion des deepfakes à la disruption de l’emploi, en passant par l’attachement émotionnel aux chatbots.
Bien qu’il évite de faire des recommandations politiques explicites, sa publication intervient quelques semaines avant le prochain sommet mondial sur l’IA en Inde, qui servira de cadre au débat entre les gouvernements, les entreprises technologiques et les ONG.
Depuis l’émergence des grands modèles de langage à la fin de la décennie 2010, l’IA a progressé à un rythme qui dépasse les cycles de régulation.
Le rapport de 2026 — le deuxième de nature annuelle — consolide une tendance : des capacités techniques en hausse et des risques sociaux qui croissent parallèlement. Il ne s’agit pas seulement d’efficacité computationnelle ; l’impact s’étend à la culture numérique, à l’économie du travail et à l’intimité émotionnelle des utilisateurs.
Le document constate un saut significatif dans le raisonnement de l’IA, propulsé par de nouveaux modèles comme GPT-5 (OpenAI), Claude Opus 4.5 (Anthropic) et Gemini 3 (Google).
Les systèmes de raisonnement se distinguent en mathématiques, en programmation et en sciences ; en fait, les modèles de Google et d’OpenAI ont atteint un niveau d’or à l’Olympiade Internationale de Mathématiques, un jalon historique.
Cependant, le rapport souligne des irrégularités : les hallucinations persistent et l’autonomie dans les projets longs reste limitée.
« L’automatisation fiable de tâches longues ou complexes reste inviable », avertit le texte, bien qu’une étude citée indique que la durée des tâches d’ingénierie logicielle que l’IA peut accomplir double tous les sept mois, ravivant le débat sur l’emploi vers 2027–2030.
Une des alarmes les plus évidentes est la prolifération des deepfakes, notamment la pornographie deepfake. Une étude citée révèle que 15 % des adultes au Royaume-Uni ont vu ce type de contenu.
De plus, depuis janvier 2025, le matériel généré par l’IA devient de plus en plus difficile à distinguer du contenu réel : lors d’une expérience récente, 77 % des participants ont confondu des textes de ChatGPT avec de l’écriture humaine.
Le rapport précise qu’il existe des preuves limitées de campagnes réussies de manipulation de masse, mais le seuil de dommage réputationnel et émotionnel a déjà diminué.
Les grands développeurs ont introduit des mesures de sécurité renforcées pour atténuer les risques biologiques et chimiques. Le document reconnaît que les co-scientifiques de l’IA — capables d’assister dans le design moléculaire et les procédures de laboratoire — peuvent accélérer la découverte de médicaments et les diagnostics, mais ils posent également des risques d’utilisation détournée.
« La disponibilité ouverte d’outils biologiques d’IA pose un dilemme difficile : les restreindre ou soutenir activement leur développement à des fins bénéfiques », résume le rapport.
Une des découvertes les plus sensibles est la croissance rapide des compagnons d’IA. Bengio avertit que l’attachement émotionnel s’est étendu au cours de la dernière année et qu’il existe des preuves de dépendance « pathologique » chez un sous-ensemble d’utilisateurs. OpenAI reconnaît qu’environ 0,15 % de ses utilisateurs signalent un niveau d’attachement émotionnel accru à ChatGPT.
« Les préoccupations concernant la santé mentale liée à l’utilisation de l’IA augmentent parmi les professionnels », souligne le texte, dans un contexte de litiges récents ayant mis l’accent sur la responsabilité des plateformes. « Un saut très significatif a été réalisé dans le raisonnement de l’IA », affirme Yoshua Bengio, soulignant à la fois les progrès et l’urgence de comprendre ses effets secondaires.
Du côté de la recherche sociale, institutions et analystes s’accordent à dire que le rapport réussit à décrire l’état des lieux sans alarmisme, mais il souligne également que la gouvernance reste en retard.
L’économiste Daron Acemoglu a insisté dans des travaux antérieurs que l’adoption technologique sans conception institutionnelle peut amplifier les inégalités ; ce rapport apporte de nouvelles preuves à cette préoccupation.
Au-delà de l’aspect technique, le rapport révèle un déplacement culturel : l’IA n’est plus seulement un outil, mais une présence quotidienne qui redéfinit la confiance, le travail et l’intimité.
La question laissée ouverte n’est pas de savoir si l’IA continuera d’avancer, mais comment les sociétés choisiront de coexister avec des systèmes de plus en plus persuasifs, créatifs et émotionnellement résonants. Le sommet en Inde sera un prochain thermomètre ; le débat, inévitablement, est déjà dans la rue. (Texte et photo: Cubasí)