A l’ère de l’intelligence artificielle et des systèmes d’information automatisés, l’information se diffuse à une vitesse proche de celle du son. L’IA, qui constitue un puissant vecteur de connaissances et de savoir, peut toutefois s’avérer dangereuse lorsqu’elle n’est pas encadrée. Elle révèle alors sa face la plus sombre : celle de la désinformation et la mésinformation. Ce phénomène atteint une ampleur telle qu’il fragilise les fondements de nos institutions et menace la stabilité sociale.
Par L. HAMIDI
Les avancées de l’IA permettent aujourd’hui aux utilisateurs de tirer parti de contenus générés automatiquement. Textes, images et vidéos offrent des solutions utiles à de nombreuses professions, notamment face aux métiers émergents.
Cependant, ces performances technologiques ne sont pas toujours exploitées à des fins positives. Des usages malveillants peuvent porter atteinte à l’intégrité des individus et nuire à leur réputation. Il est désormais possible de faire dire à une personne des propos qu’elle n’a jamais tenus, en imitant sa voix ou en manipulant des enregistrements audios et visuels.
Par ailleurs, la diffusion de contenus via les réseaux sociaux est devenue un vecteur central de désinformation et de manipulation, servant parfois des intérêts politiques ou géopolitiques. La frontière entre le réel et le fictif devient de plus en plus floue, au point que certaines informations trompeuses paraissent plus crédibles que celles qui sont vérifiées. Le doute ainsi instauré rend toute donnée suspecte et affaiblit sa crédibilité.
La confiance des citoyens s’en trouve profondément ébranlée : qui croire ? Comment accéder à une information fiable ? Comment se prémunir contre ces technologies en constante évolution ? Autant de questions qui alimentent une incertitude croissante et installent un véritable doute systémique.
Lors d’une séance thématique de l’Académie des technologies, Nicholas Curien analyse avec pertinence les pathologies de l’information en les emboîtant selon la structure des poupées russes.
La première poupée est caractérisée par la malinformation, qui constitue en quelque sorte une forme d’imperfection du contenu. Dans la seconde, lorsque cette information imparfaite devient erronée, la malinformation se transforme en mésinformation.
Dans la troisième, lorsque le message vise à tromper et à manipuler, la mésinformation évolue en désinformation. Enfin, la quatrième poupée correspond à une désinformation produite par l’intelligence artificielle, communément appelée «deepfake». «Académie des technologies : IA générative et mésinformation, séance du 10 juillet 2024».
Ainsi, ces quatre niveaux reposent sur une même base informationnelle susceptible d’évoluer vers des formes de manipulation, parfois animées d’une intention de nuire. La dimension intentionnelle ne laisse alors guère de doute quant à la finalité du message.
C’est ainsi que l’IA dépasse les enjeux individuels. Elle touche désormais des intérêts plus larges, souvent orchestrés pour fragiliser les fondements des sociétés, provoquer leur déstabilisation et, partant, semer la confusion et le désarroi.
Dans ce contexte, certaines forces occultes contribuent à instaurer le doute en créant un espace où se mêlent information et manipulation.
Les deepfakes (contenu vidéo ou audio falsifié, généré ou modifié par l’IA) participent à une propagande visuelle redoutable. Ils mettent en scène des images d’immeubles rasés, de villes envahies, d’hôpitaux incendiés, altérant profondément la perception de la réalité. Cette mise en scène relève d’une véritable stratégie de guerre hybride.
Au regard de ces dérives, les plateformes numériques tentent de réguler l’information à travers divers mécanismes de modération. Toutefois, les avancées scientifiques et technologiques dépassent souvent les intentions, voire les capacités d’action.
Par ailleurs, des États cherchent à instaurer des cadres juridiques destinés à protéger à la fois les citoyens et les institutions, mais la tâche demeure complexe.
Comment concilier liberté d’expression et protection de la vie privée ? L’avènement de l’intelligence artificielle va loin : elle permet désormais de reproduire des voix ou de manipuler des images avec un réalisme saisissant.
C’est pourquoi certains pays, notamment en Europe, ont imposé, par voie législative, aux plateformes numériques de mettre en œuvre des dispositifs préventifs afin de lutter contre ces abus et dérives, susceptibles de diffuser de fausses informations et de troubler l’ordre public.
En définitive, et si la solution résidait dans l’intelligence artificielle elle-même ? Après avoir, en quelque sorte, inoculé le venin de la désinformation, elle pourrait aussi en devenir l’antidote, en contribuant à la régulation et en signalant les contenus trompeurs : le faux semble avoir submergé le vrai. Il devient urgent d’inverser la tendance.
L. H.
Docteur en droit







