27 mars 2025 - Jacques Erard

 

Analyse

«Nous faisons face à une guerre mondiale contre les faits»

Le 19 mars dernier, l’UNIGE organisait une conférence-débat sur le «vrai-faux à l’ère de la désinformation et de l’IA». Compte rendu.

 

 

ia-desinformation-J.jpg

Photo: DR

 

«Nous faisons face à une guerre mondiale contre les faits.» Professeur d’histoire à Sciences Po Paris, David Colon plante le décor de la soirée. Cette guerre se joue sur le terrain des réseaux sociaux, qui offrent à des États autocratiques la possibilité de toucher directement les esprits et d’influencer la perception des citoyen-nes en misant sur le pouvoir émotionnel des images. Elle est menée depuis des décennies par le Kremlin avec, depuis quelques mois, la complicité de la Maison-Blanche. Elle a pour objectif de fragiliser la capacité des citoyen-nes des pays occidentaux à distinguer le vrai du faux, la réalité de la fiction. Une intention explicitée sans détour, dans un message posté sur Telegram en juin dernier, par Dimitri Medvedev, ancien président de la Fédération de Russie et actuel vice-président du Conseil de sécurité de la Russie: «Transformer leurs vies [celle des Occidentaux et Occidentales] en cauchemars permanents pour qu’ils ne puissent plus distinguer la fiction sauvage des réalités quotidiennes.»

 

Entrée en matière choc pour une soirée organisée le 18 mars dernier par Yaniv Benhamou, professeur à la Faculté de droit, dans le cadre des conférences publiques «Parlons numérique» (lire ci-dessous) sur le thème du «vrai-faux à l’ère de la désinformation et de l’IA». Outre David Colon, deux autres intervenant-es étaient convié-es: Sylvain Marchand, professeur à la Faculté de droit de l’UNIGE, et Sabine Süsstrunk, professeure au Laboratoire d’images et de représentation visuelle de l’École polytechnique fédérale de Lausanne (EPFL).


Cette guerre, qui a pour arme principale l’image mémétique, truquée, mêlant le vrai et le faux et répliquée à foison sur les réseaux sociaux, vise moins à convaincre qu’à semer le doute, estime David Colon, si tant est que «le mélange du vrai et du faux est plus faux que le faux» comme l’écrivait, en 1934, Paul Valéry. Agrémenté par la capacité des IA génératives à produire des contenus fictifs vraisemblables à une échelle inédite, le cocktail s’avère redoutable d’efficacité. Cela s’est vérifié à l’occasion d’élections récentes, que ce soit en Allemagne, aux États-Unis ou en Roumanie, où un candidat qui rassemblait 1% des intentions de vote à quatre semaines du scrutin a obtenu 23% des suffrages exprimés sans avoir mené campagne, hormis sur TikTok.


Pollution informationnelle
«Les agents de propagande du Kremlin s’emploient à saturer nos espaces informationnels de contenus arrangés sur des réseaux comme Pravda, CopyCop ou Portal Kombat, ajoute l’historien. Ces contenus visent en priorité à fausser les algorithmes des moteurs de recherche comme Google ou ceux utilisés pour les recommandations sur les réseaux sociaux. Il s’agit d’un point crucial pour la survie de nos démocraties à l’ère de l’alliance entre Donald Trump, Vladimir Poutine et les techno-oligarques comme Peter Thiel et Elon Musk. Nos outils ne sont pas à la hauteur de cette pollution informationnelle.» Même les moteurs de recherche auxquels est accordée habituellement une certaine confiance en pâtissent. L’an dernier, une fausse vidéo montrant l’épouse du président Zelensky en train d’acheter une Bugatti à Paris a ainsi provoqué, en vingt-quatre heures, entre 30 et 40 millions de vues, ce qui a eu pour effet de propulser cette fausse information en tête des résultats de Google en réponse à la requête «Zelensky».


Comment distinguer le vrai du faux dans ce paysage miné? Professeur à la Faculté de droit, Sylvain Marchand amène la discussion sur un terrain plus philosophique, rappelant que cette question est au moins aussi ancienne que la civilisation. «La vérité appartient aux dieux. Les hommes n’ont pour eux que des opinions», affirmait déjà le présocratique Parménide au Ve siècle avant J.-C. Cela explique l’extraordinaire essor de la rhétorique dans le monde antique, observe Sylvain Marchand. Dans une humanité dominée par l’opinion et sujette à l’influence, il faut apprendre à convaincre, à argumenter, à forger les esprits et à rendre la narration des faits la plus crédible possible. Dans leur pratique visant à reconstituer des événements passés, les juges se contentent d’ailleurs généralement de formuler des hypothèses afin d’arriver au récit le plus plausible possible, sans jamais succomber à la tentation d’une certitude absolue.


À quoi bon la vérité?
Aux yeux du juriste, cette attitude de réserve doit nous guider dans notre approche de l’intelligence artificielle. Face à une photo, qui prétend prouver la véracité d’un propos, il convient de ne pas exclure qu’elle ait été trafiquée, par l’IA ou d’autres moyens, avant de parvenir à une conclusion vraisemblable. Il arrive en effet que le mensonge se présente sous un jour plus convaincant que la vérité. Dans son roman La Bête humaine, Émile Zola met en scène un ouvrier, Cabuche, accusé à tort d’avoir assassiné sa femme. Il est innocent, mais il ignore les codes de la justice et de la rhétorique. Face à ses juges, il peine à s’exprimer, cherche ses mots, balbutie, tant et si bien qu’il finit par renoncer: à quoi bon dire la vérité puisque le mensonge est plus logique? «C’est une terrible renonciation, commente Sylvain Marchand. Une renonciation à laquelle nous sommes toutes et tous confrontés avec l’IA, qui a parfois le don de rendre le mensonge plus logique que la vérité. Nous ne connaissons pas ses codes et nous sommes donc toutes et tous les Cabuche de l’IA.»


Solutions de détection
N’y a-t-il donc pas d’autres moyens que de s’en remettre à la faillibilité du jugement humain? Professeure à l’EPFL, Sabine Süsstrunk présente quelques esquisses de solutions technologiques. Il est en effet possible d’automatiser la détection de fausses informations. Et pour cela, les ingénieur-es informatiques font appel à… l’intelligence artificielle. La professeure précise que ces systèmes de détection se basent sur des calculs probabilistes et qu’il n’existe pas encore d’IA à laquelle on puisse accorder une confiance absolue. La solution viendrait donc plutôt d’une exigence de transparence sur les modèles de données utilisés pour nourrir les IA. Une initiative de ce type a été lancée en octobre dernier par les écoles polytechniques fédérales, le Swiss National AI Institute, visant à construire des modèles de données qui répondent aux critères de l’open science/open source. Cette approche permet d’envisager des systèmes de certification sur la fiabilité des informations, rendant possible la détection, sur les plateformes d’information, des contenus non fiables, à l’instar des antivirus installés sur les ordinateurs. Une démarche allant dans ce sens est également née en France, à travers un accord entre le fournisseur de services IA Mistral et l’Agence France-Presse, afin d’entraîner l’IA sur des dépêches de l’agence.


Cet investissement dans la qualité des informations diffusées est la seule voie de salut, estime David Colon, pour qui il est vain de songer à interdire tel ou tel réseau social ou de s’en remettre à des réglementations qui n’ont jusqu’ici pas fait la preuve de leur efficacité. Dans cette optique, la création de médias sociaux européens d’intérêt public lui paraît la solution la plus rationnelle à mettre en œuvre, afin de rétablir un marché libre et non faussé des idées et des opinions sur internet.

Un espace de débat autour du numérique

La conférence «Le vrai-faux à l’ère de la désinformation et de l’IA» a mis un terme au cycle «Parlons numérique». Lancé en 2020, en plein covid, et conçu comme un service de dialogue avec la cité, le projet a rassemblé 50 expert-es au cours de 16 événements, sur des sujets aussi variés que la socialisation à l’ère des réseaux sociaux, l’IA et le futur du travail, le numérique et l’environnement ou encore les enfants et les écrans. Les enregistrements des conférences ont capté à ce jour quelque 80’000 vues.

 

Analyse