Il suffit de dire que cette montagne de preuves provenant de sources directes pèse plus lourd que les images annotées de commentateurs conservateurs comme Chuck Callesto et Dinesh D'Souzatous deux ont été surpris en train de diffuser de fausses informations sur les élections dans le passé.
En matière d’accusations de fraude à l’IA, plus vous disposez de sources d’information disparates, mieux c’est. Si une seule source peut facilement générer une image plausible d’un événement, plusieurs sources indépendantes montrant le même événement sous plusieurs angles sont beaucoup moins susceptibles d’être impliquées dans le même canular. Les photos qui concordent avec les preuves vidéo sont encore meilleures, d’autant plus que la création de vidéos longues et convaincantes d’humains ou de scènes complexes reste un défi pour de nombreux outils d’IA.
Il est également important de retrouver la source originale de toute image supposée générée par l'IA que vous regardez. Il est incroyablement facile pour un utilisateur de médias sociaux de créer une image générée par l'IA, de prétendre qu'elle provient d'un reportage ou d'une séquence en direct d'un événement, puis d'utiliser les défauts évidents de cette fausse image comme « preuve » que l'événement lui-même était truqué. Les liens vers des images originales provenant du site Web de la source originale ou d'un compte vérifié sont beaucoup plus fiables que les captures d'écran qui pourraient provenir de n'importe où (et/ou avoir été modifiées par n'importe qui).
Signes révélateurs
Si la recherche de sources originales et/ou corroborantes est utile lors d'un événement d'actualité majeur comme un meeting présidentiel, confirmer l'authenticité d'images et de vidéos provenant d'une seule source peut s'avérer plus délicat. Des outils comme Winston AI Image Detector ou IsItAI.com prétendent utiliser des modèles d'apprentissage automatique pour déterminer si une image est ou non une IA. Mais si les techniques de détection continuent d'évoluer, ces types d'outils reposent généralement sur des théories non prouvées qui n'ont pas été démontrées comme étant fiables dans des études approfondies, ce qui fait du risque de faux positifs/négatifs un risque réel.
Hany Farid, professeur à l'Université de Californie à Berkeley, a cité sur LinkedIn deux modèles de GetReal Labs qui ne montrent « aucune preuve de génération d'IA » dans les photos du rassemblement de Harris publiées par Trump. Farid a ensuite cité des parties spécifiques de l'image qui indiquent son authenticité.
« Le texte sur les panneaux et l’avion ne montre aucun des signes habituels d’une IA génératrice », écrit Farid. « Bien que l’absence de preuve de manipulation ne prouve pas que l’image soit réelle. Nous ne trouvons aucune preuve que cette image soit générée par l’IA ou modifiée numériquement. »
Et même lorsque certaines parties d’une photo semblent être des signes absurdes de manipulation par l’IA (comme les mains déformées dans certains modèles d’images d’IA), il peut y avoir une explication simple à certaines illusions d’optique apparentes. La BBC note que l’absence de reflet de la foule sur l’avion sur certaines photos du rassemblement de Harris pourrait être causée par une grande zone vide de tarmac entre l’avion et la foule, comme le montrent les angles inversés de la scène. Le simple fait d’entourer des objets étranges sur une photo avec un marqueur rouge n’est pas nécessairement une preuve solide de manipulation par l’IA en soi.