Internet regorge de deepfakes, et la plupart d’entre eux sont des nus.
Selon un rapport de Home Security Heroes, les vidéos pornographiques deepfake représentent 98 % de toutes les vidéos deepfake en ligne. Grâce à des outils d'IA générative faciles à utiliser et disponibles gratuitement, le nombre de deepfakes en ligne (dont beaucoup ne sont pas consensuels) a grimpé de 550 % entre 2019 et 2023.
Bien que les lois contre les deepfakes non consensuels soient à la traîne, du moins aux États-Unis, il devient un peu plus facile de faire supprimer les deepfakes, grâce aux nouveaux outils de recherche Google.
Google a récemment apporté des modifications à sa recherche pour lutter contre le deepfake porn, notamment en modifiant l'algorithme de classement de la recherche, conçu pour réduire le contenu deepfake dans les recherches. L'entreprise a également mis en place un moyen accéléré de traiter les demandes de suppression de résultats de deepfake porn non consensuels de la recherche.
Voici comment l'utiliser.
Demande de suppression
Le moyen le plus simple de demander la suppression d'un résultat pornographique non consensuel (une page Web, une image ou une vidéo) de la recherche Google est d'utiliser ce formulaire Web. Notez qu'il existe un formulaire distinct pour les images d'abus sexuels sur mineurs, et que le contenu ciblé doit répondre aux critères de suppression de Google, comme suit :
- Il s'agit d'un contenu nu, intime ou sexuellement explicite (par exemple, des images ou des vidéos de vous) et il est distribué sans autorisation ; OU
- C'est faux ou vous représente faussement nu ou dans une situation sexuellement explicite ; OU
- Cela vous associe à tort, vous ou votre nom, au travail du sexe.
Cliquez sur l’option « Le contenu contient de la nudité ou du matériel sexuel », puis passez à la page suivante.

À ce stade, sélectionnez « Le contenu me représente faussement dans un acte sexuel ou dans un état intime. (Cela est parfois appelé « deep fake » ou « fausse pornographie »). »

Sur la dernière page du formulaire, après avoir saisi votre nom, votre pays de résidence et votre adresse e-mail de contact, vous devrez indiquer si c'est vous ou une autre personne représentée dans le contenu deepfake à supprimer. Google autorise d'autres personnes à supprimer du contenu au nom de quelqu'un, mais uniquement si cette personne est un « représentant autorisé » qui explique comment il dispose de cette autorité.

Ensuite, vous devez entrer les informations sur le contenu. Vous devrez fournir les URL des résultats de deepfakes à supprimer (jusqu'à un maximum de 1 000), les URL des résultats de recherche Google où le contenu apparaît (là encore, jusqu'à un maximum de 1 000) et les termes de recherche qui renvoient les deepfakes. Enfin, vous devrez télécharger une ou plusieurs captures d'écran du contenu que vous signalez et toute information supplémentaire qui pourrait aider à expliquer la situation.
Étapes à suivre après avoir soumis une demande
Après avoir soumis une demande, vous recevrez automatiquement un e-mail de confirmation. La demande sera examinée, après quoi Google pourra vous demander des informations supplémentaires (comme des URL supplémentaires). Vous recevrez une notification de toute action entreprise et, si la demande ne répond pas aux exigences de Google en matière de suppression, un message de suivi expliquant pourquoi.
Les demandes refusées peuvent être soumises à nouveau avec de nouveaux documents justificatifs.
Google indique que lorsqu'une personne demande avec succès la suppression de résultats pornographiques deepfake non consensuels dans la recherche, les systèmes de l'entreprise chercheront également à filtrer les résultats explicites de toutes les recherches similaires concernant cette personne. En outre, Google indique que lorsqu'une image est supprimée de la recherche conformément aux politiques de Google, ses systèmes rechercheront et supprimeront tous les doublons de cette image qu'ils trouveront.
« Ces mesures de protection ont déjà fait leurs preuves dans le traitement d’autres types d’images non consensuelles, et nous avons désormais développé les mêmes capacités pour les fausses images explicites », écrit Google dans un article de blog. « Ces efforts visent à rassurer les utilisateurs, en particulier s’ils craignent que des contenus similaires ne réapparaissent à l’avenir. »