Quelques semaines Il y a quelques temps, une recherche Google pour « deepfake nudes jennifer aniston » a fait apparaître au moins sept résultats de haut niveau qui prétendaient contenir des images explicites de l'actrice générées par l'IA. Aujourd'hui, elles ont disparu.
Selon Emma Higham, responsable produit chez Google, les nouveaux ajustements apportés cette année au classement des résultats de recherche ont déjà permis de réduire de plus de 70 % l'exposition aux fausses images explicites dans les recherches portant sur un contenu concernant une personne spécifique. Là où des résultats problématiques apparaissaient auparavant, les algorithmes de Google visent désormais à promouvoir des articles d'actualité et d'autres contenus non explicites. La recherche Aniston renvoie désormais des articles tels que « Comment le porno deepfake de Taylor Swift représente une menace » et d'autres liens comme un avertissement du procureur général de l'Ohio concernant les « arnaques de soutien aux célébrités deepfake » qui ciblent les consommateurs.
« Avec ces changements, les gens peuvent lire sur l'impact que les deepfakes ont sur la société, plutôt que de voir des pages avec de vraies fausses images non consensuelles », a écrit Higham dans un article de blog de l'entreprise mercredi.
Ce changement de classement fait suite à une enquête de WIRED réalisée ce mois-ci qui a révélé que ces dernières années, la direction de Google avait rejeté de nombreuses idées proposées par le personnel et des experts extérieurs pour lutter contre le problème croissant des représentations intimes de personnes diffusées en ligne sans leur permission.
Si Google a simplifié la procédure de demande de suppression de contenu explicite non désiré, les victimes et leurs défenseurs ont appelé à des mesures plus proactives. Mais l'entreprise a essayé d'éviter de devenir un régulateur d'Internet ou de nuire à l'accès à la pornographie légitime. À l'époque, un porte-parole de Google avait déclaré en réponse que plusieurs équipes travaillaient avec diligence pour renforcer les mesures de protection contre ce qu'elle appelle les images explicites non consensuelles (NCEI).
La disponibilité croissante des générateurs d'images IA, dont certains n'imposent que peu de restrictions quant à leur utilisation, a entraîné une hausse du NCEI, selon les défenseurs des victimes. Ces outils ont permis à presque tout le monde de créer facilement des images explicites falsifiées de n'importe quelle personne, qu'il s'agisse d'un camarade de collège ou d'une méga-célébrité.
En mars, une analyse de WIRED a révélé que Google avait reçu plus de 13 000 demandes de suppression de liens vers une douzaine de sites Web parmi les plus populaires hébergeant des deepfakes explicites. Google a supprimé des résultats dans environ 82 % des cas.
Dans le cadre de la nouvelle répression de Google, Higham a déclaré que l'entreprise commencerait à appliquer trois des mesures visant à réduire la détectabilité des images explicites réelles mais indésirables à celles qui sont synthétiques et indésirables. Une fois que Google aura honoré une demande de retrait d'un deepfake sexualisé, il essaiera ensuite d'exclure les doublons des résultats. Il filtrera également les images explicites des résultats de requêtes similaires à celles citées dans la demande de retrait. Et enfin, les sites Web faisant l'objet d'un « volume élevé » de demandes de retrait réussies seront rétrogradés dans les résultats de recherche.
« Ces efforts visent à donner aux gens une plus grande tranquillité d'esprit, surtout s'ils craignent que des contenus similaires les concernant n'apparaissent à l'avenir », a écrit Higham.
Google a reconnu que ces mesures ne fonctionnent pas parfaitement, et d’anciens employés et défenseurs des victimes ont déclaré qu’ils pourraient aller beaucoup plus loin. Le moteur de recherche avertit clairement les personnes aux États-Unis qui recherchent des images dénudées d’enfants que ce type de contenu est illégal. L’efficacité de cet avertissement n’est pas claire, mais il constitue un moyen de dissuasion potentiel soutenu par les défenseurs des droits. Pourtant, malgré les lois interdisant le partage de NCEI, des avertissements similaires n’apparaissent pas pour les recherches portant sur des deepfakes sexuels d’adultes. Le porte-parole de Google a confirmé que cela ne changerait pas.