Introduction
Avec l’avancement constant des technologies, de nouvelles opportunités s’offrent à nous, mais elles apportent également de nouveaux types d’abus à combattre. Ces dernières années, la technologie d’imagerie générative s’est considérablement améliorée, entraînant une augmentation inquiétante des images et vidéos générées représentant des personnes dans des contextes sexuellement explicites, diffusées sur le web sans leur consentement. Ces contenus sont souvent désignés sous le terme « deepfakes explicites ». Cette situation peut être profondément distressante pour les personnes concernées. C’est pourquoi nous avons investi dans des politiques et systèmes de longue date pour aider les individus à prendre le contrôle de ce contenu. Aujourd’hui, nous partageons des mises à jour significatives, développées en collaboration avec des experts et des survivants-victimes, pour offrir une meilleure protection aux personnes. Ces mises à jour incluent des améliorations de nos processus de suppression pour simplifier la suppression de ce type de contenu des résultats de recherche et des mises à jour de nos systèmes de classement pour empêcher ce contenu d’apparaître en haut des résultats de recherche.
Des moyens plus simples pour supprimer du contenu
Depuis de nombreuses années, les personnes peuvent demander la suppression d’images sexuellement explicites non consensuelles et fausses de la recherche Google selon nos politiques. Nous avons maintenant développé des systèmes pour simplifier ce processus, permettant aux individus de traiter ce problème à grande échelle. Lorsqu’une personne réussit à demander la suppression d’un contenu explicite non consensuel et faux la concernant, les systèmes de Google filtreront également tous les résultats explicites sur des recherches similaires à son sujet. De plus, lorsqu’une image est retirée avec succès des résultats de recherche selon nos politiques, nos systèmes scanneront et supprimeront également toutes les copies de cette image que nous trouverons. Ces protections ont déjà prouvé leur efficacité pour traiter d’autres types d’images non consensuelles, et nous avons maintenant mis en place les mêmes capacités pour les images explicites fausses. Ces efforts visent à apporter une tranquillité d’esprit supplémentaire aux personnes, notamment si elles s’inquiètent de la réapparition de contenu similaire à leur sujet à l’avenir.
Amélioration des systèmes de classement
Avec tant de contenu créé quotidiennement en ligne, la meilleure protection contre le contenu nuisible consiste à construire des systèmes qui classent l’information de haute qualité en haut des résultats de recherche. En plus d’améliorer nos processus de signalement et de suppression de contenu, nous mettons à jour nos systèmes de classement pour les requêtes comportant un risque élevé d’apparition de contenu explicite faux. Tout d’abord, nous déployons des mises à jour de classement qui réduiront la visibilité des contenus explicites faux pour de nombreuses recherches. Pour les requêtes recherchant spécifiquement ce type de contenu et incluant des noms de personnes, nous viserons à faire apparaître du contenu de haute qualité et non explicite, tel que des articles de presse pertinents, lorsque celui-ci est disponible. Les mises à jour que nous avons mises en place cette année ont permis de réduire de plus de 70 % l’exposition aux résultats d’images explicites sur ce type de requêtes. Grâce à ces changements, les gens pourront lire sur l’impact des deepfakes sur la société plutôt que de voir des pages contenant des images fausses et non consensuelles.
Distinction entre contenu explicite réel et faux
Il est également nécessaire de distinguer le contenu explicite réel et consensuel (comme les scènes de nu d’un acteur) du contenu explicite faux (comme des deepfakes mettant en scène cet acteur). Si la différenciation entre ces contenus représente un défi technique pour les moteurs de recherche, nous apportons des améliorations continues pour mieux faire apparaître le contenu légitime et déclasser le contenu explicite faux. Généralement, si un site comporte de nombreuses pages retirées des résultats de recherche selon nos politiques, c’est un signal fort indiquant qu’il ne s’agit pas d’un site de haute qualité, et nous en tiendrons compte pour classer d’autres pages de ce site. Nous déclassons ainsi les sites ayant reçu un volume élevé de suppressions pour contenu explicite faux. Cette approche a bien fonctionné pour d’autres types de contenus nuisibles, et nos tests montrent qu’elle sera également précieuse pour réduire le contenu explicite faux dans les résultats de recherche.
Partenariats et engagements continus
Ces changements constituent des mises à jour majeures de nos protections sur la recherche, mais il reste encore du travail à faire pour résoudre ce problème, et nous continuerons à développer de nouvelles solutions pour aider les personnes touchées par ce contenu. Étant donné que ce défi dépasse les moteurs de recherche, nous continuerons également à investir dans des partenariats à l’échelle de l’industrie et dans l’engagement d’experts pour y faire face en tant que société.