Au Centre d’un Internet plus sûr

Alors que se profile la campagne pour l’élection présidentielle 2022, la lutte pour la sécurité et l’intégrité de l’information en ligne n’a jamais été aussi cruciale. Pour faire face à ce défi, Google a ouvert, au début de l’année 2021, son deuxième Centre d’ingénierie de la sécurité à Dublin, chargé de lutter contre la diffusion et la prolifération de contenus illégaux et indésirables.

6 minutes de lecture

C’est dans le cœur du quartier Grand Canal Dock, au centre de Dublin, que le nouveau Centre d’ingénierie de la sécurité (GSEC) a vu le jour, en début d’année 2021, afin de renforcer la politique de sécurité des données, une des priorités de l’entreprise depuis de nombreuses années. Derrière la façade de l’immeuble de la capitale irlandaise, experts, ingénieurs et analystes de données sont réunis avec une mission : rendre le Web plus sûr et plus fiable. Si le premier centre de Google, ouvert à Munich en 2019, concentre ses efforts sur la protection des données et le développement d’outils pour protéger la vie privée et assurer la sécurité des utilisateurs, le centre régional irlandais s’attelle à la lutte contre la propagation de contenus illégaux et indésirables. L’équipe de Dublin traite des sujets qui vont de l’extrémisme violent à la sécurité des enfants en ligne. « Ce nouveau GSEC a pour objectif de permettre aux régulateurs, décideurs et chercheurs de mieux comprendre comment Google traite la sécurité des contenus », détaille Amanda Storey, direc trice au sein de l’équipe Trust and Safety (Confiance et sécurité) chez Google.

Pour la France, Vincent Courson est chargé de la gestion des partenariats de protection des utilisateurs, en liaison avec le GSEC de Dublin. Selon lui, « l’idée du GSEC est d’être un forum pour discuter des problèmes de responsabilité vis-à-vis des contenus partagés sur Internet. » Il poursuit : « Il fonctionne dans les 2 sens : nous présentons notre vision de ces sujets, nos processus, nos outils, nos règles, et, dans le même temps, nous écoutons les retours et les questions de nos différents interlocuteurs – régulateurs, chercheurs, membres de la société civile, ONG, gouvernements européens – pour mieux protéger nos différents utilisateurs. »

De l'identification à la suppression des contenus abusifs

Ainsi, 2 familles d’experts se croisent au GSEC de Dublin. Il y a d’une part l’équipe comptant le plus de membres, qui rassemble les experts de l’anti-abus, missionnés pour combattre au quotidien les contenus indésirables. La seconde équipe, elle, est chargée de la communication et d’un travail de pédagogie auprès des interlocuteurs cités plus haut. Vincent Courson, qui travaille sur ces sujets depuis 10 ans, affirme que « la protection des utilisateurs passe par une approche commune des différents acteurs tels que les gouvernements et les ONG » et une « grande transparence sur les actions menées. » Mais de quoi les utilisateurs doivent-ils exactement être protégés ? « Cela varie énormément en fonction des pays et du type d’utilisateurs auxquels on s’adresse. Il est difficile de donner une liste exhaustive et exacte, mais dans les catégories générales, on trouve les spams (courriels indésirables, ndlr), les scams (cyberescroqueries par courriel, ndlr), le contenu trompeur fait pour abuser de la crédulité des internautes, le phishing (technique frauduleuse destinée à leurrer l’internaute pour l’inciter à communiquer des données personnelles et/ou bancaires en se faisant passer pour un tiers de confiance, ndlr), le contenu à caractère sexuel, le harcèlement en ligne, la promotion de la violence, le contenu abusif en direction de mineurs… »

Au sein de ces contenus jugés sensibles, la lutte contre les fake news est un enjeu majeur. « Nous avons récemment observé une vague de contenus abusifs lors de la crise du coronavirus. Depuis février 2020, nous avons retiré plus d’1 million de vidéos sur YouTube qui présentaient des informations dangereuses, fausses ou des recettes miracles à ce sujet. C’est quelque chose qui peut avoir des conséquences directes sur la santé des utilisateurs, donc il est très important d’intervenir. » Et plusieurs types d’intervention existent après détection d’un contenu abusif : d’une part et avant tout, la suppression pure et simple ou la réduction de la visibilité de certains conte nus en les faisant disparaître des systèmes de recommandation. D’autre part, la promotion d’informations qualitatives, comme la mise en avant de liens vers des pages du site Web du gouvernement français ou de l’Organisation mondiale de la Santé lorsque les utilisateurs font des recherches liées à la Covid-19. En plus d’intervenir après la publication d'un contenu sur Internet, il est aussi aujourd’hui important de le faire avec un temps d’avance. Autre exemple donné par Vincent Courson : « Cet été, il a été annoncé que les paramètres liés à la vie privée pour les comptes de mineurs seront désormais réglés pour être plus restrictifs. Par exemple, sur le moteur de recherche organique, le mode “SafeSearch” (recherche sécurisée, ndlr), fait pour filtrer les résultats explicites, sera activé par défaut pour les comptes de mineurs.

"Nous souhaitons réduire le plus possible l’exposition des utilisateurs mineurs à des contenus abusifs."

Sur YouTube, les vidéos publiées par des utilisateurs de moins de 18 ans en seront aussi privées par défaut. En faisant cela en amont, nous souhaitons réduire le plus possible l’exposition des utilisateurs mineurs à des contenus abusifs. » Mais cette approche proactive n’est pas nouvelle et s’améliore avec le temps. Par exemple, depuis 2017, sur YouTube, un système de détection automatisée est développé pour identifier les contenus extrémistes violents. Résultat : si lors de la première année, 8 % des vidéos supprimées pour contenus extrémistes violents avaient moins de 10 vues, ce chiffre est monté à 90 %* en 2019. L’approche a ainsi été automatisée, l’impact a été renforcé, mais la volonté est de toujours conserver l’humain dans le processus de décision finale.

En outre, chaque personne peut également signaler à Google un contenu qui ne respecterait pas les règles de ses produits ou les lois du pays, via des formulaires adaptés à la requête spécifique (diffamation, droit d’auteur, droit à l’oubli…). Alice*, chargée de développer la stratégie autour de la suppression de contenus illégaux, détaille le processus : « Nous recevons des millions de demandes par an et il faut que chacune d’entre elles soit évaluée avec la même qualité, avec un temps de réponse court. On se doit de répondre systémati- quement à tous les critères juridiques et réglementaires. À titre d’exemple, nous avons déjà reçu et traité environ 30 000 requêtes pour la question du droit à l’oubli en France entre janvier et septembre 2021. »

Une collaboration avec les institutions politiques européennes

Bien sûr, tout cela ne saurait exister sans le concours des institutions. Des rencontres ont été notamment organisées avec Europol et la CNIL (commission chargée de veiller à la protection des données personnelles contenues dans les fichiers et traitements informatiques) de Monaco.« Aujourd’hui, nous constatons qu’il est nécessaire d’être opérationnel à grande échelle », appuie Alice. Elle évoque aussi l’intervention auprès de « différentes agences du gouvernement français » et souligne la volonté de « fournir aux citoyens le maximum d’informations sur les requêtes de suppression de contenus effectuées par les autorités de leur pays. » Grâce à transparencyreport.google.com, il est ainsi possible de voir pour chaque pays le nombre et la nature des requêtes soumises par le gouvernement du pays en question.

Une volonté de transparence qui passe également par de la formation. Depuis sa création début 2021, le GSEC de Dublin informe sur ces thématiques à travers des blogs, des vidéos, des réunions avec les ministères européens, mais aussi via des conférences. Comme un webinaire organisé en Suède autour de la désinformation liée à la pandémie, pour le compte de l’agence locale chargée de la stratégie contre la Covid-19, ou une conférence sur l’information de qualité et la modération de contenu en présence de 20 membres du Parlement en Allemagne. En France, de tels programmes d’information et de sensibilisation devraient voir le jour à l’orée des élections présidentielles de 2022 dans le cadre d’un effort conjoint avec le GSEC de Munich, qui collabore en matière de sécurité des utilisateurs, contre les menaces comme le phishing. Avec toujours les mêmes objectifs en ligne de mire : que chaque internaute puisse naviguer sur le Web en toute sécurité en contrôlant son expérience. Et que les contenus soient toujours plus sûrs.

Source : Centre d’ingénierie de la sécurité de Dublin.*Dont le nom de famille ne peut être dévoilé, du fait de son rôle de modératrice.

Histoires associées