“L’IA peut aider à réduire les risques liés aux cyberattaques”
Alors que le risque de cyberattaque se déporte vers les cibles les moins protégées et que les dangers ne cessent de muter, l’intelligence artificielle est un outil puissant pour se protéger et lutter contre les cybermenaces.
L’IA se trouve à « un moment clé de son histoire ». C’est le constat partagé par Phil Venables, vice-président responsable de la sécurité de l’information de Google Cloud, et Royal Hansen, vice-président de l’ingénierie pour la confidentialité, la sûreté et la sécurité de Google. Valable en général, il l’est tout autant dans le domaine de la cybersécurité. Pour eux, l’intelligence artificielle a le potentiel d’améliorer en profondeur « l’identification et la réduction des risques liés aux cyberattaques ».
« Notre travail repose sur un principe de base : l’IA peut avoir un impact majeur et positif sur l’écosystème de la sécurité, mais seulement si nous sommes à la fois audacieux et responsables dans la manière dont nous la déployons », expliquent les deux spécialistes. Tout est alors une question d’anticipation : « Nous considérons cet investissement comme un système immunitaire numérique : lorsque nous apprenons des risques précédents, nos systèmes deviennent mieux équipés pour se protéger contre les attaques futures et les anticiper ». Et comme tout système immunitaire, l’intégralité de ses composantes doit être protégée. « Nous aidons les organisations à déployer des systèmes d’IA sécurisés », reprennent Phil Venables et Royal Hansen. « Nous abordons les systèmes d’IA de la même manière que nous envisageons les autres défis de sécurité : nous intégrons des fonctionnalités de pointe (souvent invisibles pour les utilisateurs) pour assurer leur sécurité. » Une approche commune pour mieux prévenir les attaques. Historiquement, la communauté de la sécurité a en effet adopté une approche réactionnelle face aux menaces. « Bien que ces efforts soient importants, ils ne sont pas durables », pointent Phil Venables et Royal Hansen. Dans l’environnement dynamique des menaces d’aujourd'hui, les organisations ont du mal à suivre le rythme et l’ampleur des attaques, ce qui donne souvent l’impression aux défenseurs d’être dépassés. Si les technologies de l’IA n’offrent pas une solution unique à tous les problèmes de sécurité, quelques cas d’utilisation montrent un impact concret dans la détection des comportements anormaux et malveillants, l’automatisation des recommandations de sécurité ou encore l’augmentation de la productivité des spécialistes de la sécurité.
Voici quelques exemples parlants de la manière dont Google utilise actuellement l’IA dans ses produits en ce sens, au service des organisations mais aussi des individus. – Le filtre anti-spam de Gmail bloque près de dix millions de courriels frauduleux par minute. – La navigation sécurisée dans Chrome avertit les utilisateurs lorsqu’ils se dirigent vers un site dangereux ou s’apprêtent à télécharger un fichier suspect. – Pour les entreprises, Chronicle SecurityOperations ou encore Mandiant Automated Defense font appel à l'apprentissage automatique pour identifier les alertes critiques et supprimer les fausses alertes intempestives. –Cloud Armor Adaptive Protection s’appuie sur le machine learning pour identifier les menaces de manière automatique, et a par exemple détecté et bloqué l’une des plus importantes attaques par déni de service jamais repérées. Ainsi, il n’existe pas un outil unique assurant la cybersécurité, mais une panoplie de services qui, réunis, peuvent contrer de la manière la plus efficace possible les cyberattaques. Néanmoins, les méthodes des cyberpirates évoluent sans cesse et sont probablement en train de s’adapter à ces nouveaux outils de défense. Les équipes de Google travaillent donc déjà sur de nouvelles technologies impliquant l’intelligence artificielle, parmi lesquelles la cryptographie post-quantique (de nouveaux algorithmes de chiffrement qui résistent à l’ordinateur quantique) pour renforcer les techniques de contrôle vocal. « Nous continuerons à travailler avec les développeurs, les organisations et la communauté de la sécurité au sens large pour faire progresser les capacités d’une IA audacieuse et responsable », concluent les deux spécialistes.