Intelligence Artificielle & Cybersécurité 1/2 : L’IA, la nouvelle arme des cybercriminels

Fin août, la première fraude au président usant d’un générateur de voix en deepfake était médiatisée[1]. 220 000€ était ainsi volés à une entreprise de l’énergie basée au Royaume-Uni. Cette attaque inaugure une nouvelle ère pour la cybersécurité. En février 2018, vingt-six experts issus des universités et organisations les plus prestigieuses du monde, publiaient un rapport sur les dangers de l’Intelligence artificielle[2]. La cybercriminalité figurait en première place.

A quelles nouvelles menaces peut-on s’attendre ?

L’Intelligence Artificielle (IA) sort de ses domaines d’expérimentation tels que le jeu, le guidage et la reconnaissance d’image, pour s’étendre à tous les domaines de l’intelligence humaine. Y compris à la cybercriminalité. Les experts promettent que l’IA amplifiera les menaces existantes. Comment ? Par l’automatisation toujours plus poussée qui permettra aux attaquants de réduire le temps et le coût de préparation des attaques et de multiplier les cibles. Mais aussi par l’entrée de nouveaux cyberdélinquants qui pourront, grâce à l’IA, manier des logiciels auparavant inatteignables. Les attaques seront aussi plus efficaces, mieux ciblées et plus difficiles à attribuer. Il faut prévoir l’apparition de nouvelles formes de piratage telles que l’exploitation des vulnérabilités des IA de cybersécurité.

Huit scénarios d’attaque par l’IA

Afin de donner une idée plus précise des menaces, les experts déroulent huit exemples de scénarios :

#1 L’automatisation de l’ingénierie sociale :  Les informations en ligne des victimes sont utilisées par une IA pour générer automatiquement des sites, des mails et des liens malveillants, usurpant les identités de vrais contacts de la victime, en utilisant leur style d’écriture et leur adresse email.

#2 L’IA est utilisée, en autonomie ou en accompagnement d’un pirate, pour améliorer la sélection et la hiérarchisation des cibles, échapper à la détection et répondre de manière créative aux changements de comportement de la cible.

#3 L’accélération de la découverte des vulnérabilités à l’aide d’un historique de modèles de vulnérabilités de code. Création automatique de code pour exploiter ces vulnérabilités.

#4 Les agents imitent des comportements humains (clics humains, frappes de clavier réalistes…) pour provoquer des dénis de service. Les faux utilisateurs générés par l’IA sont ainsi très difficilement différentiables des utilisateurs légitimes.

#5 Les cybercriminels utilisent des techniques d’IA pour automatiser le traitement des paiements ou le dialogue avec les victimes de rançongiciels.

#6 Des grandes bases de données sont utilisées pour identifier les victimes plus efficacement, par exemple en estimant la richesse personnelle et la probabilité qu’une victime paye sur la base de son comportement en ligne.

#7 Des attaques de data-poisoning sont utilisées pour endommager subrepticement les données ou créer des portes dérobées dans des modèles d’apprentissage automatique.

#8 Les paramètres d’un système IA distant sont déduits en lui envoyant systématiquement des entrées et en observant ses sorties.

Pour quand ?

Si le rapport ne donne pas de dates, ces scénarios prennent aujourd’hui vie sous nos yeux, et seront probablement le quotidien de la cybersécurité dans quelques années. L’innovation n’est malheureusement pas que du côté des défenseurs.

Albert de Mereuil  – Consultant en cybersécurité chez Harmonie Technologie

[1] Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case : https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402?mod=hp_lead_pos10

[2] Report “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” : https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf

Retrouvez tous nos domaines d'expertise