Intelligence Artificielle & Cybersécurité 2/2 : Répondre aux cybercriminels usant de l’IA

Lors de l’article précédent [l’IA : nouvelle arme des cybercriminels] nous avons évoqué différentes menaces et scénarios de cyberattaques criminelles rendus possibles par l’Intelligence Artificielle. Aujourd’hui nous allons regarder les solutions proposées par les vingt-six experts du rapport “The Malicious Use of Artificial Intelligence”[1].

Des recommandations aux grands acteurs des mondes scientifique et politique

Pour répondre aux menaces émergentes de l’IA, le rapport formule trois recommandations aux grands acteurs des mondes scientifiques et politique :

#1 Les décideurs doivent collaborer étroitement avec les chercheurs techniques pour enquêter, prévenir et atténuer les utilisations malveillantes potentielles.

#2 Les chercheurs en Intelligence artificielle doivent prendre au sérieux le risque de double usage et laisser ce risque influencer leurs priorités et leurs normes de travail. Par exemple, lorsque des potentielles applications dangereuses sont identifiées, ils doivent alerter les acteurs adéquats. Ils devraient aussi identifier les “bests practices” dans des domaines de recherche plus mature où il y a ce type de risque pour les appliquer à leur domaine.

#3 Le rapport préconise aussi que l’éventail des parties prenantes et des experts en IA impliqués dans les discussions sur ces enjeux soit élargi au maximum.

Des axes prioritaires pour la recherche autour de l’IA

#1 Les chercheurs doivent apprendre de la communauté de la cybersécurité et travailler avec elle.  Elle est en effet en première ligne face aux IA criminelles. A ce titre, le rapport évoque plusieurs sous champs de recherche prioritaires à explorer :

  • L’utilisation et l’extension par les développeurs d’IA du pentesting et red teaming pour découvrir et réparer les potentielles failles de sécurité et de sûreté.
  • L’exploration des moyens de faire de la vérification formelle sur les algorithmes d’IA.
  • La mise à disposition de systèmes spécifiques à l’IA pour faire de la divulgation responsable et reporter de manière confidentielle des failles.
  • Travailler avec des white hat dans la prédiction des possibilités d’attaques et des proliférations d’IA pour mieux préparer la défense des SI.
  • Réfléchir aux outils de sécurité à développer et distribuer pour tester les systèmes d’IA sur les failles de sécurités communes à la manière des outils utilisés par les professionnels de la cybersécurité
  • Travailler sur du hardware sécurisé spécifique à l’IA, pour empêcher la copie, restreindre l’accès et faciliter les audits d’activité.

 

#2 Les auteurs préconisent ensuite de réfléchir à des nouveaux modèles de publication moins ouverts dans la communauté des chercheurs en IA pour répondre aux risques de double-usage. Ils proposent notamment des risk-assessments pré-publication pour déterminer le niveau d’ouverture approprié pour la publication ; Un modèle de licences d’accès centralisé pour accéder à des services d’IA sans connaître les détails techniques des services et en bénéficiant de solutions orientées vers la sécurité ; Un régime de partage des recherches entre acteurs éthiques ; Des normes et des institutions inspirées de celle déjà créés pour gérer les technologies à double-usage.

 

#3 Les rédacteurs du rapport appellent ensuite à des recherches dans les moyens de promotion d’une culture de la responsabilité : En explorant les meilleures méthodes de formation des scientifiques à l’usage responsable des technologies ; En se penchant sur les engagements éthiques et les normes autour de l’IA ; En étudiant les mesures possibles autour des lanceurs d’alerte ; En promouvant des récits nuancés sur l’intelligence artificielle pour éviter un biais d’optimisme.

 

#4 Enfin, les chercheurs préconisent le développement de réponses politiques pour accompagner les solutions technologiques. Il s’agirait notamment de réfléchir au rôle des institutions dans la protection de la vie privée ; À des organismes diffusant et partageant des techniques de sécurité au grand public pour équilibrer la balance attaques/défense; Aux manières de surveiller les ressources autour de l’IA (hardware, talents, code, données); Ainsi qu’à d’autres réponses passant par la voie légale et réglementaire.

 

Aussi d’un point de vue plus opérationnel, on pourrait ajouter à ces préconisations aux chercheurs, 3 besoins des entreprises pour leur cybersécurité :

  • Le besoin de former en permanence les développeurs aux usages des “best practices” du développement sécurisé.
  • Le besoin d’IA de pentest/redteaming pour aider les pentesters à identifier les failles de sécurité dans les SI.
  • Le besoin d’IA défensives pour contrer les IA des attaquants. Celle-ci viendrait en aide ou remplacerait l’équipe SoC, ainsi que le rôle d’un CERT pour une première mitigation rapide de l’attaque.

Maintenir l’équilibre entre IA criminelle et cybersécurité

Le rapport identifie trois facteurs qui, à moyen terme (plus de 5 ans), influeront sur l’équilibre entre les attaques d’IA et la défense des SI. Le premier est la capacité des attaquants à accéder aux technologies d’IA. Cette capacité peut être notamment enrayée si les acteurs politiques internationaux parviennent à limiter la prolifération des codes d’IA. Le deuxième est l’émergence d’outils de défense basés sur l’IA. Le troisième facteur est la distribution et la généralisation des moyens de défense au-delà des milieux high tech à gros budgets : c’est à dire dans les entreprises réfractaires aux technologies, dans les états manquants des ressources, dans les PME ou chez les particuliers.

Que faire ?

Les solutions semblent d’abord relever des chercheurs et des décideurs politiques. Cependant, les acteurs de la cybersécurité seront les premiers touchés par les usages malveillants de l’Intelligence Artificielle. Le rapport souligne que la sécurité informatique fera l’objet des expérimentations criminelles de l’IA avant la sécurité physique ou la sécurité politique. Les acteurs de la cybersécurité doivent donc prendre pleinement leur place dans les discussions autour des enjeux de l’Intelligence artificielle.

 

Albert de Mereuil – consultant en cybersécurité chez Harmonie Technologie

[1] Report “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” : https://img1.wsimg.com/blobby/go/3d82daa4-97fe-4096-9c6b-376b92c619de/downloads/1c6q2kc4v_50335.pdf

Retrouvez tous nos domaines d'expertise