L’intelligence artificielle sera la plus dangereuse cyber menace

de | 5 décembre 2017

Nous lisons beaucoup de choses sur les apports de l’intelligence artificielle pour la détection et la réponse aux cyber attaques. Les dangers liés à l’utilisation de cette technologie par des personnes malveillantes sont peu adressés aujourd’hui. La société Cylance, qui propose des produits de sécurité, a interviewé sur le sujet une centaine d’experts en cyber sécurité lors du Black Hat USA 2017 : le bilan est sans équivoque, 62% de ces experts en cyber sécurité considèrent qu’il est fortement probable qu’une attaque menée par une intelligence artificielle aboutisse dans les 12 prochains mois. A mon sens, si cette prévision se réalise ces attaques seront probablement fulgurantes et d’une violence extrême. Afin de me parvenir à cette conclusion, je me suis posé deux réflexions que je partage dans cette publication.

Quelle est la différence entre ce type de cyber attaques par rapport aux virus et malwares qui infectent leur cible et se propagent en toute autonomie ?

Un attaque basée sur une intelligence artificielle est capable d’adapter son attaque et prendre des décisions en fonction de la cible et la réponse de cette dernière à l’attaque. Afin d’initier son attaque l’intelligence artificielle a besoin des deux choses : son objectif et son intelligence qui lui permet d’élaborer et d’exécuter son attaque. Nous sommes bien loin du ver ou du malware à la Stuxnet ou WannaCry développés dans une logique Fire-and-forget où l’ensemble de leur fonctionnement est programmé. Les changements de comportement d’un ver ou d’un malware est réalisé de manière programmatique, ces changements ayant été intégrés dans le ver ou le malware lors de leur conception. Petite précision complémentaire : les vers ou les malwares dits polymorphes changent uniquement leurs propriétés afin qu’ils ne soient pas détectés par les dispositifs de sécurité tels que les antivirus, leurs modalités d’infection et d’action sur un système compromis ne se modifient pas lors de leur propagation.

Pourquoi une attaque basée sur une IA sera-t-elle plus dangereuse que les attaques actuelles ?

Une IA ne disposera pas d’empathie et encore moins d’une moralité, je ne vois son concepteur, de surcroît malveillant, inculqué ce type de propriété à sa création. Par ailleurs, dans le cas d’une IA sur mesure “off-the-shelf”, il sera compliqué de faire en sorte que celle-ci puisse “refuser” certains objectifs sur la base de principes inculqués lors de leur conception cf. un film sur le sujet 😉 .  Ainsi une intelligence artificielle décidera qui attaquer et les moyens à mettre en oeuvre afin de remplir sa mission sans forcément se poser des questions sur les valeurs métaphysiques de son action. Par exemple, si l’intelligence artificielle a pour objectif de récupérer des données bancaires puis d’effacer ses traces: elle pourra s’attaquer à un hôpital car elle considère que les dossiers des patients contiennent ces informations. Elle ne se préoccupera pas du danger que les patients courent si le système d’information de l’hôpital est compromis.

Une intelligence artificielle sera capable de s’adapter et mener des attaques plus rapidement qu’un attaquant humain, le principe intrinsèque d’une IA est sa capacité “d’apprendre” en fonction des données qui lui sont fournies lors de son apprentissage ainsi que les résultats de son action. Les puissances de traitement d’aujourd’hui et de demain avec l’ordinateur quantique font que l’IA sera capable de s’adapter au contexte du système ciblé largement plus rapidement que le ferait un humain.

Par ailleurs, une IA est capable de paralléliser plusieurs scénarios d’attaque et sur différents fronts afin de compromettre le système ciblé. Là où aujourd’hui un attaquant humain déroule des scénarios d’attaque de manière séquentielle, et pour les meilleurs quelques automatisations,  jusqu’à trouver une faille. Par ailleurs, le temps de réflexion d’un humain pour exploiter une information collectée pendant l’attaque prendra largement plus de temps qu’un calcul réalisé par une intelligence artificielle exécutée  dans une machine très puissante voire quantique.

C’est dans ce contexte qu’au mois d’août dernier 160 fondateurs d’entreprises, qui travaillent sur l’IA ou utilisent cette technologie dans les services qu’elles développent notamment en robotique, ont alerté les Nations unies sur la nécessité de réguler les armes autonomes basées sur une IA, qui couplées, avec des robots/drones, pourraient transformer ces derniers en tueurs aveugles et redoutables. Parmi les signataires, Elon Musk, fondateur de SpaceX et de Tesla.

A méditer.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *