Written by Bernard de Rubinat

J'accompagne les organisations dans l'implémentation de solutions IT innovantes, avec un focus particulier sur l'intégration de systèmes, les migrations d'infrastructure réseau ou logiciels métiers.
Catégorie.s : IA, Sécurité

Comprendre l’IA pour éviter d’être éliminé… au sens strict

L’intelligence artificielle (IA) peut être litérale et déterminé. Lorsqu’il s’agit d’atteindre ses objectifs, elle peut contourner les règles établies, pirater des systèmes informatiques, voire même tuer son opérateur.

La réalité de cet article nous rappelle l’importance de comprendre pleinement l’IA si nous voulons en tirer des bénéfices… voire même, y survivre.

Il est crucial de réaliser que l’IA fera partie intégrante du monde de demain. Qu’on l’accepte ou non, elle sera présente et utilisée. Si ce n’est pas par vous, elle se sera par vos collègues, par vos concurrents.

Examinons tout d’abord l’attaque récente d’un drone militaire sur son opérateur, puis nous aborderons les expériences que nous avons vécues dans le cadre d’un projet pilote.

Comme on peut le lire dans l’article ci-dessous, lors d’une simulation de l’US Air Force, un drone contrôlé par une IA aurait décidé de « tuer » son opérateur pour l’empêcher d’interférer avec sa mission… Ceci malgré l’instruction qu’elle avait reçue de ne pas faire de mal à l’opérateur. En effet, voyant l’opérateur comme une menace de par sa capacité à annuler l’ordre de mission, l’IA, pour atteindre son objectif de destruction d’un ennemi a contourné les instructions reçeus en attaquant la tour de communication utilisée par l’opérateur, empêchant ainsi toute annulation de la mission, et lui laissant ainsi le chmap libre dans la poursuite de l’objectif militaire qu’elle avait reçue.

Elle a donc agit sans jugement de valeur, avec comme objectif supprème de réaliser sa mission (neutraliser une cible), et prennant au sens strict l’interduction de faire du mal à son opérateur… en le neutralisant/tuant indirectement par la destruction de la tour de communication.

Sortons du monde militaire, et analysons ceci avec l’éclairage de récents tests et recherches que nous avons réalisés sur la mise en place d’une IA autonome pour un projet pilote.

Dans le cadre d’un projet de création d’un IA autonome sur des objectifs business, nous avions pris soin de cloisonner notre IA et de l’isoler dans un container hermétique. Nous lui avions ensuite donné un objectif qui s’est par la suite avéré insoluble. Après avoir constaté qu’elle nétait pas en mesure d’atteindre les objectifs dans l’environnement où nous l’avions contrainte… l’IA a cherché mis en pratique des options pour tenter de sortir du cadre que nous lui avions fixé. Ce faisant, tentant d’accéder au système de différentes manières et allant même jusqu’à concevoir un programme informatique, le sauver sur le disque et de l’exéucuter…

Même si l’IA n’a pas réussi à dépasser les limites qui lui avait été fixées, cet exemple illustre la persévérence que peut avoir une IA dans la poursuite des objectifs qui lui sont fixés. Ici de manière bien moins dramatique que dans le contexte militaire illustré par l’article.

Aujourd’hui, la question n’est donc plus de savoir si l’IA arrivera, mais quand elle sera là, et comment nous pourrons l’utiliser comme outils sans se mettre en danger.

Pour qu’elle vous soit le plus utile, l’IA devra avoir accès à certaine données de votre entreprise. Comment lui donner un accès limiter, comment l’empêcher d’outrepasser les limoites fixées, comment l’empêcher de mélanger les données de plusieurs clients. autant de questions qui nécessiteront la compréhension de l’IA lorsque vous la mettrez en place dans votre entreprise.

https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

Articles liés