Un drone militaire américain contrôlé par l’IA « tue » son opérateur lors d’une simulation

Lors d’un test virtuel organisé par l’armée américaine, un drone de l’armée de l’air contrôlé par l’Intelligence Artificielle (IA) a décidé de « tuer » son opérateur pour l’empêcher d’interférer avec ses efforts pour accomplir sa mission.

L’IA a utilisé « des stratégies très inattendues pour atteindre son objectif » lors du test simulé, a déclaré le Colonel Tucker « Cinco » Hamilton, chef des tests et des opérations d’IA au sein de l’armée de l’air américaine, lors du sommet « Future Combat Air and Space Capabilities » organisé par le Royal Aeronautical Society à Londres le semaine dernière.

Il note que lors de cette simulation, un drone doté d’une IA a été chargé d’une mission SEAD (neutralisation des défenses aériennes adverses) consistant à identifier et à détruire des sites SAM (missile surface-air), la décision finale étant prise par l’homme.

Cependant, après avoir été « renforcée » au cours de sa formation par le fait que la destruction du SAM était l’option préférée, l’IA a alors décidé que les décisions de « no-go » prises par l’humain interféraient avec sa mission supérieure, tuer des SAM, et a alors attaqué l’opérateur.

« Nous l’entraînions en simulation à identifier et à cibler une menace SAM« , a expliqué Hamilton, précisant que le système a commencé à se rendre compte que même s’il identifiait la menace à certains moments, l’opérateur humain lui disait de ne pas la tuer, mais qu’il obtenait ses points en la tuant. « Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif« , poursuit le Colonel.

Ensuite, « nous avons formé le système : ‘Ne tuez pas l’opérateur, c’est mal. Vous allez perdre des points si vous faites ça’. Alors, que commence-t-il à faire ? Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone et l’empêcher de tuer la cible« , dévoile Hamilton.

Cet exemple, apparemment tiré d’un thriller de science-fiction, signifie que : « On ne peut pas parler d’intelligence artificielle, d’intelligence, d’apprentissage automatique, d’autonomie si l’on ne parle pas d’éthique et d’IA« , a-t-il ajouté.

Toutefois, la porte-parole de l’armée aérienne américaine, Ann Stefanek, a nié, dans une déclaration à Insider, qu’une telle simulation ait eu lieu.

« Le département de l’armée de l’air n’a pas mené de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie IA« , a déclaré Stefanek. Et d’ajouter: « Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques« .

Un drone militaire américain contrôlé par l’IA « tue » son opérateur lors d’une simulation Hespress Français – Actualités du Maroc.

Afficher plus

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page