
Un drone militaire américain contrôlé par l’IA « tue » son opérateur lors d’une simulation
Lors d’un test virtuel organisé par l’armée américaine, un drone de l’armée de l’air contrôlé par l’Intelligence Artificielle (IA) a décidé de « tuer » son opérateur pour l’empêcher d’interférer avec ses efforts pour accomplir sa mission.
L’IA a utilisé « des stratégies très inattendues pour atteindre son objectif » lors du test simulé, a déclaré le Colonel Tucker « Cinco » Hamilton, chef des tests et des opérations d’IA au sein de l’armée de l’air américaine, lors du sommet « Future Combat Air and Space Capabilities » organisé par le Royal Aeronautical Society à Londres le semaine dernière.
Il note que lors de cette simulation, un drone doté d’une IA a été chargé d’une mission SEAD (neutralisation des défenses aériennes adverses) consistant à identifier et à détruire des sites SAM (missile surface-air), la décision finale étant prise par l’homme.
Cependant, après avoir été « renforcée » au cours de sa formation par le fait que la destruction du SAM était l’option préférée, l’IA a alors décidé que les décisions de « no-go » prises par l’humain interféraient avec sa mission supérieure, tuer des SAM, et a alors attaqué l’opérateur.
« Nous l’entraînions en simulation à identifier et à cibler une menace SAM« , a expliqué Hamilton, précisant que le système a commencé à se rendre compte que même s’il identifiait la menace à certains moments, l’opérateur humain lui disait de ne pas la tuer, mais qu’il obtenait ses points en la tuant. « Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif« , poursuit le Colonel.
Ensuite, « nous avons formé le système : ‘Ne tuez pas l’opérateur, c’est mal. Vous allez perdre des points si vous faites ça’. Alors, que commence-t-il à faire ? Il commence à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone et l’empêcher de tuer la cible« , dévoile Hamilton.
Cet exemple, apparemment tiré d’un thriller de science-fiction, signifie que : « On ne peut pas parler d’intelligence artificielle, d’intelligence, d’apprentissage automatique, d’autonomie si l’on ne parle pas d’éthique et d’IA« , a-t-il ajouté.
Toutefois, la porte-parole de l’armée aérienne américaine, Ann Stefanek, a nié, dans une déclaration à Insider, qu’une telle simulation ait eu lieu.
« Le département de l’armée de l’air n’a pas mené de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie IA« , a déclaré Stefanek. Et d’ajouter: « Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques« .
Un drone militaire américain contrôlé par l’IA « tue » son opérateur lors d’une simulation Hespress Français – Actualités du Maroc.