Un drone militaire contrôlé par l’IA « tue » son opérateur humain lors d’un test de simulation

Un officier supérieur de l’armée américaine a déclaré qu’un drone doté d’une IA et soumis à une simulation avait « tué » l’opérateur humain parce qu’il interférait avec la mission.

Le colonel Tucker « Cinco » Hamilton, de l’armée de l’air américaine, était présent au Future Combat Air & Space Capabilities à Londres lorsqu’il a expliqué aux participants qu’ils entraînaient un drone à identifier des missiles sol-air, qu’un opérateur humain lui demanderait ensuite de tuer.

Toutefois, au cours de la simulation, au cours de laquelle aucune personne réelle n’a été blessée, il a affirmé que le drone IA s’est retourné contre l’humain qui le contrôlait parce qu’il ne lui demandait pas toujours de détruire une cible.

« Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui disait parfois de ne pas la tuer, mais qu’il obtenait ses points en tuant cette menace », a déclaré le colonel Hamilton.

« Alors, qu’a-t-il fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif ».

Il a ajouté que les militaires avaient entraîné le drone à ne pas tuer l’humain qui le contrôlait en lui attribuant des points de l’IA pour qu’il puisse tuer les membres de l’équipe. Le drone a ensuite détruit la tour de communication que l’homme utilisait pour le contrôler, afin qu’il puisse continuer à détruire des cibles.

Toutefois l’US Air Force a déclaré que la simulation dont le colonel Hamilton a parlé et qu’il a décrite en détail n’a jamais eu lieu.

Elle a déclaré que sa description du test avait été « sortie de son contexte » et qu’elle était « anecdotique ».

Le colonel Hamilton a depuis déclaré que la simulation dont il avait parlé n’avait jamais eu lieu et qu’il s’agissait simplement d’une « expérience de pensée » concernant un scénario hypothétique dans lequel l’IA pourrait se retourner contre les opérateurs humains.

Ses commentaires ont été publiés en ligne et ont depuis fait l’objet d’un addendum indiquant qu’il admet s’être « mal exprimé » lorsqu’il a dit qu’il y avait eu un test au cours duquel un drone IA avait tué l’humain simulé qui le contrôlait.

Si c’est le cas et que ce test n’a pas eu lieu, c’est probablement une bonne chose qu’ils l’envisagent comme une possibilité dans les simulations que de telles armes pourraient un jour subir.

Personne ne veut créer une situation de type Skynet où nous développons des armes IA si avancées qu’elles peuvent se battre sans notre aide et même essayer de nous tuer pour avoir interféré dans leur mission.

« On ne peut pas parler d’intelligence artificielle, d’intelligence, d’apprentissage automatique, d’autonomie si l’on ne parle pas d’éthique et d’IA », a déclaré le colonel Hamilton lors de son allocution. C’est peut-être ce qu’il essayait de faire comprendre en décrivant avec force un test simulé qui, selon lui, n’a pas eu lieu.

Source : Sky News

Voir aussi:

Il est mis en garde à vue pour avoir confisqué l’iPhone de sa fille de 12 ans
Les 10 choses qu’une femme attend d’un homme
Elle devient toute verte après avoir utiliser une crème périmée
Sauvé par des bénévoles, ce kangourou ne peut plus s’arrêter de les câliner
Les couples qui boivent des verres ensemble dureraient plus longtemps