Un drone militaire contrôlé par l’IA « tue » son opérateur humain lors d’un test de simulation
Un officier supérieur de l’armée américaine a déclaré qu’un drone doté d’une IA et soumis à une simulation avait « tué » l’opérateur humain parce qu’il interférait avec la mission.
Le colonel Tucker « Cinco » Hamilton, de l’armée de l’air américaine, était présent au Future Combat Air & Space Capabilities à Londres lorsqu’il a expliqué aux participants qu’ils entraînaient un drone à identifier des missiles sol-air, qu’un opérateur humain lui demanderait ensuite de tuer.
Toutefois, au cours de la simulation, au cours de laquelle aucune personne réelle n’a été blessée, il a affirmé que le drone IA s’est retourné contre l’humain qui le contrôlait parce qu’il ne lui demandait pas toujours de détruire une cible.
« Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui disait parfois de ne pas la tuer, mais qu’il obtenait ses points en tuant cette menace », a déclaré le colonel Hamilton.
« Alors, qu’a-t-il fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif ».
Il a ajouté que les militaires avaient entraîné le drone à ne pas tuer l’humain qui le contrôlait en lui attribuant des points de l’IA pour qu’il puisse tuer les membres de l’équipe. Le drone a ensuite détruit la tour de communication que l’homme utilisait pour le contrôler, afin qu’il puisse continuer à détruire des cibles.
Toutefois l’US Air Force a déclaré que la simulation dont le colonel Hamilton a parlé et qu’il a décrite en détail n’a jamais eu lieu.
Elle a déclaré que sa description du test avait été « sortie de son contexte » et qu’elle était « anecdotique ».
Le colonel Hamilton a depuis déclaré que la simulation dont il avait parlé n’avait jamais eu lieu et qu’il s’agissait simplement d’une « expérience de pensée » concernant un scénario hypothétique dans lequel l’IA pourrait se retourner contre les opérateurs humains.
Ses commentaires ont été publiés en ligne et ont depuis fait l’objet d’un addendum indiquant qu’il admet s’être « mal exprimé » lorsqu’il a dit qu’il y avait eu un test au cours duquel un drone IA avait tué l’humain simulé qui le contrôlait.
Si c’est le cas et que ce test n’a pas eu lieu, c’est probablement une bonne chose qu’ils l’envisagent comme une possibilité dans les simulations que de telles armes pourraient un jour subir.
Personne ne veut créer une situation de type Skynet où nous développons des armes IA si avancées qu’elles peuvent se battre sans notre aide et même essayer de nous tuer pour avoir interféré dans leur mission.
« On ne peut pas parler d’intelligence artificielle, d’intelligence, d’apprentissage automatique, d’autonomie si l’on ne parle pas d’éthique et d’IA », a déclaré le colonel Hamilton lors de son allocution. C’est peut-être ce qu’il essayait de faire comprendre en décrivant avec force un test simulé qui, selon lui, n’a pas eu lieu.
Source : Sky News
Voir aussi:
Une femme amoureuse d’un avion-jouet s’exprime: « On s’embrasse toute la nuit et on fait l’amour » !Un véritable monstre marin à 3 pattes sorti de l’eau par des pêcheurs, il a une tête de blaireau et des tentacules
Âgée 54 ans, Jessie et sa fille de 22 ans ont un compte OnlyFans commun: «Les gens nous contactent pour nous dire que nous avons une relation fantastique»
Une jeune femme de 20 ans condamnée pour avoir pénétré par effraction dans la maison de son ex, le forçant à coucher avec elle
Une jeune fille d’une quinzaine d’années a été filmée en train de jeter son bébé à la poubelle !!