Les experts militaires appellent armes autonomes ou systèmes d'armes autonomes (AWS) des types d'armes qui font tout eux-mêmes: ils trouvent une cible et accomplissent une tâche sans intervention humaine. L'un des plus célèbres, jusqu'à présent uniquement dans les films de science-fiction et les livres AWS, sont les soi-disant "robots tueurs".
Elon Musk et plus d'une centaine d'autres experts en robotique écrivent sur la menace mortelle des robots tueurs dans une lettre d'avertissement ouverte à l'ONU. Musk, Mustafa Suleiman, le créateur de la société d'IA DeepMind Technologies, qui appartient désormais à Google, et 114 experts de 26 pays avertissent l'ONU que la course aux armements dans AWS pourrait ouvrir une boîte de Pandore, ce qui peut provoquer des événements imprévisibles et très grand mal à l'humanité. Ils exigent l'interdiction du développement et de la mise en œuvre de systèmes d'armes autonomes.
Tous les signataires sont bien versés en la matière car ils travaillent dans le domaine de l'intelligence artificielle (IA). Ils sont convaincus que l'introduction de robots tueurs dans les armements des armées des pays développés aura la même signification pour les affaires militaires que l'invention de la poudre à canon et des armes nucléaires, qu'ils appellent les première et deuxième révolutions dans les affaires militaires. AWS, pensent-ils, sera la troisième révolution.
"Une fois portés à un niveau élevé, les systèmes d'armes autonomes amèneront les conflits militaires à un niveau d'ampleur que l'humanité n'a jamais vu auparavant", indique la lettre collective. - De plus, cela se produira à grande vitesse. AWS peut devenir une arme de terreur, une arme que les despotes et les terroristes utiliseront contre les civils…"
Les auteurs de la lettre mettent en garde contre une arme encore hypothétique qui peut détruire des personnes sans intervention humaine. Le jour est proche où cela deviendra une dure réalité de la catégorie de la fiction et nous obligera à chercher des réponses à de nombreuses questions difficiles, allant de la gestion sûre de tels systèmes aux problèmes moraux et éthiques causés par la cruauté et l'imprévisibilité « de fer » de machines mortelles.
Musk, avec des partisans qui partagent sa position sur les dangers d'AWS pour l'humanité, souligne qu'il n'y a pas de temps pour la réflexion et la discussion et qu'il est nécessaire d'agir immédiatement. "Nous avons très peu de temps, écrivent-ils à l'ONU. Une fois la boîte de Pandore ouverte, il sera très difficile de la fermer".
Le moment d'écrire une lettre ouverte n'a pas été choisi par hasard. Les experts voulaient coïncider avec le début de la Conférence internationale sur l'intelligence artificielle (IJCAI) à Melbourne. Il devait ouvrir le lundi 21 août, mais l'ONU a décidé de le reporter à novembre.
Au terme d'une lettre ouverte, Elon Musk et ses collègues appellent l'ONU à redoubler d'efforts pour créer une stratégie d'ici novembre pour protéger la planète des robots tueurs.
Plus tôt, Musk lui-même a mis en garde contre les dangers des travaux sur l'intelligence artificielle en tant que telle, car les systèmes basés sur celle-ci peuvent échapper au contrôle humain. Dans le même temps, des voitures équipées de moteurs électriques Tesla roulent déjà sur les routes des États-Unis en mode sans pilote, ce qui n'est pas sans incidents.