ATLAS contradictoire
Au début de l'année dernière, l'armée américaine a réveillé le monde avec la nouvelle du développement du système ATLAS (Advanced Targeting and Lethality Aided System), conçu pour amener les opérations de combat à un nouveau niveau d'automatisation. L'initiative a provoqué une réaction mitigée parmi les gens ordinaires et les experts militaires éclairés. Une grande partie du blâme était sur les développeurs (le centre militaire C5ISR et le Centre d'armement du ministère de la Défense), qui, au nom de l'abréviation euphonique ATLAS, ont inclus les termes « létalité » et « désignation de cible améliorée » dans le nom. Effrayés par les histoires de robots rebelles, les Américains ont critiqué l'initiative de l'armée, disent-ils, elle contredit l'éthique de la guerre. En particulier, beaucoup ont fait référence à la directive du Pentagone 3000.09, qui interdit le transfert du droit d'ouvrir le feu à un système automatisé. L'intégration de l'intelligence artificielle et de l'apprentissage automatique dans les véhicules terrestres, selon les manifestants, pourrait entraîner des pertes subites parmi les civils et les troupes amies. Parmi les critiques figuraient des scientifiques tout à fait respectables - par exemple, Stuart Russell, professeur d'informatique à l'Université de Californie à Berkeley.
Les développeurs ont assez raisonnablement expliqué qu'ATLAS n'a rien à voir avec les hypothétiques "robots tueurs" dont l'humanité rêve depuis le premier "Terminator". Le système est basé sur des algorithmes pour trouver une cible à l'aide de divers systèmes de capteurs, sélectionner les plus importants et en informer l'opérateur. Aux États-Unis, le véhicule blindé de transport de troupes M113 avec système ATLAS intégré est actuellement testé. À l'opérateur de l'arme, les algorithmes d'intelligence artificielle affichent non seulement les cibles les plus dangereuses à l'écran, mais recommandent également le type de munitions et même le nombre de tirs pour une défaite garantie. Selon les développeurs, la décision finale d'atteindre la cible appartient au tireur, et c'est lui qui est responsable du résultat. La tâche principale d'ATLAS dans une version blindée est d'augmenter la vitesse de réponse à une menace potentielle - en moyenne, un char (BMP ou véhicule blindé de transport de troupes) ouvre le feu sur une cible avec un assistant automatique trois fois plus rapide. Naturellement, un véhicule blindé peut fonctionner plus efficacement avec des cibles de groupe. Dans ce cas, l'intelligence artificielle sélectionne rapidement les cibles dans l'ordre de danger du char, guide seule l'arme et recommande le type de munition. Depuis le début du mois d'août, divers types de véhicules blindés dotés de systèmes ATLAS intégrés ont été testés à l'Aberdeen Proving Ground. Sur la base des résultats des travaux, une décision sera prise sur les tests militaires et même sur l'adoption de telles armes.
Les chars sont désormais l'une des cibles les plus conservatrices sur le champ de bataille. Beaucoup d'entre eux ne se sont pas fondamentalement améliorés depuis des décennies, restant dans les années 70-80 du siècle dernier en termes de développement technique. Cette inertie est souvent associée à l'utilisation généralisée des réservoirs dans certains pays. Afin de moderniser sérieusement une armée blindée de plusieurs milliers, d'énormes ressources sont nécessaires. Mais les moyens de contrer les chars se développent à pas de géant. Un excellent exemple est le conflit actuel au Haut-Karabakh, où les drones turcs et israéliens sont extrêmement efficaces contre les chars arméniens. Si l'on fait abstraction des pertes, le calcul du rapport prix/performances de telles armes antichars en fait tout simplement les rois du champ de bataille. Bien sûr, ATLAS ne protégera pas contre les menaces aériennes, mais il peut être un bon outil pour l'alerte précoce des cibles dangereuses pour les chars telles que les équipages ATGM ou les lance-grenades uniques.
Le Pentagone considère le système ATLAS non pas comme une structure militaire unique, mais comme faisant partie d'un grand Projet Convergence. Cette initiative devrait amener la sensibilisation des troupes à un niveau supérieur. Grâce au machine learning, à l'intelligence artificielle et à la saturation sans précédent du champ de bataille en drones, les Américains espèrent augmenter sérieusement la capacité de combat de leurs unités. L'idée clé n'est pas nouvelle: connecter tous les objets sur le champ de bataille avec une structure d'information commune et numériser la réalité environnante. Jusqu'à présent, ATLAS n'est pas entièrement inclus dans le projet Convergence en raison du manque de compétences en matière d'échange de données avec les "voisins", mais à l'avenir, les cerveaux artificiels du réservoir deviendront une propriété commune. Soit dit en passant, dans la publicité du projet, la Chine et la Russie sont désignées comme des cibles militaires sans ambiguïté.
Pas de confiance dans l'électronique
Les troupes américaines ont déjà une expérience négative avec les systèmes robotiques armés. En 2007, trois plates-formes chenillées de petite taille SWORDS (abréviation de Special Weapons Observation Reconnaissance Detection System), armées de mitrailleuses M249, ont été envoyées en Irak. Et bien qu'il ne s'agisse pas de véhicules entièrement autonomes, ils ont réussi à effrayer les soldats avec leurs mouvements chaotiques périodiques des canons de mitrailleuses alors qu'ils patrouillaient dans les rues de Bagdad. Cela a semblé au Pentagone un signe d'imprévisibilité, et les mitrailleurs à chenilles ont été lentement renvoyés chez eux. En 2012, une directive a été émise indiquant que les systèmes d'armes automatisés et contrôlés à distance ne devraient pas tirer seuls. Formellement, ATLAS a été entièrement développé dans le cadre de cette disposition, mais il n'y a pas moins de questions sur l'innovation. Certains experts (en particulier Michael S. Horowitz, professeur adjoint de sciences politiques à l'Université de Pennsylvanie) accusent la nouveauté de simplifier à l'excès le processus d'atteinte d'une cible. En fait, ce niveau d'automatisation de la recherche et de la désignation des cibles transforme le combat en un jeu ordinaire comme World of Tanks pour le tireur. Dans le système de guidage ATLAS, la cible prioritaire est surlignée en rouge, une alarme retentit et la technique, comme elle peut, incite une personne à ouvrir le feu. Dans des conditions de combat extrêmes, il y a peu de temps pour prendre une décision de tir, puis le « robot intelligent » vous encourage. En conséquence, le combattant n'a tout simplement pas le temps d'évaluer la situation de manière critique et, sans comprendre, il ouvre le feu. Il est nécessaire d'évaluer comment ATLAS a correctement sélectionné les cibles après le tir. Dans quelle mesure cette approche est-elle éthique et est-elle conforme à la fameuse directive américaine ? Soit dit en passant, Microsoft a déjà réussi à tomber sous le coup de la condamnation publique pour un tel système de désignation de cible monté sur un casque pour l'armée, jusqu'à et y compris un boycott des utilisateurs. Aux États-Unis, il existe depuis de nombreuses années un débat sur la robotisation des systèmes de détection et de guidage. À titre d'exemple, les critiques citent des exemples d'erreurs du système de pilotage automatique sur la voie publique, qui ont déjà fait des victimes. Si même après avoir parcouru des millions de kilomètres, les pilotes automatiques ne sont pas devenus fiables à 100%, alors que pouvons-nous dire d'un ATLAS complètement nouveau, qui peut pousser les pétroliers à tirer sur une personne innocente avec un projectile de 120 mm. Les guerres modernes sont maintenant si sanglantes précisément parce que l'armée a acquis la capacité de tuer à distance, en se cachant derrière une barrière fiable. L'exemple du Haut-Karabakh mentionné confirme une fois de plus cette vérité. Si le combattant est également privé de la possibilité d'évaluer de manière critique les paramètres de la cible (c'est exactement ce à quoi ATLAS mène), alors il peut y avoir beaucoup plus de victimes, et la responsabilité du meurtre peut déjà être partiellement reportée sur la machine.
Et enfin, le principal argument contre les systèmes de type ATLAS parmi les commentateurs pacifistes était la quasi-absence d'interdiction d'ouvrir le feu automatique. Désormais, seules les exigences éthiques du Pentagone (qui ont aussi beaucoup de réserves) interdisent d'automatiser totalement le processus de meurtre. Avec l'introduction d'ATLAS, il n'y aura aucun obstacle technique pour cela. L'armée américaine sera-t-elle en mesure de renoncer à une opportunité aussi prometteuse d'accélérer encore le temps de réponse à une menace et d'empêcher ses combattants d'être attaqués ?