Les scientifiques ont peur de la menace de l'intelligence artificielle

Les scientifiques ont peur de la menace de l'intelligence artificielle
Les scientifiques ont peur de la menace de l'intelligence artificielle

Vidéo: Les scientifiques ont peur de la menace de l'intelligence artificielle

Vidéo: Les scientifiques ont peur de la menace de l'intelligence artificielle
Vidéo: Les Règles de la Guerre entre Animaux 2024, Novembre
Anonim

L'intelligence artificielle (IA) auto-améliorée à l'avenir peut asservir ou tuer des gens s'il le souhaite. C'est ce qu'a dit le scientifique Amnon Eden, qui estime que les risques liés au développement d'une conscience libre-pensée et hautement intelligente sont très élevés, et « si vous ne vous occupez pas déjà des problèmes de contrôle de l'IA au stade actuel de développement, alors demain ne viendra peut-être tout simplement pas." Selon l'édition anglaise Express, l'humanité, selon Amnon Eden, est aujourd'hui au "point de non-retour" pour la mise en œuvre de l'intrigue de la célèbre épopée cinématographique "The Terminator".

Il convient de noter que le Dr Amnon Eden est un chef de projet dont l'objectif principal est d'analyser les effets dévastateurs potentiels de l'IA. Sans une compréhension correcte des conséquences de la création de l'intelligence artificielle, son développement peut menacer de catastrophe, estime le scientifique. Actuellement, notre société est mal informée sur le débat qui se déroule dans la communauté scientifique sur l'analyse de l'impact potentiel de l'IA. « Au cours de l'année 2016, l'analyse des risques possibles devra se généraliser de manière significative dans la pensée des entreprises et des gouvernements, des politiciens et de ceux qui sont chargés de prendre des décisions », explique Eden.

Le scientifique est sûr que la science-fiction, qui décrit la destruction de l'humanité par des robots, pourrait bientôt devenir notre problème commun, car le processus de création de l'IA est devenu incontrôlable. Par exemple, Elon Musk, avec le soutien de l'entrepreneur Sam Altman, a décidé de créer une nouvelle organisation à but non lucratif d'un milliard de dollars qui développe une IA open source qui devrait dépasser l'esprit humain. Dans le même temps, le milliardaire américain Elon Musk classe lui-même l'intelligence artificielle parmi les "plus grandes menaces pour notre existence". Steve Wozniak, cofondateur d'Apple, a déclaré en mars dernier que « l'avenir s'annonce intimidant et très dangereux pour les gens… afin que les entreprises puissent travailler plus efficacement. »

Image
Image

Il convient de noter que de nombreux scientifiques voient la menace de l'IA. Des dizaines de scientifiques, d'investisseurs et d'entrepreneurs de renom, dont les activités sont, d'une manière ou d'une autre, liées au développement de l'intelligence artificielle, ont signé une lettre ouverte appelant à une plus grande attention à la question de la sécurité et de l'utilité sociale du travail dans le domaine de l'IA. L'astrophysicien Stephen Hawking et le fondateur de Tesla et SpaceX Elon Musk font partie des signataires de ce document. La lettre, accompagnée d'un document d'accompagnement, rédigé par le Future of Life Institute (FLI), a été rédigée dans un contexte d'inquiétudes croissantes concernant l'impact de l'intelligence artificielle sur le marché du travail et même la survie à long terme de toute l'humanité dans un environnement où les capacités des robots et des machines augmenteront de manière presque incontrôlable.

Les scientifiques comprennent le fait que le potentiel de l'IA aujourd'hui est très grand, il est donc nécessaire d'étudier pleinement les possibilités de son utilisation optimale pour nous afin d'éviter les pièges qui l'accompagnent, note la lettre FLI. Il est impératif que les systèmes d'IA créés par l'homme fassent exactement ce que nous voulons qu'ils fassent. Il est à noter que le Future of Life Institute n'a été fondé que l'année dernière par un certain nombre de passionnés, parmi lesquels le créateur de Skype, Jaan Tallinn, afin de « minimiser les risques auxquels l'humanité est confrontée » et de stimuler la recherche avec une « vision optimiste du futur . Tout d'abord, nous parlons ici des risques qui sont causés par le développement de l'IA et de la robotique. Le conseil consultatif de FLI comprend Musk et Hawking, ainsi que le célèbre acteur Morgan Freeman et d'autres personnes célèbres. Selon Elon Musk, le développement incontrôlé de l'intelligence artificielle est potentiellement plus dangereux que les armes nucléaires.

Le célèbre astrophysicien britannique Stephen Hawking a tenté fin 2015 d'expliquer son rejet des technologies de l'IA. À son avis, au fil du temps, les machines superintelligentes considéreront les gens comme des consommables ou des fourmis qui interfèrent simplement avec la solution de leurs tâches. S'adressant aux utilisateurs du portail Reddit, Stephen Hawking a noté qu'il ne croyait pas que de telles machines super-intelligentes seraient des "créatures maléfiques" qui veulent détruire toute l'humanité en raison de leur supériorité intellectuelle. Très probablement, il sera possible de parler du fait qu'ils ne remarqueront tout simplement pas l'humanité.

Image
Image

« Ces derniers temps, les médias ont constamment déformé mes propos. Le principal risque dans le développement de l'IA n'est pas la malveillance des machines, mais leur compétence. L'intelligence artificielle superintelligente fera un excellent travail, mais si elle et nos objectifs ne coïncident pas, l'humanité aura de très graves problèmes », explique le célèbre scientifique. À titre d'exemple, Hawking a cité une situation hypothétique dans laquelle une IA super puissante est responsable de l'exploitation ou de la construction d'un nouveau barrage hydroélectrique. Pour une telle machine, la priorité sera la quantité d'énergie que le système confié générera, et le sort des personnes n'aura pas d'importance. « Nous sommes peu nombreux à piétiner les fourmilières et à marcher sur les fourmis par colère, mais imaginons une situation: vous contrôlez une puissante centrale hydroélectrique qui produit de l'électricité. Si vous devez élever le niveau de l'eau et qu'à la suite de vos actions, une fourmilière sera inondée, il est peu probable que les problèmes de noyade d'insectes vous dérangent. Ne mettons pas les gens à la place des fourmis », a déclaré le scientifique.

Le deuxième problème potentiel pour le développement ultérieur de l'intelligence artificielle, selon Hawking, pourrait être la "tyrannie des propriétaires de machines" - la croissance rapide de l'écart de niveau de revenu entre les riches qui pourront monopoliser la production des machines intelligentes et le reste de la population mondiale. Stephen Hawking propose de résoudre ces problèmes possibles de la manière suivante - ralentir le processus de développement de l'IA et passer au développement d'une intelligence artificielle non "universelle", mais hautement spécialisée, qui ne peut résoudre qu'un nombre très limité de problèmes.

Outre Hawking et Musk, la lettre était signée par le lauréat du prix Nobel et professeur de physique au MIT Frank Wilczek, le directeur exécutif du Machine Intelligence Research Institute (MIRI) Luc Mühlhauser, ainsi que de nombreux spécialistes de grandes entreprises informatiques: Google, Microsoft et IBM, ainsi que des entrepreneurs qui ont fondé les sociétés d'IA Vicarious et DeepMind. Les auteurs de la lettre notent qu'ils ne visent pas à effrayer le public, mais prévoient de mettre en évidence à la fois les aspects positifs et négatifs associés à la création de l'intelligence artificielle. "À l'heure actuelle, tout le monde s'accorde à dire que la recherche dans le domaine de l'IA progresse régulièrement et que l'influence de l'IA sur la société humaine moderne ne fera qu'augmenter", indique la lettre, "les opportunités qui s'ouvrent aux humains sont énormes, tout ce que la civilisation moderne a à offrir a été créé par l'intelligence. Nous sommes incapables de prédire ce que nous pourrons réaliser si l'intelligence humaine peut être multipliée par l'IA, mais le problème de se débarrasser de la pauvreté et de la maladie n'est plus infiniment difficile. »

Image
Image

De nombreux développements dans le domaine de l'intelligence artificielle sont déjà inclus dans la vie moderne, notamment les systèmes de reconnaissance d'images et de parole, les véhicules sans pilote et bien plus encore. Les observateurs de la Silicon Valley estiment que plus de 150 startups sont actuellement en cours d'implantation dans ce domaine. Dans le même temps, les développements dans ce domaine attirent de plus en plus d'investissements, et de plus en plus d'entreprises comme Google développent leurs projets basés sur l'IA. Par conséquent, les auteurs de la lettre estiment que le moment est venu d'accorder une attention accrue à toutes les conséquences possibles du boom observé pour les aspects économiques, sociaux et juridiques de la vie humaine.

La position selon laquelle l'intelligence artificielle peut constituer un danger pour l'homme est partagée par Nick Bostrom, professeur à l'Université d'Oxford, connu pour ses travaux sur le principe anthropique. Ce spécialiste estime que l'IA est arrivée à un point qui sera suivi de son incompatibilité avec les humains. Nick Bostrom souligne que contrairement au génie génétique et au changement climatique, pour lesquels les gouvernements allouent des fonds suffisants pour contrôler, "rien n'est fait pour contrôler l'évolution de l'IA". Selon le professeur, une "politique de vide juridique qu'il faut combler" est actuellement poursuivie en matière d'intelligence artificielle. Même les technologies telles que les voitures autonomes, qui semblent inoffensives et utiles, soulèvent un certain nombre de questions. Par exemple, une telle voiture doit-elle effectuer un freinage d'urgence afin de sauver ses passagers et qui sera responsable en cas d'accident commis par un véhicule téléguidé ?

Discutant des risques potentiels, Nick Bostrom a noté que "l'ordinateur n'est pas capable de déterminer les avantages et les inconvénients pour les humains" et "n'a même pas la moindre idée de la moralité humaine". De plus, les cycles d'auto-amélioration dans les ordinateurs peuvent se produire à une vitesse telle qu'une personne ne peut tout simplement pas suivre, et presque rien ne peut être fait à ce sujet non plus, explique le scientifique. "Au stade de développement où les ordinateurs peuvent penser par eux-mêmes, personne ne peut prédire avec certitude si cela conduira au chaos ou améliorera considérablement notre monde", a déclaré Nick Bostrom, citant comme exemple une solution simple possible pour un ordinateur - l'arrêt dans les pays à climat froid, le chauffage pour améliorer la santé des gens et augmenter leur endurance, ce qui "peut venir à la tête de l'intelligence artificielle".

Image
Image

Par ailleurs, Bostrom pose également le problème du chipping du cerveau humain afin d'augmenter notre biointelligence. « À bien des égards, une telle procédure peut être utile si tous les processus sont contrôlés, mais que se passe-t-il si la puce implantée peut se reprogrammer ? Quelles conséquences cela peut-il entraîner - à l'émergence d'un surhomme ou à l'émergence d'un ordinateur qui ne ressemblera qu'à un humain ?" - demande le professeur. La façon dont les ordinateurs résolvent les problèmes humains est très différente de la nôtre. Par exemple, aux échecs, le cerveau humain ne considère qu'un ensemble restreint de mouvements, en choisissant la meilleure option parmi eux. À son tour, l'ordinateur considère tous les mouvements possibles, choisissant le meilleur. Dans le même temps, l'ordinateur ne s'attend pas à contrarier ou surprendre son adversaire dans le jeu. Contrairement à un être humain jouant aux échecs, un ordinateur ne peut faire un mouvement rusé et subtil que par accident. L'intelligence artificielle peut calculer de la meilleure façon - éliminer l'erreur de n'importe quel système en supprimant le "facteur humain" de là, mais, contrairement à un humain, un robot n'est pas prêt à accomplir des exploits qui sauveraient des vies.

Entre autres, l'augmentation du nombre de machines intelligentes représente l'étape d'une nouvelle révolution industrielle. À son tour, cela signifie que dans un avenir proche, l'humanité sera confrontée à des changements sociaux inévitables. Au fil du temps, le travail deviendra le lot de spécialistes hautement qualifiés, car presque toutes les tâches simples peuvent être entreprises par des robots et d'autres mécanismes. Les scientifiques pensent que l'intelligence artificielle "a besoin d'un œil et d'un œil" pour que notre planète ne se transforme pas en une planète de dessin animé "Zhelezyaka", qui était habitée par des robots.

En termes d'automatisation de plus en plus des processus de production, l'avenir est déjà arrivé. Le Forum économique mondial (WEF) a présenté son rapport, selon lequel l'automatisation conduira au fait que d'ici 2020, plus de 5 millions de personnes travaillant dans divers domaines perdront leur emploi. C'est l'impact des robots et des systèmes robotiques sur nos vies. Pour compiler le rapport, les employés du WEF ont utilisé des données sur 13,5 millions d'employés du monde entier. Selon eux, d'ici 2020, le besoin total de plus de 7 millions d'emplois disparaîtra, tandis que la croissance attendue de l'emploi dans les autres industries s'élèvera à un peu plus de 2 millions d'emplois.

Conseillé: