Intelligence artificielle. Deuxième partie : extinction ou immortalité ?

Table des matières:

Intelligence artificielle. Deuxième partie : extinction ou immortalité ?
Intelligence artificielle. Deuxième partie : extinction ou immortalité ?

Vidéo: Intelligence artificielle. Deuxième partie : extinction ou immortalité ?

Vidéo: Intelligence artificielle. Deuxième partie : extinction ou immortalité ?
Vidéo: Russia Would Finish The S-500 Missile Defense Systems Pressed Into Duty To Protect The Capital 2024, Avril
Anonim
Intelligence artificielle. Deuxième partie: extinction ou immortalité ?
Intelligence artificielle. Deuxième partie: extinction ou immortalité ?

Devant vous se trouve la deuxième partie d'un article de la série "Attendez, comme tout cela peut être réel, pourquoi n'en parle-t-on toujours pas à chaque coin de rue". Dans la série précédente, il est devenu connu qu'une explosion d'intelligence s'étend progressivement aux habitants de la planète Terre, elle essaie de passer d'une intelligence étroitement ciblée à une intelligence universelle et, enfin, à une superintelligence artificielle.

"Peut-être sommes-nous confrontés à un problème extrêmement difficile, et on ne sait pas combien de temps est alloué pour sa solution, mais l'avenir de l'humanité peut dépendre de sa solution." - Nick Bostrom.

La première partie de l'article commençait assez innocemment. Nous avons discuté de l'intelligence artificielle étroitement ciblée (IA, qui se spécialise dans la résolution d'un problème spécifique comme déterminer des itinéraires ou jouer aux échecs), il y en a beaucoup dans notre monde. Ensuite, ils ont analysé pourquoi il est si difficile de développer une intelligence artificielle directionnelle générale (AGI, ou AI, qui, en termes de capacités intellectuelles, peut se comparer à un humain pour résoudre n'importe quel problème), est si difficile. Nous avons conclu que le taux exponentiel d'avancement technologique laisse entendre qu'AGI pourrait être au coin de la rue très bientôt. En fin de compte, nous avons décidé que dès que les machines ont atteint l'intelligence humaine, ce qui suit pourrait se produire tout de suite:

Image
Image
Image
Image
Image
Image
Image
Image

Comme d'habitude, nous regardons l'écran, ne croyant pas que la superintelligence artificielle (ISI, qui est bien plus intelligente que n'importe quelle personne) puisse apparaître de notre vivant, et choisissant les émotions qui refléteraient le mieux notre opinion sur cette question.

Avant de plonger dans les détails de l'ISI, rappelons-nous ce que signifie pour une machine d'être superintelligent.

La principale différence réside entre la superintelligence rapide et la superintelligence de qualité. Souvent, la première chose qui vient à l'esprit lorsque l'on pense à un ordinateur superintelligent est qu'il peut penser beaucoup plus vite qu'une personne - des millions de fois plus vite, et en cinq minutes, il comprendra ce que cela prendrait à une personne dix ans. ("Je connais le kung-fu!")

Cela semble impressionnant, et l'ISI devrait vraiment réfléchir plus vite que n'importe qui d'autre - mais la principale caractéristique de séparation sera la qualité de son intelligence, qui est complètement différente. Les humains sont beaucoup plus intelligents que les singes, non pas parce qu'ils pensent plus vite, mais parce que leur cerveau contient un certain nombre de modules cognitifs ingénieux qui réalisent des représentations linguistiques complexes, une planification à long terme, une pensée abstraite, dont les singes ne sont pas capables. Si vous accélérez mille fois le cerveau d'un singe, il ne deviendra pas plus intelligent que nous - même après dix ans, il ne pourra pas assembler un constructeur selon les instructions, ce qui prendrait à une personne au maximum quelques heures. Il y a des choses qu'un singe n'apprendra jamais, peu importe le nombre d'heures qu'il passe ou la vitesse à laquelle son cerveau fonctionne.

De plus, le singe ne sait pas comment humainement, car son cerveau n'est tout simplement pas capable de réaliser l'existence d'autres mondes - le singe peut savoir ce qu'est une personne et ce qu'est un gratte-ciel, mais ne comprendra jamais qu'un gratte-ciel a été construit par personnes. Dans son monde, tout appartient à la nature, et le macaque non seulement ne peut pas construire un gratte-ciel, mais il comprend également que n'importe qui peut le construire. Et c'est le résultat d'une petite différence dans la qualité de l'intelligence.

Dans le schéma général de l'intelligence dont nous parlons, ou simplement selon les normes des êtres biologiques, la différence de qualité de l'intelligence entre les humains et les singes est minime. Dans l'article précédent, nous avons placé les capacités cognitives biologiques sur une échelle:

Image
Image

Pour comprendre à quel point une machine super-intelligente sera sérieuse, placez-la deux crans plus haut que la personne sur cette échelle. Cette machine est peut-être juste un peu surintelligente, mais sa supériorité sur nos capacités cognitives sera la même que la nôtre - sur les singes. Et tout comme un chimpanzé ne comprendra jamais qu'un gratte-ciel peut être construit, nous ne comprendrons peut-être jamais ce qu'une machine quelques pas plus haut comprendra, même si la machine essaie de nous l'expliquer. Mais ce n'est que quelques étapes. La machine la plus intelligente verra des fourmis en nous - elle nous apprendra les choses les plus simples depuis sa position pendant des années, et ces tentatives seront totalement sans espoir.

Le type de superintelligence dont nous allons parler aujourd'hui se situe bien au-delà de cette échelle. Il s'agit d'une explosion d'intelligence - lorsque plus une voiture devient intelligente, plus elle peut augmenter rapidement sa propre intelligence, augmentant progressivement son élan. Cela peut prendre des années pour qu'une machine comme celle-ci surpasse les chimpanzés en intelligence, mais peut-être quelques heures pour nous surpasser de quelques crans. À partir de ce moment, la voiture peut déjà franchir quatre marches par seconde. C'est pourquoi nous devons comprendre que très peu de temps après l'apparition de la première nouvelle que la machine a atteint le niveau d'intelligence humaine, nous pouvons être confrontés à la réalité de la coexistence sur Terre avec quelque chose qui sera beaucoup plus élevé que nous sur cette échelle (ou peut-être, et des millions de fois plus):

Image
Image

Et puisque nous avons établi qu'il est totalement inutile d'essayer de comprendre la puissance d'une machine qui n'est qu'à deux pas au-dessus de nous, définissons une fois pour toutes qu'il n'y a aucun moyen de comprendre ce que fera l'ISI et quelles en seront les conséquences. ce sera pour nous. Quiconque prétend le contraire ne comprend tout simplement pas ce que signifie la superintelligence.

L'évolution a lentement et progressivement fait évoluer le cerveau biologique sur des centaines de millions d'années, et si les humains créent une machine super-intelligente, dans un sens, nous transcenderons l'évolution. Ou cela fera partie de l'évolution - peut-être que l'évolution fonctionne de telle manière que l'intelligence se développe progressivement jusqu'à ce qu'elle atteigne un tournant qui annonce un nouvel avenir pour tous les êtres vivants:

Image
Image

Pour des raisons que nous discuterons plus tard, une grande partie de la communauté scientifique pense que la question n'est pas de savoir si nous arriverons à ce point de basculement, mais quand.

Où finit-on après ça ?

Je pense que personne dans ce monde, ni moi ni vous, ne pourra dire ce qui se passera lorsque nous atteindrons le point de basculement. Le philosophe d'Oxford et théoricien de l'IA Nick Bostrom pense que nous pouvons regrouper tous les résultats possibles en deux grandes catégories.

Tout d'abord, en regardant l'histoire, nous savons ce qui suit sur la vie: les espèces apparaissent, existent pendant un certain temps, puis tombent inévitablement de la poutre d'équilibre et s'éteignent.

Image
Image

"Toutes les espèces meurent" a été une règle aussi fiable dans l'histoire que "toutes les personnes meurent un jour". 99,9% des espèces sont tombées d'une bûche de vie, et il est assez clair que si une espèce s'accroche trop longtemps à cette bûche, une rafale de vent naturel ou un astéroïde soudain renversera la bûche. Bostrom appelle l'extinction l'état d'un attracteur - un endroit où toutes les espèces s'équilibrent afin de ne pas tomber là où aucune espèce n'est encore revenue.

Et bien que la plupart des scientifiques admettent que l'ISI aura la capacité de condamner les gens à l'extinction, beaucoup pensent également que l'utilisation des capacités de l'ISI permettra aux individus (et à l'espèce dans son ensemble) d'atteindre le deuxième état de l'attracteur - l'immortalité des espèces. Bostrom croit que l'immortalité d'une espèce est autant un attracteur que l'extinction d'une espèce, c'est-à-dire que si nous arrivons à cela, nous serons voués à l'existence éternelle. Ainsi, même si toutes les espèces jusqu'à présent sont tombées de ce bâton dans le maelström de l'extinction, Bostrom estime que la bûche a deux faces, et qu'il n'est tout simplement pas apparu sur Terre une telle intelligence qui comprendrait comment tomber de l'autre côté.

Image
Image

Si Bostrom et d'autres ont raison, et à en juger par toutes les informations dont nous disposons, ils pourraient bien l'être, nous devons accepter deux faits très choquants:

L'émergence de l'ISI pour la première fois dans l'histoire ouvrira la voie à une espèce pour atteindre l'immortalité et sortir du cycle fatal de l'extinction.

L'émergence de l'ISI aura un impact tellement énorme que, très probablement, elle poussera l'humanité hors de ce journal dans un sens ou dans l'autre.

Il est possible que lorsque l'évolution atteint un tel tournant, elle mette toujours un terme à la relation des gens avec le courant de la vie et crée un nouveau monde, avec ou sans les gens.

Cela conduit à une question intéressante que seule une déception ne poserait pas: quand arriverons-nous à ce point de basculement et où cela nous mènera-t-il ? Personne au monde ne connaît la réponse à cette double question, mais de nombreuses personnes intelligentes tentent de la comprendre depuis des décennies. Pour le reste de l'article, nous allons découvrir d'où ils viennent.

* * *

Commençons par la première partie de cette question: quand devrions-nous atteindre le point de basculement ? En d'autres termes: combien de temps reste-t-il avant que la première machine n'atteigne la superintelligence ?

Les avis varient d'un cas à l'autre. Beaucoup, dont le professeur Vernor Vinge, le scientifique Ben Herzel, le co-fondateur de Sun Microsystems Bill Joy, le futuriste Ray Kurzweil, étaient d'accord avec l'expert en apprentissage automatique Jeremy Howard lorsqu'il a présenté le graphique suivant à TED Talk:

Image
Image

Ces personnes partagent l'idée que l'ISI arrive bientôt - cette croissance exponentielle, qui nous semble lente aujourd'hui, va littéralement exploser dans les prochaines décennies.

D'autres, comme le cofondateur de Microsoft Paul Allen, le psychologue de recherche Gary Marcus, l'expert en informatique Ernest Davis et l'entrepreneur en technologie Mitch Kapor, pensent que des penseurs comme Kurzweil sous-estiment sérieusement l'ampleur du problème et pensent que nous ne sommes pas aussi près d'un point de basculement.

Le camp de Kurzweil soutient que la seule sous-estimation qui se produit est le mépris de la croissance exponentielle, et les sceptiques peuvent être comparés à ceux qui ont examiné l'Internet en plein essor en 1985 et ont fait valoir que cela n'aurait aucun impact sur le monde dans un avenir proche.

Les sceptiques peuvent repousser qu'il est plus difficile pour le progrès de franchir chaque étape suivante lorsqu'il s'agit du développement exponentiel de l'intelligence, ce qui neutralise la nature exponentielle typique du progrès technologique. Etc.

Le troisième camp, dans lequel se trouve Nick Bostrom, n'est pas d'accord avec le premier ou le second, arguant que a) tout cela peut absolument se produire dans un avenir proche; et b) rien ne garantit que cela se produira ou que cela prendra plus de temps.

D'autres, comme le philosophe Hubert Dreyfus, pensent que les trois groupes croient naïvement qu'il y aura un point de basculement et que nous n'arriverons probablement jamais à l'ISI.

Que se passe-t-il lorsque nous mettons toutes ces opinions ensemble?

En 2013, Bostrom a mené une enquête dans laquelle il a interviewé des centaines d'experts en IA lors d'une série de conférences sur le sujet suivant: « Quelles seront vos prédictions pour atteindre l'IAG au niveau humain ? » et nous a demandé de nommer une année optimiste (dans laquelle nous aurons un AGI avec une probabilité de 10 %), une hypothèse réaliste (une année au cours de laquelle nous aurons un AGI avec une probabilité de 50 %) et une hypothèse confiante (la première année au cours de laquelle AGI apparaîtra depuis 90 -pourcentage de probabilité). Voici les résultats:

* Année optimiste moyenne (10 %): 2022

* Année réaliste moyenne (50 %): 2040

* Année moyenne pessimiste (90%): 2075

Les répondants moyens pensent que dans 25 ans, nous aurons l'AGI plutôt que pas. Une probabilité de 90 % que l'IAG se produise d'ici 2075 signifie que si vous êtes encore assez jeune maintenant, cela se produira très probablement au cours de votre vie.

Une étude distincte récemment menée par James Barratt (auteur du livre acclamé et très bon Our Latest Invention, extraits de J'ai présenté à l'attention des lecteurs Hi-News.ru) et Ben Hertzel à la conférence AGI, la conférence annuelle de l'AGI, ont simplement montré les opinions des gens sur l'année où nous arrivons à l'AGI: 2030, 2050, 2100, plus tard ou jamais. Voici les résultats:

* 2030: 42 % des répondants

* 2050: 25%

* 2100: 20%

Après 2100: 10 %

Jamais: 2%

Similaire aux résultats de Bostrom. Dans le sondage de Barratt, plus des deux tiers des personnes interrogées pensent qu'AGI sera là d'ici 2050, et moins de la moitié pensent qu'AGI apparaîtra dans les 15 prochaines années. Il est également frappant de constater que seulement 2% des personnes interrogées, en principe, ne voient pas AGI dans notre avenir.

Mais AGI n'est pas un point de basculement comme ISI. Quand, selon les experts, aurons-nous un ISI ?

Bostrom a demandé aux experts quand nous atteindrons l'ASI: a) deux ans après avoir atteint l'AGI (c'est-à-dire presque instantanément en raison d'une explosion d'intelligence); b) après 30 ans. Résultats?

L'opinion moyenne est que la transition rapide de l'AGI à l'ISI se produira avec une probabilité de 10 %, mais dans 30 ans ou moins, elle se produira avec une probabilité de 75 %.

À partir de ces données, nous ne savons pas à quelle date les répondants appelleraient une probabilité de 50 % d'un ASI, mais sur la base des deux réponses ci-dessus, supposons qu'il s'agisse de 20 ans. C'est-à-dire que les principaux experts mondiaux en IA pensent que le tournant viendra en 2060 (AGI apparaîtra en 2040 + il faudra 20 ans pour la transition d'AGI à ISI).

Image
Image

Bien sûr, toutes les statistiques ci-dessus sont spéculatives et représentent simplement l'opinion d'experts dans le domaine de l'intelligence artificielle, mais elles indiquent également que la plupart des personnes intéressées conviennent que d'ici 2060, l'IA est susceptible d'arriver. En seulement 45 ans.

Passons à la deuxième question. Quand nous arriverons au point de basculement, quel côté du choix fatal nous déterminera ?

La superintelligence aura le pouvoir le plus puissant, et la question critique pour nous sera la suivante:

Qui ou quoi contrôlera ce pouvoir et quelle sera leur motivation ?

La réponse à cette question dépendra de si l'ISI obtient un développement incroyablement puissant, un développement incroyablement terrifiant, ou quelque chose entre les deux.

Bien entendu, la communauté des experts essaie également de répondre à ces questions. Le sondage de Bostrom a analysé la probabilité de conséquences possibles de l'impact d'AGI sur l'humanité, et il s'est avéré qu'avec 52% de chances que tout se passe très bien et avec 31% de chances que tout se passe mal ou extrêmement mal. Le sondage joint à la fin de la partie précédente de ce sujet, réalisé parmi vous, chers lecteurs de Hi-News, a montré à peu près les mêmes résultats. Pour un résultat relativement neutre, la probabilité n'était que de 17 %. En d'autres termes, nous pensons tous qu'AGI va être un gros problème. Il convient également de noter que cette enquête concerne l'émergence de l'AGI - dans le cas de l'ISI, le pourcentage de neutralité sera plus faible.

Avant d'approfondir la réflexion sur les bons et les mauvais côtés de la question, combinons les deux côtés de la question: « quand cela arrivera-t-il ? » et « est-ce bon ou mauvais ? » dans un tableau qui couvre les opinions de la plupart des experts.

Image
Image

Nous parlerons du camp principal dans une minute, mais décidez d'abord de votre position. Il y a de fortes chances que vous soyez au même endroit que moi avant de commencer à travailler sur ce sujet. Il y a plusieurs raisons pour lesquelles les gens ne pensent pas du tout à ce sujet:

* Comme mentionné dans la première partie, les films ont sérieusement confondu les gens et les faits, présentant des scénarios irréalistes avec l'intelligence artificielle, ce qui a conduit au fait que nous ne devrions pas du tout prendre l'IA au sérieux. James Barratt a comparé cette situation à celle émise par les Centers for Disease Control (CDC) avec un sérieux avertissement concernant les vampires dans notre avenir.

* En raison de soi-disant biais cognitifs, il nous est très difficile de croire que quelque chose est réel jusqu'à ce que nous ayons la preuve. On peut imaginer avec confiance les informaticiens de 1988 discutant régulièrement des conséquences à long terme d'Internet et de ce qu'il pourrait devenir, mais les gens ne croyaient guère que cela changerait leur vie jusqu'à ce que cela se produise réellement. C'est juste que les ordinateurs ne savaient pas comment faire ça en 1988, et les gens ont juste regardé leurs ordinateurs et pensé: « Vraiment ? Est-ce cela qui va changer le monde ? Leur imagination était limitée par ce qu'ils avaient appris de leur expérience personnelle, ils savaient ce qu'était un ordinateur et il était difficile d'imaginer de quoi un ordinateur serait capable à l'avenir. La même chose se passe maintenant avec l'IA. Nous avons entendu dire que cela deviendrait une chose sérieuse, mais comme nous ne l'avons pas encore rencontré face à face et, en général, nous observons des manifestations assez faibles de l'IA dans notre monde moderne, il nous est assez difficile de croire qu'elle va radicalement changer notre vie. C'est contre ces préjugés que de nombreux experts de tous bords, ainsi que des personnes intéressées, s'opposent pour tenter de capter notre attention par le bruit de l'égocentrisme collectif quotidien.

* Même si on croyait à tout cela, combien de fois aujourd'hui avez-vous pensé au fait que vous passerez le reste de l'éternité dans le néant ? Un peu, d'accord. Même si ce fait est bien plus important que tout ce que vous faites jour après jour. C'est parce que notre cerveau se concentre généralement sur de petites choses du quotidien, peu importe à quel point la situation à long terme dans laquelle nous nous trouvons est délirante. C'est juste que nous sommes faits.

L'un des objectifs de cet article est de vous sortir du camp appelé "J'aime penser à d'autres choses" et de vous mettre dans le camp des experts, même si vous êtes juste au croisement entre les deux lignes pointillées du carré. ci-dessus, complètement indécis.

Au cours de la recherche, il devient évident que les opinions de la plupart des gens dérivent rapidement vers le "camp principal", et les trois quarts des experts se répartissent en deux sous-camps dans le camp principal.

Image
Image

Nous visiterons ces deux camps dans leur intégralité. Commençons par le plaisir.

Pourquoi l'avenir pourrait-il être notre plus grand rêve ?

Alors que nous explorons le monde de l'IA, nous trouvons étonnamment beaucoup de personnes dans notre zone de confort. Les gens sur la place en haut à droite bourdonnent d'excitation. Ils croient que nous tomberons du bon côté de la bûche, et ils croient aussi que nous y arriverons inévitablement. Pour eux, l'avenir n'est que le meilleur dont on ne peut que rêver.

Le point qui distingue ces gens des autres penseurs n'est pas qu'ils veulent être du bon côté - mais qu'ils sont sûrs que c'est elle qui nous attend.

Cette confiance est issue d'une polémique. Les critiques pensent que cela vient d'une excitation éblouissante qui éclipse les côtés négatifs potentiels. Mais les partisans disent que les prédictions sombres sont toujours naïves; la technologie continue et nous aidera toujours plus que de nous nuire.

Vous êtes libre de choisir n'importe laquelle de ces opinions, mais mettez de côté le scepticisme et regardez bien le côté heureux de la poutre d'équilibre, en essayant d'accepter le fait que tout ce que vous lisez est peut-être déjà arrivé. Si vous montriez aux chasseurs-cueilleurs notre monde de confort, de technologie et d'abondance sans fin, cela leur semblerait une fiction magique - et nous nous comportons assez modestement, incapables d'admettre que la même transformation incompréhensible nous attend à l'avenir.

Nick Bostrom décrit trois chemins qu'un système d'IA superintelligent peut emprunter:

* Un oracle qui peut répondre à n'importe quelle question exacte, y compris des questions difficiles auxquelles les humains ne peuvent pas répondre - par exemple, "comment rendre un moteur de voiture plus efficace ?" Google est un type primitif d'"oracle".

* Un génie qui exécutera n'importe quelle commande de haut niveau - en utilisant un assembleur moléculaire pour créer une nouvelle version plus efficace d'un moteur automobile - et attendra la prochaine commande.

* Un souverain qui aura un large accès et la capacité de fonctionner librement dans le monde, de prendre ses propres décisions et d'améliorer le processus. Il inventera un moyen de transport privé moins cher, plus rapide et plus sûr qu'une voiture.

Ces questions et tâches, qui nous semblent difficiles, apparaîtront au système surintelligent comme si quelqu'un demandait d'améliorer la situation «mon crayon est tombé de la table», dans laquelle vous le ramasseriez simplement et le remettriez.

Eliezer Yudkowski, spécialiste américain de l'intelligence artificielle, l'a bien dit:

« Il n'y a pas de problèmes difficiles, seulement des problèmes difficiles pour un certain niveau d'intelligence. Allez un cran plus haut (en termes d'intelligence), et certains problèmes passeront soudainement de la catégorie "impossible" au camp "évident". Un cran plus haut - et ils deviendront tous évidents."

Il y a beaucoup de scientifiques, d'inventeurs et d'entrepreneurs impatients qui ont choisi une zone de confort confiant de notre table, mais nous n'avons besoin que d'un seul guide pour marcher pour le mieux dans ce meilleur des mondes.

Ray Kurzweil est ambigu. Certains idolâtrent ses idées, d'autres le méprisent. Certains restent au milieu - Douglas Hofstadter, discutant des idées des livres de Kurzweil, a noté avec éloquence que "c'est comme si vous preniez beaucoup de bonne nourriture et un peu de crottes de chien, puis mélangez le tout de telle manière qu'il est impossible de comprendre ce qui est bien et ce qui est mal."

Que vous aimiez ou non ses idées, il est impossible de passer à côté sans l'ombre d'un intérêt. Adolescent, il a commencé à inventer des choses et, au cours des années suivantes, il a inventé plusieurs choses importantes, notamment le premier scanner à plat, le premier scanner pour convertir le texte en parole, le célèbre synthétiseur de musique Kurzweil (le premier vrai piano électrique) et le premier logiciel de reconnaissance vocale à succès commercial. Il est également l'auteur de cinq livres sensationnels. Kurzweil est apprécié pour ses prédictions audacieuses, et son bilan est assez bon - à la fin des années 80, alors qu'Internet en était encore à ses balbutiements, il a prédit que d'ici les années 2000, le Web deviendrait un phénomène mondial. Le Wall Street Journal a qualifié Kurzweil de « génie agité », Forbes de « machine à penser mondiale », Inc. Magazine - "l'héritier légitime d'Edison", Bill Gates - "le meilleur de ceux qui prédisent l'avenir de l'intelligence artificielle". En 2012, le co-fondateur de Google, Larry Page, a invité Kurzweil au poste de CTO. En 2011, il a cofondé Singularity University, hébergée par la NASA et en partie sponsorisée par Google.

Sa biographie compte. Quand Kurzweil parle de sa vision de l'avenir, cela semble fou, mais ce qui est vraiment fou, c'est qu'il est loin d'être fou - c'est une personne incroyablement intelligente, instruite et saine d'esprit. Vous pouvez penser qu'il se trompe dans ses prédictions, mais ce n'est pas un imbécile. Les prédictions de Kurzweil sont partagées par de nombreux experts de la zone de confort, Peter Diamandis et Ben Herzel. C'est ce qu'il pense qu'il va se passer.

Chronologie

Kurzweil pense que les ordinateurs atteindront le niveau d'intelligence artificielle générale (AGI) d'ici 2029, et d'ici 2045, nous aurons non seulement une superintelligence artificielle, mais aussi un monde complètement nouveau - le temps de la soi-disant singularité. Sa chronologie de l'IA est toujours considérée comme outrageusement exagérée, mais au cours des 15 dernières années, le développement rapide de systèmes d'intelligence artificielle (IA) hautement ciblés a contraint de nombreux experts à se ranger du côté de Kurzweil. Ses prévisions sont toujours plus ambitieuses que celles de l'enquête de Bostrom (AGI d'ici 2040, ISI d'ici 2060), mais pas de beaucoup.

Selon Kurzweil, la Singularité de 2045 est alimentée par trois révolutions simultanées dans la biotechnologie, la nanotechnologie et, plus important encore, l'IA. Mais avant de continuer - et la nanotechnologie suit de près l'intelligence artificielle - prenons un moment sur la nanotechnologie.

Image
Image

Quelques mots sur les nanotechnologies

Nous appelons généralement les technologies nanotechnologiques qui traitent de la manipulation de la matière dans la plage de 1 à 100 nanomètres. Un nanomètre est un milliardième de mètre, ou un millionième de millimètre; dans la plage de 1 à 100 nanomètres, les virus (100 nm de diamètre), l'ADN (10 nm de largeur), les molécules d'hémoglobine (5 nm), le glucose (1 nm) et d'autres peuvent être logés. Si jamais la nanotechnologie nous est soumise, la prochaine étape consistera à manipuler des atomes individuels de moins d'un ordre de grandeur (~, 1 nm).

Pour comprendre où les humains rencontrent des problèmes en essayant de manipuler la matière à une telle échelle, passons à une plus grande échelle. La Station spatiale internationale est à 481 kilomètres au-dessus de la Terre. Si les humains étaient des géants et frappaient l'ISS avec leur tête, ils seraient 250 000 fois plus gros qu'aujourd'hui. Si vous agrandissez quelque chose de 1 à 100 nanomètres 250 000 fois, vous obtenez 2,5 centimètres. La nanotechnologie est l'équivalent d'un humain, en orbite autour de l'ISS, essayant de manipuler des choses de la taille d'un grain de sable ou d'un globe oculaire. Pour passer au niveau supérieur - le contrôle des atomes individuels - le géant devra positionner soigneusement des objets d'un diamètre de 1/40 de millimètre. Les gens ordinaires auront besoin d'un microscope pour les voir.

Pour la première fois, Richard Feynman a parlé de nanotechnologie en 1959. Puis il dit: « Les principes de la physique, pour autant que je sache, ne s'opposent pas à la possibilité de contrôler les choses atome par atome. En principe, un physicien pourrait synthétiser n'importe quel produit chimique qu'un chimiste a écrit. Comment? En plaçant des atomes là où le chimiste dit d'aller chercher la substance. C'est toute la simplicité. Si vous savez comment déplacer des molécules ou des atomes individuels, vous pouvez presque tout faire.

La nanotechnologie est devenue un domaine scientifique sérieux en 1986 lorsque l'ingénieur Eric Drexler a présenté ses fondements dans son livre séminal Machines of Creation, mais Drexler lui-même estime que ceux qui veulent en savoir plus sur les idées modernes en nanotechnologie devraient lire son livre de 2013. Full Abundance (Radical Abondance).

Quelques mots sur "gris goo"

Nous approfondissons la nanotechnologie. En particulier, le thème de la "gray goo" est l'un des sujets peu agréables dans le domaine des nanotechnologies, qui ne peut être ignoré. Des versions plus anciennes de la théorie de la nanotechnologie proposaient une méthode de nano-assemblage impliquant la création de milliers de milliards de minuscules nanorobots qui travailleraient ensemble pour créer quelque chose. Une façon de créer des milliards de nanorobots est d'en créer un qui peut s'auto-répliquer, c'est-à-dire de un à deux, de deux à quatre, et ainsi de suite. Plusieurs milliers de milliards de nanorobots apparaîtront en une journée. C'est la puissance de la croissance exponentielle. C'est drôle, n'est-ce pas ?

C'est drôle, mais exactement jusqu'à ce que cela mène à l'apocalypse. Le problème est que la puissance de la croissance exponentielle, qui en fait un moyen assez pratique de créer rapidement un billion de nanobots, fait de l'auto-réplication une chose effrayante à long terme. Que se passe-t-il si le système tombe en panne et qu'au lieu d'arrêter la réplication pour quelques milliers de milliards, les nanobots continuent de se reproduire ? Et si tout ce processus dépendait du carbone ? La biomasse de la Terre contient 10 ^ 45 atomes de carbone. Un nanobot devrait être de l'ordre de 10 ^ 6 atomes de carbone, donc 10 ^ 39 nanobots dévoreront toute la vie sur Terre en seulement 130 réplications. Un océan de nanobots ("gris goo") va inonder la planète. Les scientifiques pensent que les nanobots peuvent se répliquer en 100 secondes, ce qui signifie qu'une simple erreur peut tuer toute vie sur Terre en seulement 3,5 heures.

Cela pourrait être encore pire - si les terroristes et les spécialistes défavorables atteignent les mains de la nanotechnologie. Ils pourraient créer plusieurs milliers de milliards de nanobots et les programmer pour qu'ils se répandent tranquillement dans le monde en quelques semaines. Ensuite, sur simple pression d'un bouton, en seulement 90 minutes, ils mangeront de tout, sans aucune chance.

Bien que cette histoire d'horreur fasse l'objet de nombreuses discussions depuis des années, la bonne nouvelle est qu'il ne s'agit que d'une histoire d'horreur. Eric Drexler, qui a inventé le terme "gray goo", a récemment déclaré ce qui suit: "Les gens adorent les histoires d'horreur, et c'est l'une des histoires d'horreur de zombies. Cette idée en elle-même mange déjà des cerveaux. »

Une fois que nous arrivons au fond de la nanotechnologie, nous pouvons l'utiliser pour créer des appareils techniques, des vêtements, de la nourriture, des bioproduits - des cellules sanguines, des combattants contre les virus et le cancer, des tissus musculaires, etc. Et dans un monde qui utilise les nanotechnologies, le coût d'un matériau ne sera plus lié à sa rareté ou à la complexité de son procédé de fabrication, mais plutôt à la complexité de sa structure atomique. Dans le monde de la nanotechnologie, un diamant pourrait être moins cher qu'une gomme.

Nous ne sommes même pas encore proches là-bas. Et il n'est pas tout à fait clair si nous sous-estimons ou surestimons la complexité de ce chemin. Cependant, tout va au point que la nanotechnologie n'est pas loin. Kurzweil suppose que d'ici les années 2020, nous les aurons. Les États du monde savent que la nanotechnologie peut promettre un grand avenir, et c'est pourquoi ils y investissent plusieurs milliards.

Imaginez simplement les possibilités qu'un ordinateur superintelligent obtiendrait s'il passait par un assembleur fiable à l'échelle nanométrique. Mais la nanotechnologie est notre idée, et nous essayons de la monter, c'est difficile pour nous. Et s'il ne s'agissait que d'une blague pour le système ISI, et que l'ISI lui-même propose des technologies qui seront bien plus puissantes que tout ce que nous pouvons, en principe, supposer ? Nous nous sommes mis d'accord: personne ne peut imaginer de quoi la superintelligence artificielle sera capable ? On pense que notre cerveau est incapable de prédire même le minimum de ce qui va se passer.

Que pourrait faire l'IA pour nous ?

Image
Image

Armé de la superintelligence et de toute la technologie que la superintelligence pourrait créer, ISI sera probablement capable de résoudre tous les problèmes de l'humanité. Le réchauffement climatique? ISI arrêtera d'abord les émissions de carbone en inventant une multitude de moyens efficaces de générer de l'énergie qui ne sont pas liés aux combustibles fossiles. Il proposera alors un moyen efficace et innovant d'éliminer l'excès de CO2 de l'atmosphère. Cancer et autres maladies ? Pas de problème - les soins de santé et la médecine vont changer d'une manière inimaginable. La faim dans le monde? ISI utilisera la nanotechnologie pour créer une viande identique à la vraie viande naturelle, à partir de zéro.

La nanotechnologie sera capable de transformer un tas d'ordures en une cuve de viande fraîche ou d'autres aliments (pas nécessairement même sous sa forme habituelle - imaginez un cube de pomme géant) et de distribuer toute cette nourriture à travers le monde à l'aide de systèmes de transport avancés. Bien sûr, ce sera formidable pour les animaux qui ne doivent plus mourir pour se nourrir. ISI peut également faire beaucoup d'autres choses, comme préserver les espèces menacées, ou même ramener celles qui ont disparu à partir de l'ADN stocké. ISI peut résoudre nos problèmes macroéconomiques les plus difficiles - nos débats économiques les plus difficiles, les questions éthiques et philosophiques, le commerce mondial - qui seront tous douloureusement évidents pour ISI.

Mais il y a quelque chose de très spécial que l'ISI pourrait faire pour nous. Séduisant et alléchant qui changerait tout: ISI peut nous aider à faire face à la mortalité … Comprenant progressivement les capacités de l'IA, vous reconsidérerez peut-être toutes vos idées sur la mort.

Il n'y avait aucune raison pour que l'évolution prolonge notre durée de vie plus longtemps qu'elle ne le fait maintenant. Si nous vivons assez longtemps pour donner naissance et élever des enfants jusqu'à ce qu'ils puissent se débrouiller seuls, l'évolution suffit. D'un point de vue évolutif, plus de 30 ans suffisent pour le développement, et il n'y a aucune raison pour que les mutations prolongent la vie et réduisent la valeur de la sélection naturelle. William Butler Yates a appelé notre espèce "une âme attachée à un animal mourant". Pas très amusant.

Et puisque nous mourons tous un jour, nous vivons avec l'idée que la mort est inévitable. Nous pensons au vieillissement au fil du temps - continuer à avancer et ne pas pouvoir arrêter ce processus. Mais la pensée de la mort est perfide: captivée par elle, on oublie de vivre. Richard Feynman a écrit:

« Il y a une chose merveilleuse en biologie: il n'y a rien dans cette science qui parlerait de la nécessité de la mort. Si nous voulons créer une machine à mouvement perpétuel, nous réalisons que nous avons trouvé suffisamment de lois en physique qui indiquent soit l'impossibilité de cela, soit que les lois sont fausses. Mais il n'y a rien en biologie qui indiquerait l'inévitabilité de la mort. Cela m'amène à croire que ce n'est pas si inévitable, et ce n'est qu'une question de temps avant que les biologistes découvrent la cause de ce problème, cette terrible maladie universelle, elle sera guérie."

Le fait est que le vieillissement n'a rien à voir avec le temps. Le vieillissement, c'est quand les matériaux physiques du corps s'usent. Les pièces automobiles se dégradent également - mais le vieillissement est-il inévitable ? Si vous réparez votre voiture au fur et à mesure que les pièces s'usent, elle durera éternellement. Le corps humain n'est pas différent - juste plus complexe.

Kurzweil parle de nanorobots intelligents connectés au Wi-Fi dans la circulation sanguine qui pourraient effectuer d'innombrables tâches pour la santé humaine, notamment réparer ou remplacer régulièrement les cellules usées n'importe où dans le corps. Améliorer ce processus (ou trouver une alternative suggérée par un ASI plus intelligent) maintiendra non seulement le corps en bonne santé, mais pourra également inverser le vieillissement. La différence entre le corps d'un homme de 60 ans et celui d'un homme de 30 ans est une poignée de problèmes physiques qui pourraient être corrigés avec la bonne technologie. ISI pourrait construire une voiture dans laquelle une personne entrerait à 60 ans et sortirait à 30 ans.

Même un cerveau dégradé pourrait être renouvelé. L'ISI saurait sûrement faire cela sans affecter les données cérébrales (personnalité, souvenirs, etc.). Un homme de 90 ans souffrant d'une dégradation cérébrale complète pourrait se recycler, se renouveler et revenir au début de sa vie. Cela peut sembler absurde, mais le corps est une poignée d'atomes, et l'ISI pourrait certainement facilement les manipuler, n'importe quelle structure atomique. Ce n'est pas si absurde.

Kurzweil pense également que les matériaux artificiels s'intégreront de plus en plus dans le corps au fil du temps. Pour commencer, les orgues pourraient être remplacés par des versions de machines super avancées qui dureraient éternellement et n'échoueraient jamais. Ensuite, nous pourrions procéder à une refonte complète du corps, en remplaçant les globules rouges par des nanorobots parfaits qui se déplacent d'eux-mêmes, éliminant ainsi complètement le besoin d'un cœur. Nous pourrions également améliorer nos capacités cognitives, commencer à penser des milliards de fois plus vite et accéder à toutes les informations disponibles pour l'humanité via le cloud.

Les possibilités d'appréhender de nouveaux horizons seraient vraiment infinies. Les gens ont réussi à doter le sexe d'un nouveau but, ils le font pour le plaisir, pas seulement pour la reproduction. Kurzweil pense que nous pouvons faire la même chose avec la nourriture. Les nanobots pourraient fournir une nutrition idéale directement aux cellules du corps, permettant aux substances malsaines de traverser le corps. Le théoricien de la nanotechnologie, Robert Freitas, a déjà mis au point un substitut aux cellules sanguines qui, lorsqu'il est mis en œuvre dans le corps humain, peut lui permettre de ne pas respirer pendant 15 minutes - et cela a été inventé par une personne. Imaginez quand l'ISI gagnera en puissance.

Après tout, Kurzweil pense que les humains atteindront le point où ils deviendront complètement artificiels; l'époque où nous examinons les matériaux biologiques et pensons à leur primitivité; moment où nous lirons les premiers stades de l'histoire humaine, étonnés de voir comment des germes, des accidents, des maladies ou simplement la vieillesse peuvent tuer une personne contre son gré. En fin de compte, les humains vaincraront leur propre biologie et deviendront éternels - c'est le chemin vers le côté heureux de la poutre d'équilibre dont nous avons parlé depuis le tout début. Et les gens qui y croient sont aussi sûrs qu'un tel avenir nous attend très, très bientôt.

Vous ne serez probablement pas surpris que les idées de Kurzweil aient suscité de vives critiques. Sa singularité en 2045 et la vie éternelle qui a suivi pour les gens ont été appelées "l'ascension des nerds" ou "la création intelligente de personnes avec un QI de 140". D'autres ont remis en question le calendrier optimiste, la compréhension du corps et du cerveau humains, rappelant la loi de Moore, qui n'a pas encore disparu. Pour chaque expert qui croit aux idées de Kurzweil, il y en a trois qui pensent qu'il a tort.

Mais le plus intéressant à ce sujet est que la plupart des experts qui ne sont pas d'accord avec lui, dans l'ensemble, ne disent pas que cela est impossible. Au lieu de dire « des conneries, cela n'arrivera jamais », ils disent quelque chose comme « tout cela arrivera si nous arrivons à l'ISI, mais c'est le problème ». Bostrom, l'un des experts acclamés de l'IA mettant en garde contre les dangers de l'IA, admet également:

« Il ne reste pratiquement aucun problème que la superintelligence ne puisse résoudre, ou même nous aider à résoudre. Maladie, pauvreté, destruction de l'environnement, souffrances de toutes sortes - toute cette superintelligence avec l'aide de la nanotechnologie peut résoudre en un instant. La superintelligence peut également nous donner une durée de vie illimitée en arrêtant et en inversant le processus de vieillissement à l'aide de la nanomédecine ou de la possibilité de nous télécharger sur le cloud. La superintelligence peut également créer des opportunités d'augmentation sans fin des capacités intellectuelles et émotionnelles; il peut nous aider à créer un monde dans lequel nous vivrons dans la joie et la compréhension, en nous rapprochant de nos idéaux et en réalisant régulièrement nos rêves."

Ceci est une citation d'un des critiques de Kurzweil, cependant, qui admet que tout cela est possible si nous pouvons créer un ASI sécurisé. Kurzweil a simplement défini ce que la superintelligence artificielle devrait devenir, si possible. Et s'il est un bon dieu.

La critique la plus évidente des défenseurs de la zone de confort est qu'ils peuvent se tromper lorsqu'ils évaluent l'avenir de l'ISI. Dans son livre The Singularity, Kurzweil a consacré 20 pages sur 700 menaces potentielles de l'ISI. La question n'est pas quand on arrive à l'ISI, la question est quelle sera sa motivation. Kurzweil répond à cette question avec prudence: « L'ISI découle de nombreux efforts disparates et sera profondément intégré dans l'infrastructure de notre civilisation. En fait, il sera étroitement ancré dans notre corps et notre cerveau. Il reflétera nos valeurs car il ne fera qu'un avec nous."

Mais si la réponse est, pourquoi tant de personnes intelligentes dans ce monde s'inquiètent-elles de l'avenir de l'intelligence artificielle ? Pourquoi Stephen Hawking dit-il que le développement de l'ISI « pourrait signifier la fin de la race humaine » ? Bill Gates dit qu'il "ne comprend pas les gens qui ne s'en soucient pas". Elon Musk craint que nous "invoquions un démon". Pourquoi de nombreux experts considèrent l'ISI comme la plus grande menace pour l'humanité ?

Nous en parlerons la prochaine fois.

Conseillé: