nouvelles

La singularité est plus proche, que doivent faire les humains ?

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



observer

Ce cycle de chômage technologique provoqué par les substitutions de l'IA sera-t-il aussi facile que par le passé, et pourra-t-il être facilement surmonté par le seul ajustement spontané du marché ? Mon point de vue sur cette question n’est pas si optimiste. Fondamentalement, la capacité d’une société à résister relativement bien à la vague de chômage technologique dépend principalement de deux points : premièrement, s’il existe un grand nombre de personnes employées dans des métiers touchés par les nouvelles technologies. Deuxièmement, lorsque les nouvelles technologies éliminent d’anciennes opportunités d’emploi, elles peuvent rapidement créer de nouveaux emplois plus faciles à démarrer.

——Chen Yongwei






La singularité est plus proche, que doivent faire les humains ?

arts/Chen Yongwei



La singularité : de la science-fiction à la réalité


Après deux ans de «retards», le nouveau livre de Ray Kurzweil, «La singularité est plus proche», est finalement sorti fin juin. En tant que fan des livres de Kurzweil, j'ai immédiatement trouvé la version électronique du nouveau livre et je l'ai lu d'une seule traite.


Dans son livre, Kurzweil montre aux lecteurs une loi empirique importante : la vitesse de développement des technologies de l'information est exponentielle. À ce rythme, la capacité technique des individus à traiter l’information double chaque année. En tant que représentant le plus typique des technologies de l'information, le développement de l'intelligence artificielle (Intelligence Artificielle, ci-après dénommée IA) est encore plus étonnant. Selon cette tendance, d’ici 2029, l’IA dépassera les humains dans toutes les tâches et l’intelligence générale artificielle (IAG) sera pleinement réalisée. Une fois que la technologie de l’IA aura pris la tête des percées, elle permettra à de nombreux domaines de se développer rapidement. Par conséquent, d’ici 5 à 10 ans, les humains devraient atteindre la « vitesse de fuite de la longévité ». D’ici là, même si les gens continueront à vieillir, leur risque de décès n’augmentera pas en raison des améliorations de la technologie médicale qui augmentent avec l’âge. Avec l'aide de nanorobots de la taille d'un globule rouge, les gens seront capables de tuer directement les virus et les cellules cancéreuses au niveau moléculaire, résolvant ainsi un grand nombre de maladies qui affligent les humains, et l'espérance de vie humaine augmentera ainsi considérablement. De plus, les nanorobots devraient également pénétrer de manière non invasive dans le cerveau humain par le biais de capillaires. Avec d’autres neurones numériques hébergés dans le cloud, ils porteront l’intelligence humaine à un niveau supérieur. De cette façon, la pensée humaine, la mémoire et les capacités de résolution de problèmes ne seront plus limitées par la capacité cérébrale, et l'intelligence humaine augmentera des milliers de fois. Une fois que tout ce qui précède se produira, bon nombre des problèmes qui affligent actuellement les gens seront résolus : une énergie moins chère sera découverte et utilisée, l'efficacité de l'agriculture sera considérablement améliorée, le niveau d'éducation publique sera considérablement amélioré et la violence deviendra significative. réduction... Bref, avant 2045, l'humanité dépassera la « Singularité » et inaugurera une nouvelle ère complètement différente de la précédente.


Pour les anciens lecteurs comme moi, ces visions de Kurzweil ne sont pas nouvelles. En fait, dans son livre « La singularité est proche », publié en 2005, il a discuté en détail de presque tous les points ci-dessus. En ce sens, ce nouveau livre n'est rien d'autre que du vieux vin dans des bouteilles neuves. Cependant, lorsque j’ai relu ces opinions cette fois, mon humeur était complètement différente d’avant. Quand j'ai lu "La singularité est proche" il y a plus de dix ans, je l'ai davantage considéré comme un roman de science-fiction. Bien que Kurzweil utilise de nombreuses données dans son livre pour montrer que la technologie mondiale croît à un rythme exponentiel, de nombreuses personnes, dont moi, sont très sceptiques à ce sujet.


"La singularité est proche : quand on fusionne avec l'intelligence artificielle"
(La singularité est proche : quand nous fusionnerons avec l'IA)
(États-Unis) Ray Kurzweil/Auteur
Presse viking
juin 2024

Après tout, à partir de cette époque, même si la technologie Internet connaissait une croissance rapide, en plus d'apporter plus de commodité aux gens, il semblait difficile d'avoir un impact fondamental sur leur mode de vie. Dans le même temps, sous la direction du symbolisme, le domaine de l’IA, qui avait autrefois de grands espoirs, est dans une impasse et il semble difficile d’entrevoir une possible percée avant un certain temps. Dans de telles conditions, affirmer que le niveau d’intelligence de l’IA dépassera celui des humains en 2029 relève presque du fantasme.


Miraculeusement, la tendance historique ultérieure est étonnamment similaire à la prédiction de Kurzweil. Deux ans seulement après la sortie de « The Singularity is Near », la « révolution du deep learning » a déclenché un nouveau cycle de croissance dans le domaine de l'IA. Il n’a pas fallu longtemps pour que les capacités de l’IA progressent au point de pouvoir vaincre les meilleurs joueurs humains de Go, déchiffrer les structures de milliards de protéines et aider à concevoir des puces informatiques comportant des centaines de milliers de composants. Après la naissance de ChatGPT (programme d'intelligence artificielle basée sur le chat) en octobre 2022, l'IA a maîtrisé des compétences que seuls les humains peuvent maîtriser en un peu plus d'un an, comme la conversation, l'écriture, la peinture et la production vidéo. Selon des recherches pertinentes, les derniers modèles d’IA ont démontré des capacités dépassant celles des humains dans des centaines de tâches. Dans ces conditions, la prédiction selon laquelle l’IA dépassera l’humain en 2029 ne semble non seulement plus radicale, mais aussi légèrement conservatrice. En fait, de nombreux professionnels pensent qu’AGI arrivera plus tôt. Par exemple, Shane Legg, l'un des fondateurs de DeepMind (la société d'intelligence artificielle qui a développé AlphaGo), estime que l'AGI peut être réalisé d'ici 2028, tandis que le PDG de Tesla, Elon Musk, est encore plus radical de croire que les gens inaugureront l'AGI en 2028. 2025.


De plus, de nombreuses technologies, notamment les nanorobots et les interfaces cerveau-ordinateur, se développent également rapidement, comme le prédisait Kurzweil. Par exemple, en janvier 2023, la revue « Nature Nanotechnology » a rendu compte des recherches menées par des chercheurs de l'Institut des sciences et technologies de Barcelone utilisant des nanorobots pour transporter des médicaments destinés à traiter le cancer de la vessie. Des études ont montré que ce traitement peut réduire de 90 % les tumeurs chez les souris expérimentales. Ce succès illustre bien l'idée de Kurzweil d'utiliser des nanorobots pour traiter le cancer et ainsi prolonger la vie humaine. Pour un autre exemple, il y a quelques jours à peine, Musk a annoncé que la deuxième opération chirurgicale de l’interface cerveau-ordinateur serait réalisée d’ici quelques jours, et a prédit que d’ici quelques années, des milliers de patients se verraient implanter des dispositifs d’interface dans leur cerveau. Bien que cette technologie présente encore de nombreuses lacunes à l'heure actuelle, compte tenu de la vitesse de développement actuelle, dans un avenir proche, les humains ne devraient pas rêver d'interagir avec des ordinateurs via des interfaces cerveau-ordinateur. Si les deux « technologies noires » que sont la nanotechnologie et l'interface cerveau-ordinateur sont combinées, il sera tout à fait possible de réaliser la fusion homme-machine et le doublement de l'intelligence comme l'a dit Kurzweil. Sur la base des raisons évoquées ci-dessus, nous avons des raisons de croire que parvenir à la « singularité » avant 2045 devient de plus en plus techniquement réalisable.


Cependant, lorsque les gens dépassent la « singularité », peuvent-ils vraiment inaugurer une belle ère sans précédent comme le prédisait Kurzweil ? À mon avis, la réponse à cette question est en réalité incertaine. Bien que les optimistes technologiques, y compris Kurzweil lui-même, puissent citer de nombreuses preuves historiques pour prouver que le développement technologique jusqu'à présent a finalement favorisé l'amélioration du bien-être humain, si nous utilisons simplement cette loi pour prédire l'avenir, il y aura peut-être d'énormes risques. Après tout, aucune technologie dans l’histoire de l’humanité n’a la puissance de l’IA. Une fois utilisée de manière inappropriée, les risques qu’elle entraînera seront inimaginables.


Par conséquent, pour garantir que nous inaugurerons une belle nouvelle ère après la « singularité », nous devons mener une étude approfondie de la relation entre l'homme et la technologie, l'homme et l'homme, et l'homme et la nature humaine avant l'arrivée de la singularité. Réfléchissez et trouvez des moyens de garantir que la technologie évolue toujours dans une direction qui profite à l’humanité.


Quand les emplois commencent à mourir


Selon les prévisions de Kurzweil, l’arrivée d’AGI est encore dans cinq ans environ. Bien que le niveau d’intelligence de l’IA n’ait pas encore complètement dépassé celui des humains, il a effectivement dépassé les niveaux humains à bien des égards, ce qui a déclenché une inquiétude sans précédent concernant le chômage technologique causé par l’IA.


D’un point de vue historique, le chômage technologique n’est pas un sujet nouveau. De l'invention de la machine à vapeur à l'application de l'électricité en passant par la vulgarisation d'Internet, il y a eu un effet de « destruction créatrice » important, entraînant la disparition d'un grand nombre d'emplois basés sur les anciennes technologies et la perte de nombreuses personnes. dans des métiers connexes. Cependant, la plupart de ces vagues de chômage technologique au cours de l’histoire ont été temporaires. À mesure que les nouvelles technologies deviennent plus populaires, de nombreux nouveaux emplois seront créés.


Il est vrai que l’impact de l’IA sur le marché du travail n’a pas été significatif jusqu’à présent, mais cela ne veut pas dire que ses risques n’existent pas. Lorsqu’ils prédisent l’impact futur de l’IA sur l’emploi, les gens négligent souvent une condition importante, à savoir que l’amélioration des capacités de l’IA peut se dérouler selon une loi exponentielle. En fait, si l'on prend l'avènement de ChatGPT (programme de conversation d'intelligence artificielle) en 2022 comme nœud, il n'est pas difficile de constater que la vitesse de développement de l'IA après ce nœud est beaucoup plus rapide qu'avant le nœud. Prenons simplement la capacité d'interaction comme exemple. Avant l'avènement de ChatGPT, il fallait des décennies aux gens pour permettre à l'IA d'apprendre à parler librement aux gens. Après l'avènement de ChatGPT, l'IA a réalisé de nombreuses choses en un peu plus d'un an. . En ce sens, extrapoler le taux de croissance futur des capacités de l’IA entièrement sur la base d’une logique linéaire est susceptible de conduire à de très graves erreurs d’appréciation. Il convient également de noter que si les capacités de l’IA ont été grandement améliorées, ses coûts d’utilisation ont également été considérablement réduits. À l’heure actuelle, le coût pour les utilisateurs d’appeler des modèles d’IA via des API est tombé à presque zéro.


Cette amélioration des performances et cette réduction des coûts combinées rendent non seulement techniquement possible mais également économiquement réalisable le remplacement des humains par l’IA. En fait, si nous accordons plus d’attention aux nouvelles technologiques pertinentes, nous constaterons que l’IA a discrètement remplacé de nombreuses professions lorsque nous n’y prêtons pas attention. Il convient de noter qu’il y a dix ans à peine, on pensait que l’IA ne remplacerait que les emplois plus routiniers et répétitifs. Cependant, il serait difficile pour l’IA de remplacer les emplois qui nécessitent davantage de créativité et de compétences en communication. Cependant, le métier d'illustrateur était autrefois populaire parmi les jeunes en raison de ses heures de travail gratuites et de ses revenus relativement élevés. Désormais, si vous souhaitez utiliser des modèles d'IA pour réaliser des illustrations, vous n'avez besoin que de quelques centaines de yuans pour un abonnement mensuel illimité, et vous en avez besoin. peut le faire à tout moment. De toute évidence, dans une telle comparaison, la plupart des clients choisiront d'utiliser l'IA au lieu de peintres humains, et la majorité des illustrateurs perdront également leur emploi à cause de ce choix des clients. Outre les illustrateurs, des professions telles que les traducteurs, les programmeurs et les graphistes subissent également de graves impacts de l’IA. C'est juste que la proportion de ce groupe de personnes qui ont subi l'impact est relativement faible dans l'ensemble de la population active, de sorte que les sentiments des gens ne sont pas évidents.


Alors, le chômage technologique provoqué par cette série de substitutions de l’IA sera-t-il aussi facile que par le passé, et pourra-t-il être facilement surmonté par le seul ajustement spontané du marché ? Mon point de vue sur cette question n’est pas si optimiste. Fondamentalement, la capacité d’une société à résister relativement bien à la vague de chômage technologique dépend principalement de deux points : premièrement, la présence ou non d’un grand nombre de personnes employées dans des métiers touchés par les nouvelles technologies. Deuxièmement, lorsque les nouvelles technologies éliminent d’anciennes opportunités d’emploi, elles peuvent rapidement créer de nouveaux emplois plus faciles à démarrer.


Mais cette fois, l’impact de l’IA sur le marché du travail est complètement différent. D'une part, cette série d'impacts de l'IA est non seulement de portée globale, mais aussi très intensive dans le temps. Le champ d’application dit global signifie que de nombreux secteurs ont été touchés en même temps. Contrairement à l’IA spécialisée du passé, la plupart des modèles d’IA récemment publiés sont à usage général. En pratique, les utilisateurs peuvent utiliser ces modèles pour accomplir de nombreuses tâches différentes avec juste quelques ajustements. Dans ce cas, le développement de l’IA pourrait avoir un impact sur plusieurs métiers à la fois. Ce qu’on appelle l’intensité de temps fait référence au fait qu’une fois que l’IA a eu un impact sur une profession, elle aura immédiatement un impact sur une autre profession. Cet impact intense rendra bientôt beaucoup plus difficile le réemploi des chômeurs et sapera également sérieusement leur confiance dans la possibilité de retrouver un emploi grâce à la formation professionnelle. Imaginez, si un illustrateur vient d'être privé de son emploi par Midjourney (un outil de dessin d'intelligence artificielle), il apprend enfin à conduire et devient chauffeur de taxi en ligne, mais perd rapidement son emploi à cause de l'essor des voitures sans conducteur. Et après avoir perdu son emploi, dans de telles circonstances, a-t-il encore la persévérance pour continuer à acquérir de nouvelles compétences, et est-il sûr que l'IA ne maîtrisera pas cette compétence en peu de temps ?


Par conséquent, cette vague de chômage technologique provoquée par l’IA pourrait être complètement différente du chômage technologique précédent. Si la technologie de l’IA continue de croître de manière exponentielle, il pourrait être difficile pour la société d’atteindre le plein emploi en s’appuyant uniquement sur la régulation spontanée du marché. D’un point de vue politique, nous disposons certainement de nombreux moyens d’atténuer l’impact de l’IA sur l’emploi. Par exemple, le gouvernement, en fournissant davantage de services d’agences de recherche d’emploi et de formations au réemploi, peut aider ceux qui ont perdu leur emploi à cause de l’IA à retrouver un nouvel emploi plus rapidement. . Cependant, si la vitesse de développement de l’IA continue à rester à un niveau élevé, tous ces efforts n’auront, au mieux, que des effets temporaires. La disparition du travail humain est peut-être un avenir difficile à accepter pour nous, mais nous devons y faire face.


Rejet des "terminaux"


Étant donné que notre développement actuel de technologies telles que les interfaces cerveau-ordinateur et les nanorobots est à la traîne par rapport à l’IA, alors, au moins dans les dix prochaines années, l’utilisation de l’IA pour améliorer directement le cerveau pourrait rester seulement au niveau de l’imagination. Alors, pendant cette période, comment les gens doivent-ils gérer les diverses contradictions sociales provoquées par le chômage technologique provoqué par l’IA ?


La solution proposée par certains chercheurs consiste à taxer les utilisateurs d’IA et à utiliser les recettes fiscales pour émettre un revenu de base universel (UBI). De cette manière, même si ceux qui perdent leur emploi à cause de l’impact de l’IA ont du mal à en trouver un nouvel, ils peuvent toujours bénéficier d’une sécurité de vie de base et éviter de vivre dans des difficultés.


Cependant, ce plan a suscité la controverse depuis sa proposition. Par exemple, certains chercheurs estiment que taxer les nouvelles technologies comme l’IA entravera considérablement son développement ; d’autres estiment que la mise en œuvre de l’UBI pourrait encourager les gens à obtenir quelque chose pour rien.


À mon avis, la plus grande résistance potentielle à la mise en œuvre de la taxe sur l’IA et de l’UBI vient en réalité de son impact sur la répartition des bénéfices. Comme nous pouvons le constater, avec le développement de l’IA, un grand nombre d’entreprises liées à l’IA ont connu une montée en flèche de leurs revenus et de leur valeur marchande en peu de temps. Prenons l'exemple d'OpenAI. Il y a quelques années, c'était une entreprise qui perdait de l'argent année après année. Cependant, avec la popularité de modèles tels que GPT, elle est rapidement devenue une entreprise avec un chiffre d'affaires annuel de plusieurs milliards de dollars et une valorisation de 1 000 000 $. une affaire de près de 100 milliards de dollars. Sans compter que des géants comme Microsoft et Nvidia ont profité de l’IA pour augmenter leur valeur marchande de plusieurs milliards de dollars en plus d’un an. Il est prévisible qu’avec le développement de la technologie de l’IA, cette tendance à concentrer d’énormes quantités de richesses dans un petit nombre d’entreprises et d’individus se poursuivra.


Quelles en sont les conséquences ? Une conséquence directe est que les divisions et les éloignements au sein de la société tout entière vont s’aggraver. Lorsque le rapport coût-efficacité de l’IA sera suffisamment élevé, les travailleurs ordinaires n’auront plus la valeur d’être exploités, comme le mentionne le roman de Hao Jingfang « Beijing Folding ». Dans ce cas, les riches qui contrôlent l’IA et la richesse ne voudront même pas vivre dans la même ville qu’eux. En conséquence, l’isolement social et l’opposition deviendront encore plus graves.


Ce n’est pas la chose la plus effrayante. Si, comme Kurzweil l'a prédit, dans un avenir proche, les humains sont capables de se transformer à partir du niveau moléculaire grâce à la nanotechnologie, alors ceux qui ont plus de richesses seront les premiers à réaliser une « évolution mécanique » d'eux-mêmes. Après cela, l'avantage des riches sur les pauvres sera non seulement plus de richesse, mais aussi dans tous les aspects tels que l'intelligence et la force physique, ils écraseront ces dernières. Et cet avantage leur permettra à son tour de contribuer davantage à la concentration des richesses... Liu Cixin a un jour imaginé cette situation dans son roman "Sustaining Humanity". Selon son imagination, dans le cadre d'une tendance similaire, la richesse et le pouvoir de la société entière seront monopolisés par un « finaliste », et le sort de tous les autres sera contrôlé par lui.


Comment aligner l’IA ?


Si le chômage technologique et les problèmes de distribution sont la réapparition d'anciens problèmes que les humains ont rencontrés à plusieurs reprises à l'ère de l'IA, alors ce dont nous allons discuter ci-dessous sont de tout nouveaux problèmes à l'approche de la « singularité ».


Parmi tous les nouveaux problèmes, le plus important est peut-être celui de l’alignement de l’IA. En bref, ce que l’on appelle l’alignement de l’IA vise à garantir que l’IA puisse comprendre les normes et les valeurs humaines, comprendre les souhaits et les intentions humaines et agir conformément à la volonté humaine. À première vue, cela ne semble pas être une tâche difficile : après tout, les programmes d’IA sont essentiellement définis par les humains. Les humains se fixeraient-ils toujours un objectif contraire à leurs propres intérêts ? Mais en fait, la réponse n’est pas si simple pour deux raisons :


D’une part, lorsque les humains fixent des objectifs et des normes comportementales pour l’IA, il leur est souvent difficile d’exprimer pleinement et correctement leurs propres intérêts et préoccupations, ce qui laisse la possibilité à l’IA de violer les intérêts humains. Par exemple, le philosophe des sciences Bostrom a proposé un jour une expérience de pensée appelée « Cosmic Paperclip » dans son célèbre ouvrage « Superintelligence ». Il imaginait que les humains créaient une IA dans le but de maximiser la production de trombones. Elle utiliserait ensuite toutes les méthodes pour atteindre cet objectif, et éliminerait même les humains afin de consacrer plus de ressources à la production de trombones. Dans cette expérience de pensée, la production de trombones elle-même est dans l’intérêt de l’humanité, mais son résultat final pourrait sérieusement nuire aux intérêts de l’humanité.


D’un autre côté, afin de permettre à l’IA d’atteindre une plus grande efficacité, les humains leur laissent généralement une grande marge d’auto-apprentissage et d’amélioration, ce qui peut amener l’IA à s’écarter de ses valeurs initialement définies. Par exemple, de nombreux agents d’IA actuels leur permettent de s’améliorer continuellement en fonction de leurs interactions avec l’environnement et les utilisateurs. Dans ce cas, ils peuvent être affectés par diverses mauvaises valeurs, ce qui amène leurs objectifs à entrer en conflit avec les intérêts fondamentaux de l’humanité.


En particulier, avec l’arrivée de l’AGI, l’IA passera progressivement d’un outil à un individu doté de capacités égales, voire supérieures, à celles des humains dans tous les aspects. Dans ce cas, l’incohérence entre les intérêts de l’IA et ceux des humains entraînera d’énormes risques. L'avenir sombre décrit dans des œuvres cinématographiques et télévisuelles telles que "The Terminator" et "The Matrix" pourrait bien arriver.


C’est précisément pour éviter qu’une telle situation ne se produise que la recherche actuelle sur l’alignement de l’IA est devenue une science de premier plan dans le domaine de l’IA. À ce stade, les gens utilisent principalement deux méthodes pour parvenir à l’alignement de l’IA. L'une est « l'apprentissage par renforcement avec feedback humain », la méthode dite RLHF ; l'autre est « l'intelligence artificielle constitutionnelle », la méthode dite CAI. Lors de l'utilisation de RLHF, le concepteur entraînera d'abord manuellement un modèle d'IA plus petit, mettra en œuvre un apprentissage par renforcement grâce aux commentaires continus du formateur sur le comportement de l'IA et guidera ses valeurs pour qu'elles soient cohérentes avec les valeurs attendues par le concepteur. Ensuite, ce petit modèle est utilisé comme « coach » pour entraîner un modèle d’IA plus grand grâce à l’apprentissage par renforcement. Lors de l'utilisation de la méthode CAI, le concepteur définira d'abord une « constitution » que le modèle d'IA doit suivre, et utilisera la « constitution » pour générer des codes de conduite que l'IA doit suivre dans divers scénarios. Les concepteurs utilisent ensuite ces critères pour juger les différents résultats générés par le modèle d'IA afin de voir s'ils respectent les critères « constitutionnels ». Pour les résultats conformes à la « Constitution », des récompenses correspondantes seront accordées ; pour les résultats qui violent la « Constitution », des pénalités correspondantes seront accordées.


Il convient de reconnaître que les deux méthodes ont obtenu certains résultats jusqu’à présent, mais leurs problèmes restent énormes. Par exemple, Geoffrey Hinton, le « père du deep learning », a récemment souligné que ces méthodes ne peuvent que donner l’impression que le comportement de l’IA est conforme aux intérêts des gens, mais ne peuvent pas garantir qu’ils soient totalement cohérents avec leurs valeurs. Dans de telles circonstances, il est difficile de garantir que l’IA trahira les humains dans certaines circonstances. Surtout avec l’arrivée de l’AGI et la capacité de l’IA à surpasser les humains, la possibilité d’une trahison similaire deviendra de plus en plus élevée, et les risques qui en résulteront deviendront également de plus en plus grands.


Alors, dans de telles circonstances, comment le travail d’alignement de l’IA devrait-il être encore amélioré ? À mon avis, nous avons peut-être besoin de changements dans notre façon de penser. Du point de vue actuel, presque tout le monde assimile naturellement l’alignement de l’IA à l’alignement des valeurs, estimant que les valeurs de l’IA doivent être cohérentes avec les leurs pour qu’elles servent toujours les intérêts humains, mais cela est évidemment assez difficile. Mais l’alignement des valeurs est-il vraiment nécessaire ? Ou nous pouvons changer la question : en réalité, nous avons besoin de quelqu’un pour accomplir certaines tâches dans notre intérêt. Avons-nous besoin qu’il soit cohérent avec nous en termes de valeurs ? La réponse est, bien sûr, non. Le plus souvent, il suffit en réalité de concevoir un bon ensemble de règles pour guider les personnes dont les valeurs ne correspondent pas aux nôtres afin d’atteindre les objectifs que nous souhaitons. Par exemple, si l’on demandait à deux personnes intéressées de partager équitablement un gâteau, la tâche serait infiniment plus difficile si l’on voulait y parvenir en alignant d’abord leurs valeurs. Cependant, nous n’avons pas besoin de le faire. Il nous suffit de concevoir un mécanisme permettant à une personne de couper le gâteau, mais à une autre personne de se charger de la distribution. Cela peut être fait très facilement. Cela nous inspire que lors de l'alignement de l'IA, nous pouvons également contourner la boîte noire de valeurs difficile à briser et effectuer ces tâches directement du point de vue de la conception du mécanisme. Ce qui est gratifiant, c’est que certains chercheurs ont désormais constaté cet alignement et ont réalisé de nombreux progrès dans cette direction.


Qui es-tu? Qui suis je?


Outre le problème de l'alignement de l'IA, un autre problème majeur auquel les gens doivent faire face lorsque la « singularité » approche est l'identification et la reconnaissance de l'identité. Ce problème comprend deux aspects : l’un est de savoir comment comprendre l’identité de l’IA et notre relation avec l’IA ; l’autre est de savoir comment re-comprendre notre propre identité.


Examinons d’abord la première question. Il y a quelques années, si vous demandiez à quelqu’un ce qu’il devrait penser de l’IA, il répondrait probablement sans hésitation que ce n’est qu’un outil pour nous. La raison est simple : à en juger par leurs performances, il est peu probable qu’ils aient une conscience autonome et ne puissent effectuer des tâches connexes que sous contrôle humain.


Mais après l’émergence de grands modèles de langage comme ChatGPT, la situation a beaucoup changé. La performance de l'IA dans l'interaction avec les gens s'est progressivement débarrassée de sa rigidité originelle. Dans les conversations avec nous, elle peut toujours répondre couramment aux questions, dans certains cas, elle peut même deviner activement notre psychologie et notre comportement. Cela nous amène à nous demander s’ils ont déjà leur propre conscience. Peut-être que certains experts en informatique nous confirmeront qu’il ne s’agit que d’une réponse mécanique à ces questions basée sur un modèle préconçu. En substance, il s’agit simplement d’une addition, d’une soustraction et d’une soustraction d’un tas de 0 et de 1. Cependant, comme le dit le proverbe : « Un enfant qui n'est pas un poisson connaît la joie d'un poisson. » Qui peut garantir qu'il n'y a ni conscience ni réflexion derrière cette simple addition et soustraction ? Après tout, même si nous mettons notre cerveau de côté et observons attentivement au microscope, nous ne pouvons voir qu’un ensemble de neurones envoyant divers signaux électriques, mais pas même une seule cellule dotée d’une âme. Dans ce cas, comment être sûr que l'IA devant nous qui peut communiquer librement avec nous n'a pas fait évoluer une âme ?


Je pense qu'après l'arrivée d'AGI, des problèmes similaires deviendront de plus en plus importants. Peut-être qu'un jour dans un avenir proche, le robot bionique IA de "Westworld" apparaîtra devant nous. Tous leurs comportements sont cohérents avec les nôtres, et même le programme prédéfini leur dit qu'ils sont des humains. Lorsque nous rencontrons un tel robot IA, pouvons-nous encore nous tapoter la poitrine et dire que ce que nous voyons devant nous n'est qu'un outil créé par nous ?


Examinons la deuxième question. Comparée à la question de l’identité de l’IA, l’identité humaine et la reconnaissance peuvent constituer un problème plus difficile.


D’une part, comme mentionné ci-dessus, avec le développement des nanorobots et de la technologie d’interface cerveau-ordinateur, les humains maîtriseront la capacité de modifier considérablement leur corps. À l’avenir, les gens devraient non seulement utiliser des nanorobots pour les aider à réparer les cellules mortes afin de prolonger leur durée de vie, mais ils pourront également compter directement sur eux pour développer leur intelligence et leur force physique. Dans un premier temps, ce type de modification du corps humain peut être limité à quelques cellules, ce qui ne nous posera pas de problèmes d'identité - tout comme aujourd'hui, nous ne pensons pas qu'une fois qu'une personne a des prothèses ou des dentiers, elle n'est plus un être humain. . Il était le même. Mais si ce processus de modification se poursuit, un jour la plupart, voire la totalité, des cellules du corps seront remplacées. À ce moment-là, la question classique du « Navire de Thésée » apparaîtra à nouveau devant nous : le « je » est-il encore le « je » du passé ?


D'un autre côté, avec le développement de la technologie de l'IA, les gens maîtriseront progressivement la capacité de télécharger leur conscience sur le cloud - en fait, certaines personnes, dont Musk, ont déjà commencé des efforts similaires. En supposant qu’un jour dans le futur, la technologie se développe réellement suffisamment pour permettre à cette conscience de penser comme moi, alors cette conscience peut-elle être considérée comme une conscience humaine ? Si la réponse est oui, quelle est alors sa relation avec la véritable nature de la conscience ? De plus, si nous plaçons cette conscience dans un clone de la source de conscience, quelle est la relation entre ce clone et la personne originelle ? Père et fils? frère? Ou autre chose?


Il convient de souligner que les questions d’identité et d’identité ne sont en aucun cas de simples spéculations philosophiques. En réalité, cela soulève de nombreuses questions juridiques et éthiques. Par exemple, comment gérer la relation patronale-syndicale entre les humains et l’IA ? L’IA devrait-elle avoir les mêmes droits que les humains ? Un clone de mon corps et de mon esprit peut-il posséder ma propriété ? Si la question de l’identité n’est pas résolue, il sera difficile de véritablement résoudre ces problèmes.


Mais jusqu’à présent, les gens n’ont toujours pas trouvé de réponse définitive aux questions ci-dessus. Afin de promouvoir davantage la formation d'un consensus pertinent, nous devons encore mener des discussions ouvertes et approfondies sur ces questions.






Cet article a été publié pour la première fois dans"Observateur économique·Observateur"
22 juillet 2024Éditions 25 et 26