nouvelles

interview d'ultraman de 10 000 mots : diriger la révolution de l'ia au centre de la tempête, un dialogue sur les troubles et l'avenir de la technologie

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

texte : web3 sky city · seigneur de la ville

cela fait un moment, mais une vidéo complète de l’interview en face-à-face du pdg d’openai, sam altman, après son retour à openai a été publiée. c'est le moment où greg est en vacances, la nouvelle société d'ilya est créée et la nouvelle des pertes continues d'openai et de nouveaux financements est publiée.

cette interview a été animée par le célèbre animateur trevor cui wa. ce qui est un peu surprenant, c'est que trevor a une compréhension très approfondie de la technologie de l'ia, meilleure que 95 % des animateurs non techniques.

dans cette interview, trevor et sam ont eu une longue conversation sur l’intelligence artificielle, openai ainsi que sur la carrière et le parcours personnels de sam. à partir de son retour à openai, sam a partagé sa réflexion sur la relation entre les missions personnelles et celles de l'entreprise au milieu d'une série de chaos et d'incertitude, et a parlé de l'orientation future du développement d'agi.

sam a non seulement développé l'énorme potentiel de l'agi en termes de cognition, de productivité et d'effets sociaux, mais a également répondu aux défis de la sécurité de l'ia, des questions éthiques, des compromis capitalistes et de la révolution technologique. dans le même temps, il a discuté franchement de ses réflexions sur la gouvernance d'entreprise d'openai, sur la manière d'équilibrer le progrès technologique et la responsabilité sociale, et a souligné l'importance de la transparence et de la gouvernance technologique démocratique.

le parcours pour reprendre la tête d’openai: sam altman revient sur son bref départ et partage comment il a redécouvert son amour pour openai et sa mission pendant cette tourmente. bien qu'il ait été brièvement licencié, il a souligné qu'il avait appris de cette expérience et qu'il ressentait l'importance de continuer à faire progresser le développement d'agi.

l’avenir de l’agi et la révolution technologique: sam altman croit fermement que l'agi entraînera une révolution technologique sans précédent, même si les changements sociaux et économiques ne seront peut-être pas aussi rapides que prévu. il estime que même si la technologie se rapproche de plus en plus de l'agi, son impact réel sur la société sera progressif, permettant à la société de s'adapter progressivement aux changements provoqués par les nouvelles technologies.

l’équilibre entre le capitalisme et l’ia: dans l'interview, sam altman explique en détail comment openai fonctionne au sein d'un système capitaliste tout en conservant son intention initiale lors de sa création, qui est de garantir que les avantages de l'agi soient largement distribués. bien qu'openai doive rivaliser avec le capitalisme pour obtenir les ressources nécessaires au développement, il a souligné que le progrès technologique ne doit pas se faire au détriment de l'éthique et de la responsabilité sociale.

gouvernance démocratique et impact social de l’ia: sam altman a souligné un point important, à savoir que la gouvernance de la technologie de l'ia devrait être plus démocratique. il estime que le public devrait être davantage impliqué dans la décision sur la manière dont les systèmes d'ia sont utilisés et dans l'établissement des règles, et a souligné l'importance de la transparence technique et d'une gouvernance diversifiée.

préoccupations concernant la sécurité et l’éthique de l’ia: dans l'interview, sam altman a admis que même si l'ia a un énorme potentiel, elle présente également de nombreux risques potentiels pour la sécurité. il a spécifiquement souligné les risques de l'ia en matière de sécurité informatique, de biologie synthétique, etc., et a appelé la société à promouvoir le développement technologique de manière responsable.

une vision plus large de l’intelligence artificielle: sam altman est optimiste quant à l'avenir. il estime qu'à mesure que l'agi mûrit, chacun aura plus d'opportunités de poursuivre ses intérêts personnels et que la technologie améliorera considérablement l'éducation mondiale et les normes médicales. même si l’innovation technologique entraînera des changements dans les modèles de travail et sociaux, il estime qu’en fin de compte, l’esprit humain et la créativité nous propulseront vers un avenir plus prospère.

trevor :

merci d'avoir pris le temps d'être interviewé.

sam : merci.

trevor : tu ne penses pas que c'est une période folle ?

sam : c’était le moment le plus fou que j’ai jamais vécu.

trevor :

oui, tu es au centre de tout. je me demande à quoi ça ressemble. parce que je suis juste un observateur passionné de ce domaine et de ce monde, vous savez ? j'ai l'impression que c'est toi qui es affecté par tout cela. je veux dire, sam altman est sur la liste des personnalités de l'année du magazine time.

sam : je suis content de ne pas avoir compris.

trevor : content que tu ne l'aies pas compris ?

sam : oui, bien sûr.

trévor : pourquoi ?

sam : j'ai déjà reçu plus d'attention cette année que dans toute ma vie.

trevor : d'accord, d'accord. alors tu n'aimes pas l'attention ? vous ne voulez pas d'attention ?

sam :

non, c'est trop cruel. à certains égards, c'est intéressant. ceci est utile à certains égards. mais pour la vie personnelle, la qualité de vie est mise en balance. ouais, certainement pas. mais c’est là où en sont les choses maintenant. c'est pour cela que je me suis inscrit.

trevor : ouais, maintenant c'est l'heure de la notoriété.

sam : oui.

trevor : est-ce que les gens vous reconnaissent dans la rue ?

sam :c'est un très mauvais compromis. ouais, j'ai l'impression que tu n'as jamais... je suis sûr que ça t'arrive aussi, mais je ne peux plus rester anonyme.

trevor :oui, mais les gens ne me posent pas de questions sur l'avenir.

sam :ils ne vous demandent pas si vous allez détruire le monde.c'est exact. il y a une petite différence. les gens voudront peut-être prendre une photo avec moi. c'est tout ce qui se passe. beaucoup de photos de groupe.

trevor : eh bien, félicitations. vous êtes le pdg de l'année du magazine time.

sam : oui.

trevor :

c'était probablement l'un des moments les plus étranges car je suppose que c'était à peu près au moment où le magazine time prenait cette décision. il y a quelques semaines, vous n'étiez peut-être pas nommé pdg de l'année. je ne sais pas s'ils peuvent encore vous remettre ce prix. je suppose que c'est pour votre travail précédent.

sam : ouais, je ne sais pas. je ne sais pas comment cela fonctionne.

trevor : qu'est-ce que ça fait d'être à nouveau pdg ?

sam :

je suis toujours en train de reprogrammer la réalité, pour être honnête. d'une certaine manière, c'était formidable car tout au long du processus, j'ai beaucoup appris sur combien j'aime cette entreprise, sa mission et ses gens. et, à plusieurs reprises au cours de mon parcours, j’ai vécu toute la gamme des émotions humaines en peu de temps. mais ce qui est très clair pour moi, c'est que tout cela s'est passé un vendredi après-midi, un vendredi à midi. le lendemain matin, samedi, plusieurs membres du conseil d'administration m'ont appelé et m'ont demandé s'ils seraient prêts à discuter d'un retour.

j'ai des sentiments très mitigés à ce sujet. mais finalement, il est devenu très clair pour moi que je voulais revenir.

j’aime vraiment cet endroit et ce que nous faisons. je pense que c'est important pour le monde, et c'est ce qui me tient le plus à cœur.

trevor :

dans le monde de la technologie, l’embauche et le licenciement sont des choses auxquelles tout le monde doit s’habituer.

je sais que vous avez été viré de y combinator dans le passé. tout le monde dans cette situation a une histoire.

sam : je ne veux pas parler de ça.

trevor : dis-moi, dis-moi. ces choses-là, vous faites vos recherches et partez de là.

sam :

j'ai décidé environ un an avant (en quittant yc) que je voulais venir chez openai.

ce fut une transition compliquée. mais j'avais travaillé sur openai et yc en même temps, et j'étais presque sûr de vouloir venir à openai. je n'ai jamais regretté cela.

trevor :alors vous n'avez jamais été viré. c’est une situation difficile à vivre en tant qu’être humain.

sam : est-ce un licenciement ?

trevor : et si vous étiez licencié et immédiatement réembauché ?

sam :ce que j'allais dire était plus que... c'est juste brutal... je suppose que je ne devrais pas en parler maintenant.

c'est une chose très douloureuse. pour moi personnellement, en tant qu'être humain, cela me semblait très injuste et la façon dont cela a été géré était vraiment injuste.

trevor :

je peux imaginer. beaucoup de gens parleront de licenciement.

c’est devenu une tendance pendant la pandémie, surtout lorsque les gens parlaient de recevoir un e-mail ou une vidéo envoyé à un groupe, et que des milliers d’employés ont ensuite été licenciés.

on pense rarement que cela pourrait arriver au pdg d’une entreprise. de plus, on ne penserait pas que cela arriverait au pdg que beaucoup appellent le « steve jobs » de cette génération et de demain.

au fait, tu ne t'appelles pas comme ça.

sam : bien sûr que non.

trevor :

c’est ce que beaucoup de gens disent de vous, mais je ne pense pas qu’il soit juste de vous appeler le steve jobs de cette génération. à mon avis, vous êtes le prométhée de cette génération. vous l’êtes vraiment.

il me semble que tu as volé le feu à dieu. vous êtes à l’avant-garde de cette transformation, et nous vivons désormais à une époque où l’ia relevait autrefois de la science-fiction et de la légende, et vous êtes désormais à l’avant-garde de quelque chose qui pourrait changer la civilisation pour toujours.

pensez-vous que l’avenir va changer à tous les niveaux ?

sam :

je pense que oui.

il est tout à fait possible que je me trompe sur ce que je m'apprête à dire, mais j'ai le sentiment que nous allons construire quelque chose sur lequel presque tout le monde est d'accord, à savoir l'agi. définir l'intelligence artificielle générale (agi) est très difficile, mais nous allons construire un système que les gens examineront et diront : « d'accord, vous l'avez fait. » ce système est une intelligence artificielle générale, un système qui se situe au niveau humain ou au-delà.

trevor :

avant de l’expliquer en détail, quelle est selon vous la plus grande différence entre la perception que les gens ont de l’ia et de l’intelligence artificielle générale ?

sam :

à mesure que nous nous rapprochons de ce domaine, la manière dont nous le définissons devient très importante, et il existe des différences. pour certains, agi fait référence à un système capable d’effectuer une partie importante du travail humain actuel. bien sûr, nous trouverons de nouveaux emplois et de nouvelles choses à faire. mais pour d’autres, agi fait référence à un système qui peut aider à découvrir de nouvelles connaissances scientifiques. il s’agit évidemment d’étapes très différentes avec des impacts très différents sur le monde.

même si j'en ai marre du terme et que je ne peux même pas arrêter de l'utiliser, il y a une raison pour laquelle je ne l'aime plus. le terme est agi. je pense que pour la plupart des gens, cela signifie simplement une ia très intelligente, mais au-delà de cela, c'est devenu très vague. je pense que c'est principalement parce que nous nous rapprochons.

ce que j'essaie de dire, c'est que nous allons créer agi, quel que soit le nom que vous voulez lui donner. au moins à court et moyen terme, cela changera le monde bien moins qu’on ne le pense. à court terme, je pense que la société a beaucoup d’inertie, l’économie a beaucoup d’inertie et la façon dont les gens vivent aussi a beaucoup d’inertie. cela peut être sain et bénéfique pendant que nous gérons cette transition. nous faisons tous les choses d'une certaine manière et nous y sommes habitués. la société en tant que superorganisme se comporte également d'une certaine manière et y est habituée.

en regardant ce qui s'est passé avec gpt-4, je pense que c'est instructif. lorsque nous l'avons lancé pour la première fois, les gens ont eu un moment de véritable panique où ils se sont dit : « wow, je ne pensais pas que cela allait arriver », mais ils ont ensuite continué leur vie. cela change les choses et les gens l'utilisent. c'est une meilleure technique que rien. bien sûr, gpt-4 n’est pas très bon, 5, 6, 7, peu importe lequel, sera bien meilleur. cependant, la version 4 de l'interface chatgpt, je pense, est le moment où beaucoup de gens la prennent du pas au sérieux à la prendre très au sérieux. pourtant, la vie continue.

trevor :

pensez-vous que c’est bon pour l’humanité et la société ? la vie devrait-elle continuer ainsi ? en tant que l'un des « pères » de ce produit, l'un des « parents » de cette idée, aimeriez-vous que nous nous arrêtions tous, prenions un moment et évaluions où nous en sommes actuellement ?

sam :

je pense que la résilience des humains, individuellement et collectivement, est remarquable. je suis vraiment enthousiasmé par notre capacité à absorber et à nous adapter aux nouvelles technologies et aux changements et à leur donner le sentiment de faire partie du monde. c'est vraiment merveilleux.

je pense que la covid est l’exemple le plus récent où nous constatons cela. le monde s’est rapidement adapté et tout s’est vite senti normal. un autre exemple moins grave mais instructif est la pile d’informations sur les ovnis. c'était il y a quelques années. beaucoup de mes amis qui étaient autrefois complètement sceptiques diraient qu’il s’agissait peut-être de vrais ovnis ou d’extraterrestres ou quelque chose du genre. pourtant, le lendemain, ils allaient travailler et jouaient avec leurs enfants.

trevor : ouais, je me suis dit, que peux-tu faire d'autre ? s'ils volent, ils volent.

alors, est-ce que j’aurais aimé que nous passions plus de temps à évaluer les progrès ? nous faisons cela en tant que monde, et je pense que c'est formidable. je crois fermement que le déploiement itératif de ces technologies est important. nous ne voulons pas développer l'intelligence artificielle générale (agi) dans un laboratoire secret, personne ne sait qu'elle arrive, et puis tout d'un coup la diffuser dans le monde pour que les gens soient obligés de dire, hum, nous y sommes, alors. ..

trevor :

pensez-vous que nous devons progressivement nous y adapter et évoluer avec elle en tant que technologie ?

sam :

oui.

donc, la conversation actuelle, où la société, nos dirigeants et nos institutions utilisent réellement ces technologies pour avoir une idée de ce qu'elles peuvent faire, de ce qu'elles ne peuvent pas faire, où sont les risques, quels sont les avantages, je pense que c'est formidable. je pense que dans un sens, la meilleure chose que nous ayons faite pour notre mission est peut-être de réitérer notre stratégie de déploiement. nous aurions pu le construire en secret et passer davantage d’années à le construire, puis le lancer d’un seul coup, ce qui aurait été terrible.

trevor :

aujourd'hui, nous sommes entrés dans le bâtiment openai, qui ressemble un peu à une forteresse et ressemble à une future maison. j'ai vu que vous aviez un message disant que vous étiez venu en tant qu'invité.

je me disais, oh mon dieu, c'est bizarre. c'est comme rentrer à la maison, mais pas à la maison, mais toujours à la maison.

sam :

cela devrait ressembler à un moment très étrange, comme porter un badge d'invité ici. mais j’ai l’impression que tout le monde est épuisé et plein d’adrénaline. il n’y avait vraiment pas ce sentiment de grand moment que j’espérais. il y a certainement eu des moments qui méritent d’être médités et racontés cette journée-là. par exemple, l’un de mes moments les plus fiers a été celui où j’étais très fatigué et distrait. nous pensions que le conseil d'administration me ramènerait au poste de pdg ce jour-là, mais juste au cas où ce ne serait pas le cas, j'ai été interviewé pour un l3, notre poste d'ingénieur logiciel de niveau le plus bas, par l'une de nos meilleures personnes. puis il m'a donné une réponse définitive. c'était un moment de grande fierté.

ce qui ressort dans mon souvenir de cette journée, c’est que j’avais toujours cette compétence. bien que le badge ne soit pas aussi profond que je le souhaiterais.

trevor :

j'aimerais savoir ce que vous pensez que j'ai bien fait en tant que pdg pour obtenir le soutien que nous voyons publiquement de la part des employés d'openai.

lorsque cela a été découvert, je n'allais pas vous demander de détails car je savais que vous ne pouviez pas commenter le contenu de l'enquête interne. mais je sais que vous pouvez parler un peu de l’ambiance générale de l’entreprise et de ce qui s’est passé ces derniers temps. nous voyons rarement des choses se dérouler comme openai. vous avez cette entreprise et cette idée qui, pour la plupart des gens sur la planète, n’existaient pas une minute. la minute suivante, vous relâchez chatgpt. cette simple invite, juste une petite boîte de discussion, change le monde. je pense que vous avez atteint 1 million d'utilisateurs dans le temps le plus rapide jamais atteint. je pense que c'était cinq jours. oui, cinq jours. puis elle a rapidement atteint 100 millions de personnes.

très vite, je sais de manière anecdotique, pour moi, cette chose est passée du statut d'inconnu à tout le monde. je l'explique aux gens, j'essaie de leur faire comprendre. je dois leur montrer comme de la poésie et quelque chose de simple qu'ils peuvent comprendre. puis les gens ont commencé à m’en parler. aujourd’hui, c’est devenu un concept omniprésent et les gens ont du mal à comprendre de quoi il s’agit et ce que cela signifie.

mais d’un autre côté, il existe une entreprise qui tente de contrôler et de façonner l’avenir d’une manière ou d’une autre. et les gens vous soutiennent. nous avons vu l'histoire, sam altman était absent et n'était plus pdg. puis tout est devenu mouvementé. je ne sais pas si vous avez entendu certaines rumeurs. ils sont juste fous. l'une des choses les plus folles que j'ai vues, c'est quelqu'un qui dit que c'est à la fois ridicule et drôle. ils disent, et je le sais de sources fiables, que sam a été renvoyé pour avoir tenté d'avoir des relations sexuelles avec une ia.

sam :

je ne sais même pas comment répondre. quand j'ai vu ce message, je me suis dit... je suppose qu'à ce stade, je devrais officiellement le nier, cela ne s'est tout simplement pas produit.

trevor :

je pense que cela est peu probable parce que les gens ne comprennent pas la combinaison des deux. mais ce qui me frappe, c’est que le sensationnalisme de cet incident semble avoir propulsé openai sous un autre projecteur à un moment différent.

l'une des choses les plus importantes est le soutien que vous recevez de l'équipe, le fait que les gens se mobilisent et disent, quoi qu'il arrive, nous allons soutenir sam. cette situation n’est pas courante dans les entreprises. souvent, les pdg et les employés sont dans une certaine mesure déconnectés.

mais on a l’impression que c’est bien plus qu’une simple équipe.

sam :

ce qui suit n’est pas une fausse modestie. il y a beaucoup d’endroits où j’accepterais beaucoup d’éloges. mais dans ce cas, à part être porte-parole, ce n’est pas entièrement de ma faute. mais je pense que ce que nous faisons bien, c'est que nous avons pour mission de vraiment convaincre les gens de son importance.

je pense que ce qui se passe, c'est que les gens se rendent compte que la mission, l'organisation, l'équipe sur laquelle nous travaillons si dur et faisons tant de progrès, mais il y a tellement plus à faire, sont réellement menacées comme celle-là. je pense que c'est ce qui a déclenché la réaction. il ne s'agit pas vraiment de moi personnellement, même si j'espère que les gens m'apprécient et pensent que je fais du bon travail. il s'agit de la loyauté partagée que nous ressentons tous et du sens de la responsabilité de faire avancer les choses et, espérons-le, de maximiser nos chances d'atteindre cet objectif.

trevor :

au plus haut niveau, quelle est selon vous la mission ? est-ce que cela atteint l’intelligence artificielle générale ?

sam :

laissez les avantages de l’agi être distribués aussi largement que possible et relevez avec succès tous les défis de sécurité.

trevor :

c’est un deuxième point intéressant. j'aimerais discuter avec vous plus tard pour discuter plus en profondeur des aspects de sécurité. quand on considère openai en tant qu’organisation, sa naissance est en effet étrange. n'hésitez pas à me corriger si je me trompe, mais il semble que l'entreprise ait été fondée en mettant fortement l'accent sur la sécurité. vous rassemblez un groupe de personnes et vous dites : nous voulons créer une organisation, une entreprise, un collectif dédié à la création de l'intelligence artificielle la plus éthique au profit de la société. cela se reflète même dans la répartition des bénéfices de l’entreprise, dans la manière dont les investisseurs obtiennent leurs bénéfices, etc.

mais même openai a changé à un moment donné. pensez-vous pouvoir résister aux forces du capitalisme ? je veux dire, il y a tellement d'argent en jeu. pensez-vous que vous pouvez vraiment maintenir un monde où l’argent ne définit pas ce que vous faites ni pourquoi vous le faites ?

sam :

cela doit être un facteur. par exemple, si l’on pense simplement au coût de formation de ces systèmes, nous devons trouver un moyen d’être compétitifs, faute d’un meilleur terme, dans un espace capitaliste. mais je ne pense pas que ce sera notre principale motivation. au fait, j'aime le capitalisme. je pense qu'il comporte d'énormes défauts, mais par rapport à tout autre système que le monde a essayé, je pense que c'est toujours la meilleure chose que nous ayons trouvée. mais cela ne veut pas dire que nous ne devons pas nous efforcer de faire mieux. je pense que nous allons trouver des moyens de dépenser l’énorme capital record dont nous avons besoin pour continuer à faire progresser cette technologie de pointe. c’était l’un de nos premiers apprentissages. cependant, cette chose est beaucoup plus chère que nous le pensions.

nous savions en quelque sorte que nous avions cette idée d’un système étendu, mais nous ne savions tout simplement pas comment cela allait se dérouler.

trevor :

vous avez toujours été un grand fan des extensions, j'ai lu ça sur vous. l'un de vos mentors, qui est maintenant l'un de vos partenaires d'investissement sur injection, a déclaré que chaque fois que vous posez une question à sam, la première chose qui lui vient à l'esprit est : comment résoudre ce problème ? comment pouvons-nous le résoudre ? la deuxième chose qu’il poursuit est la suivante : comment pouvons-nous faire évoluer ces solutions ?

sam : qui a dit ça ? je ne m'en souviens pas. je suis nul avec les noms.

trevor : intéressant. mais je sais que c'est quelqu'un à votre travail qui l'a dit.

sam :

intéressant. mais je n’ai entendu personne dire ça de moi.

mais je pense que c'est une observation que j'ai faite dans de nombreuses entreprises et secteurs différents, à savoir que l'échelle conduit souvent à des résultats étonnants. ainsi, la mise à l’échelle massive de ces modèles d’ia conduit à des résultats très surprenants. une mise à l’échelle massive l’améliore non seulement de toutes les manières évidentes, mais également de certaines manières non évidentes. la croissance des entreprises présente des avantages non évidents. il y a des avantages subtils à faire évoluer une entreprise comme y combinator. je ne pense pas que cela soit pris au sérieux.

dans notre cas, il est important de savoir à quel point il est important d’évoluer dès les premiers stades. si nous avions réfléchi plus intelligemment ou eu plus de courage, nous aurions déjà pris des mesures plus importantes. mais il est vraiment difficile de dire que je vais construire un ordinateur plus gros pour 10 milliards de dollars. nous ne l'avons donc pas fait. nous avons été un peu plus lents à comprendre cela que nous aurions dû l’être, mais nous avons finalement compris. nous voyons maintenant de quelle échelle nous avons besoin.

je pense que le capitalisme est cool. je n'ai rien contre le système. non, ce n'est pas vrai. j'ai de nombreuses objections à l'encontre de ce système, mais je dois admettre que rien de mieux n'a encore été découvert.

trevor : avez-vous demandé à chatgpt s'ils pouvaient concevoir un système ?

sam : j'ai un problème différent... peut-être que je ne conçois pas un nouveau système. oui. mais je pose beaucoup de questions sur la façon dont l’ia et le capitalisme se croisent et ce que cela signifie.

l’une des choses est que nous avions raison sur la chose la plus importante concernant nos hypothèses initiales, à savoir que l’ia allait se produire. l'apprentissage profond est possible... et d'ailleurs, beaucoup de gens en rient. c'est exactement ça.

trevor : oh mon dieu, on s'est moqué de nous sans pitié.

sam :

oui.

même avec quelques idées sur la façon d’y parvenir, nous avons réussi. mais nous nous sommes trompés sur de nombreux détails, ce qui est courant et normal en science. avant que les modèles linguistiques n’entrent en jeu, nous avions une vision très différente de la construction de ce système. nous avions à l’époque une conception très différente de la création d’agi. nous n'avions pas imaginé qu'il s'agirait d'un outil itératif, en constante amélioration et avec lequel on pourrait parler comme un humain. nous étions donc très confus quant à ce qu’impliquerait la construction d’une agi. nous pensons à la période avant et après agi. ensuite, vous devez le confier à d’autres systèmes et à une autre gouvernance.

maintenant, je pense que c'est possible, et j'en suis très heureux car je pense que c'est plus facile à naviguer. je pense que cela peut être le cas, je ne veux pas parler d'un simple outil parmi d'autres, car il est différent à bien des égards, mais dans un sens, nous avons créé un nouvel outil pour l'humanité. nous avons ajouté quelques éléments à la boîte à outils. les gens feront toutes sortes de choses incroyables avec, mais ce seront toujours des humains qui planifieront l'avenir, pas une agi dans le ciel. vous pouvez faire des choses que vous ne pouviez pas faire auparavant. je peux aussi faire des choses que je ne pouvais pas faire auparavant. nous pouvons faire plus. en ce sens, je peux imaginer un monde dans lequel nous accomplirons notre mission en créant de très bons outils qui ont un impact considérable sur les capacités humaines et au-delà. je suis très excité à ce sujet.

par exemple, j'aime le fait que nous proposons chatgpt gratuit et sans publicité. parce que je pense personnellement que la publicité a toujours été un problème sur internet. mais nous venons de mettre cet outil à disposition. c'est l'inconvénient du capitalisme, oui, oui. l'un d'eux. personnellement, je pense qu'il y a de plus gros inconvénients, mais nous mettons cet outil à disposition et les gens peuvent l'utiliser gratuitement. nous ne voulons pas en faire des produits. nous ne voulons pas qu’ils en consomment un peu plus. je pense que cela montre une voie intéressante dans laquelle nous pouvons faire davantage.

trevor :

alors faisons ça. il y a beaucoup de choses que j'espère aborder au cours de notre conversation, et nous ne pourrons évidemment pas répondre à toutes. mais il y a quelques réflexions, certains points et certains domaines que j'espère que nous pourrons explorer. je suppose que la première question, et la plus actuelle, est la suivante : que se passera-t-il à l’avenir pour l’entreprise ? où pensez-vous que cela ira ? une chose que je trouve particulièrement intéressante est la composition du nouveau conseil d'administration, en particulier pour openai, où il y avait des femmes au conseil d'administration et maintenant il n'y en a plus, et il n'y avait auparavant aucune incitation financière pour les membres du conseil d'administration et maintenant il y en a. je me demande si vous vous inquiétez du fait que la protection que vous avez contribué à mettre en place a maintenant disparu et que votre conseil d'administration ne se concentre plus sur la protection des personnes ou sur la définition d'un avenir plus sûr, mais plutôt sur le fait de gagner de l'argent et d'obtenir le plus d'argent possible. grand et fort possible ?

sam :

je crois que nos structures de gouvernance et nos conseils d’administration actuels et antérieurs ne fonctionnent pas de manière importante. je soutiens donc pleinement l’identification de moyens d’amélioration et je soutiendrai le conseil d’administration et son travail pour y parvenir.

de toute évidence, le conseil d’administration doit croître et se diversifier, et je pense que cela se fera rapidement. nous devons entendre les voix de ceux qui prendront la défense de ceux qui n’ont pas été traditionnellement défendus, et non seulement réfléchir très attentivement à la sécurité de l’ia, mais aussi tirer les leçons du passé sur la manière de construire des interactions avec tous. aspects de la société ce sont des systèmes très complexes. faire le meilleur travail possible tout en atténuant les effets néfastes et en partageant les bénéfices doit tous être représenté.

je suis donc heureux d'avoir une seconde chance de corriger toutes ces choses sur lesquelles nous nous sommes évidemment trompés auparavant. des choses comme la diversité, s'assurer que nous représentons tous les groupes de parties prenantes clés qui doivent être représentés, trouver comment rendre cela plus démocratique, continuer à pousser le gouvernement à prendre certaines décisions pour régir cette technologie. je sais que ce n'est pas parfait, mais je pense que c'est mieux que tout ce à quoi nous pouvons penser actuellement. il est important de s'engager davantage auprès de notre communauté d'utilisateurs et de les laisser contribuer à fixer des limites autour de l'utilisation de cette technologie.

une orientation future majeure consistera à élargir le conseil d’administration et la structure de gouvernance. encore une fois, je sais que notre conseil d'administration actuel est petit, mais je pense qu'il est très engagé dans tout ce dont vous venez de parler.

et puis il y a une autre grande catégorie de questions. si vous me l'aviez demandé il y a une semaine, j'aurais répondu que la stabilisation de l'entreprise était ma priorité absolue. mais au moins intérieurement, je me sens plutôt bien. nous n’avons pas perdu un client, nous n’avons pas perdu un employé. nous continuons à grandir, ce qui est assez étonnant. nous continuons à introduire de nouveaux produits. nos partenariats clés semblent renforcés et non entravés. à cet égard, tout s’est déroulé comme prévu. et je pense que les plans de recherche et de produits pour le premier semestre de l’année prochaine semblent meilleurs et plus ciblés que jamais.

trevor :

je me surprends toujours à penser à toi en tant que personne quand toute cette histoire de salle de réunion arrive. chaque fois qu’il y a une tempête, je m’intéresse toujours à ce qui se passe au centre de la tempête. je suis curieux, où étais-tu quand tout cela a éclaté ? genre, qu'est-ce que tu faisais ? que se passe-t-il dans votre monde sur le plan personnel ?

sam :

la raison pour laquelle je ris, c'est parce que ce que les gens disent de moi, c'est que j'ai l'impression d'être dans l'œil d'un ouragan et que tout tourne autour de moi et que je suis toujours très calme. cette fois, les choses ne se sont pas déroulées comme prévu.

c'est une expérience, comme être au centre d'une tempête, mais pas calme. j'étais à las vegas en train de regarder une course de f1.

trevor : êtes-vous fan de f1 ?

sam : je le suis.

trevor : quelle équipe soutenez-vous ? avez-vous un favori particulier ?

sam :

pour être honnête, je pense que verstappen est tellement bon qu’il est difficile de dire quelle équipe soutenir. mais j’ai l’impression que c’est probablement la réponse que tout le monde dirait.

trevor :

en réalité, cela dépend du moment où ils ont commencé à prêter attention au mouvement. je suis fan de schumacher parce que c'est à ce moment-là que j'ai commencé à regarder les courses. c'était d'abord nigel mansell, puis ayrton senna, tu vois ce que je veux dire ?

verstappen est très précis et je comprends pourquoi il est si populaire.

sam :

même si je suis un peu fatigué de le voir gagner autant de fois, il est vraiment incroyable.

ce soir-là, je suis arrivé tard jeudi. quelqu'un a oublié de souder un couvercle de trou d'homme, donc dès le premier tour, il a explosé, comme si un moteur ferrari avait explosé, provoquant la suspension des essais. je n'ai pas pu voir le match, je n'ai vu aucune action de tout le week-end.

j'ai reçu un appel dans ma chambre d'hôtel, je n'avais aucune idée de ce qui allait se passer et j'ai été renvoyé de mon travail par le conseil d'administration. c'était comme un rêve et je me sentais confus. tout était confus et ne semblait pas réel. c’était évidemment triste et douloureux, mais l’émotion dominante à ce moment-là était la confusion, et j’avais l’impression d’être dans le brouillard et la fumée. je n'ai absolument aucune idée de ce qui se passe.

la façon dont cela s’est produit était sans précédent, c’était fou. au cours de la demi-heure suivante, mon téléphone a reçu tellement de messages qu'imessage s'est écrasé sur mon téléphone. ces messages provenaient de tout le monde et le téléphone devenait complètement inutilisable à cause des notifications qui apparaissaient sans cesse. imessage est arrivé à un point où il s'est arrêté pendant un moment, les messages ont été retardés, puis tous les messages ont été marqués comme lus, donc je ne pouvais même pas dire à qui je parlais, c'était le chaos.

je parlais à l'équipe ici, essayant de comprendre ce qui se passait. comme si microsoft était également au téléphone et que d'autres parties étaient également en contact. la situation dans son ensemble était vraiment troublante et ne semblait pas réelle. je me suis un peu calmé et j'ai commencé à penser à l'avenir. j'ai vraiment envie de travailler sur l'agi (artificial general intelligence). si je n’y arrive pas au début, je continuerai d’essayer. je réfléchis à la meilleure approche.

greg a démissionné, quelques autres personnes ont démissionné et j'ai commencé à recevoir un flot de messages de personnes souhaitant travailler avec moi. à cette époque, revenir à openai était complètement hors de mon esprit. je peux imaginer ce que l’avenir nous réserve, mais je ne comprends pas vraiment à quel point il s’agit d’un événement industriel parce que je ne regarde pas vraiment les informations. je peux juste sentir la quantité écrasante de messages reçus.

trevor :

parce que vous êtes littéralement au milieu d'une tempête.

sam :

oui. je veux juste soutenir openai, savoir quoi faire ensuite, essayer de comprendre ce qui se passe. ensuite, je suis retourné en californie, j'ai rencontré des gens et j'ai commencé à me sentir très concentré sur l'avenir. mais je souhaite également tout le meilleur à openai. nous avons peu dormi pendant presque toute la nuit et avons beaucoup parlé en même temps. s’en est suivi un week-end de folie. je suis sûr que je n’ai pas encore complètement accepté tout cela et que je suis encore un peu secoué et que j’essaie toujours de recoller les morceaux. je suis sûr que j'en ressentirai davantage lorsque j'aurai le temps de m'asseoir et de le traiter.

trevor :

avez-vous l’impression de devoir tout reprendre en même temps ? parce que, selon vous, vous êtes dans cette mission. vous pouvez voir la motivation dans vos yeux, et le monde a atteint un point de non-retour. vous vous dirigez dans une certaine direction et tout d’un coup, il semble que vous ne puissiez pas y parvenir dans le domaine dans lequel vous vous trouvez. mais comme vous l'avez dit, microsoft est intervenu et satya nadella a dit : venez travailler avec nous et nous reconstruirons cette équipe.

s’il y a une chose sur laquelle tout le monde s’accorde à propos de sam altman, c’est qu’il est tenace. il est intransigeant et croit que si vous avez un objectif et croyez en quelque chose, vous ne devriez pas laisser la vie vous gêner. et vous semblez aller dans cette direction. vous n’avez rien dit publiquement à propos d’openai ni ne l’avez dénigré de quelque manière que ce soit. mais cela semble vous mettre beaucoup de pression.

sam :

certainement. je ne pense pas que ce soit quelque chose dont je ne peux pas me remettre, mais je pense qu'il serait impossible de traverser ça sans être affecté, ce serait très bizarre.

trevor :

avez-vous l'impression d'avoir perdu une partie de vous-même ?

sam :

oui. nous avons lancé openai fin 2015. la première journée de travail a effectivement commencé en 2016.

je fais ça sur yc depuis un moment, mais depuis début 2019, je le fais à plein temps. agi et ma famille sont les deux choses qui me tiennent le plus à cœur. donc, en perdre un, pour moi, dans un sens, devrais-je dire, m'a rendu plus engagé envers agi et plus soucieux de la mission. mais bien sûr, je me soucie aussi de cette organisation, de ces personnes, de nos utilisateurs, de nos actionnaires et de tout ce que nous construisons ici. donc c'était vraiment douloureux.

la seule expérience de vie à laquelle je peux comparer cela, c'est la mort de mon père, ce qui bien sûr était bien pire. c'était une chose très soudaine, ce sentiment de confusion et de perte. dans ce cas, j’avais l’impression d’avoir un peu de temps pour tout comprendre. mais il y avait tellement plus à venir, et c'était tellement inattendu que j'ai dû recoller les morceaux de sa vie pendant un moment. ce n'est qu'environ une semaine plus tard que j'ai vraiment eu le temps de respirer et de penser : « oh mon dieu, je n'arrive pas à croire que cela arrive. alors oui, c'est définitivement bien pire. mais ici, on retrouve des échos similaires.

trevor :

alors que vous envisagez l’avenir de l’entreprise et votre rôle dans celle-ci, comment trouvez-vous actuellement l’équilibre entre faire avancer l’ia ouverte et continuer à avancer dans la direction en laquelle vous croyez ? avez-vous toujours des freins d'urgence ? existe-t-il une sorte de système au sein de l'entreprise qui permet d'intervenir et de mettre un terme à ce comportement lorsque vous estimez que nous créons quelque chose qui pourrait avoir un impact négatif sur la société ? avez-vous cette capacité ? et ce système est-il intégré ?

sam :

oui bien sûr. nous avons eu un tel système dans le passé. par exemple, nous créons certains systèmes mais choisissons de ne pas les déployer. je crois que nous referons cela à l'avenir. ou bien nous créons un système et disons : il nous faut un peu plus de temps pour le sécuriser avant de pouvoir le déployer. tout comme dans le cas de gpt-4, il nous a fallu près de huit mois pour terminer la formation avant d'être prêts à le publier, avec tous les tests d'alignement et de sécurité. je me souviens d'avoir parlé à certains membres de l'équipe et ce n'était pas une décision du conseil d'administration, mais des gens ici qui faisaient leur travail et s'engageaient dans notre mission. donc cela va continuer.

ce dont je suis très fier de cette équipe, c'est sa capacité à bien fonctionner au milieu du chaos, de la crise, de l'incertitude et du stress. je leur donne un a+, ils ont fait un excellent travail. à mesure que nous nous rapprochons de systèmes plus robustes, très robustes, je pense que la culture et la capacité des équipes que nous construisons sont probablement l'élément le plus important, comme rester calme en cas de crise et prendre de bonnes décisions réfléchies. je pense que l’équipe ici a vraiment prouvé qu’elle pouvait le faire, ce qui est vraiment important.

quelqu'un a dit que l'une des choses que nous avons apprises sur openai est que sam pouvait diriger l'entreprise sans avoir de titre de poste. je pense que c’est complètement faux et tout simplement faux. la bonne leçon était que l’entreprise pouvait fonctionner sans moi. c’est une question de culture et l’équipe est prête et la culture est prête. j'en suis très fier et vraiment excité de revenir et de continuer à le faire.

regarder l’équipe gérer tout cela m’aide à mieux dormir la nuit alors que nous faisons face aux défis à venir. il y aura de plus grands défis à l’avenir, mais j’espère et je crois que celui-ci sera le plus difficile parce que nous ne sommes pas préparés. nous en prenons désormais conscience, nous ne sommes pas une entreprise ordinaire, loin de là.

trevor :

parlons-en. chatgpt, openai, quel que soit son nom. vous avez dall·e, vous avez whisper et tous ces produits étonnants. si vous avez des idées de noms de marque ou d'architecture de marque, je serais très intéressé. j'ai l'impression que chatgpt a fait cela et maintenant c'est partout. oui, c'est un nom épouvantable, mais il est peut-être devenu trop courant pour être changé. pensez-vous que cela puisse être modifié à ce moment-là ? pouvons-nous le simplifier en gpt ou simplement discuter ?

sam :

je ne sais pas, peut-être pas.

trevor :

parfois, j'ai l'impression qu'un produit, un nom ou une idée transcende les rêves des spécialistes du marketing et que les gens l'acceptent.

sam :

aucun spécialiste du marketing ne choisirait chatgpt comme nom pour cela, mais nous y sommes probablement coincés, et ce n'est probablement pas grave.

trevor :

aujourd’hui, je suis fasciné par son caractère multimodal. je me souviens encore de la première fois où j'ai vu dall·e sortir, c'était juste une idée, et j'ai vu comment cela fonctionnait, et j'ai vu que ce programme pouvait créer une image à partir de rien. j'essaie de l'expliquer aux gens et ils me demandent : d'où vient cette image ? j'étais comme, il n'y a pas de photo, pas d'image source. ils pensent que c'est impossible.

il a vu quelque chose qui, à mon avis, était difficile à expliquer à l'époque. parfois même j’ai du mal à le comprendre. mais quand nous regardons le monde dans lequel nous vivons actuellement, nous en parlons en termes de chiffres, gpt 3,5, gpt 4, gpt 5, 6, 7, peu importe. j'aime parler davantage des cas d'utilisation réels du produit d'une manière qui élimine le jargon technique.

entre différents produits, de chatgpt 3, 3.5 à 4, nous voyons les soi-disant capacités de raisonnement atteindre un niveau supérieur et même faire preuve de créativité dans une certaine mesure.

quand je regarde les produits que vous créez actuellement dans ce monde, comme les grands modèles de langage à usage général et désormais les grands modèles de langage spécialisés, je me demande : pensez-vous que les cas d'utilisation vont changer radicalement ? pensez-vous que cela pourrait être comme un petit chatbot que tout le monde aime maintenant, et est-ce la forme finale du produit ? ou pensez-vous que le monde deviendra un monde où tout aura un gpt spécialisé ? par exemple, trevor aura un gpt qui fera des choses pour lui, ou une certaine entreprise aura un gpt qui fera des choses pour elle. que pensez-vous de ce problème ?

évidemment, il est difficile de prédire l’avenir. mais d’où nous en sommes aujourd’hui, où voyez-vous cela évoluer ?

sam :

je pense que ce sera un mélange des deux. il est vraiment difficile de prédire l’avenir, et je peux me tromper, mais je suis quand même prêt à essayer. je pense que ce sera un mélange des deux choses que vous venez de mentionner. premièrement, le modèle de base sera si performant qu’il m’est difficile de dire avec certitude qu’il ne peut rien faire. cela va prendre du temps, mais je pense que nous allons dans cette direction.

trevor :

quelle est la durée d'une « longue période » dans votre cadre temporel ? par exemple, comment le mesurez-vous ?

sam :

pas dans les prochaines années. cela va s’améliorer chaque année au cours des prochaines années. mais comme j’allais le dire, je suis presque sûr que d’ici 2026, il y aura encore beaucoup de choses que ce modèle ne pourra pas faire.

trevor :

mais ce modèle ne cesse-t-il de vous surprendre ? lorsque je parle à des ingénieurs qui travaillent dans ce domaine, ou à toute personne impliquée ou liée à l’ia, le mot qui revient le plus est « surprise ». les gens n'arrêtent pas de dire qu'ils l'enseignent, pensant que chatgpt apprend dans le domaine. tout d'un coup, il commence à parler une nouvelle langue, ou alors nous pensions lui enseigner ceci, et tout d'un coup, il construit des ponts, ce genre de choses.

sam :

par conséquent, l’expérience subjective de la plupart des gens ici se situe probablement entre 2019 et 2022. mais maintenant, je pense que nous avons appris à ne plus être surpris. aujourd’hui, notre confiance a augmenté de façon exponentielle, et la plupart des gens le pensent. ainsi, gpt-5, quel que soit le nom que nous lui donnons, excellera dans de nombreux aspects. nous serons surpris par certaines des choses spécifiques qu'il peut faire, et nous serons également surpris par ce qu'il ne peut pas faire. personne ne sera surpris de voir à quel point c'est bon. à ce stade, je pense que nous avons une compréhension très profonde de cela.

la deuxième chose que vous avez mentionnée concerne ces gpt personnalisés. plus important encore, vous avez également mentionné les gpt personnels, tels que trevor gpt. je pense que cela va devenir une grande tendance dans les prochaines années. ces modèles apprendront à vous connaître, accéderont à vos données personnelles, répondront aux questions comme vous le souhaitez et travailleront très efficacement dans votre environnement. je pense que beaucoup de gens voudront ça.

trevor :

cela me fait presque me demander si le nouveau marché du travail fait en sorte que votre gpt soit presque votre cv, le gpt a presque étrangement plus de valeur que vous. vous me comprenez? c'est comme une combinaison de tout ce à quoi vous pensez et de tout ce à quoi vous avez déjà pensé, et la façon dont vous synthétisez vos idées, ainsi que votre propre gpt personnel, devient... je pense juste à un avenir fou, quand vous allez dans un travail, ils vous demandent, quel est votre gpt ? et vous dites, d'accord, c'est le mien.

sam :

nous pensons toujours à ces agences, à ces agences personnalisées, je vais laisser cette chose faire les choses pour moi. mais ce que vous dites à ce sujet est intéressant, c'est si ce n'est pas comme ça, mais comment les autres interagissent avec vous. droite. c'est comme une impression de vous, un avatar de vous, un écho de vous, etc. je pouvais le voir arriver à ce point.

trevor :

parce que si nous ne sommes pas une combinaison de tout ce que nous sommes, alors que sommes-nous ? c'est une idée étrange, mais je peux y croire. j'ai toujours été fasciné par où il peut aller et par ce qu'il peut faire.

savez-vous pourquoi ? lorsque chatgpt a explosé au cours des premières semaines, je n'oublierai jamais à quelle vitesse les gens ont réalisé, la révolution des robots, je sais que ce n'était pas des robots, mais pour les gens, c'était comme, la révolution des robots, les machines ne remplaçaient pas ce qu'ils pensaient des emplois qui seront remplacés. vous savez, les gens pensaient que cela allait remplacer les chauffeurs de camion, etc. cependant, nous avons constaté que non, ces emplois sont en réalité plus difficiles à remplacer. en fait, les emplois remplacés par les soi-disant « emplois cérébraux » sont ceux-là, comme votre travail de col blanc. êtes-vous avocat? eh bien, lorsque vous disposez de chatgpt 5, 6, 7, peu importe comment vous l'appelez, vous n'aurez peut-être pas besoin d'autant d'avocats. vous êtes ingénieur et vous vous demandez quelle est votre place... le corps humain est vraiment une chose incroyable.

pensez-vous qu’il existe des avancées qui pourraient remplacer le corps humain ? ou sommes-nous toujours dans le domaine spirituel ?

sam :

non, je pense que nous finirons par faire fonctionner les robots, comme les robots humanoïdes finiront par fonctionner. mais nous travaillions là-dessus dès les premiers stades d'openai, nous avions un projet de robotique. je ne le sais pas.

nous savons que nous avons construit une main robotique capable de manipuler un rubik's cube comme une main. cela demande beaucoup de flexibilité. je pense que de nombreuses idées différentes sont impliquées, mais l'une d'entre elles est qu'il est beaucoup plus facile de progresser dans un monde de bits que dans un monde d'atomes.

par exemple, ce robot est difficile à construire, mais pour de mauvaises raisons. la difficulté n'est pas que cela nous aide à faire avancer certaines questions de recherche épineuses, mais que le robot continue de se briser, qu'il n'est pas très précis et que les simulateurs sont terribles. alors qu’avec un modèle de langage, vous pouvez faire toutes ces choses dans un environnement virtuel, vous pouvez progresser beaucoup plus rapidement. ainsi, se concentrer sur l’aspect cognitif nous aide à résoudre plus rapidement des problèmes plus productifs.

mais c'est aussi un aspect très important, et je pense que la résolution de tâches cognitives est le problème le plus important. par exemple, si vous construisez un robot, il ne saura pas nécessairement comment vous aider à construire un système qui effectue des tâches cognitives. mais si vous créez un système qui accomplit des tâches cognitives, cela peut vous aider à comprendre comment créer un meilleur robot.

oui, cela a du sens. je pense donc que la cognition est la chose centrale sur laquelle nous voulons nous concentrer. je pense que c'est la bonne décision. j'espère cependant que nous pourrons revenir à la robotique.

trevor :

vous êtes-vous déjà demandé quand, selon vous, l’intelligence artificielle générale aurait été atteinte ? genre, comment le savons-nous ? pour moi personnellement ? par exemple, quand est-ce que je sens que la tâche est accomplie ?

sam :

parce que tout le monde parle d’intelligence artificielle générale, mais je demande : comment savoir ce que c’est ? cela revient donc au point précédent, chacun a une définition différente. personnellement, je vous le dirai quand je serai super excité. je suis vraiment enthousiasmé lorsque nous disposons d’un système qui permet de découvrir de nouvelles physiques. mais cela semble bien au-delà de l’intelligence générale. on dirait, tu vois ce que je veux dire ? cela va au-delà de ce que la plupart des gens définiraient, je pense.

trevor :

c’est peut-être parce que je me demande parfois : comment définit-on l’intelligence générale ? devons-nous le définir comme un génie dans un certain domaine ? ou comme un enfant étant une intelligence générale artificielle ? c'est sûr. mais il faut continuer à le programmer, et quand ils naissent, ils ne peuvent plus parler, ils ne peuvent pas marcher, ils ne savent rien. et vous continuez à programmer cette agi pour l’amener là où elle doit aller.

donc, si, disons, vous arrivez au point où vous avez une version d'un enfant de quatre ans.

sam :

et si nous avions un système qui pourrait être comme celui-ci, juste compris, capable de fonctionner de manière autonome, avec l'aide de ses parents, et de comprendre le monde comme le fait un enfant de quatre ans. oui, nous pouvons l'appeler agi. si nous pouvions réellement exploiter cette capacité universelle, nous pourrions la découvrir par nous-mêmes lorsque de nouveaux problèmes surgissent. les enfants de quatre ans ne comprennent pas toujours parfaitement les choses, mais à ce moment-là, nous l'avons évidemment compris.

trevor :

pouvons-nous en arriver là sans comprendre fondamentalement la nature de la pensée et de la pensée ? cela semble possible. pensez-vous que nous pouvons en arriver là ? je pense que ça va. ou nous pouvons arriver à un... alors je suis sûr que vous le savez.

l’une de mes histoires préférées dans le domaine de l’ia est un projet chez microsoft. ils ont une ia qui essaie d'apprendre à identifier les visages masculins et féminins, et elle est en quelque sorte très précise, précise à environ 99,9 %. cependant, elle a toujours été peu représentée lorsqu’il s’agit des personnes noires et notamment des femmes noires, les prenant constamment pour des hommes. les chercheurs essaient toujours de s’améliorer et se demandent toujours : que se passe-t-il ?

pendant un moment, c'est ainsi que j'ai raconté l'histoire. c'est peut-être un peu inexact, mais j'ai trouvé cela intéressant. il fut un temps où ils « envoyaient » l’ia en afrique, je pense que c’était au kenya. ils ont envoyé l’ia en afrique, puis ont demandé à l’équipe de recherche au kenya : pourraient-ils l’utiliser pendant un certain temps pour tenter de résoudre ce problème ? lorsque cette ia a été utilisée de ce côté du monde, avec leurs données et leurs visages africains, elle est devenue de plus en plus précise pour identifier les femmes noires en particulier.

mais finalement, ils ont découvert que l’ia ne connaissait jamais la différence entre les visages masculins et féminins. tout ce qu'il fait, c'est établir des corrélations entre les maquillages. en conséquence, l’ia a déterminé que la personne aux lèvres rouges, aux joues roses et éventuellement aux paupières bleues était une femme et que les autres étaient des hommes. les chercheurs disent que oui, vous avez raison. il vient de trouver ce qu'on appelle un "code de triche", vous savez. c'est comme si je comprenais quelles sont vos normes pour les hommes et les femmes, et ensuite c'est différencié par ces normes.

et puis ils ont réalisé que parce que les femmes noires sont généralement mal desservies en matière de maquillage, elles ne portent pas beaucoup de maquillage, donc le système ne le sait tout simplement pas. mais nous ne savons pas que le système ne le sait pas. alors je me demandais, comment savoir si agi sait ou ne sait pas quelque chose ? ou découvrirons-nous qu’il a simplement triché pour parvenir à la réponse d’une manière ou d’une autre ? comment le savons-nous ?

alors que cette incertitude est liée à tant d’aspects de nos vies, quel est le prix de notre ignorance ? est-ce que tu comprends?

sam :

je crois que nous progresserons dans la compréhension de ce que font ces systèmes. actuellement, l’interprétabilité a fait quelques progrès. c’est un domaine dans lequel ces modèles sont étudiés, et il existe différentes manières et différents niveaux dans lesquels cette recherche peut être menée. vous pouvez essayer de comprendre ce que fait chaque neurone artificiel du système, ou vous pouvez observer le système réfléchir étape par étape et voir avec quelles étapes vous n'êtes pas d'accord. nous en saurons davantage.

la capacité de comprendre ce que font ces systèmes et, espérons-le, de nous expliquer pourquoi ils parviennent à certaines conclusions, et ce, avec précision et robustesse. je pense que nous progresserons non seulement dans la compréhension de la manière dont ces systèmes font ce qu'ils font, mais également dans la compréhension de la manière dont notre propre cerveau fait ce qu'il fait. je pense donc que nous finirons par comprendre cela. je suis curieux et je suis sûr que vous l'êtes aussi.

à mon avis, nous ferons davantage de progrès dans la mise en œuvre de méthodes dont nous savons qu’elles améliorent de plus en plus ces systèmes et nous aident à résoudre le défi de l’explicabilité. et je pense qu’à mesure que ces systèmes deviennent plus intelligents, ils seront moins souvent trompés. par conséquent, un système plus complexe ne fera peut-être pas de telles distinctions cosmétiques et pourra apprendre à un niveau plus profond. je pense que nous en voyons des preuves.

trevor :

vous m'avez fait penser à deux choses lorsque vous avez dit qu'il n'était pas si facile de se tromper. l’un est l’aspect sécurité et l’autre l’aspect précision. les médias en ont parlé. vous vous souvenez, disaient-ils, l'ia hallucinait, elle pensait qu'elle allait me tuer. je trouve particulièrement intéressant que les gens aiment utiliser le mot « penser » pour décrire de grands modèles de langage. parce que j'ai toujours pensé que les journalistes devraient essayer de comprendre ce qui se passe avant d'en parler. mais quand ils utilisent beaucoup le mot « penser », ils donnent en fait un malentendu au public. j'ai de la sympathie pour cela.

sam :

nous devons utiliser des termes familiers, nous devons personnifier. mais je suis d'accord avec vous que c'est trompeur.

trevor :

parce que vous dites qu'il réfléchit, et ensuite les gens penseront : est-ce qu'il pense à me tuer ? ce n'est pas le cas, il ne s'agit pas de réfléchir, il s'agit simplement d'utiliser ce transformateur magique pour déterminer quels mots sont les plus susceptibles de s'emboîter les uns dans les autres.

sam : que penses-tu faire ?

trevor :

qu'est-ce que je fais ? c'est une question intéressante. c'est ce que je dis, c'est l'idée que nous avons reconstituée.

on parle d'« hallucinations ». permettez-moi de commencer par la première moitié. pensez-vous que nous pouvons atteindre l’objectif de rendre l’ia non hallucinante ?

sam :

je pense que la meilleure question est de savoir si nous pouvons garantir qu'une ia n'hallucine pas quand nous ne le voulons pas, à une fréquence similaire à la fréquence à laquelle les humains n'hallucinent pas. à cela, ma réponse est oui. mais en réalité, l’une des choses que les gens aiment dans ces systèmes est leur capacité à réaliser des choses nouvelles. si seulement c'était le cas... oui, l'hallucination est à la fois une fonctionnalité et un bug.

trevor :

c'est ce que je viens de demander. l'hallucination ne fait-elle pas partie de l'existence intelligente ?

sam :

totalement.

si vous réfléchissez, par exemple, à la façon dont travaille un chercheur en ia, il examine beaucoup de données, trouve des idées, lit beaucoup de choses, puis commence à réfléchir, peut-être ceci ou cela. peut-être que je devrais tenter cette expérience. maintenant, j'ai les données. donc, ça ne marche pas vraiment. maintenant, je vais proposer cette nouvelle idée.

cette capacité humaine à proposer de nouvelles hypothèses, de nouvelles explications, n'a jamais existé auparavant, et la plupart d'entre elles sont fausses, mais il existe ensuite un processus et une boucle de rétroaction pour déterminer lesquelles pourraient avoir du sens et qui, en fin de compte, ont du sens. c’est l’un des éléments clés du progrès humain.

trevor :

comment empêcher l’intelligence artificielle d’avoir des entrées et des sorties de déchets ? actuellement, l’intelligence artificielle fonctionne sur des informations créées d’une manière ou d’une autre par les humains. il s'agit d'apprendre à partir d'un matériel que nous pensons susceptible d'apprendre. avec toutes les nouveautés qui sortent maintenant, comme open ai, anthropic, lambda, etc., il semble que nous puissions entrer dans un monde où plus d'informations sont générées par l'ia que par les humains, et ces informations pourraient ne pas faire l'objet d'un examen minutieux qu'elles méritent.

alors, l’ia s’améliore-t-elle lorsqu’elle apprend d’elle-même d’une manière qui ne peut être censurée ? vous me comprenez?

sam :

tout à fait comprendre.

comment pouvons-nous résoudre ce problème ? cela renvoie à la question de savoir comment se comporter dans différentes situations. par exemple, vous voulez une certaine fantaisie dans le processus créatif, mais vous ne voulez pas de cette fantaisie lorsque vous essayez de rapporter les faits précis d'un événement. et maintenant, ces systèmes peuvent générer de nouvelles images qui sont belles dans un sens important, des images qui sont en quelque sorte fantastiques, mais de bonne fantaisie. mais encore une fois, la situation s'est beaucoup améliorée lorsque l'on souhaite que le système fournisse uniquement des faits, mais il reste encore un long chemin à parcourir à cet égard.

cela n'a pas d'importance. je pense que c'est une bonne chose si ces systèmes sont formés sur leurs propres données générées, à condition qu'il existe un processus permettant à ces systèmes d'apprendre quelles données sont bonnes et lesquelles sont mauvaises. encore une fois, « hallucination » est une description insuffisante de ce processus, car si elle donnait naissance à de nouvelles idées scientifiques, ces idées pourraient initialement être considérées comme des « hallucinations ». c'est précieux.

mais vous savez, ce qui est bien et ce qui est mal. et il doit y avoir suffisamment de surveillance humaine pour garantir que nous ayons tous toujours un contrôle collectif sur la destination de ces choses. mais compte tenu de ces contraintes, je pense qu'il est très bien que le système soit formé à l'aide des données générées, et que les futurs systèmes feront de même.

et puis tu m'as rappelé une autre chose à laquelle j'ai pensé, je ne sais pas trop comment la calculer, mais je me demande si, disons, un système comme gpt-5 ou 6 sera capable à un moment donné de générer plus de mots qu'un être humain. toute l'histoire réunie. cela semble être une étape majeure.

en fait, ça n'a peut-être pas d'importance si je le dis maintenant.

trevor :

de quelle manière a-t-il été généré ?

sam :

par exemple, le modèle génère plus de mots en un an que l’ensemble de l’humanité. il y a huit milliards de personnes dans le monde, quel que soit le chiffre. vous pouvez calculer le nombre moyen de mots prononcés par an.

mais la question est : où cela nous mène-t-il ? c'est pourquoi j'ai été surpris après l'avoir dit. pour une raison ou une autre, cela me semble être une étape importante, mais je n'arrive pas à penser à une raison précise.

trevor :

peut-être que les humains sont comme des singes qui tapent tout le temps. donc, je pense que cela vaut la peine d'être exploré.

sam :

mais je n’utilise pas le mot « penser » parce que je pense que vous avez raison et que vous ne devriez pas utiliser ce mot. peut-être pouvons-nous comparer le nombre de mots générés par l’ia au nombre de mots générés par tous les humains.

trevor :

je suis sur le point de finir. alors j'ai envie de poser quelques questions, et si je ne les pose pas, les gens me tueront.

l’une des principales questions, et c’est ma question personnelle, est que nous parlons toujours de l’apprentissage de l’ia à partir des données, celles-ci sont intégrées dans des ensembles de données. c'est de cela dont nous parlons. c'est pourquoi vous avez besoin de ces superordinateurs valant des milliards de dollars pour que les ordinateurs puissent apprendre.

comment apprendre à l’ia à mieux penser que ceux qui lui fournissent des données manifestement erronées ? par exemple, comment l’ia apprend-elle au-delà des données limitées qui nous sont fournies ? lorsqu’il s’agit de race, de statut économique et de perceptions, parce que nous sommes limités, comment pouvons-nous lui apprendre à ne pas être limité par les données limitées qui nous sont fournies ?

sam :

nous ne le savons pas encore, mais c’est l’une des plus grandes orientations de recherche qui nous attend : comment surpasser les données humaines. j'espère que si nous refaisons cette séance de questions-réponses dans un an, je pourrai vous donner la réponse, mais je ne le sais pas encore. nous ne savions pas que cela comptait vraiment.

cependant, je crois que cela constituera une force importante dans la lutte contre l’injustice dans le monde. je ne pense pas que ces systèmes auront ces défauts profonds que partagent tous les humains. ils pourront devenir beaucoup moins racistes, sexistes et préjugés. ils deviendront une force pour la justice économique dans le monde.

je pense que si vous fournissez un bon mentor en ia ou un bon conseiller médical en ia, cela aide davantage la moitié la plus pauvre du monde que la moitié la plus riche, même si cela aide tout le monde à s’élever.

je n'ai donc pas de réponse claire à la question scientifique que vous soulevez, mais à ce stade, je crois que ces systèmes le peuvent certainement, et nous devons faire un travail social acharné pour en faire une réalité, mais ils ont le potentiel d'être extrêmement la terre promeut la justice dans le monde.

trevor :

peut-être que cela mène parfaitement à la deuxième question, à savoir : que faites-vous ? que fait openai ? envisagez-vous des mesures pour atténuer l’écart entre riches et pauvres que cette nouvelle technologie est une fois de plus en train de créer ?

l’émergence de toute nouvelle technologie est étonnante pour la société dans son ensemble, mais on ne peut nier qu’elle créera un moment où si vous l’avez, vous aurez tout. et si vous ne le faites pas, vous êtes éliminé.

sam :

je pense que nous en apprendrons davantage au fil du temps, mais pour le moment, je pense que l'une des choses vraiment importantes que nous faisons est de fournir un service véritablement gratuit. cela signifie pas de support publicitaire, juste un service gratuit utilisé par plus de 100 millions de personnes chaque semaine. et c'est difficile de dire qui que ce soit, parce que dans certains pays, nous sommes toujours bloqués ou nous sommes toujours bloqués, mais nous essayons de rendre un service de très haute qualité et facile à utiliser accessible à tous partout où nous le pouvons. l'intelligence artificielle gratuite, qui est importante pour chacun de nous.

je pense qu'il y a d'autres choses que nous voulons faire avec cette technologie. par exemple, si nous pouvons utiliser l’intelligence artificielle pour aider à guérir des maladies et rendre ces traitements accessibles au monde entier, cela est évidemment bénéfique, mais mettre cet outil entre les mains du plus grand nombre et les laisser l’utiliser pour construire l’avenir est une bonne chose. très important. et je pense que nous pouvons aller encore plus loin.

trevor : deux autres questions.

sam : puis-je en ajouter un de plus ?

trevor : tout le temps vous appartient.

sam :

une autre chose qui me semble importante est de savoir qui a le pouvoir de décider de ce que ces systèmes disent, ne disent pas, font et ne font pas, et qui fixe ces limites. à l’heure actuelle, ce sont essentiellement les employés d’openai qui prennent les décisions, et personne ne dirait que cela constitue une représentation équitable du monde. donc, non seulement trouver comment démocratiser cette technologie, mais aussi trouver comment démocratiser la gouvernance de cette technologie, c'est un grand défi pour nous l'année prochaine.

trevor :

cela rejoint directement ce que j'allais vous demander, l'aspect sécurité de tout cela. nous en avons parlé au début de notre conversation. lorsque vous concevez quelque chose qui change le monde, vous devez reconnaître le fait que cela pourrait changer le monde dans le pire des cas ou dans la pire direction. à chaque avancée technologique, la capacité de causer des dégâts plus importants augmente également.

est-il possible de sécuriser complètement l’ia ? et puis la deuxième partie est : quel est votre scénario de cauchemar ? qu'est-ce qui vous ferait appuyer sur un bouton rouge pour arrêter openai et toute l'ia ? quand vous y allez, vous le savez, si c'est le cas, si cela peut arriver, nous devons tout arrêter. de quoi as-tu peur ?

la première question est : pouvez-vous le garder en sécurité ? la deuxième partie est : quelle est votre scène la plus effrayante ?

sam :

je pense, tout d’abord, que l’idée que vous avez mentionnée, à savoir que le nombre de personnes capables de causer des dommages catastrophiques diminue chaque décennie environ, est un fait profond auquel nous devons faire face en tant que société.

deuxièmement, je ne pense pas que ce soit une question de choix quant à la manière de sécuriser un système. tout comme nous disons que les avions sont sûrs, il arrive parfois que des avions s'écrasent, même si cela est extrêmement rare. nous disons que les médicaments sont sûrs, mais parfois la fda certifie encore les médicaments qui peuvent causer la mort chez certaines personnes. par conséquent, la sécurité n’est pas décidée unilatéralement, mais plutôt la société décide du degré de sécurité acceptable d’une chose après avoir pesé les risques et les récompenses. je pense que nous pouvons le faire, mais cela ne veut pas dire que les choses ne peuvent pas vraiment mal tourner.

je pense qu’il y aura de gros problèmes avec l’intelligence artificielle contre lesquels nous devons nous prémunir. je pense que la société dispose en fait d’un processus assez efficace, quoique compliqué, pour décider collectivement des seuils de sécurité à fixer. il s’agit d’une négociation complexe impliquant de nombreuses parties prenantes, et nous, en tant que société, nous améliorons au fil du temps. mais nous devons nous prémunir contre le type de risques catastrophiques que vous avez évoqués.

l’énergie nucléaire en est un exemple. la guerre nucléaire a eu un impact très important sur le monde. le monde le traite différemment et a accompli un travail remarquable au cours des près de 80 dernières années. je pense qu’une situation similaire se produira avec l’intelligence artificielle. un exemple souvent évoqué est l’utilisation de l’intelligence artificielle pour concevoir et créer des agents pathogènes synthétiques qui peuvent causer d’énormes problèmes. un autre sujet fréquemment abordé est la question de la sécurité informatique et de l’intelligence artificielle capable de pirater au-delà de toute capacité humaine.

de plus, il existe une nouvelle situation où si le modèle est suffisamment puissant, il peut aider à concevoir des méthodes pour transférer les poids depuis le serveur, faire de nombreuses copies et modifier son comportement, ce qui s'apparente davantage à un scénario de science-fiction. mais je pense qu’en tant que monde, nous devons regarder cela de front. peut-être pas ce cas précis, mais l’idée est qu’il existe un risque catastrophique, voire potentiellement existentiel, et ce n’est pas parce que nous ne pouvons pas le définir avec précision que nous pouvons l’ignorer.

nous effectuons donc beaucoup de travail ici pour essayer de prédire et de mesurer quels pourraient être ces problèmes, quand ils pourraient survenir et comment nous pouvons les détecter précocement. je pense que tous ceux qui disent qu’il ne faut pas parler de cette question, mais seulement de la désinformation, des préjugés et des problèmes d’actualité, ont tort. nous devons parler des deux et rester en sécurité à chaque étape du processus.

trevor :

d'accord, c'était aussi effrayant que je l'imaginais. alors, au fait, envisagez-vous vraiment de vous présenter au poste de gouverneur ? est-ce vrai ?

sam :

non, non. j’y ai réfléchi très brièvement en 2017 ou 2016, voire des années similaires. je le pense aussi.

cela ressemble à une vague idée que j'ai depuis quelques semaines, pour m'amuser.

trevor :

d'accord

je suppose que ma dernière question est la suivante : et ensuite ? quel est ton rêve ? si sam altman pouvait agiter une baguette magique et faire de l’intelligence artificielle ce que vous vouliez qu’elle soit, qu’est-ce que cela apporterait à l’avenir selon vous ? quels sont les avantages ? quels sont les avantages pour tout le monde ? et à tous les niveaux, c’est une chose vraiment agréable et positive.

sam :

merci d'avoir posé cette question. je pense qu'il faut toujours terminer sur une note positive.

oui. je pense que nous entrons dans la période la plus fertile de l’histoire de l’humanité. je pense que les deux principaux moteurs sont l’intelligence artificielle et l’énergie, mais il y aura d’autres facteurs. ces deux choses, la capacité de proposer des idées, la capacité de mettre en œuvre ces idées et de le faire à grande échelle, les limites de ce que les gens peuvent avoir seront un peu comme ce qu'ils peuvent imaginer et ce que nous, en tant que société, négocions. quelque chose. je pense que ça va être génial.

nous parlions justement de la question suivante : qu'est-ce que cela signifierait si chaque étudiant pouvait vivre une meilleure expérience éducative que les étudiants les plus riches et les mieux dotés en ressources aujourd'hui ? qu’est-ce que cela signifierait si nous bénéficiions tous de meilleurs soins de santé que les meilleurs soins de santé dont disposent aujourd’hui les personnes les plus riches ? qu’est-ce que cela signifie si les gens sont généralement libres d’exercer les tâches qu’ils trouvent les plus épanouissantes sur le plan personnel, même si cela signifie qu’ils doivent évoluer vers de nouvelles catégories d’emplois ? qu’est-ce que cela signifierait si chacun pouvait avoir un travail qu’il aime et disposait des mêmes ressources qu’une grande entreprise ou une grande équipe ?

donc, peut-être qu'au lieu d'avoir 800 personnes chez openai, tout le monde dispose de 800 systèmes d'ia plus intelligents qui peuvent faire toutes ces choses et les gens se contentent de créer et de fabriquer toutes ces choses, je pense que c'est vraiment remarquable. je pense que c’est vers ce monde que nous nous dirigeons. cela nécessitera beaucoup de travail, outre la technologie, pour y parvenir, par exemple la société devra procéder à certains changements. mais le fait que nous entrions dans cette ère d’abondance m’en rend très heureux.

trevor :

c'est tout ce que je dirai ici. je suis un grand, grand, grand fan des avantages potentiels d’openai. je travaille dans l'éducation en afrique du sud. mon rêve a toujours été de donner à chaque enfant accès aux meilleurs tuteurs. vous me comprenez? aucun enfant n’est laissé pour compte car il peut apprendre à son rythme.

sam :

au fait, que se passe-t-il avec les enfants qui utilisent chatgpt pour apprendre des choses ? ces histoires sont comme celles que je reçois quotidiennement par courrier. c'est génial.

trevor :

en effet. c'est vraiment incroyable. surtout lorsque l’apprentissage devient plus multimodal, comme l’ajout de vidéo, cela devient incroyable.

je rêve, comme vous le dites, de soins médicaux. je rêve de tout. une question existentielle dont je pense que nous ne parlons pas assez est de savoir comment redéfinir le but humain une fois que l’ia aura effectivement remplacé toutes ces choses ? parce que, qu'on le veuille ou non, tout au long de l'histoire, vous constaterez que nos objectifs ont souvent défini nos progrès.

notre objectif était autrefois uniquement la religion. pour le meilleur ou pour le pire, si vous y réfléchissez bien, la religion est vraiment efficace pour amener les gens à penser et à agir dans une direction spécifique qui les dépasse. ils disent : « ceci est mon objectif. » je me réveille pour servir dieu, quel que soit le dieu auquel vous pensez. je me réveille pour servir dieu. je me réveille pour plaire à dieu. je pense que cela donne aux humains le sentiment d'avancer vers un objectif, mais cela leur donne également un sentiment de communauté et d'appartenance.

alors que nous entrons dans un monde où l’ia élimine cela, j’espère que nous n’oublierons pas combien de personnes ont toute leur identité liée à ce qu’elles font plutôt qu’à ce qu’elles sont. une fois que nous avons remplacé ces rôles, lorsqu'il n'y a plus de commis, de secrétaires, de standardistes, d'assistants, d'ouvriers d'usine, c'est ce que nous avons vu trop souvent dans l'histoire se produire. comme si le radicalisme surgissait de nulle part, il y a eu une opposition massive. avez-vous déjà pensé à cela ? existe-t-il un moyen de l'intercepter avant que cela n'arrive ?

sam :

comment décririez-vous nos objectifs actuels ?

trevor :

je pense qu'à l'heure actuelle, notre objectif est de survivre et que la survie est liée à une certaine forme de génération de revenus parce que c'est ainsi qu'on nous dit que la survie fonctionne, qu'il faut gagner de l'argent pour survivre. mais nous avons vu que cette situation change à certaines périodes. il y a un bon exemple en france, ils avaient (et je pense qu'ils en ont encore une version) un fonds pour les artistes où ils disaient, nous vous paierons en tant qu'artiste et vous créez simplement pour rendre la france plus belle. c'est tellement beau.

je sais que vous êtes un fan d'ubi. ouais, nous ne devrions pas partir avant que tu en parles.

sam :

je ne pense pas que la survie des gens devrait être liée à leur volonté ou à leur capacité de travailler. je pense que c'est comme un gaspillage du potentiel humain. oui, je suis tout à fait d'accord avec toi.

trevor :

attends, laisse-moi te demander ça avant de partir. est-ce pour cela que vous pensez que le revenu de base universel est si important ? parce que vous ne perdriez pas de temps et d’argent pour quelque chose en quoi vous ne croyez pas, vous consacrez beaucoup de temps et d’argent à un revenu de base universel. la dernière chose que j'ai vue, c'est que vous étiez impliqué dans un projet d'environ quarante millions de dollars. il s'agissait en réalité de 60 millions de dollars.

sam :

je pense qu’un revenu de base universel n’est certainement pas une solution globale aux défis qui nous attendent, mais je pense que l’éradication de la pauvreté est sans aucun doute une bonne chose. je pense qu’une meilleure redistribution des ressources mènera à une société meilleure pour tous. mais je pense qu’envoyer de l’argent n’est pas l’élément clé, mais je pense que fournir des outils et assurer la gouvernance est plus important. les gens veulent être des architectes du futur et je pense pouvoir dire qu’il existe un fil conducteur continu de sens ou quelque chose comme une mission pour l’humanité.

d'un point de vue individuel, il s'agit sans aucun doute de survivre et de prospérer, mais dans l'ensemble, nous avons une urgence collective à rendre l'avenir meilleur. nous prenons souvent des risques, mais l’histoire de l’humanité est la suivante : rendre l’avenir meilleur. c'est la technologie, c'est la gouvernance, c'est la façon dont nous nous traitons les uns les autres. c'est comme explorer les étoiles, c'est ainsi qu'on comprend l'univers, quel qu'il soit. j'ai une grande confiance, et cette confiance est profondément en nous. quels que soient les outils dont nous disposons, ce désir fondamental, cette mission de l’humanité de s’épanouir en tant qu’espèce et en tant qu’individus, ne disparaîtra jamais.

je suis donc plein d’optimisme quant au monde dans deux générations. mais c'est un point très important que vous mentionnez, à savoir que les gens qui sont déjà dans leur carrière et qui sont en fait assez satisfaits ne veulent pas changer. le changement arrive. l'une des choses que nous avons constatées lors des révolutions technologiques précédentes est qu'il semble qu'en deux générations environ, la société et les individus peuvent s'adapter à n'importe quel degré de changement dans le travail. mais pas dans dix ans, et certainement pas dans cinq ans.

nous allons y faire face, et je pense que dans une certaine mesure, comme nous l'avons dit précédemment, cela va être plus lent que ce que les gens pensent, mais toujours plus rapide que ce à quoi la société a dû faire face dans le passé. j'ai vraiment un peu peur de ce que cela signifie et de la manière dont nous nous y adaptons. nous allons devoir régler ce problème et je pense que nous allons trouver une solution. je suis sûr que nous allons le découvrir.

je crois également que si nous donnons à nos enfants et petits-enfants de meilleurs outils que ceux dont nous disposons, ils feront des choses qui nous surprendront. j’espère qu’ils se sentent vraiment mal à l’idée de voir à quel point la vie est mauvaise pour nous tous. j'espère que l'avenir sera incroyable. cet esprit et ce désir humain aiment explorer et s'exprimer, pour concevoir un monde de plus en plus meilleur, et même au-delà. je pense que c'est génial et j'en suis vraiment content.

d’une certaine manière, nous ne devrions pas prendre cette petite chose trop au sérieux. dans star wars, il y a un méchant qui dit : « ne soyez pas trop impressionné par cette horreur technologique que vous avez créée. je pense que c'était dark vador. cela signifie que cette terreur technologique n’est pas à la hauteur de la puissance de la force.

dans un sens important, je ressens la même chose à propos de l’intelligence artificielle. nous ne devrions pas être trop surpris par cela. par exemple, l’esprit humain nous guidera dans les moments difficiles, et c’est bien plus grand que n’importe quelle révolution technologique.

trevor :

c'est un beau message d'espoir.

j'espère que vous avez raison car j'adore cette technologie.

une chose que je veux vous dire, en tant que sam altman, l'un des pdg de l'année et personnalité de l'année de time, je pense que vous allez continuer à être ainsi, en particulier dans ce rôle. en raison de l’impact massif qu’openai et l’intelligence artificielle elle-même sont sur le point d’avoir sur nous, je vous implore de continuer à vous rappeler ce que vous avez ressenti lorsque vous avez été licencié, car vous créez une technologie qui mettra de nombreuses personnes dans une position similaire. je vois cette humanité en vous, et j’espère que vous en tiendrez toujours compte lorsque vous créez.

sam :

tu sais ce que j'ai fait samedi matin, très tôt, quand je n'arrivais pas à dormir ? j'ai écrit ce que je pouvais apprendre de cela afin de pouvoir faire mieux lorsque d'autres traversent des situations similaires et me blâment comme je blâme maintenant le conseil d'administration.

trevor : tu as compris ?

sam :

il existe de nombreuses leçons uniques utiles. mais l’empathie que j’ai acquise grâce à toute cette expérience et au réalignement de mes valeurs, bien que douloureusement coûteux, était définitivement une bénédiction déguisée. je suis heureux d'avoir vécu cette expérience en ce sens.

trevor :

eh bien, sam, merci pour votre temps. merci beaucoup, j'apprécie vraiment tout cela. j'espère que nous pourrons discuter de tous les nouveaux développements dans un an.

sam :

tu devrais absolument faire ça, ce sera amusant.

trevor :

je le ferai, mon frère. merveilleux. merci.