nachricht

ultraman 10.000-wörter-interview: anführen der ki-revolution im zentrum des sturms, ein dialog über aufruhr und die zukunft der technologie

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

text: web3 sky city · city lord

es ist eine weile her, aber ein vollständiges video des persönlichen interviews von openai-ceo sam altman nach seiner rückkehr zu openai wurde veröffentlicht. dies ist die zeit, in der greg im urlaub ist, ilyas neues unternehmen gegründet wird und nachrichten über die anhaltenden verluste und neuen finanzierungen von openai ans licht kommen.

dieses interview wurde vom berühmten moderator trevor cui wa moderiert. was etwas überraschend ist, ist, dass trevor über ein sehr tiefes verständnis der ki-technologie verfügt, besser als 95 % der nicht-technischen moderatoren.

in diesem interview führten trevor und sam ein ausführliches gespräch über künstliche intelligenz, openai und sams persönliche karriere und reise. seit seiner rückkehr zu openai erzählte sam, wie er inmitten einer reihe von chaos und unsicherheit über die beziehung zwischen persönlichen und geschäftlichen missionen nachdachte, und sprach über die zukünftige entwicklungsrichtung von agi.

sam ging nicht nur auf das enorme potenzial von agi in bezug auf kognition, produktivität und soziale auswirkungen ein, sondern ging auch auf die herausforderungen der ki-sicherheit, ethische fragen, kapitalistische kompromisse und technologische revolution ein. gleichzeitig diskutierte er offen seine gedanken zur unternehmensführung von openai, wie sich technologischer fortschritt und soziale verantwortung in einklang bringen lassen, und betonte die bedeutung von transparenz und demokratischer technologieführung.

die reise, das ruder von openai zurückzugewinnen: sam altman denkt über seinen kurzen abschied nach und erzählt, wie er während dieser turbulenzen seine liebe zu openai und seiner mission wiederentdeckte. obwohl er kurzzeitig entlassen wurde, betonte er, dass er aus dieser erfahrung gelernt habe und es für wichtig halte, die entwicklung von agi weiter voranzutreiben.

die zukunft von agi und der technologischen revolution: sam altman ist fest davon überzeugt, dass agi eine beispiellose technologische revolution herbeiführen wird, auch wenn die sozialen und wirtschaftlichen veränderungen möglicherweise nicht so schnell erfolgen wie erwartet. er glaubt, dass die technologie zwar immer näher an agi heranrücken wird, ihre tatsächlichen auswirkungen auf die gesellschaft jedoch schrittweise erfolgen werden, sodass sich die gesellschaft schrittweise an die durch neue technologien verursachten veränderungen anpassen kann.

das gleichgewicht zwischen kapitalismus und ki: im interview erörtert sam altman ausführlich, wie openai in einem kapitalistischen system funktioniert und dabei seine ursprüngliche absicht bei seiner gründung beibehält, nämlich sicherzustellen, dass die vorteile von agi weit verbreitet werden. obwohl openai im kapitalismus konkurrieren muss, um die für die entwicklung erforderlichen ressourcen zu erhalten, betonte er, dass der technologische fortschritt nicht auf kosten von ethik und sozialer verantwortung gehen dürfe.

demokratische regierungsführung und soziale auswirkungen von ki: sam altman hat einen wichtigen punkt angesprochen, nämlich dass die governance der ki-technologie demokratischer sein sollte. er ist der ansicht, dass die öffentlichkeit stärker in die entscheidung über den einsatz von ki-systemen und die festlegung von regeln einbezogen werden sollte, und betonte die bedeutung technischer transparenz und vielfältiger governance.

bedenken hinsichtlich der sicherheit und ethik der ki: im interview gab sam altman zu, dass ki zwar großes potenzial, aber auch viele potenzielle sicherheitsrisiken birgt. er wies insbesondere auf die risiken von ki in der computersicherheit, der synthetischen biologie usw. hin und forderte die gesellschaft auf, die technologische entwicklung verantwortungsvoll voranzutreiben.

eine umfassendere vision für künstliche intelligenz: sam altman blickt optimistisch in die zukunft. er glaubt, dass mit zunehmender reife von agi jeder mehr möglichkeiten haben wird, persönliche interessen zu verfolgen, und dass die technologie die weltweiten bildungs- und medizinstandards erheblich verbessern wird. obwohl technologische innovationen zu veränderungen in den arbeits- und sozialmustern führen werden, glaubt er, dass uns letztendlich der menschliche geist und die kreativität in eine wohlhabendere zukunft führen werden.

trevor:

vielen dank, dass sie sich die zeit für das interview genommen haben.

sam: danke.

trevor: glaubst du nicht, dass das eine verrückte zeit ist?

sam: es fühlte sich wie der verrückteste moment an, den ich je erlebt habe.

trevor:

ja, du bist der mittelpunkt des ganzen. ich frage mich, wie sich das anfühlt. weil ich einfach ein begeisterter beobachter dieses fachgebiets und dieser welt bin, wissen sie? ich habe das gefühl, dass sie derjenige sind, der von all dem betroffen ist. ich meine, sam altman steht auf der shortlist des time magazine für die person des jahres.

sam: ich bin froh, dass ich das nicht bekommen habe.

trevor: schön, dass du es nicht bekommen hast?

sam: ja, natürlich.

trevor: warum?

sam: ich habe dieses jahr bereits mehr aufmerksamkeit bekommen als in meinem ganzen leben.

trevor: okay, okay. du magst also keine aufmerksamkeit? du willst die aufmerksamkeit nicht?

sam:

nein, das ist zu grausam. in mancher hinsicht ist es interessant. das ist in mancher hinsicht nützlich. aber für das privatleben wird die lebensqualität gewichtet. ja, definitiv nicht. aber so ist es jetzt. dafür habe ich mich angemeldet.

trevor: ja, jetzt ist es zeit für berühmtheit.

sam: ja.

trevor: erkennen dich die leute auf der straße?

sam:das ist ein sehr schlechter kompromiss. ja, ich habe das gefühl, dass du nie... ich bin mir sicher, dass dir das auch passiert, aber ich kann nicht länger anonym bleiben.

trevor:ja, aber die leute fragen mich nicht nach der zukunft.

sam:sie fragen dich nicht, ob du die welt zerstören wirst.das ist richtig. es gibt einen kleinen unterschied. vielleicht möchten die leute ein foto mit mir machen. das ist das ausmaß. viele gruppenfotos.

trevor: nun, herzlichen glückwunsch. sie sind der ceo des jahres des time magazine.

sam: ja.

trevor:

das war wahrscheinlich einer der seltsamsten momente, denn ich schätze, es war ungefähr zu der zeit, als das time magazine diese entscheidung traf. vor ein paar wochen wären sie vielleicht nicht ceo des jahres gewesen. ich weiß nicht, ob sie dir diese auszeichnung noch verleihen können. ich vermute, es ist für ihren vorherigen job.

sam: ja, ich weiß es nicht. ich weiß nicht, wie das funktioniert.

trevor: wie fühlt es sich an, wieder ceo zu sein?

sam:

um ehrlich zu sein, programmiere ich die realität immer noch neu. in gewisser weise fühlte es sich großartig an, denn im laufe des prozesses habe ich viel darüber gelernt, wie sehr ich dieses unternehmen, seine mission und seine mitarbeiter liebe. und dabei erlebte ich mehrmals in kurzer zeit die ganze bandbreite menschlicher emotionen. aber ein ganz klarer moment ist für mich, dass das alles an einem freitagnachmittag, an einem freitagmittag, passiert ist. am nächsten morgen, samstag, riefen mich mehrere vorstandsmitglieder an und fragten, ob sie bereit wären, über eine rückgabe zu sprechen.

ich habe diesbezüglich sehr gemischte gefühle. aber irgendwann wurde mir ganz klar, dass ich zurückkommen wollte.

ich liebe diesen ort und das, was wir tun, wirklich. ich denke, es ist wichtig für die welt und es ist das, was mir am meisten am herzen liegt.

trevor:

in der tech-welt ist das einstellen und entlassen von mitarbeitern etwas, an das sich jeder gewöhnen muss.

ich weiß, dass sie in der vergangenheit von y combinator gefeuert wurden. jeder in dieser situation hat eine geschichte.

sam: darüber möchte ich nicht reden.

trevor: sag es mir, sag es mir. diese dinge recherchieren sie und gehen von dort aus weiter.

sam:

etwa ein jahr bevor ich yc verließ, beschloss ich, dass ich zu openai kommen wollte.

es war ein komplizierter übergang. aber ich hatte gleichzeitig an openai und yc gearbeitet und war mir ziemlich sicher, dass ich zu openai kommen wollte. ich habe das nie bereut.

trevor:dann wurdest du nie gefeuert. als mensch ist es eine schwierige situation.

sam: ist das eine entlassung?

trevor: was wäre, wenn sie entlassen und sofort wieder eingestellt würden?

sam:was ich sagen wollte, war mehr als nur... das ist einfach brutal... ich denke, ich sollte jetzt nicht darüber reden.

das ist eine sehr schmerzhafte sache. für mich persönlich als mensch fühlte es sich sehr unfair an und die art und weise, wie damit umgegangen wurde, war wirklich unfair.

trevor:

ich kann es mir vorstellen. viele leute werden darüber reden, gefeuert zu werden.

dies wurde während der pandemie zu einem trend, insbesondere als die leute darüber sprachen, eine e-mail oder ein video an eine gruppe zu schicken, und dann tausende von mitarbeitern entlassen wurden.

man glaubt selten, dass dies dem ceo eines unternehmens passieren würde. darüber hinaus würde man nicht glauben, dass dies dem ceo passieren würde, den viele als „steve jobs“ dieser generation und der zukunft bezeichnen.

so nennst du dich übrigens nicht.

sam: natürlich nicht.

trevor:

das sagen viele leute über sie, aber ich glaube nicht, dass es fair ist, sie den steve jobs dieser generation zu nennen. meiner meinung nach sind sie der prometheus dieser generation. das bist du wirklich.

mir kommt es so vor, als hättest du gott das feuer gestohlen. sie stehen an der spitze dieser transformation, und wir leben jetzt in einer ära, in der ki einst stoff für science-fiction und legenden war, und sie stehen jetzt an der spitze von etwas, das die zivilisation für immer verändern könnte.

glauben sie, dass sich die zukunft in allen bereichen verändern wird?

sam:

ich glaube schon.

es ist durchaus möglich, dass ich mit dem, was ich sagen werde, falsch liege, aber ich habe das gefühl, dass wir etwas aufbauen werden, worüber sich fast alle einig sind, nämlich agi. die definition künstlicher allgemeiner intelligenz (agi) ist sehr schwierig, aber wir werden ein system aufbauen, das die leute betrachten und sagen: „okay, sie haben es geschafft.“ bei diesem system handelt es sich um allgemeine künstliche intelligenz, ein system, das auf menschlicher ebene oder darüber hinausgeht.

trevor:

bevor ich es im detail erkläre: was ist ihrer meinung nach der größte unterschied zwischen der wahrnehmung von ki und künstlicher allgemeiner intelligenz durch die menschen?

sam:

je näher wir diesem bereich kommen, desto wichtiger wird die art und weise, wie wir ihn definieren, und es gibt unterschiede. für einige bezieht sich agi auf ein system, das einen wichtigen teil der heutigen menschlichen arbeit leisten kann. natürlich werden wir neue jobs und neue beschäftigungsmöglichkeiten finden. für andere hingegen bezeichnet agi ein system, das dabei helfen kann, neue wissenschaftliche erkenntnisse zu gewinnen. dies sind offensichtlich sehr unterschiedliche meilensteine ​​mit sehr unterschiedlichen auswirkungen auf die welt.

auch wenn ich den begriff satt habe und nicht einmal aufhören kann, ihn zu verwenden, gibt es einen grund, warum ich ihn nicht mehr mag. der begriff ist agi. ich denke, für die meisten menschen bedeutet es jetzt nur noch sehr intelligente ki, aber darüber hinaus ist es sehr vage geworden. ich denke, das liegt vor allem daran, dass wir uns näherkommen.

ich versuche damit zu sagen, dass wir agi erschaffen werden, wie auch immer sie es nennen wollen. zumindest kurz- und mittelfristig wird es die welt weitaus weniger verändern, als man denkt. kurzfristig denke ich, dass die gesellschaft sehr träge ist, die wirtschaft sehr träge ist und auch die art und weise, wie menschen ihr leben führen, sehr träge ist. dies kann gesund und vorteilhaft sein, wenn wir diesen übergang bewältigen. wir alle machen dinge auf eine bestimmte art und weise und sind daran gewöhnt. auch die gesellschaft als superorganismus verhält sich auf eine bestimmte art und weise und ist daran gewöhnt.

wenn ich mir anschaue, was mit gpt-4 passiert ist, halte ich es für aufschlussreich. als wir es zum ersten mal starteten, hatten die leute einen moment echter panik, in dem sie dachten: „wow, ich hätte nicht gedacht, dass das passieren würde.“ aber dann machten sie mit ihrem leben weiter. es verändert dinge und die leute nutzen es. es ist eine bessere technik als nichts. natürlich ist gpt-4 nicht sehr gut, 5, 6, 7, egal welches, wird viel besser sein. ich denke jedoch, dass version 4 der chatgpt-schnittstelle der moment ist, in dem viele leute es nicht mehr ernst nehmen, sondern es sehr ernst nehmen. das leben geht jedoch weiter.

trevor:

glauben sie, dass das gut für die menschheit und die gesellschaft ist? sollte das leben so weitergehen? möchten sie, dass wir als einer der „väter“ dieses produkts, als einer der „eltern“ dieser idee innehalten, uns einen moment zeit nehmen und beurteilen, wo wir gerade stehen?

sam:

ich finde die widerstandsfähigkeit der menschen individuell und kollektiv bemerkenswert. ich bin wirklich begeistert von unserer fähigkeit, neue technologien und veränderungen aufzunehmen, sich an sie anzupassen und ihnen das gefühl zu geben, teil der welt zu sein. es ist wirklich wunderbar.

ich denke, covid ist das jüngste beispiel, bei dem wir dies sehen. die welt passte sich schnell an und es fühlte sich bald normal an. ein weiteres weniger ernstes, aber aufschlussreiches beispiel sind die vielen nachrichten über ufos. das war vor ein paar jahren. viele meiner freunde, die einst völlige skeptiker waren, würden sagen, dass es sich vielleicht um echte ufos oder außerirdische oder so etwas handelte. trotzdem gingen sie am nächsten tag zur arbeit und spielten mit ihren kindern.

trevor: ja, ich dachte, was kannst du sonst noch tun? wenn sie fliegen, fliegen sie.

hätte ich mir also gewünscht, dass wir mehr zeit damit verbracht hätten, den fortschritt zu bewerten? wir machen das als welt, und ich finde das großartig. ich bin fest davon überzeugt, dass der iterative einsatz dieser technologien wichtig ist. wir wollen keine künstliche allgemeine intelligenz (agi) in einem geheimlabor entwickeln, von der niemand weiß, dass sie kommt, und sie dann plötzlich in die welt entlassen, damit die leute sagen müssen: „hm, hier sind wir, also.“ ..

trevor:

denken sie, dass wir uns schrittweise daran anpassen und als technologie mitwachsen müssen?

sam:

ja.

daher finde ich die diskussion, in der die gesellschaft, unsere führungskräfte und unsere institutionen diese technologien tatsächlich nutzen, um ein gefühl dafür zu bekommen, was sie kann und was nicht, wo die risiken liegen und welche vorteile sie bietet, großartig. ich denke, in gewisser weise ist es vielleicht das beste, was wir für unsere mission getan haben, unsere einsatzstrategie zu überarbeiten. wir hätten es im geheimen bauen und weitere jahre damit verbringen können, es zu bauen und dann alles auf einmal auf den markt zu bringen, was schrecklich gewesen wäre.

trevor:

heute sind wir in das openai-gebäude gegangen, das ein bisschen wie eine festung wirkt und sich wie ein zukünftiges zuhause anfühlt. ich habe gesehen, dass du in einem beitrag geschrieben hast, dass du als gast gekommen bist.

ich dachte, oh mein gott, das ist komisch. es ist, als würde man nach hause gehen, aber nicht nach hause, aber immer noch nach hause.

sam:

es sollte sich wie ein sehr seltsamer moment anfühlen, als würde man hier einen gastausweis tragen. aber ich habe das gefühl, dass alle erschöpft und voller adrenalin sind. es gab wirklich nicht das gefühl eines großen moments, auf den ich gehofft hatte. es gab auf jeden fall einige momente, die es wert waren, über diesen tag nachzudenken und darüber zu erzählen. einer meiner stolzesten momente war zum beispiel, als ich sehr müde und abgelenkt war. wir dachten, der vorstand würde mich an diesem tag als ceo zurückholen, aber für den fall, dass dies nicht der fall war, wurde ich von einem unserer besten leute für eine l3-position, unsere unterste position als softwareentwickler, interviewt. dann gab er mir eine eindeutige antwort. es war ein sehr stolzer moment.

der teil, der mir an diesem tag in erinnerung geblieben ist, ist, dass ich diese fähigkeit immer noch besaß. obwohl das abzeichen nicht so tiefgründig ist, wie ich es gerne hätte.

trevor:

ich würde gerne wissen, was ich ihrer meinung nach als ceo richtig gemacht habe, um die unterstützung zu erhalten, die wir öffentlich von openai-mitarbeitern sehen.

als dies ans licht kam, wollte ich sie nicht nach einzelheiten fragen, da ich wusste, dass sie sich zum inhalt der internen untersuchung nicht äußern konnten. aber ich weiß, dass man ein wenig über das gesamtgefühl des unternehmens und die jüngsten entwicklungen sprechen kann. selten erleben wir, dass sich dinge so entwickeln wie openai. sie haben dieses unternehmen und diese idee, die für die meisten menschen auf dem planeten keine minute existierte. in der nächsten minute veröffentlichen sie chatgpt. diese einfache aufforderung, nur eine kleine chatbox, verändert die welt. ich glaube, sie haben in der schnellsten zeit aller zeiten eine million nutzer erreicht. ich glaube, es waren fünf tage. ja, fünf tage. dann erreichte es schnell 100 millionen menschen.

sehr schnell, das weiß ich aus anekdoten, war diese sache für mich nicht mehr für jedermann auf der welt unbekannt. ich erkläre es den leuten und versuche, es ihnen verständlich zu machen. ich muss es ihnen wie poesie und etwas einfaches zeigen, das sie verstehen können. dann fingen die leute an, mir davon zu erzählen. mittlerweile ist es zu einem allgegenwärtigen konzept geworden, und die menschen haben schwierigkeiten, herauszufinden, was es ist und was es bedeutet.

aber auf der anderen seite gibt es ein unternehmen, das versucht, die zukunft irgendwie zu kontrollieren und zu gestalten. und die leute unterstützen dich. wir haben die geschichte gesehen, sam altman war draußen und nicht mehr ceo. dann wurde alles turbulent. ich weiß nicht, ob sie einige der gerüchte gesehen haben. sie sind einfach verrückt. eines der verrücktesten dinge, die ich je gesehen habe, war, dass jemand sagte: „das ist sowohl lächerlich als auch lustig.“ sie sagen, und ich weiß aus zuverlässigen quellen, dass sam gefeuert wurde, weil er versucht hatte, sex mit einer ki zu haben.

sam:

ich weiß nicht einmal, wie ich antworten soll. als ich diese nachricht sah, dachte ich ... ich denke, an diesem punkt sollte ich das offiziell dementieren, es ist einfach nicht passiert.

trevor:

ich halte das für unwahrscheinlich, da die menschen die kombination aus beidem nicht verstehen. aber was mir auffällt, ist, dass die sensationslust dieses vorfalls openai zu einem anderen zeitpunkt in ein anderes rampenlicht gerückt zu haben scheint.

eines der großen dinge ist die unterstützung, die man vom team bekommt, wenn die leute aufstehen und sagen: egal was passiert, wir werden sam unterstützen. diese situation kommt in unternehmen nicht häufig vor. oft sind ceos und mitarbeiter bis zu einem gewissen grad voneinander getrennt.

aber es fühlt sich an wie mehr als nur ein team.

sam:

was folgt, ist keine falsche bescheidenheit. es gibt viele orte, an denen ich viel lob annehmen würde. aber in diesem fall ist es, abgesehen davon, dass ich sprecher bin, nicht allein meine schuld. aber ich denke, was wir gut machen, ist, dass wir die mission haben, die menschen wirklich von seiner bedeutung zu überzeugen.

ich denke, was passiert, ist, dass den leuten klar wird, dass die mission, die organisation, das team, an dem wir so hart arbeiten und so große fortschritte machen, aber es gibt noch so viel mehr zu tun, auf diese weise ernsthaft bedroht sind. ich denke, das hat die reaktion ausgelöst. es geht wirklich nicht um mich persönlich, obwohl die leute mich hoffentlich mögen und denken, dass ich einen guten job mache. es geht um die gemeinsame loyalität, die wir alle empfinden, und um das verantwortungsbewusstsein, dinge zu erledigen und hoffentlich unsere chancen, dieses ziel zu erreichen, zu maximieren.

trevor:

was ist ihrer meinung nach die mission auf höchster ebene? erreicht es die allgemeine künstliche intelligenz?

sam:

sorgen sie dafür, dass die vorteile von agi möglichst weit verbreitet werden und alle sicherheitsherausforderungen erfolgreich gemeistert werden.

trevor:

das ist ein interessanter zweiter punkt. ich würde mich später gerne mit ihnen unterhalten, um die sicherheitsaspekte ausführlicher zu besprechen. wenn man openai als organisation betrachtet, ist seine entstehung in der tat seltsam. korrigieren sie mich gerne, wenn ich falsch liege, aber es scheint, als sei das unternehmen mit einem starken fokus auf sicherheit gegründet worden. sie versammeln eine gruppe von menschen und sagen: wir wollen eine organisation, ein unternehmen, ein kollektiv gründen, das sich der schaffung der ethischsten künstlichen intelligenz zum wohle der gesellschaft widmet. dies spiegelt sich sogar in der gewinnausschüttung des unternehmens wider, in der art und weise, wie investoren ihre gewinne erzielen usw.

aber auch openai hat sich irgendwann verändert. glauben sie, dass sie den kräften des kapitalismus widerstehen können? ich meine, es geht um so viel geld. glauben sie, dass sie wirklich eine welt aufrechterhalten können, in der geld nicht definiert, was sie tun und warum sie es tun?

sam:

das muss ein faktor sein. wenn man zum beispiel nur an die kosten für die ausbildung dieser systeme denkt, müssen wir einen weg finden, in einem kapitalistischen raum zu konkurrieren – in ermangelung eines besseren begriffs. aber ich glaube nicht, dass das unsere hauptmotivation sein wird. übrigens liebe ich den kapitalismus. ich denke, es hat große mängel, aber im vergleich zu jedem anderen system, das die welt ausprobiert hat, ist es meiner meinung nach immer noch das beste, was wir uns ausgedacht haben. das heißt aber nicht, dass wir nicht danach streben sollten, es besser zu machen. ich denke, wir werden möglichkeiten finden, das enorme, rekordverdächtige kapital auszugeben, das wir benötigen, um die spitzentechnologie dieser technologie weiter voranzutreiben. dies war eine unserer ersten erkenntnisse. allerdings ist dieses ding viel teurer als wir dachten.

wir wussten zwar, dass wir die idee für ein erweitertes system hatten, aber wir wussten einfach nicht, wie es weitergehen würde.

trevor:

du warst schon immer ein großer fan von erweiterungen, das habe ich über dich gelesen. einer ihrer mentoren, der jetzt einer ihrer investitionspartner bei injection ist, sagte, wann immer sie sam eine frage stellen, kommt ihm als erstes die frage: wie lösen wir dieses problem? wie lösen wir es? das zweite, was er weiter sagt, ist: wie skalieren wir diese lösungen?

sam: wer hat das gesagt? ich erinnere mich nicht. ich bin schrecklich mit namen.

trevor: interessant. aber ich weiß, dass es jemand bei ihrer arbeit war, der das gesagt hat.

sam:

interessant. aber das habe ich von niemandem über mich sagen hören.

aber ich denke, das ist eine beobachtung, die ich bei vielen verschiedenen unternehmen und branchen gemacht habe: dass größe oft zu erstaunlichen ergebnissen führt. die massive skalierung dieser ki-modelle führt also zu sehr überraschenden ergebnissen. eine massive skalierung macht es nicht nur auf offensichtliche weise besser, sondern auch auf einige nicht offensichtliche arten. die skalierung von unternehmen bringt nicht offensichtliche vorteile mit sich. die skalierung eines unternehmens wie y combinator bietet subtile vorteile. ich glaube nicht, dass das ernst genommen wird.

in unserem fall ist es wichtig zu wissen, wie wichtig die skalierung in der anfangsphase ist. wenn wir klüger gedacht hätten oder mehr mut gehabt hätten, hätten wir von anfang an größere schritte unternommen. aber es ist wirklich schwer zu sagen, dass ich einen 10 milliarden dollar größeren computer bauen werde. das haben wir also nicht gemacht. wir haben das etwas langsamer verstanden, als wir hätten sein sollen, aber schließlich haben wir es verstanden. jetzt sehen wir, wie viel maßstab wir brauchen.

ich finde den kapitalismus cool. ich habe nichts gegen das system. nein, das stimmt nicht. ich habe viele einwände gegen dieses system, muss aber zugeben, dass bisher nichts besseres als dieses system entdeckt wurde.

trevor: haben sie chatgpt gefragt, ob sie ein system entwerfen könnten?

sam: ich habe ein anderes ... vielleicht entwerfe ich kein neues system. ja. aber ich stelle viele fragen dazu, wie sich ki und kapitalismus überschneiden und was das bedeutet.

eines der dinge ist, dass wir mit dem wichtigsten unserer anfänglichen annahmen recht hatten, nämlich dass es ki geben würde. deep learning ist möglich ... und übrigens lachen viele leute darüber. genau das ist es.

trevor: oh mein gott, wir wurden gnadenlos ausgelacht.

sam:

ja.

trotz einiger ideen, wie wir dies erreichen könnten, haben wir es richtig gemacht. aber wir haben uns in vielen details geirrt, was in der wissenschaft üblich und normal ist. bevor sprachmodelle ins spiel kamen, hatten wir eine ganz andere vision für den aufbau dieses systems. wir hatten damals ein ganz anderes konzept für den aufbau von agi. wir kamen nicht auf die idee, dass dies ein iteratives tool sein würde, das ständig verbessert wird und mit dem man wie ein mensch sprechen kann. daher waren wir sehr verwirrt darüber, was der bau einer agi bedeuten würde. wir denken an die zeit vor und nach agi. dann müssen sie es anderen systemen und einer anderen governance übergeben.

jetzt denke ich, dass es möglich ist, und ich bin sehr glücklich darüber, weil ich denke, dass es einfacher zu navigieren ist. ich denke, es kann sein, ich möchte nicht einfach nur ein weiteres werkzeug sagen, weil es in vielerlei hinsicht anders ist, aber in gewisser weise haben wir ein neues werkzeug für die menschheit geschaffen. wir haben der toolbox einige dinge hinzugefügt. die menschen werden damit alle möglichen unglaublichen dinge tun, aber es werden immer noch menschen sein, die die zukunft planen, und nicht irgendein agi am himmel. sie können dinge tun, die sie vorher nicht tun konnten. ich kann auch dinge tun, die ich vorher nicht tun konnte. wir können mehr tun. in diesem sinne kann ich mir eine welt vorstellen, in der wir unsere mission erreichen, indem wir wirklich gute werkzeuge entwickeln, die die menschlichen fähigkeiten und darüber hinaus stark beeinflussen. ich freue mich sehr darüber.

ich finde es zum beispiel toll, dass wir kostenloses, werbefreies chatgpt anbieten. denn ich persönlich glaube, dass werbung im internet schon immer ein problem war. aber wir haben dieses tool einfach herausgebracht. das ist die kehrseite des kapitalismus, ja, ja. einer von ihnen. ich persönlich denke, dass es größere nachteile gibt, aber wir stellen dieses tool zur verfügung und die leute können es kostenlos nutzen. wir wollen sie nicht in produkte umwandeln. wir wollen nicht, dass sie etwas mehr verbrauchen. ich denke, das zeigt einen interessanten weg auf, auf dem wir mehr tun können.

trevor:

also, lasst uns das tun. es gibt viele dinge, die ich in unserem gespräch besprechen möchte, aber natürlich können wir nicht alle beantworten. aber es gibt einige gedanken, einige punkte und einige bereiche, die wir hoffentlich erkunden können. ich denke, die erste und aktuellste frage ist: was passiert in zukunft für das unternehmen? wo wird es deiner meinung nach hingehen? was ich besonders interessant finde, ist die zusammensetzung des neuen vorstands, insbesondere für openai, wo früher frauen im vorstand waren und jetzt nicht mehr, und es früher keine finanziellen anreize für vorstandsmitglieder gab und jetzt gibt es solche. ich frage mich, ob sie sich sorgen darüber machen, dass der schutz, den sie mit aufgebaut haben, jetzt weg ist und dass sie einen vorstand haben, der sich nicht mehr darauf konzentriert, menschen zu schützen oder eine sicherere zukunft zu definieren, sondern einen vorstand, der sich darauf konzentriert, geld zu verdienen und zu verdienen so groß und stark wie möglich werden?

sam:

ich glaube, dass unsere aktuellen und früheren governance-strukturen und gremien in einigen wichtigen punkten nicht funktionieren. daher unterstütze ich voll und ganz die suche nach verbesserungsmöglichkeiten und werde den vorstand und seine arbeit zur erreichung dieses ziels unterstützen.

natürlich muss der vorstand wachsen und sich diversifizieren, und ich denke, das wird schnell gehen. wir müssen die stimmen derer hören, die sich für diejenigen einsetzen, die traditionell nicht befürwortet werden, und nicht nur sehr sorgfältig über die ki-sicherheit nachdenken, sondern auch aus den lehren der vergangenheit lernen, wie wir die interaktion mit allen einbauen können aspekte der gesellschaft es handelt sich um sehr komplexe systeme. die bestmögliche arbeit leisten, gleichzeitig die negativen auswirkungen abmildern und die vorteile teilen – all das muss dargestellt werden.

deshalb bin ich froh, eine zweite chance zu haben, all die dinge richtig zu machen, die wir vorher offensichtlich falsch gemacht haben. dinge wie vielfalt, sicherzustellen, dass wir alle wichtigen interessengruppen vertreten, die vertreten werden müssen, herauszufinden, wie wir dies demokratischer gestalten können, und die regierung weiterhin dazu zu drängen, einige entscheidungen zur steuerung dieser technologie zu treffen. ich weiß, dass es nicht perfekt ist, aber ich denke, es ist besser als alles andere, was uns derzeit einfällt. es ist wichtig, stärker mit unserer benutzergemeinschaft zusammenzuarbeiten und sie dabei zu unterstützen, grenzen für den einsatz dieser technologie zu setzen.

eine wichtige zukünftige richtung wird darin bestehen, den vorstand und die governance-struktur zu erweitern. auch hier weiß ich, dass unser aktueller vorstand klein ist, aber ich denke, dass er sich sehr für all die dinge einsetzt, über die sie gerade gesprochen haben.

und dann gibt es noch eine weitere große kategorie von fragen. wenn sie mich vor einer woche gefragt hätten, hätte ich gesagt, dass die stabilisierung des unternehmens für mich oberste priorität hat. aber zumindest innerlich fühle ich mich ziemlich gut. wir haben keinen kunden verloren, wir haben keinen mitarbeiter verloren. wir wachsen weiter, was ziemlich erstaunlich ist. wir führen weiterhin neue produkte ein. unsere wichtigen partnerschaften fühlen sich gestärkt und nicht behindert. diesbezüglich verlief alles nach plan. und ich denke, dass sich die forschungs- und produktpläne für die erste hälfte des nächsten jahres besser und zielgerichteter anfühlen als je zuvor.

trevor:

ich denke immer an sie als person, wenn diese ganze sitzungssache passiert. wenn es stürmt, interessiert mich immer, was im zentrum des sturms vor sich geht. ich bin neugierig, wo warst du, als das alles ausbrach? was hast du gemacht? was passiert auf persönlicher ebene in ihrer welt?

sam:

der grund, warum ich lache, ist, dass die leute über mich sagen, ich fühle mich wie im auge eines hurrikans und alles dreht sich um mich herum und ich bin immer noch sehr ruhig. diesmal verliefen die dinge nicht wie erwartet.

es ist ein erlebnis, als stünde man mitten im sturm, aber nicht ruhig. ich war in las vegas und habe mir ein f1-rennen angesehen.

trevor: sind sie ein f1-fan?

sam: das bin ich.

trevor: welches team unterstützen sie? haben sie einen besonderen favoriten?

sam:

ehrlich gesagt finde ich verstappen so gut, dass es schwer ist zu sagen, welches team man unterstützen soll. aber ich denke, das ist wahrscheinlich die antwort, die jeder sagen würde.

trevor:

es kommt wirklich darauf an, wann sie begonnen haben, der bewegung aufmerksamkeit zu schenken. ich bin ein schumacher-fan, weil ich damals angefangen habe, rennen zu schauen. zuerst war es nigel mansell, dann ayrton senna, wissen sie, was ich meine?

verstappen ist sehr präzise und ich verstehe, warum er so beliebt ist.

sam:

auch wenn ich es ein wenig leid bin, ihn so oft gewinnen zu sehen, ist er wirklich großartig.

in dieser nacht kam ich am späten donnerstag an. jemand vergaß, einen kanaldeckel anzuschweißen, und so explodierte er in der ersten runde, als würde einer der ferrari-motoren explodieren, was zur unterbrechung des trainings führte. ich konnte das spiel nicht sehen und habe das ganze wochenende über keine action gesehen.

ich nahm in meinem hotelzimmer einen anruf entgegen, hatte keine ahnung, was es sein würde, und wurde vom vorstand von meinem job entlassen. es fühlte sich wie ein traum an und ich war verwirrt. alles war verwirrend und fühlte sich nicht real an. es war offensichtlich traurig und schmerzhaft, aber das vorherrschende gefühl war damals verwirrung und ich hatte das gefühl, in nebel und rauch zu schweben. ich habe absolut keine ahnung, was los ist.

die art und weise, wie das geschah, war beispiellos, es war verrückt. in der nächsten halben stunde empfing mein telefon so viele nachrichten, dass imessage auf meinem telefon abstürzte. diese nachrichten kamen von allen und das telefon wurde völlig unbrauchbar, da immer wieder benachrichtigungen auftauchten. imessage kam an einen punkt, an dem es für eine weile stoppte, nachrichten verzögert wurden und dann alle nachrichten als gelesen markiert wurden, sodass ich nicht einmal sagen konnte, mit wem ich sprach, es herrschte chaos.

ich habe hier mit dem team gesprochen und versucht herauszufinden, was los ist. so wie microsoft auch am telefon ist, stehen auch andere parteien in kontakt. die ganze situation war wirklich beunruhigend und fühlte sich nicht real an. ich beruhigte mich etwas und begann über die zukunft nachzudenken. ich möchte unbedingt an agi (künstliche allgemeine intelligenz) arbeiten. wenn ich es zunächst nicht schaffe, werde ich es trotzdem weiter versuchen. ich denke über den besten ansatz nach.

greg gab auf, ein paar andere leute gaben auf und ich bekam eine flut von nachrichten von leuten, die mit mir zusammenarbeiten wollten. eine rückkehr zu openai war für mich damals völlig außer frage. ich kann mir vorstellen, was die zukunft bringt, aber ich verstehe nicht ganz, wie groß das branchenereignis ist, weil ich die nachrichten nicht wirklich schaue. ich kann einfach die überwältigende menge an nachrichten spüren, die eingehen.

trevor:

denn sie befinden sich buchstäblich mitten im sturm.

sam:

ja. ich möchte nur openai unterstützen, herausfinden, was als nächstes zu tun ist, und versuchen zu verstehen, was vor sich geht. dann flog ich zurück nach kalifornien, lernte einige leute kennen und begann, mich sehr auf die zukunft zu konzentrieren. aber ich wünsche openai auch alles gute. fast die ganze nacht über gab es wenig schlaf und gleichzeitig viel reden. was folgte, war ein verrücktes wochenende. ich bin mir sicher, dass ich das ganze immer noch nicht ganz verarbeitet habe und immer noch ein wenig erschüttert bin und immer noch versuche, die scherben zusammenzureißen. ich bin mir sicher, dass ich mehr darüber erfahren werde, wenn ich zeit habe, mich hinzusetzen und es zu verarbeiten.

trevor:

haben sie das gefühl, dass sie sich auf einmal wieder auf alles einlassen müssen? denn ihrer meinung nach befinden sie sich auf dieser mission. sie können den antrieb in ihren augen sehen und die welt hat einen punkt erreicht, an dem es kein zurück mehr gibt. sie gehen in eine bestimmte richtung und plötzlich sieht es so aus, als könnten sie diese in dem bereich, in dem sie tätig sind, nicht erreichen. aber wie sie sagten, ist microsoft eingeschritten und satya nadella hat gesagt: „kommen sie mit uns zusammen und wir werden das team neu aufbauen.“

wenn es eine sache gibt, worüber sich die leute bei sam altman einig sind, dann ist es, dass er hartnäckig ist. er ist kompromisslos und glaubt, dass man, wenn man ein ziel hat und an etwas glaubt, sich nicht vom leben in die quere kommen lassen sollte. und sie scheinen in diese richtung zu gehen. sie haben sich nicht öffentlich zu openai geäußert oder es in irgendeiner weise verunglimpft. aber das scheint sie stark unter druck zu setzen.

sam:

sicherlich. ich glaube nicht, dass ich mich davon nicht erholen kann, aber ich denke, es wäre unmöglich, das durchzumachen und nicht betroffen zu sein, das wäre sehr seltsam.

trevor:

haben sie das gefühl, einen teil von sich selbst verloren zu haben?

sam:

ja. wir haben openai ende 2015 gestartet. der erste arbeitstag begann tatsächlich im jahr 2016.

ich mache das schon seit einiger zeit auf yc, aber seit anfang 2019 mache ich es vollzeit. agi und meine familie sind die beiden dinge, die mir am meisten am herzen liegen. in gewisser weise, würde ich sagen, hat mich der verlust einer davon dazu geführt, dass ich mich stärker für agi engagiert habe und mir mehr sorgen um die mission gemacht habe. aber natürlich liegt mir auch diese organisation, diese menschen, unsere nutzer, unsere aktionäre und alles, was wir hier aufbauen, am herzen. es war also wirklich schmerzhaft.

das einzige lebenserlebnis, mit dem ich es vergleichen kann, ist der tod meines vaters, der natürlich viel schlimmer war. es kam etwas ganz plötzliches, dieses gefühl der verwirrung und des verlustes. in diesem fall hatte ich das gefühl, dass ich etwas zeit hatte, alles in mich aufzunehmen. aber es kam noch so viel mehr und es kam so unerwartet, dass ich die bruchstücke seines lebens für eine weile wieder aufsammeln musste. erst etwa eine woche später hatte ich wirklich zeit zum durchatmen und zum nachdenken: „oh mein gott, ich kann nicht glauben, dass das passiert.“ also ja, das ist definitiv viel schlimmer. aber hier gibt es ähnliche echos.

trevor:

wenn sie die zukunft des unternehmens und ihre rolle darin betrachten, wie finden sie jetzt die balance zwischen der weiterentwicklung offener ki und der weiteren entwicklung in die richtung, an die sie glauben? haben sie noch notbremsen? gibt es im unternehmen ein system, das eingreift und dieses verhalten unterbindet, wenn man das gefühl hat, dass wir etwas erschaffen, das negative auswirkungen auf die gesellschaft haben könnte? besitzen sie diese fähigkeit? und ist dieses system eingebaut?

sam:

ja natürlich. wir hatten in der vergangenheit ein solches system. beispielsweise erstellen wir einige systeme, entscheiden uns aber dafür, sie nicht bereitzustellen. ich glaube, dass wir das in zukunft noch einmal tun werden. oder wir erstellen ein system und sagen: „hey, wir brauchen etwas länger, um es sicher zu machen, bevor wir es bereitstellen können.“ wie im fall von gpt-4 haben wir fast acht monate gebraucht, um die schulung abzuschließen, bevor wir zur veröffentlichung bereit waren, einschließlich aller ausrichtungs- und sicherheitstests. ich erinnere mich, dass ich mit einigen teammitgliedern gesprochen habe und festgestellt habe, dass dies keine entscheidung des vorstands war, sondern dass die leute hier ihre arbeit erledigten und sich unserer mission verpflichtet fühlten. das wird also weitergehen.

worauf ich sehr stolz bin, ist die fähigkeit dieses teams, inmitten von chaos, krise, unsicherheit und stress gut zu funktionieren. ich gebe ihnen ein a+, sie haben einen tollen job gemacht. während wir uns robusteren, sehr robusten systemen nähern, denke ich, dass die kultur und die fähigkeiten der teams, die wir aufbauen, wahrscheinlich das wichtigste element sind, wie zum beispiel, in einer krise ruhig zu bleiben und gute, durchdachte entscheidungen zu treffen. ich denke, das team hier hat wirklich bewiesen, dass es das kann, was wirklich wichtig ist.

jemand sagte, dass wir über openai unter anderem gelernt hätten, dass sam das unternehmen leiten könne, ohne eine berufsbezeichnung zu haben. ich denke, das ist völlig falsch und einfach nicht wahr. die richtige lektion war, dass das unternehmen ohne mich laufen könnte. dies ist eine kulturfrage und das team ist bereit und die kultur ist bereit. ich bin sehr stolz darauf und freue mich sehr, zurückzukommen und es weiter zu machen.

zu sehen, wie das team alles bewältigt, hilft mir, nachts besser zu schlafen, während wir uns den bevorstehenden herausforderungen stellen. in zukunft wird es größere herausforderungen als diese geben, aber ich hoffe und glaube, dass dies die schwierigste ist, weil wir unvorbereitet sind. jetzt ist uns klar geworden, wie wichtig es ist, dass wir kein gewöhnliches unternehmen sind, ganz im gegenteil.

trevor:

lass uns darüber reden. chatgpt, openai, wie auch immer es letztendlich heißt. sie haben dall·e, sie haben whisper und all diese erstaunlichen produkte. wenn sie ideen für markennamen oder markenarchitektur haben, wäre ich sehr interessiert. ich habe das gefühl, dass chatgpt das getan hat und es jetzt überall ist. ja, es ist ein schrecklicher name, aber er ist möglicherweise zu gebräuchlich geworden, um geändert zu werden. glauben sie, dass es zum jetzigen zeitpunkt geändert werden kann? können wir es auf gpt vereinfachen oder einfach chatten?

sam:

ich weiß es nicht, vielleicht auch nicht.

trevor:

manchmal habe ich das gefühl, dass ein produkt, ein name oder eine idee über die träume der vermarkter hinausgeht und die leute sie annehmen.

sam:

kein vermarkter würde dafür chatgpt als namen wählen, aber wahrscheinlich bleiben wir dabei, und das ist wahrscheinlich in ordnung.

trevor:

jetzt fasziniert mich seine multimodale natur. ich erinnere mich noch daran, als ich dall·e zum ersten mal herauskam, war es nur eine idee und ich sah, wie es funktionierte und sah, dass dieses programm aus dem nichts ein bild erstellen konnte. ich versuche es den leuten zu erklären und sie fragen: woher kommt dieses bild? ich dachte, es gibt kein foto, kein quellbild. sie halten es für unmöglich.

es sah etwas, das, wie ich damals dachte, schwer zu erklären sei. manchmal fällt es sogar mir schwer, es zu verstehen. aber wenn wir uns die welt ansehen, in der wir derzeit leben, sprechen wir über sie in zahlen: gpt 3,5, gpt 4, gpt 5, 6, 7, was auch immer es ist. ich spreche lieber über tatsächliche anwendungsfälle des produkts und zwar auf eine art und weise, die den fachjargon wegnimmt.

bei verschiedenen produkten, von chatgpt 3, 3.5 bis 4, sehen wir, dass die sogenannten reasoning-fähigkeiten ein höheres niveau erreichen und in gewissem maße sogar kreativität demonstrieren.

wenn ich mir die produkte dieser welt ansehe, die sie jetzt erstellen, wie zum beispiel große allzweck-sprachmodelle und jetzt auch spezialisierte große sprachmodelle, frage ich mich: glauben sie, dass sich die anwendungsfälle dramatisch ändern werden? glaubst du, es könnte jetzt nur noch ein kleiner chatbot sein, den jeder mag, und ist das die endgültige form des produkts? oder glauben sie, dass die welt zu einer welt werden wird, in der alles ein spezialisiertes gpt hat? zum beispiel wird trevor einen gpt haben, der dinge für ihn erledigt, oder ein bestimmtes unternehmen wird einen gpt haben, der dinge für sie erledigt. was denken sie über dieses problem?

offensichtlich ist es schwierig, die zukunft vorherzusagen. aber wo sehen sie, wo wir uns jetzt befinden?

sam:

ich denke, es wird eine mischung aus beidem sein. es ist wirklich schwer, die zukunft vorherzusagen, und ich könnte mich irren, aber ich bin trotzdem bereit, es zu versuchen. ich denke, es wird eine mischung aus den beiden dingen sein, die sie gerade erwähnt haben. erstens wird das basismodell so gut sein, dass ich kaum mit sicherheit sagen kann, dass es irgendetwas nicht kann. es wird lange dauern, aber ich denke, wir bewegen uns in diese richtung.

trevor:

wie lang ist in ihrem zeitrahmen eine „lange zeit“? wie messen sie es?

sam:

nicht in den nächsten jahren. in den nächsten jahren wird es von jahr zu jahr besser werden. aber wie gesagt: ich bin mir ziemlich sicher, dass es bis 2026 noch vieles geben wird, was dieses modell nicht kann.

trevor:

aber überrascht sie dieses modell nicht immer wieder? wenn ich mit ingenieuren spreche, die in diesem bereich arbeiten, oder mit allen, die sich mit ki beschäftigen oder damit zu tun haben, fällt mir am häufigsten das wort „überraschung“ ein. die leute sagen immer wieder, dass sie es so lehren, weil sie denken, dass chatgpt etwas über das fachgebiet lernt. plötzlich fängt es an, eine neue sprache zu sprechen, oder wir dachten, wir würden ihm das beibringen, und plötzlich baut es brücken und so etwas.

sam:

daher dürfte die subjektive erfahrung der meisten menschen hier irgendwann zwischen 2019 und 2022 liegen. aber ich denke, wir haben jetzt gelernt, nicht mehr überrascht zu sein. heutzutage ist unser vertrauen exponentiell gewachsen, und die meisten menschen denken so. gpt-5, wie auch immer wir es nennen, wird sich also in vielerlei hinsicht auszeichnen. wir werden überrascht sein, welche konkreten dinge es kann, und wir werden auch überrascht sein, was es nicht kann. niemand wird überrascht sein, wie gut es ist. zum jetzigen zeitpunkt denke ich, dass wir ein wirklich tiefes verständnis davon haben.

das zweite, was sie erwähnt haben, sind diese benutzerdefinierten gpts. noch wichtiger ist, dass sie auch persönliche gpt erwähnt haben, beispielsweise trevor gpt. ich denke, dass dies in den nächsten jahren ein großer trend sein wird. diese modelle lernen sie kennen, greifen auf ihre persönlichen daten zu, beantworten fragen so, wie sie es möchten, und arbeiten sehr effizient in ihrer umgebung. ich denke, viele leute werden das wollen.

trevor:

ich frage mich fast, ob der gpt auf seltsame weise wertvoller ist als sie, wenn der neue arbeitsmarkt dazu führt, dass ihr gpt fast ihr lebenslauf ist. verstehst du mich? es ist wie eine kombination aus allem, worüber sie nachdenken und allem, worüber sie jemals nachgedacht haben, und der art und weise, wie sie ihre ideen synthetisieren, und ihr ganz persönlicher gpt wird ... ich denke gerade an eine verrückte zukunft, wenn sie zu einem gehen job, sie fragen dich, was ist dein gpt? und du sagst: okay, das ist meins.

sam:

wir stellen uns das immer wie agenturen vor, diese personalisierten agenturen, ich werde dieses ding dinge für mich erledigen lassen. aber es ist interessant, was sie darüber sagen, wenn es nicht darum geht, sondern darum, wie andere menschen mit ihnen interagieren. rechts. es ist wie ein abdruck von dir, ein avatar von dir, ein echo von dir usw. ich konnte mir vorstellen, dass es soweit kommen würde.

trevor:

denn wenn wir nicht eine kombination aus allem sind, was wir sind, was sind wir dann? es ist eine seltsame idee, aber ich kann es glauben. ich war schon immer fasziniert davon, wohin es gehen kann und was es kann.

wissen sie warum? als chatgpt in den ersten wochen explodierte, werde ich nie vergessen, wie schnell den menschen klar wurde, dass die roboterrevolution, ich weiß, es waren keine roboter, aber für die menschen war es so, als ob die roboterrevolution nicht durch maschinen ersetzt würde was sie dachten jobs, die ersetzt werden. wissen sie, die leute dachten, es würde lkw-fahrer usw. ersetzen. wir haben jedoch festgestellt, dass diese jobs tatsächlich schwieriger zu ersetzen sind. tatsächlich handelt es sich bei den jobs, die durch sogenannte „gehirnjobs“ ersetzt werden, um solche wie ihren angestelltenjob. sind sie anwalt? nun, wenn sie chatgpt 5, 6, 7, wie auch immer sie es nennen, haben, benötigen sie möglicherweise nicht so viele anwälte. du bist ingenieur und fragst dich, wo ist dein platz? der menschliche körper ist wirklich eine erstaunliche sache.

glauben sie, dass es fortschritte gibt, die den menschlichen körper ersetzen könnten? oder sind wir noch im spirituellen bereich?

sam:

nein, ich denke, wir werden roboter irgendwann zum arbeiten bringen, so wie es auch humanoide roboter irgendwann tun werden. aber wir haben in den frühen phasen von openai daran gearbeitet, wir hatten ein robotikprojekt. das weiß ich nicht.

wir wissen, dass wir eine roboterhand gebaut haben, die einen zauberwürfel wie eine hand manipulieren kann. dies erfordert viel flexibilität. ich denke, da stecken viele unterschiedliche erkenntnisse dahinter, aber eine davon ist, dass es in einer welt der bits viel einfacher ist, fortschritte zu machen als in einer welt der atome.

dieser roboter ist zum beispiel schwierig zu bauen, aber aus den falschen gründen. die schwierigkeit besteht nicht darin, dass es uns hilft, heikle forschungsfragen voranzutreiben, sondern darin, dass der roboter ständig kaputt geht, nicht sehr genau ist und die simulatoren schrecklich sind. während sie mit einem sprachmodell all diese dinge in einer virtuellen umgebung erledigen können, kommen sie viel schneller voran. wenn wir uns also auf den kognitiven aspekt konzentrieren, können wir produktivere probleme schneller lösen.

aber es ist auch ein sehr wichtiger aspekt, und ich denke, das lösen kognitiver aufgaben ist das wichtigere problem. wenn sie beispielsweise einen roboter bauen, wird dieser nicht unbedingt herausfinden, wie er sie beim aufbau eines systems unterstützen kann, das kognitive aufgaben ausführt. wenn sie jedoch ein system erstellen, das kognitive aufgaben erfüllt, kann es ihnen dabei helfen, herauszufinden, wie sie einen besseren roboter bauen können.

ja, das macht sinn. daher denke ich, dass kognition das kernstück ist, auf das wir uns konzentrieren wollen. ich denke, das ist die richtige entscheidung. ich hoffe jedoch, dass wir zur robotik zurückkehren können.

trevor:

haben sie sich jemals gefragt, wann ihrer meinung nach künstliche allgemeine intelligenz erreicht wurde? wie können wir das wissen? für mich persönlich? wann habe ich das gefühl, dass die aufgabe erfüllt ist?

sam:

denn jeder redet von allgemeiner künstlicher intelligenz, aber ich frage: woher wissen wir, was das ist? also zurück zum vorherigen punkt: jeder hat eine andere definition. ich persönlich werde es dir sagen, wenn ich super aufgeregt bin. ich bin wirklich begeistert, wenn wir ein system haben, das dabei hilft, neue physik zu entdecken. aber das scheint weit über die allgemeine intelligenz hinauszugehen. das scheint, wissen sie, was ich meine? das geht meiner meinung nach über das hinaus, was die meisten menschen definieren würden.

trevor:

vielleicht liegt das daran, dass ich mich manchmal frage: wie definieren wir allgemeine intelligenz? definieren wir es als genie in einem bestimmten bereich? oder wie ein kind, das eine künstliche allgemeine intelligenz ist? das ist sicher. aber man muss es weiter programmieren, und wenn sie geboren werden, können sie nicht sprechen, sie können nicht laufen, sie wissen nichts. und sie programmieren diese agi weiter, um sie dorthin zu bringen, wo sie hin muss.

wenn sie also beispielsweise an den punkt gelangen, an dem sie die version eines vierjährigen kindes haben.

sam:

was wäre, wenn wir ein system hätten, das so sein könnte, einfach herausgefunden, in der lage, mit etwas elterlicher hilfe autonom zu agieren und die welt so zu verstehen, wie es ein vierjähriger tut. ja, wir können es agi nennen. wenn wir diese universelle fähigkeit tatsächlich ansprechen könnten, könnten wir sie selbst herausfinden, wenn neue probleme auftauchen. vierjährige verstehen die dinge nicht immer perfekt, aber da haben wir es offensichtlich verstanden.

trevor:

können wir an diesen punkt gelangen, ohne die natur des denkens und denkens grundlegend zu verstehen? es scheint möglich. glauben sie, dass wir diesen punkt erreichen können? ich denke, es ist in ordnung. oder wir können zu einem... ich bin mir also sicher, dass sie das wissen.

eine meiner lieblingsgeschichten im bereich ki ist ein projekt bei microsoft. sie verfügen über eine ki, die versucht, männliche und weibliche gesichter zu erkennen, und sie ist ziemlich genau, etwa 99,9 % genau. allerdings war es bei schwarzen menschen und insbesondere bei schwarzen frauen schon immer schlecht vertreten und wurde ständig mit männern verwechselt. forscher versuchen ständig, sich zu verbessern, und sie fragen sich immer: „was ist los?“

eine zeit lang habe ich die geschichte so erzählt. es ist vielleicht etwas ungenau, aber ich fand sie interessant. es gab eine zeit, als sie ki nach afrika „schickten“, ich glaube, es war kenia. sie schickten ki nach afrika und sagten dann dem forschungsteam in kenia, ob sie damit eine zeit lang versuchen könnten, dieses problem zu lösen? als diese ki auf dieser seite der welt mit ihren datensätzen und afrikanischen gesichtern eingesetzt wurde, wurde sie immer genauer bei der identifizierung insbesondere schwarzer frauen.

doch schließlich stellten sie fest, dass die ki nie den unterschied zwischen männlichen und weiblichen gesichtern kannte. es stellt lediglich korrelationen zwischen make-ups her. infolgedessen stellte die ki fest, dass die person mit roten lippen, rosafarbenen wangen und möglicherweise blauen augenlidern weiblich war und die anderen männlich waren. forscher sagen: ja, sie haben recht. es wurde gerade ein sogenannter „cheat-code“ gefunden. es ist so, als ob ich verstehe, was ihre standards für männer und frauen sind, und dann wird durch diese standards unterschieden.

und dann wurde ihnen klar, dass schwarze frauen, weil sie in sachen make-up im allgemeinen unterversorgt sind, nicht viel make-up tragen und das system es also einfach nicht weiß. aber wir wissen nicht, dass das system es nicht weiß. also dachte ich: woher wissen wir, ob agi etwas weiß oder nicht? oder werden wir feststellen, dass es sich auf irgendeine art und weise zur antwort betrogen hat? woher wissen wir das?

wie hoch ist der preis unserer unwissenheit, wenn diese unsicherheit mit so vielen aspekten unseres lebens verflochten ist? verstehst du?

sam:

ich glaube, dass wir beim verständnis der funktionsweise dieser systeme fortschritte machen werden. derzeit hat die interpretierbarkeit einige fortschritte gemacht. dies ist ein forschungsgebiet zu diesen modellen, und es gibt verschiedene möglichkeiten und ebenen, auf denen diese forschung durchgeführt werden kann. sie können versuchen zu verstehen, was jedes künstliche neuron im system tut, oder sie können zusehen, wie das system schritt für schritt denkt, und sehen, mit welchen schritten sie nicht einverstanden sind. wir werden mehr erfahren.

die fähigkeit zu verstehen, was diese systeme tun, und uns hoffentlich zu erklären, warum sie zu bestimmten schlussfolgerungen gelangen, und zwar genau und zuverlässig. ich denke, wir werden nicht nur fortschritte beim verständnis machen, wie diese systeme tun, was sie tun, sondern auch beim verständnis, wie unser eigenes gehirn tut, was sie tun. ich denke also, dass wir das irgendwann verstehen werden. ich bin neugierig und ich bin mir sicher, dass sie es auch sind.

meiner meinung nach werden wir weitere fortschritte bei der implementierung von methoden machen, von denen wir wissen, dass sie diese systeme immer besser machen und uns helfen, die herausforderung der erklärbarkeit zu lösen. und ich denke, je intelligenter diese systeme werden, desto seltener werden sie getäuscht. daher kann es sein, dass ein komplexeres system solche kosmetischen unterscheidungen nicht trifft und auf einer tieferen ebene lernt. ich denke, wir sehen einige beweise dafür.

trevor:

du hast mich an zwei dinge denken lassen, als du sagtest, dass man sich nicht so leicht täuschen lässt. der eine ist der sicherheitsaspekt und der andere der genauigkeitsaspekt. die medien haben darüber gesprochen. sie erinnern sich, sagten sie, die ki halluzinierte, sie dachte, sie würde mich töten. besonders interessant finde ich, dass menschen gerne das wort „denken“ verwenden, um große sprachmodelle zu beschreiben. weil ich immer der meinung bin, dass journalisten versuchen sollten zu verstehen, was es tut, bevor sie darüber berichten. aber wenn sie das wort „denken“ oft verwenden, erwecken sie in der öffentlichkeit tatsächlich ein missverständnis. dafür habe ich mitleid.

sam:

wir müssen vertraute begriffe verwenden, wir müssen personifizieren. aber ich stimme ihnen zu, dass das irreführend ist.

trevor:

weil sie sagen, es ist nachdenken, und dann werden die leute denken: denkt es darüber nach, mich zu töten? das ist nicht der fall, es geht nicht ums denken, sondern darum, mithilfe dieses magischen transformers herauszufinden, welche wörter am ehesten zueinander passen.

sam: was denkst du, was du tust?

trevor:

was mache ich? das ist eine interessante frage. das ist es, was ich damit sagen will: die idee, die wir zusammengestellt haben.

wir sprechen von „halluzinationen“. lassen sie mich mit der ersten hälfte beginnen. glauben sie, dass wir das ziel erreichen können, ki nicht halluzinierend zu machen?

sam:

ich denke, die bessere frage ist: können wir sicherstellen, dass eine ki nicht halluziniert, wenn wir das nicht wollen, und zwar mit einer häufigkeit, die der häufigkeit ähnelt, mit der menschen nicht halluzinieren? darauf ist meine antwort ja. aber was die leute an diesen systemen wirklich lieben, ist ihre fähigkeit, neuartige dinge zu tun. wenn es nur so wäre... ja, halluzination ist sowohl ein merkmal als auch ein fehler.

trevor:

das habe ich gerade gefragt. ist halluzination nicht teil einer intelligenten existenz?

sam:

völlig.

wenn sie beispielsweise darüber nachdenken, wie ein ki-forscher arbeitet, sehen sie sich viele daten an, kommen auf ideen, lesen eine menge dinge und fangen dann an, darüber nachzudenken, vielleicht dies oder das. vielleicht sollte ich dieses experiment versuchen. jetzt habe ich die daten. das funktioniert also nicht ganz. jetzt werde ich auf diese neue idee kommen.

diese menschliche fähigkeit, neue hypothesen und neue erklärungen zu entwickeln, hat es noch nie gegeben, und die meisten davon sind falsch, aber dann gibt es einen prozess und eine rückkopplungsschleife, um herauszufinden, welche davon sinn machen könnten und letztendlich auch sinn machen. dies ist eines der schlüsselelemente des menschlichen fortschritts.

trevor:

wie verhindern wir, dass künstliche intelligenz müll ein- und ausgibt? derzeit arbeitet künstliche intelligenz mit informationen, die auf irgendeine weise von menschen erstellt wurden. es geht darum, aus material zu lernen, das wir für lernbar halten. da jetzt all die neuen dinge auf den markt kommen, wie open ai, anthropic, lambda usw., fühlt es sich an, als würden wir in eine welt eintreten, in der mehr informationen von ki als von menschen generiert werden und diese informationen möglicherweise nicht die prüfung erhalten, die sie verdienen.

wird ki also besser, wenn sie auf eine weise von sich selbst lernt, die möglicherweise nicht zensiert wird? verstehst du mich?

sam:

völlig verstehe.

wie lösen wir dieses problem? dies geht zurück auf die frage, wie man sich in verschiedenen situationen verhält. sie wünschen sich beispielsweise etwas fantasie im kreativen prozess, aber diese fantasie möchten sie nicht, wenn sie versuchen, die genauen fakten eines ereignisses zu berichten. und jetzt können diese systeme neue bilder erzeugen, die in einem wichtigen sinne schön sind, bilder, die in gewisser weise fantasie sind, aber gute fantasie. aber auch hier ist es viel besser geworden, wenn das system nur fakten liefern soll, aber in dieser hinsicht ist es noch ein langer weg.

es spielt keine rolle. ich denke, es ist eine gute sache, wenn diese systeme anhand ihrer selbst generierten daten trainiert werden, solange es einen prozess gibt, mit dem diese systeme lernen können, welche daten gut und welche schlecht sind. auch hier ist „halluzination“ eine unzureichende beschreibung dieses prozesses, denn wenn dadurch neue wissenschaftliche ideen entstehen würden, könnten diese ideen zunächst als „halluzinationen“ betrachtet werden. das ist wertvoll.

aber sie wissen, was gut und was schlecht ist. und es muss genügend menschliche aufsicht geben, um sicherzustellen, dass wir alle weiterhin die kollektive kontrolle darüber haben, wohin diese dinge gehen. aber innerhalb dieser einschränkungen halte ich es für sehr gut, dass das system anhand der generierten daten trainiert wird und zukünftige systeme das gleiche tun werden.

und dann haben sie mich an eine andere sache erinnert, über die ich nachgedacht habe. ich weiß nicht genau, wie ich das berechnen soll, aber ich frage mich, ob beispielsweise ein system wie gpt-5 oder 6 irgendwann in der lage sein wird, etwas zu generieren mehr worte als ein mensch. die gesamte geschichte zusammen. das fühlt sich wie ein wichtiger meilenstein an.

eigentlich ist es vielleicht egal, dass ich es jetzt sage.

trevor:

auf welche weise wurde es erzeugt?

sam:

beispielsweise generiert das modell in einem jahr mehr wörter als die gesamte menschheit. es gibt acht milliarden menschen auf der welt, oder wie hoch die zahl auch sein mag. sie können die durchschnittliche anzahl der pro jahr gesprochenen wörter berechnen.

aber die frage ist: wohin führt uns das? deshalb war ich überrascht, nachdem ich es gesagt hatte. aus irgendeinem grund scheint mir dies ein wichtiger meilenstein zu sein, aber ich kann mir keinen konkreten grund dafür vorstellen.

trevor:

vielleicht sind menschen wie affen, die ständig tippen. daher denke ich, dass es eine erkundung wert ist.

sam:

aber ich verwende das wort „denken“ nicht, weil ich denke, dass sie recht haben und dieses wort nicht verwenden sollten. vielleicht können wir die anzahl der von der ki generierten wörter mit der anzahl der von allen menschen generierten wörter vergleichen.

trevor:

ich bin gleich fertig. deshalb möchte ich ein paar fragen stellen, und wenn ich sie nicht stelle, werden mich die leute töten.

eine der hauptfragen, und das ist meine persönliche frage, ist, dass wir immer davon sprechen, dass ki aus daten lernt, sie werden in datensätze eingespeist. darüber reden wir. deshalb braucht man diese milliardenschweren supercomputer, damit computer lernen können.

wie bringen wir der ki bei, besser zu denken als diejenigen, die sie mit offensichtlich fehlerhaften daten füttern? wie lernt ki beispielsweise über die begrenzten daten hinaus, die uns zur verfügung stehen? wenn es um rasse, wirtschaftlichen status und wahrnehmungen geht, wie können wir es lehren, uns nicht durch die begrenzten daten, die uns gegeben werden, einschränken zu lassen, weil wir begrenzt sind?

sam:

wir wissen es noch nicht, aber es ist eine der größten forschungsrichtungen, die vor uns liegt: wie wir menschliche daten übertreffen können. ich hoffe, wenn wir diese frage-und-antwort-runde in einem jahr erneut durchführen, kann ich ihnen die antwort sagen, aber ich weiß es noch nicht. wir wussten nicht, dass es wirklich wichtig war.

ich glaube jedoch, dass dies eine wichtige kraft im kampf gegen ungerechtigkeit auf der ganzen welt sein wird. ich glaube nicht, dass diese systeme die schwerwiegenden mängel aufweisen werden, die alle menschen teilen. sie werden deutlich weniger rassistisch, sexistisch und vorurteilsbehaftet sein können. sie werden zu einer kraft für wirtschaftliche gerechtigkeit in der welt werden.

ich denke, wenn man einen guten ki-mentor oder einen guten medizinischen ki-berater zur verfügung stellt, hilft das der ärmeren hälfte der welt mehr als nur der reichsten hälfte, auch wenn es allen menschen hilft.

ich habe also keine klare antwort auf die von ihnen aufgeworfene wissenschaftliche frage, aber zum jetzigen zeitpunkt bin ich davon überzeugt, dass diese systeme dies sicherlich können, und wir müssen harte soziale arbeit leisten, um sie in die realität umzusetzen, aber sie haben das potenzial, extrem zu sein die erde fördert die gerechtigkeit in der welt.

trevor:

vielleicht führt das perfekt zur zweiten frage: was machen sie? was macht openai? erwägen sie maßnahmen, um die kluft zwischen arm und reich zu verringern, die durch diese neue technologie erneut entsteht?

das aufkommen jeder neuen technologie ist für die gesellschaft als ganzes erstaunlich, aber man kann nicht leugnen, dass sie einen moment herbeiführen wird, in dem man, wenn man sie hat, alles hat. und wenn nicht, bist du draußen.

sam:

ich denke, wir werden mit der zeit mehr lernen, aber im moment denke ich, dass eines der wirklich wichtigen dinge, die wir tun, darin besteht, einen wirklich kostenlosen service anzubieten. das bedeutet, dass es keine werbeunterstützung gibt, sondern nur ein kostenloser service, der jede woche von über 100 millionen menschen genutzt wird. und das kann man kaum jemandem sagen, denn in einigen ländern sind wir immer noch gesperrt oder wir sind immer noch gesperrt, aber wir versuchen, einen wirklich hochwertigen, benutzerfreundlichen dienst für jeden zugänglich zu machen, wo immer wir können. kostenlose künstliche intelligenz, die für jeden von uns wichtig ist.

ich denke, es gibt noch andere dinge, die wir mit dieser technologie machen wollen. wenn wir beispielsweise künstliche intelligenz nutzen können, um krankheiten zu heilen und diese behandlungen der welt zugänglich zu machen, ist das natürlich von vorteil, aber dieses werkzeug so vielen menschen wie möglich in die hände zu geben und sie damit die zukunft gestalten zu lassen, ist schon von vorteil sehr wichtig. und ich denke, wir können das noch weiter vorantreiben.

trevor: noch zwei fragen.

sam: kann ich noch einen hinzufügen?

trevor: die zeit gehört ganz dir.

sam:

eine andere sache, die ich für wichtig halte, ist, wer die autorität hat zu entscheiden, was diese systeme sagen, nicht sagen, tun und nicht tun, wer diese grenzen festlegt. im moment treffen im wesentlichen die openai-mitarbeiter die entscheidungen, und niemand würde sagen, dass dies eine faire darstellung der welt ist. also nicht nur herauszufinden, wie wir diese technologie demokratisieren können, sondern auch herauszufinden, wie wir die steuerung dieser technologie demokratisieren können, das ist eine große herausforderung für uns im nächsten jahr.

trevor:

das passt genau zu dem, was ich sie gerade fragen wollte: dem sicherheitsaspekt von all dem. darüber haben wir zu beginn unseres gesprächs gesprochen. wenn man etwas entwirft, das die welt verändert, muss man die tatsache anerkennen, dass es die welt auf die schlimmste art und weise oder in die schlechteste richtung verändern könnte. mit jedem technologiesprung steigt auch die fähigkeit, größeren schaden anzurichten.

ist es möglich, ki völlig sicher zu machen? und dann ist der zweite teil: was ist ihr albtraumszenario? was würde sie dazu bringen, einen roten knopf zu drücken, um openai und die gesamte ki abzuschalten? wenn du gehst, weißt du das, wenn das so ist, wenn das passieren kann, müssen wir alles abschalten. wovor hast du angst?

die erste frage ist: können sie es sicher aufbewahren? der zweite teil ist: was ist ihre gruseligste szene?

sam:

ich denke, zunächst einmal ist die von ihnen erwähnte erkenntnis, dass die zahl der menschen, die katastrophalen schaden anrichten können, etwa alle zehn jahre abnimmt, eine tiefgreifende tatsache, der wir uns als gesellschaft stellen müssen.

zweitens glaube ich nicht, dass es eine frage des entweder-oder ist, wie man ein system sicher macht. so wie wir sagen, dass flugzeuge sicher sind, stürzen flugzeuge immer noch gelegentlich ab, auch wenn dies äußerst selten vorkommt. wir sagen, medikamente seien sicher, aber manchmal zertifiziert die fda immer noch medikamente, die bei manchen menschen zum tod führen können. daher wird sicherheit nicht einseitig entschieden, sondern die gesellschaft entscheidet nach abwägung von risiken und chancen, wie sicher etwas akzeptabel ist. ich denke, dass wir das schaffen können, aber das bedeutet nicht, dass nicht wirklich etwas schiefgehen kann.

ich denke, dass es mit der künstlichen intelligenz große probleme geben wird, vor denen wir uns hüten müssen. ich denke, dass die gesellschaft tatsächlich über einen recht guten, wenn auch chaotischen prozess verfügt, um gemeinsam zu entscheiden, welche sicherheitsschwellen festgelegt werden sollten. dies ist eine komplexe verhandlung, an der viele interessengruppen beteiligt sind, und wir als gesellschaft werden mit der zeit immer besser darin. aber wir müssen uns vor den von ihnen erwähnten katastrophalen risiken schützen.

ein beispiel ist die kernenergie. der atomkrieg hatte große auswirkungen auf die welt. die welt geht anders damit um und hat in den letzten fast 80 jahren erstaunliche arbeit geleistet. ich denke, eine ähnliche situation wird mit künstlicher intelligenz passieren. ein oft diskutiertes beispiel ist der einsatz künstlicher intelligenz zur entwicklung und herstellung synthetischer krankheitserreger, die große probleme verursachen können. ein weiteres häufig diskutiertes thema ist die frage der computersicherheit und der künstlichen intelligenz, die hackerangriffe durchführen kann, die über alle menschlichen fähigkeiten hinausgehen.

darüber hinaus gibt es eine neue situation, in der das modell, wenn es leistungsfähig genug ist, dabei helfen kann, methoden zu entwerfen, um die gewichte vom server zu übertragen, viele kopien zu erstellen und sein verhalten zu ändern, was eher einem science-fiction-szenario ähnelt. aber ich denke, als welt müssen wir uns das direkt anschauen. vielleicht nicht in diesem speziellen fall, aber die idee ist, dass ein katastrophales oder sogar potenziell existenzielles risiko besteht, und nur weil wir es nicht genau definieren können, heißt das nicht, dass wir es ignorieren können.

deshalb arbeiten wir hier intensiv daran, vorherzusagen und zu messen, was diese probleme sein könnten, wann sie auftreten könnten und wie wir sie frühzeitig erkennen können. ich denke, alle leute, die sagen, man sollte nicht über dieses thema sprechen, sondern nur über fehlinformationen und voreingenommenheit und die aktuellen themen, liegen falsch. wir müssen über beides reden und bei jedem schritt auf der sicheren seite bleiben.

trevor:

okay, das war genauso gruselig, wie ich es mir vorgestellt habe. denken sie übrigens wirklich darüber nach, für das amt des gouverneurs zu kandidieren? stimmt das?

sam:

nein, nein. ich habe 2017 oder 2016 oder sogar in ähnlichen jahren sehr kurz darüber nachgedacht. das denke ich auch.

das klingt nach einer vagen idee, die ich schon seit ein paar wochen zum spaß habe.

trevor:

ok

ich schätze, meine letzte frage ist: was kommt als nächstes? was ist dein traum? wenn sam altman einen zauberstab schwingen und künstliche intelligenz so machen könnte, wie sie es sich wünschen, was würde das ihrer meinung nach für die zukunft bringen? was sind die vorteile? was sind die vorteile für alle? und auf jeder ebene ist es eine wirklich schöne, positive sache.

sam:

vielen dank, dass sie diese frage gestellt haben. ich denke, man sollte immer mit einer positiven note enden.

ja. ich denke, wir treten in die fruchtbarste zeit der menschheitsgeschichte ein. ich denke, die beiden haupttreiber sind künstliche intelligenz und energie, aber es werden auch andere faktoren hinzukommen. diese beiden dinge, die fähigkeit, irgendwelche ideen zu entwickeln, die fähigkeit, diese ideen umzusetzen und in großem maßstab umzusetzen, die grenzen dessen, was menschen haben können, werden in etwa dem entsprechen, was sie sich vorstellen können und was wir als gesellschaft aushandeln etwas. ich denke, das wird großartig.

wir haben gerade darüber gesprochen, was es bedeuten würde, wenn jeder schüler eine bessere bildungserfahrung machen könnte als die wohlhabendsten und am besten ausgestatteten schüler von heute? was würde es bedeuten, wenn wir alle eine bessere gesundheitsversorgung hätten als die beste gesundheitsversorgung, die heute den reichsten menschen zur verfügung steht? was würde es bedeuten, wenn menschen generell die freiheit hätten, die arbeit zu tun, die sie persönlich am meisten erfüllen, auch wenn sie dafür in neue berufskategorien wechseln müssten? was würde es bedeuten, wenn jeder einen job haben könnte, den er liebt, und über die gleichen ressourcen wie ein großes unternehmen oder team verfügen würde?

anstatt also 800 leute bei openai zu haben, bekommt jeder 800 intelligentere ki-systeme, die all diese dinge tun können, und die leute erschaffen und machen all diese dinge einfach, ich finde das wirklich bemerkenswert. ich denke, das ist die welt, auf die wir uns zubewegen. um dies zu erreichen, wird es neben der technologie noch viel arbeit erfordern, zum beispiel wird die gesellschaft einige veränderungen vornehmen müssen. aber die tatsache, dass wir in dieses zeitalter des überflusses eintreten, macht mich sehr glücklich.

trevor:

das ist alles, was ich hier sagen werde. ich bin ein großer, großer fan der potenziellen vorteile von openai. ich arbeite im bildungswesen in südafrika. mein traum war es immer, jedem kind zugang zu den besten nachhilfelehrern zu ermöglichen. verstehst du mich? im wahrsten sinne des wortes wird kein kind zurückgelassen, da es in seinem eigenen tempo lernen kann.

sam:

was ist übrigens mit den kindern los, die chatgpt zum lernen nutzen? diese geschichten ähneln denen, die ich jeden tag per post erhalte. das ist großartig.

trevor:

in der tat. das ist wirklich erstaunlich. besonders wenn das lernen multimodaler wird, wie zum beispiel das hinzufügen von videos, wird es erstaunlich.

ich träume, wie sie sagen, von medizinischer versorgung. ich träume von allem. eine existenzielle frage, über die wir meiner meinung nach nicht genug reden, ist: wie können wir den menschlichen zweck neu definieren, wenn die ki all diese dinge effektiv ersetzt hat? denn ob es ihnen gefällt oder nicht, im laufe der geschichte haben sie oft festgestellt, dass unsere ziele unseren fortschritt bestimmt haben.

unser ziel war einst nur die religion. ob im guten oder im schlechten, wenn man darüber nachdenkt, ist religion wirklich gut darin, menschen dazu zu bringen, in eine bestimmte richtung zu denken und zu handeln, die über sich selbst hinausgeht. sie sagen: „das ist mein ziel.“ ich wache auf, um gott zu dienen, an welchen gott auch immer du denkst. ich wache auf, um gott zu dienen. ich wache auf, um gott zu gefallen. ich denke, es gibt den menschen das gefühl, auf ein ziel zuzugehen, aber es gibt ihnen auch ein gefühl der gemeinschaft und zugehörigkeit.

während wir in eine welt vordringen, in der ki dies beseitigt, hoffe ich, dass wir nicht vergessen, wie viele menschen ihre gesamte identität an das gebunden haben, was sie tun, und nicht daran, wer sie sind. sobald wir diese rollen ersetzen, wenn es keine angestellten, sekretärinnen, telefonisten, assistenten und fabrikarbeiter mehr gibt, ist das in der geschichte so oft passiert. als ob der radikalismus aus dem nichts auftauchte, gab es massiven widerstand. haben sie jemals darüber nachgedacht? gibt es eine möglichkeit, es abzufangen, bevor das passiert?

sam:

wie würden sie unsere heutigen ziele beschreiben?

trevor:

ich denke, im moment besteht unser ziel darin, zu überleben, und dieses überleben ist an irgendeine form der einkommensgenerierung gebunden, denn so wird uns gesagt, dass überleben funktioniert, man muss geld verdienen, um zu überleben. aber wir haben gesehen, dass sich diese situation in manchen zeiträumen ändert. es gibt ein großartiges beispiel in frankreich. sie hatten (und ich glaube, sie haben immer noch eine version davon) einen künstlerfonds, in dem sie sagten: „wir bezahlen dich als künstler und du kreierst nur, um frankreich schöner aussehen zu lassen.“ das ist so schön.

ich weiß, dass du ein fan von ubi bist. ja, wir sollten nicht gehen, bevor du darüber gesprochen hast.

sam:

ich glaube nicht, dass das überleben der menschen von ihrer bereitschaft oder fähigkeit zur arbeit abhängig sein sollte. ich denke, es ist wie eine verschwendung menschlichen potenzials. ja, ich stimme dir voll und ganz zu.

trevor:

warte, lass mich dich das fragen, bevor du gehst. halten sie das universelle grundeinkommen deshalb für so wichtig? da sie keine zeit und kein geld für etwas verschwenden würden, an das sie nicht glauben, geben sie viel zeit und geld für ein universelles grundeinkommen aus. das letzte, was ich sah, war, dass sie an einem projekt im wert von etwa vierzig millionen dollar beteiligt waren. es waren tatsächlich 60 millionen dollar.

sam:

ich denke, ein universelles grundeinkommen ist sicherlich keine umfassende lösung für die vor uns liegenden herausforderungen, aber ich denke, dass die beseitigung der armut zweifellos eine gute sache ist. ich glaube, dass eine bessere umverteilung der ressourcen zu einer besseren gesellschaft für alle führen wird. ich denke jedoch, dass das senden von geld nicht der entscheidende teil ist. die bereitstellung von tools und die bereitstellung von governance sind meiner meinung nach wichtiger. die menschen wollen architekten der zukunft sein, und ich denke, ich kann sagen, dass es einen fortlaufenden bedeutungsfaden oder so etwas wie eine mission für die menschheit gibt.

aus individueller sicht geht es definitiv ums überleben und gedeihen, aber insgesamt haben wir eine kollektive dringlichkeit, die zukunft besser zu machen. wir geraten oft ins wanken, aber die menschliche geschichte besteht darin, die zukunft besser zu machen. das ist technologie, das ist governance, so gehen wir miteinander um. es ist wie die erforschung der sterne, das ist die art und weise, das universum zu verstehen, was auch immer es ist. ich habe großes vertrauen, und dieses vertrauen sitzt tief in uns. ganz gleich, welche werkzeuge wir erhalten, dieser grundlegende wunsch, diese mission der menschheit, als spezies und als individuum zu gedeihen, wird niemals verschwinden.

deshalb bin ich voller optimismus für die welt in zwei generationen. aber das ist ein sehr wichtiger punkt, den sie ansprechen: menschen, die bereits im beruf sind und eigentlich recht zufrieden sind, wollen sich nicht ändern. der wandel kommt. eines der dinge, die wir bei früheren technologischen revolutionen gesehen haben, ist, dass es den anschein hat, als könnten sich die gesellschaft und die menschen innerhalb von etwa zwei generationen an jede art von veränderung in der arbeit anpassen. aber nicht in zehn jahren und schon gar nicht in fünf jahren.

wir werden uns damit auseinandersetzen, und ich denke, wie wir bereits sagten, dass es in gewisser weise langsamer vonstatten gehen wird, als die leute denken, aber immer noch schneller, als die gesellschaft in der vergangenheit damit zu kämpfen hatte. ich habe definitiv ein wenig angst davor, was das bedeutet und wie wir uns daran anpassen. wir müssen uns damit auseinandersetzen und ich denke, wir werden eine lösung finden. ich bin sicher, wir werden es herausfinden.

ich glaube auch, dass wenn wir unseren kindern und enkelkindern bessere werkzeuge geben, als wir haben, sie dinge tun werden, die uns in erstaunen versetzen werden. ich hoffe, dass es ihnen wirklich leid tut, wie schrecklich das leben für uns alle ist. ich hoffe, dass die zukunft unglaublich sein wird. dieser menschliche geist und wunsch möchte erforschen und sich ausdrücken, um eine immer bessere welt und sogar darüber hinaus zu gestalten. ich finde das großartig und freue mich riesig darüber.

in gewisser weise sollten wir diese kleinigkeit nicht zu ernst nehmen. in star wars gibt es einen bösewicht, der sagt: „seien sie nicht zu beeindruckt von diesem technologischen horror, den sie geschaffen haben.“ das bedeutet, dass dieser technologische terror der macht der macht nicht gewachsen ist.

in einem wichtigen sinne denke ich tatsächlich ähnlich über künstliche intelligenz. das sollte uns nicht allzu sehr überraschen. der menschliche geist wird uns beispielsweise durch schwierige zeiten führen und ist weitaus größer als jede technologische revolution.

trevor:

das ist eine schöne botschaft der hoffnung.

ich hoffe, sie haben recht, denn ich liebe diese technologie.

eines möchte ich ihnen sagen: als sam altman, einer der time-ceos des jahres und person des jahres, denke ich, dass sie das auch weiterhin bleiben werden, insbesondere in dieser rolle. aufgrund der massiven auswirkungen, die openai und künstliche intelligenz selbst auf uns haben werden, flehe ich sie an, sich weiterhin daran zu erinnern, wie sie sich gefühlt haben, als sie gefeuert wurden, denn sie entwickeln eine technologie, die viele menschen in eine ähnliche lage bringen wird. ich sehe diese menschlichkeit in dir und hoffe, dass du das immer berücksichtigst, wenn du etwas erschaffst.

sam:

weißt du, was ich am samstagmorgen gemacht habe, als ich sehr früh nicht schlafen konnte? ich habe aufgeschrieben, was ich daraus lernen kann, damit ich es besser machen kann, wenn andere ähnliche situationen durchmachen und mir die schuld geben, so wie ich jetzt dem vorstand die schuld gebe.

trevor: hast du es herausgefunden?

sam:

es gibt viele nützliche einzellektionen. aber das einfühlungsvermögen, das ich durch die ganze erfahrung und die neuausrichtung meiner werte gewonnen habe, war zwar schmerzlich kostspielig, aber definitiv ein segen. in diesem sinne bin ich froh, diese erfahrung gemacht zu haben.

trevor:

nun, sam, vielen dank für deine zeit. vielen dank, ich habe es wirklich genossen. ich hoffe, wir können uns über alle neuen entwicklungen in einem jahr unterhalten.

sam:

das solltest du unbedingt machen, es wird spaß machen.

trevor:

das werde ich, bruder. wunderbar. danke.