Nachricht

Hassabis: Google möchte einen zweiten Transformer erstellen, eine Kombination aus AlphaGo und Gemini

2024-08-20

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Maschinenherzbericht

Redaktion von Machine Heart

„Ich fühle mich wohler, wenn der CEO eines KI-Unternehmens eher ein Informatiker als ein Verkäufer ist.“



Für DeepMind ist 2023 ein Jahr voller Veränderungen. Im April dieses Jahres kündigte Google an, Google Brain und DeepMind zu einer neuen Abteilung namens Google DeepMind zusammenzuführen. Die neue Abteilung wird die bahnbrechende Forschung und Weiterentwicklung von KI-Produkten vorantreiben und gleichzeitig ethische Standards wahren.

Google Brain und DeepMind – einer hat Transformer erstellt, der andere hat AlphaGo, AlphaFold … erstellt. Die beiden Abteilungen haben sich zusammengeschlossen, um Ende 2023 Gemini zu erstellen, um ChatGPT zu bewerten. Heute rangiert Gemini regelmäßig unter den ersten drei in der großen Model-Rangliste LMSYS Chatbot Arena. Es ist ersichtlich, dass die Fusion der beiden bestimmte Ergebnisse hat.



Wie geht es also mit Google DeepMind weiter? In einem kürzlichen Gespräch mit Hannah Fry, außerordentliche Professorin für Stadtmathematik am Centre for Advanced Spatial Analysis am University College London, verriet Demis Hassabis, CEO und Mitbegründer von Google DeepMind, dass er auch seine Ansichten zu einigen Plänen und Plänen des Unternehmens zum Ausdruck brachte einige aktuelle Themen im KI-Bereich.



视频链接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650930939&idx=2&sn=00d72f97f26fc7acc3b2a2fd39434048&chksm=84e43a85b393b393 d7a9bd7caeafce2fcd71b6299e195df3e5a716cb840a401c85dc9efff669&token=899618486&lang=zh_CN#rd

Die Kernansichten von Hassabis lauten wie folgt:

  • Kurzfristig wird KI überbewertet, langfristig jedoch unterbewertet. Zur Frage, wie man unterscheiden kann, was ein Hype ist und was im Bereich der KI erreichbar ist, sagte Hassabis, dass man neben der Recherche auch den Hintergrund der Person betrachten muss, die die Bemerkungen macht, wie gut sie sich mit Technologie auskennt usw ob sie letztes Jahr gerade in anderen Bereichen studiert haben. Die Richtung geht in Richtung KI. Wenn die Person, die den Kommentar abgibt, nur dem Trend folgt, ist die Wahrscheinlichkeit, dass sie eine gute Idee hat, wie bei einer Lotterie.
  • Die Fusion von DeepMind und Google Brain bringt viele Innovationsmöglichkeiten mit sich. Ihr Ziel ist es, die nächste Architektur zu erfinden, die die Grenzen der KI erweitern kann, so wie Google Brain die Transformer-Architektur erfunden hat.
  • Bestehende akademische Benchmarks sind mittlerweile gesättigt und nicht mehr in der Lage, subtile Unterschiede zwischen Topmodellen zu unterscheiden. Hassabis ist davon überzeugt, dass der Bereich KI bessere Benchmarks benötigt, insbesondere in Bereichen wie multimodales Verständnis, Langzeitgedächtnis und Denkfähigkeiten.
  • Viele der heutigen Modelle basieren auf Technologien, die vor fünf oder sechs Jahren erfunden wurden. Diesen Modellen mangelt es also immer noch an vielen Dingen und sie sind halluzinierend, nicht gut in der langfristigen Planung und nicht in der Lage, komplexe Aufgaben proaktiv zu erledigen. Als Reaktion auf diese Probleme beabsichtigt Google, Systeme mit stärkerem Agentenverhalten zu entwickeln, indem es seine Expertise in Spielagenten und großen Sprachmodellen kombiniert, beispielsweise durch die Kombination der Vorteile von AlphaGo bei der Planung und Entscheidungsfindung mit multimodalen Modellen wie Gemini.
  • Als er über Open Source sprach, sagte Hassabis, dass viele Technologien wie Transformer und AlphaFold Open Source seien. Er glaubt jedoch, dass hochmoderne Modelle ein bis zwei Jahre nach ihrer Veröffentlichung einer stärkeren Prüfung unterzogen und als Open-Source-Modell verfügbar gemacht werden müssen, ein Modell, dem auch Google folgt. Google wird Open-Source-Modelle anbieten, diese werden jedoch etwa ein Jahr hinter den hochmodernen Modellen zurückbleiben. Hassabis sagte weiter, dass das Hauptproblem bei Open Source darin bestehe, dass es so sei, als würde man durch eine Einbahntür gehen. Sobald es veröffentlicht wurde, kann es nicht mehr zurückgezogen werden. Sie müssen also vor Open Source sehr vorsichtig sein.
  • KI kann zu Durchbrüchen bei komplexen mathematischen Problemen führen, beispielsweise zur Lösung berühmter mathematischer Vermutungen oder zu guten Leistungen bei internationalen Mathematikwettbewerben. Aktuelle KI-Systeme sind jedoch noch nicht in der Lage, selbstständig neue mathematische Hypothesen oder originelle Theorien zu entwickeln. Hassabis glaubt, dass ein wichtiger Test der AGI ihre Fähigkeit sein wird, autonom völlig neue Hypothesen und Theorien wie die allgemeine Relativitätstheorie zu generieren.
  • Im Hinblick darauf, wie sichergestellt werden kann, dass AGI allen zugute kommt, ist Hassabis der Ansicht, dass es unmöglich ist, alle Präferenzen in einem System zu berücksichtigen, aber eine sichere Architektur aufgebaut werden kann und die Benutzer sie dann entsprechend ihren Präferenzen, Nutzungszwecken und Bereitstellungszwecken verwenden können. Entscheiden Sie, wofür das KI-System eingesetzt werden kann und wofür nicht.

Nachdem er sich das Interview angesehen hatte, bemerkte eine Person, dass er sich dabei wohl fühlte, weil Hassabis eher wie ein Informatiker als wie ein Verkäufer klang. Andere sagen, dass der Erwerb von DeepMind und die freie Entwicklung von DeepMind die beste Entscheidung für künstliche Intelligenz sei, die Google jemals getroffen habe, und sie hoffen, dass Google ihnen die Möglichkeit gibt, ihre Arbeit so weit wie möglich ohne Unterbrechung fortzusetzen.



Das Folgende ist der von Machine Heart zusammengestellte Interviewinhalt.

Die Entwicklung der KI ist unerwartet

Frye: Als wir 2017 mit der Planung dieses Podcasts begannen, war DeepMind ein relativ kleines, fokussiertes KI-Forschungslabor, das gerade von Google übernommen worden war und die Möglichkeit erhalten hatte, seine eigene einzigartige Forschung aus sicherer Entfernung in London durchzuführen . Aber seitdem haben sich die Dinge dramatisch verändert. Seit letztem Jahr hat Google seine gesamte Architektur neu organisiert und die KI- und DeepMind-Teams in den Mittelpunkt seiner Strategie gestellt.

Google DeepMind setzt sein Bestreben fort, der KI Intelligenz auf menschlicher Ebene zu verleihen, der sogenannten künstlichen allgemeinen Intelligenz (AGI). Es brachte eine Reihe leistungsstarker neuer KI-Modelle namens Gemini sowie einen KI-Agenten namens Project Astra auf den Markt, der Audio, Video, Bilder und Code verarbeiten kann. Das Labor macht auch große Fortschritte bei der Anwendung von KI in verschiedenen wissenschaftlichen Bereichen, einschließlich der Vorhersage der Struktur aller Moleküle im menschlichen Körper, nicht nur von Proteinen. Im Jahr 2021 gründeten sie außerdem ein neues Unternehmen, Isomorphic Labs, das sich der Entdeckung neuer Medikamente zur Behandlung von Krankheiten widmet. Google DeepMind erforscht außerdem leistungsstarke KI-Agenten, die durch Reinforcement Learning lernen können, Aufgaben selbstständig auszuführen, und führt die Legende von Alpha Go fort, der Menschen im Go-Spiel besiegt.

Heute haben wir Demis Hassabis, Mitbegründer und CEO von DeepMind, eingeladen.

Ich frage mich: Ist Ihre Arbeit seit dem gestiegenen öffentlichen Interesse an KI einfacher oder schwieriger geworden?

Hassabis: Ich denke, es ist ein zweischneidiges Schwert. Das Schwierige ist, dass es im gesamten Bereich derzeit so viel Kontrolle, Aufmerksamkeit und viel Lärm gibt. Ich bevorzuge es, wenn weniger Leute da sind und wir uns mehr auf die Wissenschaft konzentrieren können. Positiv zu vermerken ist jedoch, dass die Technologie bereit ist, die reale Welt auf vielfältige Weise zu beeinflussen und das tägliche Leben der Menschen positiv zu beeinflussen. Deshalb finde ich das auch spannend.

Frye: Waren Sie jemals überrascht, wie schnell die Fantasie der Öffentlichkeit geweckt wurde? Ich schätze, Sie haben damit gerechnet, dass es so ausgehen würde, nicht wahr?

Hassabis: In der Tat. Diejenigen von uns, die sich seit Jahrzehnten mit diesem Bereich beschäftigen, werden irgendwann erkennen, wie wichtig KI werden wird. Aber es fühlt sich immer noch ein wenig surreal an, zu sehen, wie alles zum Tragen kommt und auf diese Weise geschieht. Ich denke, das liegt in erster Linie an der Entstehung von Chatbots und der Entwicklung von Sprachmodellen, denn jeder nutzt Sprache und jeder kann Sprache verstehen, sodass dies für die Öffentlichkeit eine einfache Möglichkeit ist, den Entwicklungsstand der KI zu verstehen und zu messen.

Frye: Ich habe gehört, dass Sie diese Chatbots als „außerordentlich effektiv“ beschreiben.

Hassabis: Ich meine, wenn man vor 5 bis 10 Jahren zurückblickt, hätten die Leute vielleicht gedacht, dass man, um die Entwicklung von KI zu erreichen, eine erstaunliche Architektur aufbauen und diese erweitern muss, ohne solche abstrakten Konzepte speziell lösen zu müssen konkrete Fragen. In vielen Diskussionen vor 5 bis 10 Jahren dachte man, dass es einer besonderen Art bedarf, mit abstrakten Konzepten umzugehen, weil das Gehirn offenbar so funktioniert. Wenn KI-Systemen jedoch genügend Daten zur Verfügung gestellt werden, etwa die Daten aus dem gesamten Internet, scheinen sie in der Lage zu sein, daraus zu lernen und Muster zu verallgemeinern, und zwar nicht nur durch Auswendiglernen, sondern tatsächlich bis zu einem gewissen Grad zu verstehen, was sie verarbeiten. Inhalt. Es ist irgendwie „außerordentlich effektiv“, weil ich glaube, dass vor fünf Jahren niemand gedacht hätte, dass es so effektiv sein würde wie jetzt.

Frye: Das war also eine Überraschung ...

Hassabis: Ja, wir haben vorhin über das Konzept und die Grundlagen gesprochen – die Einbettung von Sprache in reale Erfahrungen, vielleicht in Simulationen oder in roboterhaft verkörperter Intelligenz. Natürlich sind diese Systeme noch nicht auf diesem Niveau, sie machen viele Fehler, sie haben noch kein wirkliches Modell der Welt. AberAllein durch das Erlernen der Sprache sind sie weiter gekommen, als sie erwartet hatten

Frye: Ich denke, wir müssen das Konzept der Erdung erklären.

Hassabis:Das Erdungsproblem ist ein Problem, das bei klassischen KI-Systemen auftritt, die in den 1980er und 1990er Jahren an Orten wie dem MIT gebaut wurden. Man kann sich diese Systeme als riesige logische Datenbanken vorstellen, in denen Wörter miteinander verbunden sind. Das Problem besteht darin, dass Sie sagen können: „Hund hat Beine“ und es wird in der Datenbank angezeigt. Wenn Sie dem System jedoch ein Bild eines Hundes zeigen, weiß es nicht, in welcher Beziehung diese Pixelgruppe zu diesem Symbol steht. Das ist das Grundproblem – es gibt diese symbolischen, abstrakten Darstellungen, aber was bedeuten sie wirklich in der realen Welt, insbesondere in der chaotischen realen Welt? Sie versuchten, das Problem zu lösen, aber es gelang ihnen nie ganz.

Und die heutigen Systeme lernen direkt aus den Daten, also stellen sie diese Verbindung gewissermaßen von Anfang an her, aber das Interessante ist, dass, wenn es nur um das Lernen aus der Sprache geht, theoretisch viel von dem fehlen sollte, was für die Erdung erforderlich ist , aber das Ergebnis ist, dass viele grundlegende Informationen irgendwie abgeleitet werden können.

Frye: Warum sagen Sie das?

Hassabis: Da diese anfänglichen großen Sprachmodelle in der realen Welt nicht existierten, waren sie theoretisch nicht mit dem Simulator verbunden, sie waren nicht mit dem Roboter verbunden, sie waren anfangs nicht einmal multimodal – sie wurden nicht exponiert Ob es sich um Visionen oder andere Dinge handelt, sie existieren nur im Sprachraum. Sie werden also im abstrakten Bereich gelernt. Daher ist es überraschend, dass sie aus diesem Bereich etwas über die reale Welt ableiten können.

Frye: Es macht Sinn zu sagen, dass Erdung durch die Interaktion der Menschen mit dem System erlangt wird ...

Hassabis:Wirklich. Wenn ihnen also zum Beispiel bei der Beantwortung bestimmter Fragen Fehler unterlaufen, beantworteten frühere Versionen Fragen beim Umgang mit dem Bellen von Hunden in der realen Welt aufgrund der fehlenden Erdung mit Sicherheit falsch. Die Leute korrigieren sie durch Feedback. Ein Teil dieses Feedbacks stammt aus unserer eigenen Kenntnis der Realität. So kam es zu einer gewissen Erdung.

Frye: Ich erinnere mich, ein sehr anschauliches Beispiel für den Unterschied zwischen „Überqueren des Ärmelkanals“ und „Überqueren des Ärmelkanals“ gesehen zu haben.

Hassabis: Dieses Beispiel funktioniert. Wenn es falsch antwortet, sagen Sie ihm, dass es falsch ist, und dann muss es herausfinden: Sie können nicht über den Ärmelkanal laufen.

Wird KI über- oder unterbewertet?

Frye: Ich frage Sie ein wenig nach dem Hype. Glauben Sie, dass KI derzeit überbewertet oder unterbewertet wird oder einfach nur in die falsche Richtung gehypt wird?

Hassabis: Einerseits wird KI kurzfristig überbewertet. Die Leute behaupten, dass es viele Dinge kann, aber das kann es wirklich nicht, und es gibt viele Startups und VCs, die verrückten Ideen nachjagen, die noch nicht ausgereift genug sind.

Andererseits denke ich, dass KI immer noch unterbewertet ist. Vielleicht verstehen die Leute nicht ganz, was passiert, wenn wir AGI erreichen und wie groß die Verantwortung ist.

Frye: Sie sind seit Jahrzehnten in diesem Bereich tätig und es ist leicht zu erkennen, was realistische Ziele für das sind, was diese Startups und VCs verfolgen und was nicht. Aber wie können andere den Unterschied erkennen?

Hassabis: Natürlich müssen Sie eine technische Due-Diligence-Prüfung durchführen und ein gewisses Verständnis für die Technologie und die neuesten Trends haben.Gleichzeitig muss man sich auch mit dem Hintergrund der Person befassen, die den Kommentar abgegeben hat. Wie gut kennt sie sich mit der Technologie aus? Hat sie letztes Jahr aus einer anderen Richtung auf KI umgestellt? Haben sie letztes Jahr Kryptowährungen betrieben? Dies könnten Hinweise darauf sein, dass sie auf den Zug aufspringen. Das heißt aber nicht, dass sie großartige Ideen haben werden, und selbst wenn sie es tun, wird es wahrscheinlich eine Lotterie sein.

Ich denke, das passiert immer, wenn ein Bereich plötzlich große Aufmerksamkeit erhält und dann die Finanzierung kommt und jeder das Gefühl hat, dass er sich das nicht entgehen lassen darf.

Das schafft ein, sagen wir mal, opportunistisches Umfeld, das ein wenig im Gegensatz zu denen steht, die seit Jahrzehnten an Deep Tech und Deep Science arbeiten, und ich denke, das ist die Art und Weise, wie wir auch weiterhin bleiben sollten, wenn wir uns AGI nähern.

Gemini: das erste Leuchtturmprojekt nach der Fusion von Google Brain und DeepMind

Frye: Reden wir als nächstes über Zwillinge. Inwiefern unterscheidet sich Gemini von anderen großen Sprachmodellen, die von anderen Labors veröffentlicht wurden?

Hassabis: Von Anfang an wollten wir, dass Gemini mehrere Modalitäten verarbeiten kann, sodass es nicht nur Sprache, sondern auch verschiedene Modalitäten wie Audio, Video, Bilder, Code usw. verarbeiten kann. Der Grund, warum wir dies tun wollen, liegt vor allem darin, dass ich denke, dass dies eine Möglichkeit für diese Systeme ist, die Welt um sie herum wirklich zu verstehen und bessere Modelle der Welt zu erstellen, was auf die vorangegangene Frage der Erdung zurückgeht.

Wir haben auch die Vision, einen universellen Assistenten zu haben. Wir haben einen Prototyp namens Astra erstellt, der nicht nur versteht, was Sie eingeben, sondern auch die Umgebung, in der Sie sich befinden. Ein solcher intelligenter Assistent wäre nützlicher. Deshalb haben wir von Anfang an Multimodalität eingebaut. Dies ist eine weitere Sache, die damals nur unser Modell tat, und jetzt holen andere Modelle auf.

Unsere anderen großen Innovationen im Speicher, wie lange Kontexte, können sich tatsächlich an etwa eine oder zwei Millionen Token erinnern. Sie könnten ihm also „Krieg und Frieden“ oder den gesamten Film geben und ihn im Videostream Fragen beantworten oder Dinge finden lassen.

Frye: Bei Google I/O haben Sie ein Beispiel dafür verwendet, wie Astra Ihnen hilft, sich daran zu erinnern, wo Sie Ihre Brille abgelegt haben, richtig? Ich frage mich jedoch, ob dies nur eine erweiterte Version dieser alten Google-Brille ist.

Hassabis: Natürlich hat Google eine lange Geschichte in der Entwicklung von Glass-Geräten, die eigentlich bis in das Jahr 2012 zurückreicht, was ihrer Zeit weit voraus war. Möglicherweise fehlt ihnen jedoch einfach die Technologie, mit der ein Agent oder intelligenter Assistent tatsächlich verstehen kann, was Sie sagen. Deshalb sind wir sehr gespannt auf digitale Assistenten, die Sie jederzeit begleiten und die Welt um Sie herum verstehen können. Wenn Sie es verwenden, scheint es wirklich ein natürlicher Anwendungsfall zu sein.

Frye: Als nächstes möchte ich noch einmal auf die Ursprünge von Gemini eingehen, schließlich stammt es aus zwei verschiedenen Forschungsabteilungen bei Google.

Hassabis: Ja, letztes Jahr haben wir die beiden Forschungsabteilungen von Alphabet zusammengelegt und Google Brain und DeepMind in Google DeepMind integriert. Wir nennen es eine Supereinheit, die die besten Talente aus dem gesamten Unternehmen in einer Abteilung vereint. Das bedeutet, dass wir die besten Erkenntnisse aus allen Forschungsarbeiten, insbesondere im Bereich Sprachmodelle, vereinen.

Deshalb haben wir Modelle wie Chinchilla und Gopher auf den Markt gebracht und PaLM, LaMDA und andere frühe Modelle gebaut. Jedes dieser Modelle hat seine eigenen Vor- und Nachteile, deshalb haben wir sie in Gemini integriert und wurden zum ersten Leuchtturmprojekt, das nach dem Zusammenschluss der Abteilungen gestartet wurde. Dann ist es wichtig, alle Rechenressourcen zusammenzubringen, damit Sie sehr große Trainingsläufe durchführen können. Ich finde diese großartig.

Frye: In vielerlei Hinsicht haben Google Brain und DeepMind leicht unterschiedliche Schwerpunkte. Darf ich das sagen?

Hassabis: Die verschiedenen Abteilungen von Google konzentrieren sich eindeutig auf die Spitzentechnologie der künstlichen Intelligenz und es gibt bereits viel Zusammenarbeit auf der einzelnen Forschungsebene, aber auf der strategischen Ebene ist es anders. Mit der Einbindung von Google DeepMind, ich bezeichne es gerne als Googles Engine Room, läuft es extrem gut. Ich denke, dass es in unserer Arbeitsweise weitaus mehr Gemeinsamkeiten als Unterschiede gibt und wir unsere Stärken in Bereichen wie der Grundlagenforschung weiterhin bewahren und stärken werden.

Zum Beispiel,Woher kommt die nächste Transformer-Architektur?Wir wollen es erfinden. Forscher von Google Brain haben die mittlerweile beliebte Transformer-Architektur erfunden. Wir haben diese Architektur mit Deep Reinforcement Learning kombiniert, das wir als Pionier entwickelt haben. Ich denke, es bedarf noch weiterer Innovationen. Ich unterstütze dies, so wie es die Teams von Google Brain und DeepMind in den letzten 10 Jahren getan haben. Es ist aufregend.

Zukünftige Ausrichtung: AlphaGo mit Gemini kombinieren

Frye: Ich möchte über Gemini sprechen, wie funktioniert es? Wie ist der Vergleich mit anderen Modellen?

Hassabis: Bei dieser Frage geht es um Benchmarks,Ich denke, der gesamte Bereich braucht bessere Benchmarks. Es gibt einige bekannte akademische Benchmarks, aber diese sind mittlerweile gesättigt und unterscheiden nicht wirklich die Nuancen zwischen verschiedenen Topmodellen

Meiner Meinung nach,Derzeit gibt es drei Arten von Spitzen- und Spitzenmodellen: unser Gemini, das GPT von OpenAI und das Claude von Anthropic. Darüber hinaus gibt es viele Modelle, die eine gute Leistung erbringen, wie zum Beispiel die von Meta, Mistral usw. auf den Markt gebrachten Modelle der Llama-Serie und der Mistral-Serie. Sie sind für verschiedene Aufgaben gut. Es hängt davon ab, welche Art von Aufgaben Sie ausführen möchten. Wählen Sie Claude für die Kodierung, GPT für das Denken und Gemini für Gedächtnis, langen Kontext und multimodales Verständnis.

Natürlich werden Unternehmen ihre Modelle weiter verbessern. Der Gemini zum Beispiel ist nur ein Modell, das weniger als ein Jahr alt ist. Ich denke, wir sind auf einem wirklich guten Weg und hoffentlich werden die Zwillinge beim nächsten Gespräch ganz vorne mit dabei sein.

Frye: Ja, große Models haben noch einen langen Weg vor sich. Bedeutet das auch, dass diese Modelle in manchen Aspekten nicht sehr gut sind?

Hassabis:sicherlich. Tatsächlich ist dies derzeit die größte Debatte. Viele der heutigen Modelle basieren auf Technologien, die vor fünf oder sechs Jahren erfunden wurden. Diesen Modellen mangelt es also immer noch an vielen Dingen, sie halluzinieren und sind schlecht im Planen.

Frye: Wie ist der Plan?

Hassabis: Beispielsweise kann das Modell bei manchen langfristigen Planungen das Problem nicht langfristig lösen. Du gibst ihm ein Ziel und sie können nicht wirklich etwas für dich tun. Also,Das Modell ähnelt stark einem passiven Frage-Antwort-System. Sie stellen eine Frage und sie geben Ihnen eine Antwort, aber sie lösen das Problem nicht für Sie. Sie möchten beispielsweise, dass ein digitaler Assistent Sie bei der Buchung Ihres gesamten Urlaubs in Italien sowie bei der Buchung aller Restaurants, Museen und mehr unterstützt. Leider kann es diese Dinge nicht tun.

Ich denke, dass dies ein Thema für die nächste Ära der Forschung ist, die wir (in größerem Umfang) agentenbasierte Systeme oder intelligente Systeme mit agentenähnlichem Verhalten nennen. Das ist es natürlich, was Google gut kann. Google hat in der Vergangenheit den Gaming-Agenten AlphaGo und andere Agenten entwickelt. Also,Wir kombinieren häufig berühmte Projekte mit neuen groß angelegten multimodalen Modellen und werden zu Systemen der nächsten Generation, wie zum Beispiel der Kombination von AlphaGo und Gemini.

Frye: Ich denke, AlphaGo ist sehr gut im Planen.

Hassabis: Ja, AlphaGo ist sehr gut im Planen. Natürlich nur im Gaming-Bereich. Daher müssen wir es auf allgemeine Bereiche wie die tägliche Arbeit und die Sprache verallgemeinern.

Frye: Sie haben gerade erwähnt, dass Google DeepMind mittlerweile zum Maschinenraum von Google geworden ist. Das ist eine ziemliche Veränderung. Geht Google also eine große Wette auf KI ein?

Hassabis: Ich glaube schon. Ich denke, Google hat die Bedeutung von KI immer verstanden. Als Sundar den Posten des CEO übernahm, sagte er, Google sei ein Unternehmen, bei dem KI an erster Stelle steht. Wir haben dieses Thema bereits zu Beginn seiner Amtszeit besprochen, und er glaubt, dass KI das Potenzial hat, der nächste große Paradigmenwechsel nach dem mobilen Internet zu sein, und dass das Potenzial größer ist als zuvor.

Vielleicht haben wir in den letzten ein oder zwei Jahren wirklich einen Eindruck davon bekommen, was das bedeutet, nicht nur aus Forschungssicht, sondern auch in Bezug auf Produkte und andere Aspekte. Es ist sehr spannend, deshalb denke ich, dass es das Richtige für uns ist, alle Talente zusammenzubringen und unser Bestes zu geben, um die KI voranzutreiben.

Frye: Wir wissen, dass Google DeepMind Forschung und Wissenschaft sehr ernst nimmt. Aber bedeutet das, dass es sich mehr um kommerzielle Interessen und nicht mehr um die reinsten Dinge kümmern muss, wenn es zum Maschinenraum von Google wird?

Hassabis: Ja, uns geht es auf jeden Fall mehr um die kommerziellen Interessen innerhalb der Leistungsbeschreibung. Aber tatsächlich gibt es hier ein paar Dinge, die ich zu sagen habe. Zunächst werden wir unsere wissenschaftliche Arbeit an AlphaFold fortsetzen, das wir vor einigen Monaten als AlphaFold 3 veröffentlicht haben. Auch hier verdoppeln wir unsere Investitionen. Ich denke, das ist eine einzigartige Arbeit, die Google DeepMind leistet.

Wissen Sie, selbst unsere Konkurrenten glauben, dass es sich hierbei um ein allgemeines KI-Produkt handelt. Wir gründeten ein neues Unternehmen, Isomorphic Labs, um die Arzneimittelentwicklung durchzuführen. Es ist alles sehr aufregend und alles läuft wirklich gut. Also werden wir das auch weiterhin tun. Gleichzeitig haben wir auch viel an Klimavorhersagen und anderen Aspekten gearbeitet.

Wir haben ein großes Team, sodass wir mehrere Aufgaben gleichzeitig erledigen können. Wir bauen unser Großmodell Gemini et al. Wir bauen ein Produktteam auf, um all diese erstaunlichen Technologien in alle Bereiche zu bringen, in denen Google existiert. In gewisser Weise ist es für uns ein Vorteil, dass wir unsere gesamte Technologie jederzeit anschließen können. Es ist wirklich inspirierend, dass wir etwas erfinden können, das eine Milliarde Menschen sofort nutzen können.

Eine andere Sache ist,Wir brauchen jetzt einen viel höheren Grad an Integration zwischen den für Produkte entwickelten KI-Technologien und der Arbeit, die für reine AGI-Forschungszwecke geleistet wird. Vor fünf Jahren musste man für ein Produkt eine spezielle KI entwickeln. Jetzt können Sie die Hauptrecherche heraustrennen, und natürlich müssen Sie noch einige produktspezifische Arbeiten durchführen, aber das sind wahrscheinlich nur 10 % der gesamten Arbeit.

daher,Tatsächlich besteht kein Widerspruch mehr zwischen der Entwicklung von KI-Produkten und dem Aufbau von AGI. Ich würde sagen, 90 % sind der gleiche Forschungsplan. Wenn Sie also Produkte auf den Markt bringen und sie in die Welt tragen, werden Sie viel von ihnen lernen. Die Leute nutzen es auch, sodass Sie viel darüber erfahren, dass Ihre internen Kennzahlen beispielsweise nicht ganz mit dem übereinstimmen, was die Leute sagen, und dann können Sie Aktualisierungen vornehmen. Dies ist für Ihre Recherche sehr hilfreich.

So testen Sie die GenAI-Technologie

Frye: Ich frage mich, ob es eine Spannung zwischen den Durchbrüchen, die KI in der Wissenschaft anwenden, und dem richtigen Zeitpunkt gibt, diese Dinge der Öffentlichkeit zugänglich zu machen. Innerhalb von Google DeepMind werden Tools wie große Sprachmodelle für Forschungszwecke verwendet und nicht als potenzielle kommerzielle Produkte angesehen.

Hassabis: Wir haben Verantwortung und Sicherheit von Anfang an sehr ernst genommen. Bereits vor 2010 hat Google einige grundlegende ethische Grundsätze in seine KI-Richtlinien integriert. Wir sind bei Google aufeinander abgestimmt und wollen als einer der Marktführer in diesem Bereich verantwortungsvoll agieren.

Daher ist es jetzt interessant, mit der Einführung echter Produkte mit GenAI-Funktionen zu beginnen. Es gibt tatsächlich viel zu lernen, und wir lernen schnell, was gut ist. Unser Risiko ist bei aktuellen Technologien, die noch nicht so leistungsstark sind, relativ gering. Aber je leistungsfähiger die Technologie wird, desto vorsichtiger müssen wir sein.

Produktteams und andere Teams lernen, wie man die GenAI-Technologie testet. Diese Techniken unterscheiden sich von gewöhnlichen Techniken dadurch, dass sie nicht immer das Gleiche bewirken. Es ist fast so, als würde man ein Open-World-Spiel ausprobieren, die Möglichkeiten, die man damit machen kann, sind nahezu grenzenlos. Daher war es interessant herauszufinden, wie man das Red-Team macht.

Frye: Also, beim Red-Team-Test treten Sie hier gegeneinander an?

Hassabis:Ja. Beim Red-Team-Testing wird ein spezielles Team aus dem technischen Entwicklungsteam zusammengestellt, um die Technologie einem Stresstest zu unterziehen und zu versuchen, sie auf jede erdenkliche Weise zu zerstören. Sie müssen tatsächlich Tools verwenden, um Tests zu automatisieren, und selbst wenn Tausende von Menschen dies tun, reicht das im Vergleich zu Milliarden von Benutzern nicht aus.

Darüber hinaus denke ich, dass wir es in Phasen tun müssen, einschließlich einer experimentellen Phase, einer geschlossenen Betaphase und dann einer Neuveröffentlichung, so wie wir es in der Vergangenheit mit Spielen gemacht haben. Sie lernen also bei jedem Schritt dazu. Ich denke, was wir mehr tun müssen, ist, die KI selbst zu nutzen, um uns bei internen Red-Team-Tests zu helfen und tatsächlich automatisch einige Fehler zu finden oder ein dreifaches Screening durchzuführen. So können sich unsere Entwickler und Tester wirklich auf diese kniffligen Situationen konzentrieren.

Frye: Da ist etwas sehr Interessantes, Sie befinden sich in einem Bereich höherer Wahrscheinlichkeiten. Selbst wenn die Wahrscheinlichkeit gering ist, dass etwas passiert, wird es irgendwann schiefgehen, wenn man es ausreichend versucht. Ich denke, es gab einige öffentliche Fehler.

Hassabis: Wie ich bereits erwähnt habe, denke ich, dass Produktteams an Tests aller Art gewöhnt sind. Sie wissen, dass sie dieses Zeug getestet haben, aber es ist zufällig und probabilistisch. Tatsächlich kann man in vielen Fällen sogar sagen, dass man 99,999 % der Sache getestet hat, wenn es sich nur um eine gewöhnliche Software handelt. Daraus lässt sich schließen, dass dies ausreicht.

Bei generativen Systemen ist dies jedoch nicht der Fall. Sie können alle möglichen Dinge tun, die ein wenig außerhalb der Norm liegen, ein wenig außerhalb dessen, was Sie bisher gesehen haben. Wenn eine kluge Person oder ein Gegner beschließt, diese Systeme auf irgendeine Weise zu testen, wie es ein Hacker tun würde.

Diese Systeme können in Kombinationen existieren, die alles umfassen, was Sie zuvor über sie gesagt haben. Dann befindet es sich in einem besonderen Zustand oder der Speicher ist mit besonderen Dingen gefüllt, und deshalb müssen sie etwas ausgeben. Es ist hier kompliziert und nicht unendlich. Es gibt also Möglichkeiten, dieses Problem zu lösen, aber die Einführung normaler Technologie weist viele Nuancen auf.

Frye: Ich erinnere mich, dass Sie gesagt haben: Ich glaube, es war das erste Mal, dass ich Sie interviewt habe. Sie haben erwähnt, dass wir eigentlich erkennen müssen, dass dies eine völlig andere Art des Rechnens ist. Man muss sich von den deterministischen Dingen entfernen, die wir vollständig verstehen, und hin zu etwas Unordentlicherem, etwa dem Wahrscheinlichkeitsprinzip. Denken Sie, dass auch die Öffentlichkeit ihre Sichtweise auf Computerarten ein wenig ändern muss?

Hassabis: Ja, ich stimme zu. Vielleicht ist das eine weitere Sache, über die wir interessanterweise nachdenken müssen.Bevor Sie ein System veröffentlichen, können Sie tatsächlich ein Grundsatzdokument oder ähnliches veröffentlichenUm die beabsichtigte Verwendung dieses Systems klar zu demonstrieren: Wofür ist es konzipiert? Wofür wird es verwendet? Was kann es nicht? Ich denke, hier ist wirklich eine gewisse Art von Bewusstsein erforderlich, zum Beispiel: Wenn Sie es auf diese Weise verwenden, werden Sie es nützlich finden, aber versuchen Sie nicht, andere Dinge damit zu machen, weil es einfach nicht funktionieren wird.

Ich denke, das ist etwas, was wir in einigen Bereichen tun müssen, und Benutzer benötigen möglicherweise auch Erfahrung in diesem Bereich. Eigentlich ist es ziemlich interessant, weshalb die Chatbots selbst wahrscheinlich selbst für OpenAI, einschließlich ChatGPT, etwas überraschend sind. Wir haben auch unsere eigenen Chatbots und haben festgestellt, dass diese Roboter immer noch Mängel aufweisen, wie zum Beispiel Halluzinationen und andere Probleme.

Was uns jedoch nicht bewusst ist, ist, dass es trotz dieser Mängel tatsächlich viele großartige Anwendungsfälle für Chatbots gibt. Heutzutage finden die Menschen einige sehr wertvolle Verwendungsmöglichkeiten, wie zum Beispiel das Zusammenfassen von Dateien und langen Dokumenten, das Schreiben von E-Mails, das Ausfüllen von Formularen usw. Aufgrund der vielfältigen Nutzungsszenarien stört es den Menschen eigentlich nicht, diese Fehler leicht zu korrigieren und viel Zeit zu sparen. Ich schätze, das ist das Überraschende, was die Leute finden: Wenn sie genutzt werden, finden die Leute diese wertvollen Anwendungsfälle, obwohl diese Systeme in jeder Hinsicht, die wir kennen, fehlerhaft sind.

Über Open Source: Nach der Veröffentlichung kann es nicht mehr zurückgezogen werden

Frye: Das führt mich zur nächsten Frage, die ich stellen möchte, nämlich zu Open Source. Wie Sie bereits erwähnt haben, passieren wirklich außergewöhnliche Dinge, wenn die Dinge in den Händen der Menschen liegen. Ich verstehe, dass DeepMind in der Vergangenheit viele Projekte als Open Source bereitgestellt hat, aber das scheint sich im Laufe der Zeit geändert zu haben.

Hassabis: Ja, wir unterstützen Open Source und Open Science sehr. Wie Sie wissen, veröffentlichen wir fast alles, was wir tun, beispielsweise Transformer, und Forschungsergebnisse zu AlphaGo und AlphaFold werden in Nature und anderen Fachzeitschriften veröffentlicht, und AlphaFold ist ebenfalls Open Source. Durch den Austausch von Informationen können Technologie und Wissenschaft rasch voranschreiten. Deshalb machen wir es fast immer, und wir denken, dass es eine sehr nützliche Sache ist, und dass es die Art und Weise ist, wie Wissenschaft funktioniert.

Die einzige Ausnahme besteht darin, dass KI, AGI und leistungsstarke KI beide Seiten haben. Die Frage ist, wer es nutzt, die Wissenschaftler und Technologen, die tatsächlich mit guten Absichten handeln und konstruktive und kritische Vorschläge machen können, was für die Gesellschaft den schnellsten Weg zum Fortschritt darstellt. Aber die Frage ist, wie man den Zugang auch auf Menschen mit bösen Absichten beschränkt, die möglicherweise dieselben Systeme für schlechte Zwecke nutzen, sie missbrauchen, beispielsweise als Waffensysteme, aber das können wir nicht im Voraus vorhersagen. Darüber hinaus kann das universelle System selbst auf diese Weise wiederverwendet werden. Wir können heute noch daran festhalten, weil ich glaube, dass die Systeme noch nicht so leistungsfähig sind.

In den nächsten zwei bis vier Jahren, insbesondere wenn wir beginnen, Systeme mit Agentenverhalten zu entwickeln, könnte ein Missbrauch dieser Systeme durch jemanden ernsthaften Schaden anrichten. Obwohl wir keine konkreten Lösungen haben, müssen wir als Community darüber nachdenken, was das für Open Source bedeutet.

Möglicherweise müssen hochmoderne Modelle einer weiteren Überprüfung unterzogen werden, bevor sie ein oder zwei Jahre nach der Veröffentlichung als Open Source veröffentlicht werden können. Diesem Modell folgen wir, weil wir unser eigenes Open-Source-Modell namens Gemma haben. Diese Modelle sind kleiner und nicht auf dem neuesten Stand, sodass ihre Funktionen für Entwickler immer noch sehr nützlich sind und sich mit weniger Parametern problemlos auf einem Laptop ausführen lassen. Diese Funktionen sind mittlerweile gut verstanden. Allerdings ist die Leistung dieser Modelle nicht so gut wie die der neuesten Spitzenmodelle, wie z. B. Gemini 1.5. Der letzte Ansatz, den wir verfolgen könnten, ist:Wir werden Open-Source-Modelle haben, aber sie werden den Modellen auf dem neuesten Stand der Technik etwa ein Jahr hinterherhinken, damit wir die öffentliche Nutzung dieser Modelle durch Benutzer wirklich bewerten und die Fähigkeiten modernster Modelle verstehen können.

Das Hauptproblem bei Open Source besteht darin, dass es nach seiner Veröffentlichung nicht mehr zurückgezogen werden kann. Im Gegensatz zu proprietären Modellen können Entwickler ein Open-Source-Modell nicht einfach abschalten, wenn es unsachgemäß verwendet wird.Sobald Open Source verfügbar ist, ist es so, als würde man durch eine Einbahntür gehen, daher muss man vor Open Source sehr vorsichtig sein.

Frye: Ist es möglich, künstliche allgemeine Intelligenz (AGI) auf einen Graben innerhalb einer Organisation zu beschränken?

Hassabis: Das ist noch eine ungelöste Frage. Wir wissen noch nicht, wie das geht, denn das ist etwas, worüber wir nachdenken müssen, wenn wir über menschenähnliche KI auf hohem Niveau sprechen.

Frye: Was ist mit der mittleren Schicht?

Hassabis: Auf der mittleren Ebene haben wir einige bessere Ideen für den Umgang mit diesen Problemen. Es kann beispielsweise in einer sicheren Sandbox-Umgebung getestet werden. Dies bedeutet, dass das Verhalten des Agenten in einer Spielumgebung oder einer teilweise verbundenen Version des Internets getestet wird. In diesem Bereich, aber auch in anderen Bereichen wie Fintech, wird bereits viel Sicherheitsarbeit geleistet. Wir könnten diese Ideen aufgreifen und entsprechende Systeme bauen. Auf diese Weise testen wir frühe Prototypensysteme. Aber wir wissen auch, dass diese Maßnahmen möglicherweise nicht ausreichen, um AGI einzuschränken, ein System, das möglicherweise intelligenter ist als wir. Daher müssen wir diese Systeme besser verstehen, um Protokolle für AGI entwerfen zu können. Bis dahin werden wir bessere Möglichkeiten zur Kontrolle haben und möglicherweise KI-Systeme und -Tools nutzen, um die nächste Generation von KI-Systemen zu überwachen.

Wie man KI reguliert

Frye: Beim Thema Sicherheit scheinen viele Leute zu glauben, dass das Wort Regulierung alle Probleme löst. Wie sollte Ihrer Meinung nach die Regulierung ausgestaltet sein?

Hassabis: Die Regierung verstärkt ihr Verständnis und Engagement in der KI-Technologie, was ein positives Phänomen ist.Ich halte internationale Zusammenarbeit für notwendig, insbesondere in Bereichen wie Regulierung, Sicherheitsmaßnahmen und Einsatzspezifikationen

Wenn wir uns AGI nähern, müssen wir erkennen, dass die Technologie schnell voranschreitet.Auch unser Regulierungsansatz muss flexibel sein und sich schnell an die neuesten technologischen Entwicklungen anpassen. Wenn Sie die KI vor fünf Jahren reguliert hätten, hätten Sie etwas völlig anderes reguliert. Was wir heute sehen, ist generative KI, aber in fünf Jahren könnte es anders sein.

Derzeit stellen agentenbasierte Systeme möglicherweise das größte Risiko dar. Daher empfehle ich, bestehende Vorschriften in bereits regulierten Bereichen (wie Gesundheit, Transport usw.) zu verstärken, um sie an das KI-Zeitalter anzupassen, so wie die Vorschriften zuvor für Mobilgeräte und das Internet aktualisiert wurden.

Das erste, was ich tun würde, wäre, konzentriert zu bleiben und sicherzustellen, dass wir modernste Systeme verstehen und testen. Da die Situation klarer wird und Vorschriften für diese Situationen entwickelt werden müssen, kann es in einigen Jahren sinnvoller sein, dies zu tun. Was uns derzeit fehlt, ist Benchmarking und ordnungsgemäße Kompetenztests, einschließlich der Frage, wann unsere Fähigkeiten ein erhebliches Risiko darstellen könnten, wie die Branche wissen möchte. Darauf gibt es derzeit keine Antwort, und die gerade erwähnten agentenbasierten Fähigkeiten stellen möglicherweise die nächste Schwelle dar, aber es gibt derzeit keine akzeptierte Testmethode.

Ein möglicher Test besteht darin, festzustellen, ob das System über Täuschungsfunktionen verfügt. Wenn im System eine Täuschung vorliegt, kann nichts anderes, was es meldet, als vertrauenswürdig eingestuft werden. daher,Das Testen von Täuschungen sollte bei neu entstehenden Fähigkeiten oberste Priorität haben. Darüber hinaus gibt es viele andere Fähigkeiten, die es wert sind, getestet zu werden, z. B. die Fähigkeit, bestimmte Ziele zu erreichen, Replikationsfunktionen usw., und derzeit werden viele damit verbundene Arbeiten durchgeführt. Ich denke, hier kommen im Grunde Regierungsbehörden ins Spiel. Ich denke, es wäre großartig, wenn sie sich intensiv dafür einsetzen würden, und natürlich sollten die Labore ihr Wissen beisteuern.

Frye: Wo passen Institutionen in die von Ihnen beschriebene Welt? Selbst wenn wir so weit kommen, dass wir über AGI verfügen, die in der Lage ist, die gesamte wissenschaftliche Forschung zu unterstützen, werden Institutionen dann noch einen Platz haben?

Hassabis: Ich glaube schon. Ich glaube, dass es bei der Entwicklung von AGI zu einer Zusammenarbeit zwischen der Gemeinschaft, der Wissenschaft, der Regierung und Industrielaboren kommen wird. Ich bin fest davon überzeugt, dass dies der einzige Weg ist, diese Endphase zu erreichen.

Kasachstans Teststandards für AGI

Hassabis: Wenn Sie fragen, was nach AGI passiert: Einer der Gründe, warum ich AGI schon immer entwickeln wollte, ist, dass wir damit beginnen können, einige der größten und grundlegendsten Fragen zu Natur, Realität, Physik und Bewusstsein zu beantworten . Je nachdem, welche Form es annimmt, könnte es eine Kombination aus menschlichen Experten und KI sein. Ich denke, dass dies noch eine Weile so bleiben wird, wenn es um die Erkundung der nächsten Grenze geht.

Derzeit können diese Systeme nicht selbstständig Vermutungen oder Hypothesen aufstellen. So wie es aussieht, können sie Ihnen helfen, bestimmte Probleme zu beweisen, Goldmedaillen bei internationalen Mathematikolympiaden zu gewinnen und vielleicht sogar berühmte mathematische Vermutungen zu lösen, aber sie sind noch nicht in der Lage, Hypothesen wie die Riemann-Hypothese oder die allgemeine Relativitätstheorie zu formulieren.Dies war mein Teststandard für echte allgemeine künstliche Intelligenz- Es wird dazu in der Lage sein und sogar neue Theorien erfinden. Wir haben noch keine Systeme und wissen möglicherweise nicht einmal, wie wir theoretisch ein System entwerfen können, das dies tut.

Frye: Der Informatiker Stuart Russell äußerte mir gegenüber seine Besorgnis darüber, dass wir alle, sobald wir das AGI-Entwicklungsstadium erreicht haben, am Ende ein Leben in ungezügeltem Luxus ohne Sinn und Zweck genießen könnten. Obwohl diese Art von Leben voller materieller Annehmlichkeiten ist, mangelt es ihm an tiefem Sinn und Zweck.

Hassabis: Das ist in der Tat eine interessante Frage. Dies geht wahrscheinlich über AGI hinaus und ähnelt eher dem, was die Leute manchmal als ASI bezeichnen. Bis dahin sollten wir über enorme Ressourcen verfügen, und vorausgesetzt, wir können eine gerechte und gleichmäßige Verteilung dieser Ressourcen gewährleisten, werden wir in einer Position sein, in der wir frei entscheiden können, wie wir handeln, und „Sinn“ wird zu einer großen philosophischen Frage. Ich denke, wir brauchen Philosophen, vielleicht sogar Theologen und Sozialwissenschaftler, die jetzt anfangen, darüber nachzudenken. Was bringt Sinn? Ich denke immer noch, dass Selbstverwirklichung wichtig ist und ich glaube nicht, dass wir uns alle nur in Meditation vertiefen werden, sondern vielleicht werden wir Computerspiele spielen. Aber ist das trotzdem wirklich eine schlechte Sache? Dies ist eine Frage, die es wert ist, untersucht zu werden.

Obwohl AGI große Veränderungen mit sich bringen wird, etwa die Heilung vieler oder aller Krankheiten und die Lösung von Energie- und Klimaproblemen, könnte sie uns auch vor eine tiefere Frage stellen: Was ist der Sinn des Lebens? Genau wie Menschen, die den Mount Everest besteigen oder Extremsport betreiben, mögen diese Aktivitäten oberflächlich betrachtet bedeutungslos erscheinen, in Wirklichkeit sind sie jedoch das Streben der Menschen, sich selbst herauszufordern. Mit der Entwicklung von AGI haben wir vielleicht alles auf der materiellen Ebene, aber sie bringt auch ein Umdenken über den Sinn des Lebens mit sich. Dieses Problem wird sowohl in frühen als auch in späten Phasen der Technologieentwicklung unterschätzt, und wir müssen den sogenannten Hype und seine tatsächlichen Auswirkungen auf unsere Zukunft neu bewerten.

Frye: Kommen wir zurück zur Frage nach AGI. Ich weiß, dass Ihre große Mission darin besteht, eine KI zu entwickeln, die allen zugute kommt. Doch wie stellt man sicher, dass es tatsächlich allen zugute kommt? Wie kann man die Vorlieben aller und nicht nur der Designer berücksichtigen?

Hassabis: Ich glaube nicht, dass es möglich ist, alle Präferenzen in einem System zusammenzufassen, weil man sich in vielen Fragen nicht einig sein kann. Ich denke, wir verfügen möglicherweise über eine sichere Architektur, auf der personalisierte künstliche Intelligenz aufgebaut werden kann, und dann entscheiden die Menschen basierend auf ihren eigenen Vorlieben, Nutzungszwecken und Einsatzzwecken, wofür das KI-System verwendet werden kann und was nicht. Im Allgemeinen muss die Architektur Sicherheit gewährleisten, und dann können Benutzer basierend auf der Architektur einige Variationen und Inkremente vornehmen.

Ich denke also, je näher wir AGI kommen, desto besser müssen wir international zusammenarbeiten und dann sicherstellen, dass wir AGI in einer sicheren Umgebung aufbauen.

Sobald wir diese Aufgabe erledigt haben, kann jeder auf Wunsch seine eigene personalisierte Pocket-API haben.

Frye: Okay. Ich meine aber, dass KI schlechtes Verhalten an den Tag legen kann.

Hassabis: Ja, es treten schlechte Verhaltensweisen und Fähigkeiten auf. Täuschung ist ein Beispiel. Wir müssen all diese Probleme besser verstehen.

Es gibt zwei Dinge, über die man sich Sorgen machen muss: Menschen könnten KI und die KI selbst missbrauchen (je mehr sie sich der AGI annähert, desto mehr gerät ihre Leistung aus dem Ruder). Ich denke, dass diese beiden Probleme unterschiedliche Lösungen erfordern. Ja, damit müssen wir uns befassen, je näher wir dem Aufbau von AGI kommen.

Um noch einmal auf Ihren Punkt zurückzukommen, dass allen zugute kommen soll. Am Beispiel von AlphaFold denke ich, dass wir die meisten Krankheiten innerhalb der nächsten ein oder zwei Jahre heilen können, wenn die Entwicklung von KI-Medikamenten funktioniert. Anschließend können sie in personalisierte Medikamente umgewandelt werden, um Nebenwirkungen für den Einzelnen zu minimieren, die unter anderem mit der individuellen Erkrankung und dem individuellen Stoffwechsel des Menschen zusammenhängen. Das sind also erstaunliche Dinge, wissen Sie, saubere Energie, erneuerbare Energien, Technologie wird enorme Vorteile bringen, aber wir müssen auch die Risiken mindern.

Frye: Sie sagten, Sie wollten das Risiko mindern, indem Sie eines Tages im Grunde genommen eine wissenschaftliche Version von „Avengers Assemble“ machen würden?

Hassabis:sicherlich.

Frye: Woher wissen Sie also, wann der richtige Zeitpunkt ist?

Hassabis: Nun, das ist eine große Frage. Sie können es nicht zu früh tun, denn Sie werden nie die Unterstützung einiger der Neinsager gewinnen. Heute sagen einige sehr berühmte Leute, dass KI risikofrei sei. Und dann sagen Leute wie Geoffrey Hinton, dass es ein großes Risiko gibt.

Frye: Ich möchte mit Ihnen mehr über Neurowissenschaften sprechen. Wie sehr inspiriert es Sie noch bei dem, was Sie tun? Denn mir ist aufgefallen, dass DeepMind vor ein paar Tagen eine virtuelle Maus mit einem künstlichen Gehirn vorgestellt hat, die dabei hilft, unser Verständnis darüber zu verändern, wie das Gehirn Bewegungen steuert. Ich erinnere mich, dass wir viel darüber gesprochen haben, sich direkt von biologischen Systemen inspirieren zu lassen. Ist dies immer noch der Kern Ihres Ansatzes?

Hassabis: Nein, es hat sich jetzt weiterentwickelt und ich denke, wir sind in die Engineering-Phase eingetreten, wie z. B. große Systeme, große Trainingsarchitektur. Die Neurowissenschaft hat darauf etwas weniger Einfluss. Die Neurowissenschaften sind eine Quelle für Ideen, aber wenn der technische Aufwand groß ist, treten die Neurowissenschaften in den Hintergrund. Jetzt geht es also wahrscheinlich eher darum, künstliche Intelligenz auf die Neurowissenschaften anzuwenden. Ich denke, wenn wir uns der AGI nähern, wird das Verständnis des Gehirns einer der coolsten Anwendungsfälle für AGI sein.

Frye: Ich frage mich, ob Sie sich auch vorstellen, dass es Dinge geben wird, die jenseits des menschlichen Verständnisses liegen und die AGI uns dabei helfen wird, sie zu entdecken und zu verstehen?

Hassabis: Ich denke, dass AGI-Systeme höhere Abstraktionsebenen besser verstehen können als wir. Ich denke, ein KI-System könnte praktisch jede Art von präfrontalem Kortex haben, sodass es sich höhere Abstraktions- und Musterebenen vorstellen und das Universum sehen könnte, das wir nicht wirklich verstehen oder uns nicht sofort erinnern können.

Und dann denke ich, dass wir aus der Perspektive der Interpretierbarkeit unser eigenes Gehirn nicht unendlich skalieren können, aber theoretisch kann AGI mit genügend Zeit, SPE und Gedächtnis alles verstehen, was berechenbar ist.

Frye: Sie sagten, DeepMind sei ein 20-Jahres-Projekt. Wie nah sind Sie dran, auf dem richtigen Weg zu sein?

Hassabis: Wir sind auf dem richtigen Weg.

Frye: Wird AGI im Jahr 2030 verfügbar sein?

Hassabis: Es würde mich nicht wundern, wenn es innerhalb der nächsten zehn Jahre herauskäme.