uutiset

Hassabis: Google haluaa luoda toisen Transformerin, AlphaGon ja Geminin yhdistelmän

2024-08-20

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Koneen sydänraportti

Machine Heart -toimitusosasto

"Tunnen oloni mukavammaksi, kun tekoälyyrityksen toimitusjohtaja on enemmän kuin tietojenkäsittelytieteilijä kuin myyjä."



DeepMindille vuosi 2023 on täynnä muutoksia. Tämän vuoden huhtikuussa Google ilmoitti yhdistävänsä Google Brainin ja DeepMindin uudeksi osastoksi nimeltä Google DeepMind. Uusi osasto johtaa läpimurtoa tekoälytuotteiden tutkimusta ja kehittämistä eettisiä standardeja noudattaen.

Google Brain ja DeepMind – toinen loi Transformerin, toinen AlphaGon, AlphaFoldin... Kaksi osastoa yhdistivät voimansa luodakseen Geminin vuoden 2023 lopussa ChatGPT:n vertailua varten. Nykyään Gemini sijoittuu säännöllisesti kolmen parhaan joukossa suuressa LMSYS Chatbot Arenan malliluokissa. Voidaan nähdä, että näiden kahden yhdistämisellä on tiettyjä tuloksia.



Joten, mihin Google DeepMind menee tästä eteenpäin? Äskettäisessä keskustelussa Lontoon University Collegen Advanced Spatial Analysis -keskuksen kaupunkimatematiikan apulaisprofessori Hannah Fryn kanssa Demis Hassabis, Google DeepMindin toimitusjohtaja ja toinen perustaja, paljasti, että hän ilmaisi myös näkemyksensä joistakin yrityksen suunnitelmista ja joitain tekoälyn ajankohtaisia ​​ongelmia.



视频链接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650930939&idx=2&sn=00d72f97f26fc7acc3b2a24fd=48b3b3b38b3943fd 393d7a9bd7caeafce2fcd71b6299e195df3e5a716cb840a401c85dc9efff669&token=899618486&lang=zh_CN#rd

Hassabiksen ydinnäkemykset ovat seuraavat:

  • Lyhyellä aikavälillä tekoäly on ylihyväksytty, mutta pitkällä aikavälillä se on aliarvostettu. Mitä tulee siihen, kuinka erottaa mikä on hypeä ja mikä on saavutettavissa tekoälyn alalla, Hassabis sanoi, että tutkimuksen tekemisen lisäksi on tarkasteltava myös huomautusten esittäjän taustaa, kuinka perehtynyt hän on teknologiasta ja opiskelivatko he vain viime vuonna muilla aloilla. Suunta menee tekoälyyn. Jos kommentin kirjoittaja vain seuraa trendiä, todennäköisyys, että hänellä on hyvä idea, on kuin arpajais.
  • DeepMindin ja Google Brainin yhdistäminen tuo monia innovaatiomahdollisuuksia, ja niiden tavoitteena on keksiä seuraava arkkitehtuuri, joka voi viedä tekoälyn rajoja, aivan kuten Google Brain keksi Transformer-arkkitehtuurin.
  • Nykyiset akateemiset vertailuarvot ovat kyllästyneet, eivätkä ne pysty erottamaan hienovaraisia ​​eroja huippumallien välillä. Hassabis uskoo, että tekoäly tarvitsee parempia vertailuarvoja, erityisesti sellaisilla aloilla kuin multimodaalinen ymmärrys, pitkäkestoinen muisti ja päättelykyky.
  • Monet tämän päivän malleista on johdettu teknologioista, jotka keksittiin viisi tai kuusi vuotta sitten. Joten näistä malleista puuttuu edelleen paljon asioita ja ne ovat hallusinaatioita, eivät ole hyviä pitkän aikavälin suunnittelussa eivätkä pysty ennakoivasti suorittamaan monimutkaisia ​​​​tehtäviä. Vastauksena näihin ongelmiin Google aikoo kehittää järjestelmiä, joilla on vahvempi agenttikäyttäytyminen, yhdistämällä asiantuntemuksensa peliagenteista ja suurista kielimalleista, kuten yhdistämällä AlphaGon edut suunnittelussa ja päätöksenteossa multimodaalisiin malleihin, kuten Gemini.
  • Avoimesta lähdekoodista puhuessaan Hassabis sanoi, että he ovat käyttäneet avoimen lähdekoodin teknologioita, kuten Transformer ja AlphaFold. Mutta hän uskoo, että huippuluokan mallit on tarkistettava enemmän ja ne on saatava avoimeen lähdekoodiin 1-2 vuotta julkaisun jälkeen, mallia, jota myös Google seuraa. Google avaa avoimen lähdekoodin malleja, mutta ne ovat noin vuoden jäljessä huippuluokan malleista. Hassabis sanoi lisäksi, että avoimen lähdekoodin suurin ongelma on, että se on kuin kävelemään yksisuuntaisesta ovesta, kun se on vapautettu, sitä ei voi vetää pois. Joten sinun on oltava erittäin varovainen ennen avointa lähdekoodia.
  • Tekoäly voi johtaa läpimurtoihin monimutkaisissa matemaattisissa ongelmissa, kuten auttaa ratkaisemaan kuuluisia matemaattisia olettamuksia tai menestyä hyvin kansainvälisissä matematiikan kilpailuissa. Nykyiset tekoälyjärjestelmät eivät kuitenkaan vielä pysty keksimään uusia matemaattisia hypoteeseja tai alkuperäisiä teorioita yksinään. Hassabis uskoo, että AGI:n tärkeä testi on sen kyky luoda itsenäisesti täysin uusia hypoteeseja ja teorioita, kuten yleinen suhteellisuusteoria.
  • Mitä tulee siihen, kuinka varmistaa, että AGI voi hyödyttää kaikkia, Hassabis uskoo, että on mahdotonta sisällyttää kaikkia mieltymyksiä yhteen järjestelmään, mutta turvallinen arkkitehtuuri voidaan rakentaa, ja sitten ihmiset voivat käyttää sitä mieltymyksiensä, käyttötarkoituksiinsa ja käyttöönottotarkoituksiinsa. Päätä, mihin tekoälyjärjestelmää voidaan käyttää ja mihin ei.

Katsottuaan haastattelun yksi henkilö kommentoi, että se sai hänet tuntemaan olonsa mukavaksi, koska Hassabis kuulosti enemmän tietojenkäsittelytieteilijältä kuin myyjältä. Toiset sanovat, että DeepMindin hankkiminen ja niiden kehittäminen vapaasti on Googlen paras tekoälypäätös, jonka Google on koskaan tehnyt, ja he toivovat, että Google antaa heidän jatkaa työtään keskeytyksettä niin paljon kuin mahdollista.



Seuraava on Machine Heartin kokoama haastattelusisältö.

Tekoälyn kehitys on odottamatonta

Frye: Kun ajattelemme taaksepäin, kun aloimme suunnittelemaan tätä podcastia vuonna 2017, DeepMind oli suhteellisen pieni, keskittynyt tekoälytutkimuslaboratorio, jonka Google oli juuri hankkinut ja jolla oli valtuudet tehdä omaa ainutlaatuista tutkimustaan ​​turvallisen etäisyyden päästä Lontoossa . Mutta asiat ovat muuttuneet dramaattisesti sen jälkeen. Viime vuodesta Google on järjestänyt koko arkkitehtuurinsa uudelleen ja asettanut tekoäly- ja DeepMind-tiimit strategiansa ytimeen.

Google DeepMind jatkaa pyrkimyksiään tarjota tekoälyä ihmistason älykkyyttä, niin sanottua tekoälyä (AGI). Se lanseerasi sarjan tehokkaita uusia tekoälymalleja nimeltä Gemini sekä tekoälyagentin nimeltä Project Astra, joka pystyy käsittelemään ääntä, videota, kuvia ja koodia. Laboratorio tekee myös valtavia harppauksia tekoälyn soveltamisessa useille tieteenaloille, mukaan lukien kaikkien ihmiskehon molekyylien, ei vain proteiinien, rakenteen ennustaminen. Vuonna 2021 he perustivat myös uuden yrityksen, Isomorphic Labsin, joka on omistautunut uusien sairauksien hoitoon tarkoitettujen lääkkeiden löytämiseen. Google DeepMind tutkii myös tehokkaita tekoälyagentteja, jotka voivat oppia suorittamaan tehtäviä itsenäisesti vahvistusoppimisen avulla, ja jatkaa legendaa Alpha Go:sta, joka voitti ihmiset Go-pelissä.

Tänään kutsuttiin Demis Hassabis, DeepMindin perustaja ja toimitusjohtaja.

Mietin, onko työstäsi tullut helpompaa tai vaikeampaa sen jälkeen, kun yleinen kiinnostus tekoälyä kohtaan on kasvanut?

Hassabis: Minusta se on kaksiteräinen miekka. Vaikeaa on, että tällä hetkellä koko alalla on niin paljon tarkastelua, huomiota ja paljon melua. Pidän parempana, kun ihmisiä on vähemmän ja voimme keskittyä enemmän tieteeseen. Mutta valoisa puoli on se, että teknologia on valmis vaikuttamaan todelliseen maailmaan monin eri tavoin ja vaikuttamaan ihmisten jokapäiväiseen elämään positiivisella tavalla, joten mielestäni se on myös jännittävää.

Frye: Oletko koskaan ollut yllättynyt siitä, kuinka nopeasti yleisön mielikuvitus on valloittanut? Luulen, että odotit tämän päättyvän näin, eikö niin?

Hassabis: Todellakin. Ne meistä, jotka ovat opiskelleet tätä alaa vuosikymmeniä, tulevat lopulta jossain vaiheessa ymmärtämään, kuinka tärkeäksi tekoälystä tulee. Mutta silti tuntuu hieman surrealistiselta nähdä kaiken toteutuvan ja tapahtuvan tällä tavalla. Luulen, että tämä johtuu todella chatbottien syntymisestä ja kielimallien kehityksestä, koska kaikki käyttävät kieltä ja kaikki voivat ymmärtää kieltä, joten tämä on helppo tapa yleisölle ymmärtää ja mitata tekoälyn kehitystasoa.

Frye: Kuulin sinun kuvailevan näitä chatbotteja "epätavallisen tehokkaiksi" Mitä se tarkoittaa?

Hassabis: Tarkoitan, että jos katsot taaksepäin 5-10 vuotta sitten, ihmiset ovat saattaneet ajatella, että tekoälyn kehittäminen edellyttää hämmästyttävää arkkitehtuuria ja laajennusta sen päälle ilman, että joudut ratkaisemaan sellaisia ​​abstrakteja käsitteitä erityisiä kysymyksiä. Monissa keskusteluissa 5-10 vuotta sitten ihmiset ajattelivat, että abstraktien käsitteiden käsittelemiseen tarvitaan erityinen tapa, koska aivot ilmeisesti toimivat näin. Mutta jos tekoälyjärjestelmille annetaan tarpeeksi dataa, kuten koko Internetin dataa, ne näyttävät pystyvän oppimaan siitä ja yleistämään malleja, ei vain rutiininomaisesti oppimalla, vaan itse asiassa ymmärtävät jossain määrin, mitä ne käsittelevät. sisältöä. Se on tavallaan "epätavallisen tehokasta", koska en usko, että kukaan olisi uskonut viisi vuotta sitten, että se olisi yhtä tehokas kuin nyt.

Frye: Se oli siis yllätys...

Hassabis: Kyllä, puhuimme konseptista ja pohjautumisesta aiemmin - kielen sijoittamisesta todellisiin kokemuksiin, ehkä simulaatioihin tai robottien ruumiillistumiseen. Tietenkään nämä järjestelmät eivät ole vielä sillä tasolla, ne tekevät paljon virheitä, heillä ei ole vielä todellista maailmanmallia. muttaPelkästään kielestä oppimalla he ovat menneet pidemmälle kuin he odottivat

Frye: Mielestäni meidän täytyy selittää maadoituksen käsite.

Hassabis: Maadoitusongelma on ongelma, joka esiintyy klassisissa tekoälyjärjestelmissä, jotka on rakennettu 1980- ja 1990-luvuilla MIT:n kaltaisiin paikkoihin. Voit ajatella näitä järjestelmiä valtavina loogisina tietokantoina, joissa sanat ovat yhteydessä toisiinsa. Ongelmana on, että voit sanoa "koiralla on jalat" ja se tulee tietokantaan, mutta kun näytät järjestelmälle kuvan koirasta, se ei tiedä, miten tuo pikselinippu liittyy tuohon symboliin. Se on perusongelma – sinulla on nämä symboliset, abstraktit esitykset, mutta mitä ne todella tarkoittavat todellisessa maailmassa, erityisesti sotkuisessa todellisessa maailmassa? He yrittivät ratkaista ongelman, mutta eivät onnistuneet.

Ja nykypäivän järjestelmät oppivat suoraan tiedoista, joten tietyssä mielessä ne muodostavat tämän yhteyden alusta alkaen, mutta mielenkiintoista on, että jos se on vain oppimista kielestä, siitä pitäisi teoriassa puuttua paljon siitä, mitä tarvitset. , mutta tuloksena on, että paljon maadoitustietoja voidaan jollakin tavalla päätellä.

Frye: Miksi sanot niin?

Hassabis: Teoriassa, koska näitä alkuperäisiä suuria kielimalleja ei ollut olemassa todellisessa maailmassa, niitä ei ollut kytketty simulaattoriin, ne eivät olleet yhteydessä robottiin, ne eivät olleet edes alun perin multimodaalisia - niitä ei paljastettu. visioon tai mihinkään muuhun asioihin, ne ovat olemassa vain kieliavaruudessa. Joten ne opitaan abstraktilla alalla. Joten on yllättävää, että he voivat päätellä jotain todellisesta maailmasta kyseiseltä alueelta.

Frye: On järkevää sanoa, että maadoitus hankitaan ihmisten vuorovaikutuksesta järjestelmän kanssa...

Hassabis:todella. Joten varmasti, jos he tekevät virheitä vastatessaan esimerkiksi tiettyihin kysymyksiin, varhaiset versiot vastasivat kysymyksiin väärin käsitellessään koirien haukkumista todellisessa maailmassa maadoittamisen puutteen vuoksi. Ihmiset korjaavat niitä palautteen avulla. Osa tästä palautteesta tulee omasta todellisuustietostamme. Joten näin vähän maadoitusta valui sisään.

Frye: Muistan nähneeni erittäin elävän esimerkin "Englannin kanaalin ylittämisen" ja "Kävelemisen Englannin kanaalin yli" välillä.

Hassabis: Tämä esimerkki toimii. Jos se vastaa väärin, kerrot sille, että se on väärin, ja sitten sen täytyy selvittää – et voi kävellä Englannin kanaalin yli.

Onko tekoäly yli- vai alihypotettu?

Frye: Aion kysyä sinulta hieman hypetystä, onko tekoäly tällä hetkellä mielestäsi ylihyytetty vai alihyytetty vai vain hypetetty väärään suuntaan?

Hassabis: Toisaalta lyhyellä aikavälillä tekoäly on ylihypotettu. Ihmiset väittävät, että se voi tehdä monia asioita, mutta se ei todellakaan pysty, ja monet startupit ja riskipääomayritykset jahtaavat hulluja ideoita, jotka eivät ole vielä kypsiä.

Toisaalta mielestäni tekoäly on edelleen aliarvostettu. Ehkä ihmiset eivät täysin ymmärrä, mitä tapahtuu, kun saavutamme AGI:n ja kuinka suuri vastuu on.

Frye: Olet ollut tällä alalla vuosikymmeniä, ja on helppo nähdä, mitkä ovat realistisia tavoitteita sille, mitä nämä startupit ja riskipääomayritykset tavoittelevat ja mitkä eivät. Mutta miten muut voivat kertoa eron?

Hassabis: Ilmeisesti sinun täytyy tehdä tekninen due diligence ja ymmärtää tekniikkaa ja viimeisimmät trendit.Samalla sinun on myös tarkasteltava kommentin kirjoittajan taustaa. Kuinka tietoisia he ovat teknologiasta. Harjoittivatko he kryptovaluuttaa viime vuonna? Nämä voivat olla vihjeitä siitä, että he saattavat hypätä kelkkaan, se ei tarkoita, että heillä olisi hienoja ideoita, ja vaikka he tekisivätkin, siitä tulee todennäköisesti arpajaiset.

Luulen, että näin tapahtuu aina, kun ala saa yhtäkkiä paljon huomiota, ja sitten tulee rahoitusta ja kaikki tuntevat, ettei sitä voi missata.

Tämä luo ympäristön, joka on, sanokaamme, opportunistinen, mikä on hieman ristiriidassa niiden kanssa, jotka ovat työskennelleet syvän teknologian ja syvätieteen parissa vuosikymmeniä, mikä on mielestäni tapa, jolla meidän pitäisi pysyä jatkossakin lähestyessämme AGI:ta.

Gemini: ensimmäinen majakkaprojekti Google Brainin ja DeepMindin yhdistämisen jälkeen

Frye: Puhutaanpa seuraavaksi Kaksosista. Millä tavoin Gemini eroaa muista suurista muiden laboratorioiden julkaisemista kielimalleista?

Hassabis: Alusta asti halusimme Geminin pystyvän käsittelemään useita modaliteetteja, jotta se pystyy käsittelemään paitsi kieltä, myös erilaisia ​​​​modaliteetteja, kuten ääntä, videota, kuvia, koodia jne. Syy siihen, miksi haluamme tehdä tämän, on ennen kaikkea se, että mielestäni tämä on tapa näille järjestelmille todella ymmärtää ympäröivää maailmaa ja rakentaa parempia malleja maailmasta, mikä juontaa juurensa aikaisempaan maadoituskysymykseen.

Meillä on myös visio yleisestä avustajasta. Teimme Astra-nimisen prototyypin, joka ei vain ymmärrä, mitä kirjoitat, vaan todella ymmärtää ympäristön, jossa olet. Tällainen älykäs avustaja olisi hyödyllisempi. Joten rakensimme multimodaalisuuden alusta alkaen. Tämä on toinen asia, jota vain meidän mallimme teki tuolloin, ja nyt muut mallit ovat saavuttamassa.

Muut suuret innovaatiomme muistissa, kuten pitkät kontekstit, voivat itse asiassa muistaa noin miljoona tai kaksi miljoonaa merkkiä. Joten voit antaa sille War and Peace tai koko elokuvan ja saada sen vastaamaan kysymyksiin tai löytämään asioita videovirrasta.

Frye: Käytit Google I/O:ssa esimerkkiä siitä, kuinka Astra auttaa sinua muistamaan, mihin laitoit lasisi, eikö niin? Mutta ihmettelen, onko tämä vain edistynyt versio noista vanhoista Google-laseista.

Hassabis: Tietysti Googlella on pitkä historia Glass-laitteiden kehittämisessä, itse asiassa noin 2012, mikä oli aikaansa edellä. Mutta heiltä saattaa vain puuttua tekniikka, jotta agentti tai älykäs avustaja todella ymmärtäisi, mitä sanot. Olemme siis erittäin innoissamme digitaalisista avustajista, jotka voivat olla kanssasi koko ajan ja ymmärtää ympäröivää maailmaa. Kun sitä käyttää, se näyttää todella luonnolliselta käyttötapaukselta.

Frye: Seuraavaksi haluan palata hieman taaksepäin Kaksosten alkuperästä, sillä se on peräisin Googlen kahdelta eri tutkimusosastolta.

Hassabis: Kyllä, viime vuonna yhdistämme Alphabetin kaksi tutkimusosastoa integroimme Google Brainin ja DeepMindin Google DeepMindiin. Kutsumme sitä superyksiköksi, joka kokoaa yhteen osastoon yrityksen parhaat kyvyt. Tämä tarkoittaa, että yhdistämme parhaan tiedon, joka on saatu kaikesta tutkimuksesta, erityisesti kielimalleissa.

Siksi lanseerasimme malleja, kuten Chinchilla ja Gopher, ja rakensimme PaLM-, LaMDA- ja muita varhaisia ​​malleja. Jokaisella näistä malleista on omat hyvät ja huonot puolensa, joten integroimme ne Geminiin ja siitä tuli ensimmäinen Lighthouse Project, joka käynnistettiin osastojen yhdistämisen jälkeen. Sitten toinen tärkeä asia on koota kaikki laskentaresurssit yhteen, jotta voit tehdä erittäin suuria harjoitusajoja. Minusta nämä ovat mahtavia.

Frye: Google Brainilla ja DeepMindillä on monella tapaa hieman erilaiset painopisteet. Voinko sanoa tämän?

Hassabis: Googlen eri divisioonit ovat selkeästi keskittyneet tekoälyn kärkeen, ja yksittäisellä tutkimustasolla on jo paljon yhteistyötä, mutta strategisella tasolla se on erilaista. Google DeepMindin sisällyttämisen myötä haluan kuvailla sitä Googlen konehuoneeksi, se toimii erittäin hyvin. Uskon, että työskentelytavoissamme on paljon enemmän yhtäläisyyksiä kuin eroja, ja aiomme edelleen ylläpitää ja vahvistaa vahvuuksiamme esimerkiksi perustutkimuksen aloilla.

Esimerkiksi,Mistä seuraava Transformer-arkkitehtuuri tulee?Haluamme keksiä sen. Google Brain -tutkijat keksivät nykyään suositun Transformer-arkkitehtuurin. Yhdistimme tämän arkkitehtuurin syvään vahvistavaan oppimiseen, jonka olemme edelläkävijä. Minusta innovaatioita tarvitaan vielä lisää. Kannatan tätä, aivan kuten Google Brain- ja DeepMind-tiimit ovat tehneet viimeisen 10 vuoden ajan. Se on jännittävää.

Tulevaisuuden suunta: AlphaGon yhdistäminen Geminiin

Frye: Haluan puhua Kaksosista, miten se toimii? Miten se verrataan muihin malleihin?

Hassabis: Tämä kysymys sisältää vertailuarvoja,Mielestäni koko ala tarvitsee parempia vertailuarvoja. Siellä on joitain tunnettuja akateemisia vertailuarvoja, mutta ne ovat nyt kylläisiä eivätkä erota vivahteita eri huippumallien välillä.

minun mielestäniTällä hetkellä huipulla ja kärjessä on kolmen tyyppisiä malleja, meidän Gemini, OpenAI's GPT ja Anthropic's Claude. Lisäksi on monia hyvin suoriutuvia malleja, kuten Llama-sarja ja Metan lanseeraama Mistral-sarjan mallit, Mistral jne. Ne ovat hyviä erilaisiin tehtäviin. Se riippuu siitä, minkä tyyppisiä tehtäviä haluat suorittaa, valitse Claude koodaukselle, GPT päättelylle ja Gemini muistille, pitkälle kontekstille ja multimodaalista ymmärtämistä varten.

Tietenkin yritykset jatkavat malliensa parantamista. Esimerkiksi Gemini on vain alle vuoden vanha malli. Uskon, että olemme todella hyvällä liikeradalla ja toivottavasti seuraavan kerran kun puhumme, Kaksoset ovat eturintamassa.

Frye: Joo, suurilla malleilla on vielä pitkä matka kuljettavana. Tarkoittaako tämä myös sitä, että nämä mallit eivät ole tietyiltä osin kovin hyviä.

Hassabis:varmasti. Itse asiassa tämä on suurin keskustelu tällä hetkellä. Monet tämän päivän malleista on johdettu teknologioista, jotka keksittiin viisi tai kuusi vuotta sitten. Joten näistä malleista puuttuu edelleen paljon asioita, ne ovat hallusinaatioita ja huonoja suunnittelemaan.

Frye: Mikä on suunnitelma?

Hassabis: Esimerkiksi joissain pitkän aikavälin suunnittelussa malli ei pysty ratkaisemaan ongelmaa pitkällä aikavälillä. Annat sille tavoitteen, eivätkä he todellakaan voi ryhtyä toimiin puolestasi. niin,Malli muistuttaa hyvin paljon passiivista kysymysvastausjärjestelmää. Esität kysymyksen ja he antavat sinulle jonkinlaisen vastauksen, mutta he eivät ratkaise ongelmaa puolestasi. Haluat esimerkiksi digitaalisen avustajan auttavan varaamaan koko lomasi Italiassa sekä varaamaan kaikki ravintolat, museot ja paljon muuta. Valitettavasti se ei voi tehdä näitä asioita.

Mielestäni tämä on aihe seuraavalle tutkimuksen aikakaudelle, jota kutsumme (suuremmassa määrin) agenttipohjaisiksi järjestelmiksi tai älykkäiksi järjestelmiksi, joilla on agenttimainen käyttäytyminen. Tietysti Google on hyvä tässä. Google on rakentanut peliagentin AlphaGon ja muita agentteja aiemmin. niin,Suuri osa siitä, mitä teemme, on kuuluisten projektien yhdistäminen uusiin suuriin multimodaalisiin malleihin ja seuraavan sukupolven järjestelmistä, kuten AlphaGon ja Geminin yhdistelmä.

Frye: Mielestäni AlphaGo on erittäin hyvä suunnittelemaan.

Hassabis: Kyllä, AlphaGo on erittäin hyvä suunnittelemaan. Tietenkin se on vain pelimaailmassa. Siksi meidän on yleistettävä se yleisiin alueisiin, kuten päivittäiseen työhön ja kieleen.

Frye: Mainitsit juuri, että Google DeepMindistä on nyt tullut Googlen konehuone. Se on melkoinen muutos. Joten tekeekö Google suuren panoksen tekoälyssä?

Hassabis: Luulen niin. Luulen, että Google on aina ymmärtänyt tekoälyn merkityksen. Kun Sundar aloitti toimitusjohtajana, hän sanoi Googlen olevan tekoälyn ensimmäinen yritys. Keskustelimme tästä aiheesta varhain hänen toimikautensa, ja hän uskoo, että tekoälyllä on potentiaalia olla seuraava suuri paradigman muutos langattoman Internetin jälkeen ja sillä on suurempi potentiaali kuin ennen.

Ehkä viimeisen vuoden tai parin aikana olemme todella alkaneet saada makua siitä, mitä se tarkoittaa, ei vain tutkimuksen näkökulmasta, vaan myös tuotteiden ja muiden näkökohtien suhteen. Se on erittäin jännittävää, joten mielestäni meidän on oikein tuoda kaikki lahjakkuus yhteen ja tehdä parhaamme viedäksemme tekoälyä eteenpäin.

Frye: Tiedämme, että Google DeepMind ottaa tutkimuksen ja tieteen erittäin vakavasti. Mutta kun siitä tulee Googlen konehuone, tarkoittaako se, että sen on oltava enemmän huolissaan kaupallisista eduista eikä enää puhtaimmista asioista?

Hassabis: Kyllä, olemme ehdottomasti enemmän huolissamme toimeksiannon kaupallisista eduista. Mutta itse asiassa tässä on muutamia asioita, joita minun on sanottava. Ensinnäkin jatkamme tieteellistä työtämme AlphaFoldin parissa, jonka julkaisimme AlphaFold 3 muutama kuukausi sitten. Tuplaamme myös investointejamme tähän. Mielestäni tämä on ainutlaatuinen Google DeepMindin tekemä työ.

Tiedätkö, jopa kilpailijamme ajattelevat, että tämä tulee olemaan yleinen tekoälytuote. Perustimme uuden yrityksen Isomorphic Labsin hoitamaan lääkekehitystä. Kaikki on erittäin jännittävää ja kaikki menee todella hyvin. Joten jatkamme niin. Samalla olemme tehneet paljon työtä myös ilmaston ennustamisessa ja muissa asioissa.

Meillä on suuri tiimi, joten voimme tehdä useita töitä samanaikaisesti. Rakennamme suuren mittakaavan mallimme Gemini et al. Rakennamme tuotetiimiä tuomaan kaikki nämä hämmästyttävät tekniikat kaikille Googlen alueille. Joten tavallaan se on meille etu, koska voimme kytkeä kaiken teknologiamme milloin tahansa. On todella inspiroivaa, että voimme keksiä jotain, jota miljardi ihmistä voi käyttää välittömästi.

Toinen asia on,Tarvitsemme nyt paljon enemmän integraatiota tuotteille kehitettyjen tekoälytekniikoiden ja puhtaasti AGI-tutkimustarkoituksiin tehdyn työn välillä.. Viisi vuotta sitten piti rakentaa erityinen tekoäly tuotteelle. Nyt voit erottaa päätutkimuksen, ja tietysti sinun on vielä tehtävä tuotekohtaisia ​​töitä, mutta se on luultavasti vain 10 % kaikesta työstä.

siksiItse asiassa tekoälytuotteiden kehittämisen ja AGI:n rakentamisen välillä ei ole enää ristiriitaa. Sanoisin, että 90% on sama tutkimussuunnitelma. Joten jos tuot markkinoille tuotteita ja vie ne maailmalle, opit niistä paljon. Ihmiset myös käyttävät sitä, joten opit paljon esimerkiksi siitä, että sisäiset mittasi eivät vastaa täysin sitä, mitä ihmiset sanovat, ja sitten voit tehdä päivityksiä. Tämä on erittäin hyödyllistä tutkimuksellesi.

Kuinka testata GenAI-tekniikkaa

Frye: Ihmettelen, onko tekoälyä tieteeseen soveltavien läpimurtojen ja oikean ajan välillä julkaista nämä asiat yleisölle. Google DeepMindissä työkaluja, kuten suuria kielimalleja, käytetään tutkimukseen sen sijaan, että niitä pidettäisiin mahdollisina kaupallisina tuotteina.

Hassabis: Olemme ottaneet vastuun ja turvallisuuden erittäin vakavasti alusta alkaen. Jo ennen vuotta 2010 Google sisällytti joitakin perusetiikkaa tekoälyohjeisiinsa. Meidät on yhdenmukaistettu Googlessa ja haluamme toimia vastuullisesti yhtenä alan johtajista.

Joten nyt on mielenkiintoista aloittaa oikeiden tuotteiden lanseeraus GenAI-ominaisuuksilla. Opittavaa on itse asiassa paljon, ja opimme nopeasti, mikä on hyvä asia. Riskimme on suhteellisen pieni nykyisten teknologioiden kanssa, jotka eivät vielä ole niin tehokkaita. Mutta kun tekniikka vahvistuu, meidän on oltava varovaisempia.

Tuotetiimit ja muut tiimit opettelevat testaamaan GenAI-teknologiaa. Nämä tekniikat eroavat tavallisista tekniikoista siinä, että ne eivät aina tee samaa asiaa. Se on melkein kuin avoimen maailman pelin testaamista, sillä mitä voit yrittää tehdä sillä, on lähes rajattomasti. Joten oli mielenkiintoista keksiä, miten punainen joukkue saadaan.

Frye: Joten, punaisen joukkueen testi tässä kilpailet toisiasi vastaan?

Hassabis:Kyllä. Punaisen tiimin testaus on, kun vedät omistautuneen tiimin teknisestä kehitystiimistä stressitestaamaan teknologiaa ja yrittämään rikkoa sitä kaikin mahdollisin tavoin. Sinun on itse asiassa käytettävä työkaluja testauksen automatisointiin, ja vaikka sitä tekisi tuhansia ihmisiä, se ei riitä miljardeihin käyttäjiin verrattuna.

Lisäksi mielestäni meidän on tehtävä se vaiheittain, mukaan lukien kokeellinen vaihe, suljettu betavaihe ja sitten uudelleenjulkaisu, aivan kuten olemme tehneet pelien kanssa aiemmin. Joten opit joka askeleella. Mielestäni meidän on käytettävä enemmän itse tekoälyä auttamaan meitä punaisen tiimin sisäisessä testauksessa ja itse asiassa automaattisesti löydettävä virheitä tai suoritettava kolminkertainen seulonta. Näin kehittäjämme ja testaajamme voivat todella keskittyä noihin vaikeisiin tilanteisiin.

Frye: Tässä on jotain hyvin mielenkiintoista, olet suurempien todennäköisyyksien tilassa. Joten vaikka jollakin on pieni mahdollisuus tapahtua, jos yrität sitä tarpeeksi, se lopulta menee pieleen. Luulen, että julkisia virheitä on tapahtunut.

Hassabis: Kuten mainitsin, tuotetiimit ovat mielestäni tottuneet testaamaan kaikenlaista. He tietävät testaaneensa tätä, mutta se on satunnaista ja todennäköistä. Itse asiassa, monissa tapauksissa, jos kyseessä on vain yleinen ohjelmisto, voit sanoa, että olet testannut 99,999 % asiasta. Päättele sitten, että tämä riittää.

Näin ei kuitenkaan ole generatiivisten järjestelmien kohdalla. He voivat tehdä kaikenlaisia ​​asioita, jotka ovat hieman normaalin ulkopuolella, hieman sen ulkopuolella, mitä olet nähnyt aiemmin. Jos joku älykäs henkilö tai vastustaja päättää testata näitä järjestelmiä jollain tavalla, kuten hakkeri tekisi.

Nämä järjestelmät voivat olla yhdistelmiä, jotka sisältävät kaiken, mitä olet niistä aiemmin sanonut. Sitten se on jossain erikoistilassa tai muisti on täynnä erityistä tavaraa, ja siksi heidän täytyy tulostaa jotain. Täällä se on monimutkaista, eikä se ole loputon. Joten on olemassa tapoja ratkaista tämä ongelma, mutta normaalin tekniikan käyttöönottoon liittyy monia vivahteita.

Frye: Muistan sinun sanoneen, että se oli ensimmäinen kerta, kun haastattelin sinua, mainitsit, että meidän on itse asiassa tunnustettava, että tämä on täysin erilainen tapa laskea. Sinun täytyy siirtyä pois deterministisista asioista, jotka ymmärrämme täysin, ja siirtyä kohti jotain sotkuisampaa, kuten todennäköisyyttä. Pitäisikö yleisönkin mielestäsi muuttaa hieman näkemystään tietotekniikan tyypeistä?

Hassabis: Kyllä, olen samaa mieltä. Ehkä tämä on toinen asia, jota meidän on mietittävä, mielenkiintoista,Ennen kuin julkaiset järjestelmän, voit itse asiassa julkaista periaateasiakirjan tai jotain vastaavaa, jotta voidaan selvästi osoittaa tämän järjestelmän käyttötarkoitus, mihin se on suunniteltu? Mihin sitä käytetään? Mitä se ei voi tehdä? Luulen, että täällä todella tarvitaan jonkinlaista tietoisuutta, kuten, jos käytät sitä näillä tavoilla, löydät sen hyödylliseksi, mutta älä yritä tehdä sen kanssa muita asioita, koska se ei vain tule toimimaan.

Mielestäni meidän on tehtävä tämä joillakin alueilla, ja käyttäjät saattavat tarvita kokemusta myös tältä alueelta. Se on itse asiassa varsin mielenkiintoinen, minkä vuoksi chatbotit itse ovat todennäköisesti yllättäviä jopa OpenAI:lle, mukaan lukien ChatGPT. Meillä on myös omat chatbotit, ja olemme huomanneet, että näissä roboteissa on edelleen puutteita, kuten hallusinaatioita ja muita ongelmia.

Mutta emme ymmärrä, että näistä puutteista huolimatta chatboteille on todella monia loistavia käyttötapauksia. Nykyään ihmiset löytävät erittäin arvokkaita käyttötarkoituksia, kuten tiedostojen ja pitkien asiakirjojen yhteenvedon tekeminen, sähköpostien kirjoittaminen, lomakkeiden täyttäminen jne. Monien käyttöskenaarioiden vuoksi ihmiset voivat helposti korjata nämä virheet ja säästää paljon aikaa, vaikka niissä olisi pieniä virheitä. Luulen, että se on se yllättävä asia, jonka ihmiset löytävät käytettyinä, ihmiset löytävät nämä arvokkaat käyttötapaukset, vaikka nämä järjestelmät ovat virheellisiä kaikilta tiedoillamme.

Tietoja avoimesta lähteestä: Kun se on julkaistu, sitä ei voi peruuttaa

Frye: Tämä johtaa minut seuraavaan kysymykseen, jonka haluan kysyä, joka koskee avointa lähdekoodia. Kuten mainitsit, kun asiat ovat ihmisten käsissä, tapahtuu todella poikkeuksellisia asioita. Ymmärrän, että DeepMind on aiemmin käyttänyt avoimen lähdekoodin projekteja, mutta tämä näyttää muuttuneen ajan myötä.

Hassabis: Kyllä, tuemme erittäin paljon avointa lähdekoodia ja avointa tiedettä. Kuten tiedät, julkaisemme lähes kaiken tekemämme, kuten Transformerin, ja AlphaGo- ja AlphaFold-tutkimukset julkaistaan ​​Naturessa ja muissa lehdissä, ja AlphaFold on myös avoimen lähdekoodin julkaisu. Tietoa jakamalla teknologia ja tiede voivat kehittyä nopeasti. Joten teemme sen melkein aina, ja mielestämme se on erittäin hyödyllistä, ja se on tapa, jolla tiede toimii.

Ainoa poikkeus on, että tekoälyllä, AGI:llä ja tehokkaalla tekoälyllä on molemmat puolet. Kysymys kuuluu, kuka sitä käyttää, tiedemiehet ja teknikot, jotka todella toimivat hyvillä aikomuksilla ja voivat tehdä rakentavia ja kriittisiä ehdotuksia, mikä on yhteiskunnan nopein tapa edistyä. Mutta kysymys kuuluu, kuinka rajoittaa pääsy myös ihmisiin, joilla on huonoja aikomuksia, jotka saattavat käyttää samoja järjestelmiä huonoihin tarkoituksiin, väärinkäyttää niitä, kuten asejärjestelmiä, mutta emme voi ennustaa sitä etukäteen. Lisäksi itse universaalijärjestelmää voidaan käyttää uudelleen tällä tavalla. Voimme pitää siitä kiinni tänäänkin, koska en usko, että järjestelmät ovat vielä niin tehokkaita.

Seuraavien 2–4 vuoden aikana, varsinkin kun alamme kehittää agenttikäyttäytyviä järjestelmiä, jos joku käyttää näitä järjestelmiä väärin, seurauksena voi olla vakavaa haittaa. Vaikka meillä ei ole konkreettisia ratkaisuja, meidän on yhteisönä pohdittava, mitä tämä tarkoittaa avoimelle lähdekoodille.

Ehkä huippuluokan mallit joutuvat käymään läpi enemmän tarkastuksia, ennen kuin ne ovat avoimen lähdekoodin saatavilla vuosi tai kaksi julkaisun jälkeen. Tätä mallia noudatamme, koska meillä on oma avoimen lähdekoodin mallimme nimeltä Gemma. Nämä mallit ovat pienempiä eivätkä huippuluokan, joten niiden ominaisuudet ovat edelleen erittäin hyödyllisiä kehittäjille ja niitä on helppo käyttää kannettavassa tietokoneessa, jossa on vähemmän parametreja. Nämä toiminnot ymmärretään nyt hyvin. Näiden mallien suorituskyky ei kuitenkaan ole yhtä hyvä kuin uusimpien huippumallien, kuten Gemini 1.5:n. Viimeinen lähestymistapa, jonka voimme omaksua, onMeillä on avoimen lähdekoodin malleja, mutta ne ovat noin vuoden jäljessä huippuluokan malleista, jotta voimme todella arvioida käyttäjien näiden mallien käyttöä julkisesti ja ymmärtää huippumallien ominaisuudet.

Avoimen lähdekoodin suurin ongelma on, että kun se on julkaistu, sitä ei voi vetää pois. Toisin kuin patentoidut mallit, kehittäjät eivät voi yksinkertaisesti sulkea avoimen lähdekoodin mallia, jos sitä käytetään väärin.Avoimen lähdekoodin jälkeen se on kuin yksisuuntaisesta ovesta käveleminen, joten sinun on oltava erittäin varovainen ennen avointa lähdekoodia.

Frye: Onko mahdollista rajoittaa yleisen tekoälyn (AGI) vallihauta organisaation sisällä?

Hassabis: Tämä on vielä ratkaisematon kysymys. Emme vielä tiedä, miten se tehdään, koska sitä meidän on mietittävä, kun alamme puhua korkean tason ihmisen kaltaisesta tekoälystä.

Frye: Entä keskikerros?

Hassabis: Keskitasolla meillä on parempia ideoita näiden ongelmien ratkaisemiseksi. Sitä voidaan esimerkiksi testata suojatun hiekkalaatikkoympäristön kautta. Tämä tarkoittaa agentin toiminnan testaamista peliympäristössä tai osittain yhdistetyssä Internet-versiossa. Tässä tilassa, kuten myös muilla aloilla, kuten fintechissä, tehdään jo paljon turvallisuustyötä. Saatamme ottaa nämä ideat ja rakentaa järjestelmiä niiden mukaisesti, sillä näin testaamme varhaisia ​​prototyyppijärjestelmiä. Mutta tiedämme myös, että nämä toimenpiteet eivät ehkä riitä rajoittamaan AGI:tä, järjestelmää, joka saattaa olla meitä älykkäämpi. Siksi meidän on ymmärrettävä paremmin nämä järjestelmät voidaksemme suunnitella protokollia AGI:lle. Siihen mennessä meillä on parempia tapoja hallita sitä ja mahdollisesti hyödyntää tekoälyjärjestelmiä ja -työkaluja seuraavan sukupolven tekoälyjärjestelmien valvontaan.

Kuinka säädellä tekoälyä

Frye: Turvallisuusaiheesta monet ihmiset näyttävät ajattelevan, että sana sääntely ratkaisee kaikki ongelmat. Miten sääntely pitäisi mielestäsi jäsentää?

Hassabis: Hallitus nopeuttaa tekoälyteknologian ymmärtämistä ja osallistumistaan, mikä on myönteinen ilmiö.Mielestäni kansainvälinen yhteistyö on välttämätöntä, erityisesti sellaisilla aloilla kuin sääntely, turvatoimenpiteet ja käyttöönottospesifikaatiot

Kun lähestymme AGI:ta, meidän on tunnustettava, että koska tekniikka kehittyy nopeasti,Sääntelytapamme on myös oltava joustava ja mukauduttava nopeasti uusimpaan teknologian kehitykseen. Jos olisit säännellyt tekoälyä viisi vuotta sitten, olisit säännellyt jotain aivan muuta. Nykyään näemme generatiivisen tekoälyn, mutta viiden vuoden kuluttua se voi olla erilainen.

Tällä hetkellä agenttipohjaiset järjestelmät voivat muodostaa suurimman riskin. Siksi suosittelen voimassa olevien määräysten vahvistamista jo säännellyillä aloilla (kuten terveys, liikenne jne.) niiden mukauttamiseksi tekoälyn aikakauteen, aivan kuten säännökset päivitettiin aiemmin mobiilille ja Internetille.

Ensimmäinen asia, jonka tekisin, olisi keskittyä ja varmistaa, että ymmärrämme ja testaamme huippuluokan järjestelmiä. Kun tilanne selkiytyy ja näiden tilanteiden ympärille on alettava kehittää säännöksiä, voi olla järkevämpää tehdä se muutaman vuoden kuluttua. Meiltä puuttuu tällä hetkellä benchmarking, asianmukainen pätevyyden testaus, mukaan lukien, kuten teollisuus haluaa tietää, missä vaiheessa kykymme voivat aiheuttaa merkittävän riskin. Tähän ei ole tällä hetkellä vastausta, ja juuri mainitsemani agenttipohjaiset ominaisuudet voivat olla seuraava kynnys, mutta tällä hetkellä ei ole hyväksyttyä testimenetelmää.

Yksi mahdollinen testi on havaita, onko järjestelmällä petollisia ominaisuuksia. Jos järjestelmässä on petosta, ei mihinkään muuhun sen raportoimaan voi luottaa. siksiPetoksen testaamisen tulisi olla uusien ominaisuuksien ensisijainen tavoite. Lisäksi on monia muita testaamisen arvoisia kykyjä, kuten kyky saavuttaa tiettyjä tavoitteita, replikointiominaisuudet jne., ja paljon asiaan liittyvää työtä on parhaillaan käynnissä. Mielestäni nämä ovat pohjimmiltaan niitä, joissa valtion virastot tulevat peliin. Mielestäni heidän olisi hienoa painostaa tätä kovasti, ja tietysti laboratorioiden tulisi antaa osaamisensa.

Frye: Mihin instituutiot sopivat kuvaamaasi maailmaan? Vaikka pääsemmekin siihen vaiheeseen, että meillä on AGI, joka pystyy tukemaan kaikkea tieteellistä tutkimusta, onko laitoksilla silti sijaa?

Hassabis: Luulen niin. AGI:hen pääseminen on mielestäni yhteisön, korkeakoulujen, hallituksen ja teollisuuslaboratorioiden välistä yhteistyötä. Uskon todella, että tämä on ainoa tapa, jolla pääsemme tähän viimeiseen vaiheeseen.

Kazakstanin AGI-testausstandardit

Hassabis: Jos kysyt mitä tapahtuu AGI:n jälkeen, yksi syistä, miksi olen aina halunnut rakentaa AGI:n, on se, että voimme käyttää sitä vastataksemme joihinkin suurimmista, perustavanlaatuisimmista luonnosta, todellisuudesta, fysiikasta ja tietoisuudesta. . Sen muodosta riippuen se voi olla ihmisten asiantuntijoiden ja tekoälyn yhdistelmä. Uskon, että näin tulee jatkumaan vielä jonkin aikaa seuraavan rajan tutkimisen kannalta.

Tällä hetkellä nämä järjestelmät eivät voi keksiä oletuksia tai hypoteeseja yksinään. Nykyisellään ne voivat auttaa sinua todistamaan tiettyjä ongelmia, voittamaan kultamitaleita kansainvälisissä matemaattisissa olympialaisissa ja ehkä jopa ratkaisemaan kuuluisia matemaattisia olettamuksia, mutta ne eivät vielä pysty muodostamaan hypoteeseja, kuten Riemannin hypoteesi tai yleinen suhteellisuusteoria.Tämä on ollut testistandardini todelliselle yleiselle tekoälylle- Se pystyy tekemään tämän ja jopa keksimään uusia teorioita. Meillä ei ole vielä järjestelmiä, emmekä ehkä edes tiedä, kuinka teoriassa suunnitellaan järjestelmä, joka tekee tämän.

Frye: Tietojenkäsittelytieteilijä Stuart Russell ilmaisi minulle huolensa siitä, että kun saavutamme AGI-kehitysvaiheen, saatamme kaikki päätyä nauttimaan hillittömästä ylellisyydestä ilman elämän tarkoitusta. Vaikka tällainen elämä on täynnä aineellisia mukavuuksia, siitä puuttuu syvällinen merkitys ja tarkoitus.

Hassabis: Tämä on todellakin mielenkiintoinen kysymys. Tämä on luultavasti AGI:n ulkopuolella ja enemmän kuin se, mitä ihmiset joskus kutsuvat ASI:ksi. Siihen mennessä meillä pitäisi olla valtavia resursseja, ja olettaen, että voimme varmistaa näiden resurssien oikeudenmukaisen ja tasapuolisen jakautumisen, olemme tilanteessa, jossa voimme vapaasti valita, miten toimimme, ja "merkityksestä" tulee iso filosofinen kysymys. Luulen, että tarvitsemme filosofeja, ehkä jopa teologeja ja yhteiskuntatieteilijöitä alkamaan ajatella tätä nyt. Mikä tuo merkityksen? Olen edelleen sitä mieltä, että itsensä toteuttaminen on tärkeää, enkä usko, että me kaikki vain uppoudumme meditaatioon, ehkä pelaamme tietokonepelejä. Mutta silti, onko tämä todella huono asia? Tämä on tutkimisen arvoinen kysymys.

Vaikka AGI tuo mukanaan valtavia muutoksia, kuten monien tai kaikkien sairauksien parantamisen sekä energia- ja ilmastoongelmien ratkaisemisen, se saattaa myös saada meidät kohtaamaan syvemmän kysymyksen: Mikä on elämän tarkoitus? Aivan kuten ihmiset kiipeävät Mount Everestille tai osallistuvat extreme-lajeihin, nämä aktiviteetit voivat tuntua merkityksettömiltä pinnalta, mutta todellisuudessa ne ovat ihmisten pyrkimystä haastaa itsensä. AGI:n kehityksen myötä meillä saattaa olla kaikki aineellisella tasolla, mutta sen mukana tulee elämän tarkoituksen uudelleen miettiminen. Tätä ongelmaa aliarvioidaan sekä teknologian kehityksen alku- että loppuvaiheessa, ja meidän on arvioitava uudelleen niin sanottu hype ja sen todellinen vaikutus tulevaisuutemme.

Frye: Palataan kysymykseen AGI:sta. Tiedän, että suuri tehtäväsi on rakentaa tekoäly, joka hyödyttää kaikkia. Mutta miten voit varmistaa, että se todella hyödyttää kaikkia? Kuinka ottaa huomioon kaikkien, ei vain suunnittelijoiden, mieltymykset?

Hassabis: En usko, että on mahdollista sisällyttää kaikkia mieltymyksiä yhteen järjestelmään, koska ihmiset eivät voi olla samaa mieltä monista asioista. Uskon, että meillä voi olla turvallinen arkkitehtuuri, jolle voidaan rakentaa henkilökohtaista tekoälyä, ja sitten ihmiset päättävät, mihin tekoälyjärjestelmää voidaan käyttää ja mitä ei voida käyttää omien mieltymystensä, käyttötarkoituksiinsa ja käyttöönottotarkoituksiinsa. Yleensä arkkitehtuurin on varmistettava turvallisuus, ja sitten ihmiset voivat tehdä joitain muunnelmia ja lisäyksiä arkkitehtuurin perusteella.

Joten uskon, että kun lähestymme AGI:ta, meidän on luultavasti tehtävä kansainvälistä yhteistyötä ihanteellisemmin ja sitten varmistettava, että rakennamme AGI:ta turvallisessa ympäristössä.

Kun olemme suorittaneet tämän tehtävän, jokaisella voi olla halutessaan oma henkilökohtainen taskusovellusliittymä.

Frye: Okei. Mutta tarkoitan sitä, että tekoäly voi käyttäytyä huonosti.

Hassabis: Kyllä, huonoja nousevia käyttäytymismalleja, kykyjä. Petos on yksi esimerkki. Meidän on ymmärrettävä paremmin kaikki nämä asiat.

On kaksi huolestuttavaa asiaa: ihmiset voivat väärinkäyttää tekoälyä ja itse tekoälyä (kun se lähestyy AGI:ta, sen suorituskyky laskee raiteilta). Mielestäni nämä kaksi ongelmaa vaativat erilaisia ​​ratkaisuja. Kyllä, tämä on se, mitä meidän on käsiteltävä, kun pääsemme lähemmäs AGI:n rakentamista.

Palatakseni asiaan, joka koskee kaikkien hyödyttämistä ja AlphaFoldia esimerkkinä, uskon, että voimme parantaa useimmat sairaudet seuraavan vuoden tai kahden sisällä, jos tekoälylääkesuunnittelu toimii. Ne voidaan sitten muuttaa yksilöllisiksi lääkkeiksi, jotta voidaan minimoida yksilölle aiheutuvat sivuvaikutukset, jotka liittyvät muun muassa henkilön yksilölliseen sairauteen ja yksilölliseen aineenvaihduntaan. Nämä ovat siis uskomattomia asioita, tiedätkö, puhdas energia, uusiutuva energia, teknologia tuo valtavia hyötyjä, mutta meidän on myös vähennettävä riskejä.

Frye: Sanoit, että halusit pienentää riskiä, ​​että jonain päivänä tekisit periaatteessa tieteellisen version "Avengers Assemblesta"?

Hassabis:varmasti.

Frye: Joten, mistä tiedät, milloin on oikea aika?

Hassabis: No, tämä on iso kysymys. Et voi tehdä sitä liian aikaisin, koska et koskaan saa joidenkin vastustajien tukea. Nykyään näet hyvin kuuluisia ihmisiä sanovan, että tekoäly on riskitön. Ja sitten ihmiset, kuten Geoffrey Hinton, sanovat, että riskiä on paljon.

Frye: Haluan puhua sinulle lisää neurotieteestä. Kuinka paljon se edelleen inspiroi tekemässäsi? Koska huomasin, että muutama päivä sitten DeepMind paljasti virtuaalihiiren keinoaivoilla, joka auttaa muuttamaan käsitystämme siitä, kuinka aivot ohjaavat liikettä. Muistan, että puhuimme paljon inspiraation saamisesta suoraan biologisista järjestelmistä, onko tämä edelleen lähestymistapasi ytimessä?

Hassabis: Ei, se on kehittynyt nyt ja mielestäni olemme siirtyneet suunnitteluvaiheeseen, kuten laajamittaisiin järjestelmiin, laajamittaiseen koulutusarkkitehtuuriin. Neurotiede vaikuttaa tähän vähän vähemmän. Neurotiede on yksi ideoiden lähde, mutta kun tekniikan määrä on suuri, neurotiede jää taka-alalle. Joten nyt on luultavasti enemmänkin kyse tekoälyn soveltamisesta neurotieteeseen. Uskon, että kun lähestymme AGI:ta, aivojen ymmärtäminen on yksi AGI:n hienoimmista käyttötapauksista.

Frye: Mietin, kuvitteletko myös, että tulee olemaan asioita, jotka ovat ihmisten ymmärryksen ulkopuolella ja joita AGI auttaa meitä löytämään ja ymmärtämään?

Hassabis: Mielestäni AGI-järjestelmien on mahdollista ymmärtää korkeampia abstraktiotasoja paremmin kuin me pystymme. Luulen, että tekoälyjärjestelmässä voisi tehokkaasti olla mikä tahansa esiotsakuori, joten se voisi kuvitella korkeampia abstraktiotasoja ja kuvioita, ja se voisi nähdä maailmankaikkeuden, jota emme todellakaan voi ymmärtää tai muistaa heti.

Ja sitten luulen, että tulkittavuuden näkökulmasta emme voi skaalata omia aivojamme äärettömästi, mutta teoriassa, kun annetaan riittävästi aikaa, SPE:tä ja muistia, AGI voi ymmärtää mitä tahansa laskettavissa olevaa.

Frye: Sanoit, että DeepMind on 20-vuotinen projekti. Kuinka lähellä olet raiteille pääsemistä?

Hassabis: Olemme raiteilla.

Frye: Onko AGI saatavilla vuonna 2030?

Hassabis: En olisi yllättynyt, jos se ilmestyy seuraavan kymmenen vuoden aikana.