berita

Hassabis: Google ingin membuat Transformer kedua, kombinasi AlphaGo dan Gemini

2024-08-20

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Laporan Jantung Mesin

Departemen Editorial Jantung Mesin

“Saya merasa lebih nyaman ketika CEO sebuah perusahaan AI lebih seperti seorang ilmuwan komputer daripada seorang salesman.”



Bagi DeepMind, tahun 2023 adalah tahun yang penuh perubahan. Pada bulan April tahun ini, Google mengumumkan akan menggabungkan Google Brain dan DeepMind untuk membentuk departemen baru yang disebut Google DeepMind. Departemen baru ini akan memimpin terobosan penelitian dan kemajuan produk AI sambil mempertahankan standar etika.

Google Brain dan DeepMind - yang satu membuat Transformer, yang lain membuat AlphaGo, AlphaFold... Kedua departemen bergabung untuk membuat Gemini pada akhir tahun 2023 untuk mengukur ChatGPT. Saat ini, Gemini secara teratur menempati peringkat tiga teratas dalam peringkat model besar LMSYS Chatbot Arena. Terlihat penggabungan keduanya membuahkan hasil tertentu.



Jadi, kemana perginya Google DeepMind dari sini? Dalam percakapan baru-baru ini dengan Hannah Fry, profesor matematika perkotaan di Pusat Analisis Spasial Lanjutan di University College London, Demis Hassabis, CEO dan salah satu pendiri Google DeepMind, mengungkapkan Dia juga mengungkapkan pandangannya tentang beberapa rencana perusahaan dan beberapa isu terkini di bidang AI.



Alamat:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650930939&idx=2&sn=00d72f97f26fc7acc3b2a2fd39434048&chksm=84e43a85b393b3 93d7a9bd7caeafce2fcd71b6299e195df3e5a716cb840a401c85dc9efff669&token=899618486&lang=zh_CN#rd

Pandangan inti Hassabis adalah sebagai berikut:

  • Dalam jangka pendek, AI dilebih-lebihkan, namun dalam jangka panjang, AI diremehkan. Mengenai cara membedakan apa yang hype dan apa yang bisa dicapai di bidang AI, Hassabis mengatakan, selain melakukan penelitian, juga harus melihat latar belakang orang yang melontarkan pernyataan tersebut, seberapa luas pengetahuannya tentang teknologi, dan apakah mereka baru belajar di bidang lain tahun lalu. Arahnya ke AI. Jika orang yang berkomentar hanya mengikuti tren, kemungkinan dia mendapatkan ide bagus seperti undian lotere.
  • Penggabungan DeepMind dan Google Brain menghadirkan banyak peluang inovasi, dan tujuan mereka adalah menciptakan arsitektur berikutnya yang dapat mendorong keunggulan AI, seperti Google Brain yang menemukan arsitektur Transformer.
  • Tolok ukur akademis yang ada sudah jenuh dan tidak mampu membedakan perbedaan halus antara model-model top. Hassabis percaya bahwa bidang AI memerlukan tolok ukur yang lebih baik, terutama di bidang-bidang seperti pemahaman multi-modal, memori jangka panjang, dan kemampuan penalaran.
  • Banyak model saat ini berasal dari teknologi yang ditemukan lima atau enam tahun lalu. Jadi, model-model ini masih kekurangan banyak hal dan berhalusinasi, tidak pandai dalam perencanaan jangka panjang, dan tidak mampu menyelesaikan tugas-tugas kompleks secara proaktif. Menanggapi masalah ini, Google bermaksud mengembangkan sistem dengan perilaku agen yang lebih kuat dengan menggabungkan keahliannya dalam agen permainan dan model bahasa besar, seperti menggabungkan keunggulan AlphaGo dalam perencanaan dan pengambilan keputusan dengan model multimodal seperti Gemini.
  • Berbicara tentang open source, Hassabis mengatakan bahwa mereka memiliki banyak teknologi open source, seperti Transformer dan AlphaFold. Namun dia yakin bahwa model-model mutakhir perlu menjalani peninjauan lebih lanjut dan menjadi sumber terbuka satu hingga dua tahun setelah peluncurannya, sebuah model yang juga diikuti oleh Google. Google akan menggunakan model-model open source, namun mereka akan tertinggal sekitar satu tahun di belakang model-model tercanggih. Hassabis lebih lanjut mengatakan bahwa masalah utama dengan open source adalah seperti berjalan melalui pintu satu arah, sekali dirilis maka tidak dapat ditarik kembali. Jadi, Anda harus sangat berhati-hati sebelum open source.
  • AI dapat menghasilkan terobosan dalam permasalahan matematika yang kompleks, seperti membantu memecahkan dugaan matematika terkenal atau tampil baik di kompetisi matematika internasional. Namun, sistem AI saat ini belum mampu menghasilkan hipotesis matematis baru atau teori orisinal. Hassabis percaya bahwa ujian penting AGI adalah kemampuannya untuk secara mandiri menghasilkan hipotesis dan teori baru seperti relativitas umum.
  • Mengenai bagaimana memastikan bahwa AGI dapat bermanfaat bagi semua orang, Hassabis percaya bahwa tidak mungkin untuk memasukkan semua preferensi dalam satu sistem, namun arsitektur yang aman dapat dibangun, dan kemudian orang dapat menggunakannya sesuai dengan preferensi, tujuan penggunaan, dan tujuan penerapannya. Putuskan untuk apa sistem AI dapat dan tidak dapat digunakan.

Setelah menonton wawancara tersebut, seseorang berkomentar bahwa hal itu membuatnya merasa nyaman karena Hassabis terdengar lebih seperti seorang ilmuwan komputer daripada seorang salesman. Yang lain mengatakan bahwa mengakuisisi DeepMind dan membiarkannya berkembang secara bebas adalah keputusan kecerdasan buatan terbaik yang pernah dibuat Google, dan mereka berharap Google akan membiarkan mereka melanjutkan pekerjaan mereka sebisa mungkin tanpa gangguan.



Berikut isi wawancara yang dihimpun Machine Heart.

Perkembangan AI tidak terduga

Frye: Mengingat kembali, ketika kami mulai merencanakan podcast ini pada tahun 2017, DeepMind adalah laboratorium penelitian AI yang relatif kecil dan terfokus yang baru saja diakuisisi oleh Google dan diberi wewenang untuk melakukan penelitian uniknya sendiri dari jarak yang aman di London Project Freedom . Namun banyak hal telah berubah secara dramatis sejak saat itu. Sejak tahun lalu, Google telah menata ulang seluruh arsitekturnya, menempatkan tim AI dan DeepMind sebagai inti strateginya.

Google DeepMind terus berupaya memberikan AI kecerdasan tingkat manusia, yang disebut kecerdasan umum buatan (AGI). Perusahaan ini meluncurkan serangkaian model AI baru yang kuat yang disebut Gemini, serta agen AI bernama Project Astra yang dapat memproses audio, video, gambar, dan kode. Laboratorium ini juga membuat lompatan besar dalam penerapan AI di berbagai bidang ilmiah, termasuk prediksi struktur seluruh molekul dalam tubuh manusia, bukan hanya protein. Pada tahun 2021, mereka juga mendirikan perusahaan baru, Isomorphic Labs, yang didedikasikan untuk menemukan obat baru untuk mengobati penyakit. Google DeepMind juga meneliti agen AI canggih yang dapat belajar melakukan tugasnya sendiri melalui pembelajaran penguatan, dan melanjutkan legenda Alpha Go yang mengalahkan manusia dalam game Go.

Hari ini kami mengundang Demis Hassabis, salah satu pendiri dan CEO DeepMind.

Saya bertanya-tanya, apakah pekerjaan Anda menjadi lebih mudah atau lebih sulit sejak meningkatnya minat masyarakat terhadap AI?

Hassabis: Menurut saya ini adalah pedang bermata dua. Yang sulit adalah saat ini ada begitu banyak pengawasan, perhatian, dan banyak kebisingan di seluruh bidang. Saya lebih suka jika jumlah orangnya lebih sedikit dan kita bisa lebih fokus pada sains. Namun sisi baiknya, hal ini menunjukkan bahwa teknologi siap memberikan dampak pada dunia nyata dalam berbagai cara dan memberikan dampak positif pada kehidupan sehari-hari masyarakat, jadi menurut saya hal ini juga menarik.

Frye: Pernahkah Anda terkejut dengan betapa cepatnya imajinasi publik ditangkap? Saya rasa Anda mengira ini akan berakhir seperti ini, bukan?

Hassabis: Memang. Kita yang telah mempelajari bidang ini selama beberapa dekade pada akhirnya akan menyadari betapa pentingnya AI nantinya. Namun masih terasa sedikit tidak nyata melihat semuanya membuahkan hasil dan terjadi dengan cara ini. Menurut saya hal ini disebabkan oleh munculnya chatbot dan berkembangnya model bahasa, karena semua orang menggunakan bahasa dan semua orang dapat memahami bahasa tersebut, jadi ini adalah cara mudah bagi masyarakat untuk memahami dan mengukur tingkat perkembangan AI.

Frye: Saya dengar Anda mendeskripsikan chatbot ini sebagai "sangat efektif".

Hassabis: Maksud saya, jika Anda melihat ke belakang 5 hingga 10 tahun yang lalu, orang mungkin berpikir bahwa untuk mencapai pengembangan AI, Anda perlu membangun arsitektur yang menakjubkan dan mengembangkannya, tanpa harus menyelesaikan konsep abstrak seperti itu secara spesifik pertanyaan spesifik. Dalam banyak diskusi 5 hingga 10 tahun yang lalu, orang beranggapan bahwa diperlukan cara khusus untuk menangani konsep-konsep abstrak karena itulah cara kerja otak. Namun jika sistem AI diberi data yang cukup, seperti data dari seluruh Internet, mereka tampaknya dapat belajar dari data tersebut dan menggeneralisasi pola, tidak hanya dengan menghafal, namun benar-benar memahami sampai batas tertentu apa yang sedang mereka proses. isi. Ini semacam "luar biasa efektif" karena menurut saya tidak ada orang yang mengira 5 tahun yang lalu bahwa ini akan seefektif sekarang.

Frye: Jadi, itu kejutan...

Hassabis: Ya, kita sudah membicarakan konsep dan landasannya sebelumnya - menempatkan bahasa dalam pengalaman dunia nyata, mungkin dalam simulasi atau kecerdasan yang diwujudkan dalam robot. Tentu saja, sistem ini belum berada pada level tersebut, mereka membuat banyak kesalahan, mereka belum memiliki model dunia yang sebenarnya. TetapiHanya dengan belajar dari bahasa tersebut, mereka telah melangkah lebih jauh dari yang mereka harapkan

Frye: Saya rasa kita perlu menjelaskan konsep grounding.

Hassabis:Masalah Grounding adalah masalah yang ditemui dalam sistem AI klasik yang dibangun di tempat seperti MIT pada tahun 1980an dan 1990an. Anda dapat menganggap sistem ini sebagai database logis yang sangat besar, dengan kata-kata yang terhubung satu sama lain. Masalahnya adalah, Anda dapat mengatakan "anjing memiliki kaki" dan itu akan ada di database, tetapi ketika Anda menampilkan gambar seekor anjing kepada sistem, sistem tidak mengetahui bagaimana kumpulan piksel tersebut berhubungan dengan simbol tersebut. Itulah masalah mendasarnya - Anda memiliki representasi simbolis dan abstrak ini, tapi apa sebenarnya maknanya di dunia nyata, terutama di dunia nyata yang berantakan? Mereka mencoba memecahkan masalah tersebut tetapi tidak pernah berhasil.

Dan sistem saat ini, mereka belajar langsung dari data, jadi dalam artian mereka membentuk hubungan itu sejak awal, namun yang menarik adalah jika hanya belajar dari bahasa, secara teoritis sistem tersebut akan kehilangan banyak hal yang diperlukan. , namun hasilnya adalah banyak informasi dasar yang dapat disimpulkan.

Frye: Kenapa kamu berkata begitu?

Hassabis: Secara teoritis, karena model bahasa besar awal ini tidak ada di dunia nyata, mereka tidak terhubung ke simulator, tidak terhubung ke robot, bahkan awalnya bukan multimodal -- mereka tidak diekspos untuk penglihatan atau hal lainnya, mereka hanya ada dalam ruang bahasa. Jadi, mereka dipelajari dalam domain abstrak. Jadi mengejutkan bahwa mereka dapat menyimpulkan sesuatu tentang dunia nyata dari domain tersebut.

Frye: Masuk akal untuk mengatakan bahwa landasan diperoleh melalui interaksi manusia dengan sistem...

Hassabis:Sungguh. Jadi yang pasti jika mereka melakukan kesalahan saat menjawab pertanyaan tertentu, misalnya versi awal salah menjawab pertanyaan saat menghadapi gonggongan anjing di dunia nyata karena kurangnya grounding. Orang memperbaikinya melalui umpan balik. Sebagian dari umpan balik ini berasal dari pengetahuan kita tentang realitas. Jadi begitulah cara beberapa landasan masuk.

Frye: Saya ingat melihat contoh nyata perbedaan antara "menyeberangi Selat Inggris" dan "berjalan melintasi Selat Inggris".

Hassabis: Contoh ini berhasil. Jika jawabannya salah, Anda bilang itu salah, lalu ia harus mencari tahu -- Anda tidak bisa berjalan melintasi Selat Inggris.

Apakah AI terlalu berlebihan atau kurang?

Frye: Saya akan bertanya sedikit tentang hype tersebut, apakah menurut Anda, saat ini, apakah AI overhyped atau underhyped atau hanya diarahkan ke arah yang salah?

Hassabis: Di satu sisi, dalam jangka pendek, AI terlalu berlebihan. Orang-orang mengklaim bahwa mereka dapat melakukan banyak hal, namun kenyataannya tidak, dan ada banyak startup dan VC yang mengejar ide-ide gila namun belum cukup matang.

Di sisi lain, menurut saya AI masih diremehkan. Mungkin masyarakat belum sepenuhnya memahami apa yang terjadi jika kita mencapai AGI dan betapa besar tanggung jawabnya.

Frye: Anda sudah berkecimpung di bidang ini selama beberapa dekade, dan mudah untuk melihat tujuan realistis apa yang dikejar oleh para startup dan VC ini dan apa yang tidak. Tapi bagaimana orang lain bisa membedakannya?

Hassabis: Tentunya Anda harus melakukan uji tuntas teknis dan memahami teknologi dan tren terkini.Pada saat yang sama, Anda juga harus melihat latar belakang orang yang memberikan komentar tersebut. Seberapa luas pengetahuan mereka tentang teknologi? Apakah mereka beralih ke AI dari arah lain tahun lalu? Apakah mereka melakukan cryptocurrency tahun lalu? Ini mungkin merupakan petunjuk bahwa mereka mungkin akan ikut-ikutan, namun hal ini tidak berarti mereka akan mempunyai ide-ide hebat, dan bahkan jika mereka melakukannya, kemungkinan besar itu akan menjadi sebuah lotere.

Saya pikir ini selalu terjadi ketika suatu bidang tiba-tiba mendapat banyak perhatian, lalu pendanaan datang dan semua orang merasa tidak boleh melewatkannya.

Hal ini menciptakan lingkungan yang, bisa kita katakan, oportunistik, yang sedikit bertentangan dengan mereka yang telah bekerja di bidang deep tech, deep science selama beberapa dekade, yang menurut saya adalah cara yang harus terus kita pertahankan saat kita mendekati AGI.

Gemini: proyek mercusuar pertama setelah penggabungan Google Brain dan DeepMind

Frye: Mari kita bicara tentang Gemini selanjutnya. Dalam hal apa Gemini berbeda dari model bahasa besar lainnya yang dirilis oleh laboratorium lain?

Hassabis: Sejak awal kami ingin Gemini mampu menangani banyak modalitas, sehingga tidak hanya dapat menangani bahasa, tetapi juga berbagai modalitas seperti audio, video, gambar, kode, dll. Alasan mengapa kami ingin melakukan hal ini, pertama-tama, adalah karena menurut saya ini adalah cara bagi sistem untuk benar-benar memahami dunia di sekitar mereka dan membangun model dunia yang lebih baik, yang kembali ke permasalahan mendasar sebelumnya.

Kami juga memiliki visi untuk memiliki asisten universal. Kami membuat prototipe bernama Astra yang tidak hanya memahami apa yang Anda ketik, namun benar-benar memahami lingkungan tempat Anda berada. Asisten cerdas seperti itu akan lebih bermanfaat. Jadi kami membangun multimodalitas sejak awal. Ini adalah hal lain yang hanya dilakukan oleh model kami pada saat itu, dan sekarang model lain pun menyusul.

Inovasi besar kami yang lain dalam hal memori, seperti konteks panjang, sebenarnya dapat mengingat sekitar satu juta atau dua juta token. Jadi Anda dapat memberikannya Perang dan Damai atau keseluruhan filmnya dan memintanya menjawab pertanyaan atau menemukan sesuatu di aliran video.

Frye: Di Google I/O, Anda menggunakan contoh bagaimana Astra membantu Anda mengingat di mana Anda meletakkan kacamata, bukan? Tapi saya bertanya-tanya apakah ini hanya versi lanjutan dari Google Glasses lama itu.

Hassabis: Tentu saja, Google memiliki sejarah panjang dalam mengembangkan perangkat Glass, dimulai sekitar tahun 2012, yang jauh lebih maju dari masanya. Namun mereka mungkin tidak memiliki teknologi yang memungkinkan agen atau asisten cerdas untuk benar-benar memahami apa yang Anda katakan. Jadi, kami sangat gembira dengan asisten digital yang dapat menemani Anda setiap saat dan memahami dunia di sekitar Anda. Saat Anda menggunakannya, ini benar-benar tampak seperti kasus penggunaan yang wajar.

Frye: Selanjutnya saya ingin kembali sedikit tentang asal muasal Gemini, karena ia berasal dari dua departemen penelitian berbeda di Google.

Hassabis: Ya, tahun lalu kami menggabungkan dua departemen penelitian Alphabet, mengintegrasikan Google Brain dan DeepMind ke dalam Google DeepMind. Kami menyebutnya super unit, yang menyatukan talenta-talenta terbaik dari seluruh perusahaan ke dalam satu departemen. Artinya kami memadukan ilmu terbaik yang diperoleh dari seluruh penelitian, khususnya model bahasa.

Oleh karena itu, kami meluncurkan model seperti Chinchilla dan Gopher, serta membuat PaLM, LaMDA, dan model awal lainnya. Masing-masing model ini memiliki kelebihan dan kekurangannya masing-masing, jadi kami mengintegrasikannya ke dalam Gemini dan menjadi Proyek Lighthouse pertama yang diluncurkan setelah penggabungan departemen. Kemudian hal penting lainnya adalah menyatukan semua sumber daya komputasi sehingga Anda dapat melakukan pelatihan yang sangat besar. Menurut saya ini bagus.

Frye: Dalam banyak hal, Google Brain dan DeepMind memiliki fokus yang sedikit berbeda. Bisakah saya mengatakan ini?

Hassabis: Berbagai divisi Google jelas berfokus pada kecerdasan buatan yang mutakhir, dan sudah ada banyak kolaborasi di tingkat penelitian individu, namun berbeda di tingkat strategis. Dengan penggabungan Google DeepMind, saya suka menggambarkannya sebagai Ruang Mesin Google, ini berjalan dengan sangat baik. Saya rasa terdapat lebih banyak persamaan dibandingkan perbedaan dalam cara kami bekerja, dan kami akan terus mempertahankan dan memperkuat kekuatan kami di berbagai bidang seperti penelitian dasar.

Misalnya,Dari manakah arsitektur Transformer selanjutnya berasal?Kami ingin menciptakannya. Peneliti Google Brain menemukan arsitektur Transformer yang sekarang populer. Kami menggabungkan arsitektur ini dengan pembelajaran penguatan mendalam, yang kami rintis. Saya pikir masih diperlukan lebih banyak inovasi. Saya mendukung hal ini, seperti yang dilakukan tim Google Brain dan DeepMind selama 10 tahun terakhir. Ini menarik.

Arah masa depan: Menggabungkan AlphaGo dengan Gemini

Frye: Saya ingin berbicara tentang Gemini, bagaimana kinerjanya? Bagaimana cara membandingkannya dengan model lain?

Hassabis: Pertanyaan ini melibatkan tolok ukur,Saya pikir seluruh bidang memerlukan tolok ukur yang lebih baik. Ada beberapa tolok ukur akademis yang terkenal di luar sana, tetapi tolok ukur tersebut sekarang sudah jenuh dan tidak terlalu membedakan perbedaan antara model-model top yang berbeda.

Menurut pendapat saya,Saat ini ada tiga jenis model teratas dan mutakhir, Gemini kami, GPT OpenAI, dan Claude Anthropic.. Selain itu, ada banyak model yang berkinerja baik, seperti seri Llama dan model seri Mistral yang diluncurkan oleh Meta, Mistral, dll. Mereka pandai dalam berbagai tugas. Itu tergantung pada jenis tugas yang ingin Anda lakukan, pilih Claude untuk pengkodean, GPT untuk penalaran, dan Gemini untuk memori, konteks panjang, dan pemahaman multi-modal.

Tentu saja, perusahaan akan terus menyempurnakan modelnya. Gemini, misalnya, hanyalah model yang usianya kurang dari satu tahun. Saya pikir kita berada dalam jalur yang sangat baik dan mudah-mudahan pada saat kita berbicara lagi, Gemini akan menjadi yang terdepan.

Frye: Ya, perjalanan model besar masih panjang. Apakah ini juga berarti bahwa model tersebut tidak terlalu bagus dalam beberapa aspek.

Hassabis:tentu. Faktanya, ini adalah perdebatan terbesar saat ini. Banyak model saat ini berasal dari teknologi yang ditemukan lima atau enam tahun lalu. Jadi, model-model ini masih kekurangan banyak hal, berhalusinasi dan buruk dalam perencanaan.

Frye: Apa rencananya?

Hassabis: Misalnya, dalam beberapa perencanaan jangka panjang, model tersebut tidak dapat menyelesaikan masalah dalam jangka panjang. Anda memberinya tujuan dan mereka tidak dapat mengambil tindakan untuk Anda. Jadi,Modelnya sangat mirip dengan sistem penjawab pertanyaan pasif. Anda mengajukan pertanyaan dan mereka memberi Anda semacam respons, namun mereka tidak memecahkan masalah Anda. Misalnya, Anda menginginkan asisten digital untuk membantu Anda memesan seluruh liburan Anda di Italia, serta memesan semua restoran, museum, dan banyak lagi. Sayangnya, ia tidak dapat melakukan hal-hal ini.

Saya pikir ini adalah topik untuk era penelitian berikutnya, yang kami sebut (lebih luas lagi) sistem berbasis agen atau sistem cerdas yang memiliki perilaku seperti agen. Tentu saja, inilah kelebihan Google. Google telah membangun agen game AlphaGo dan agen lainnya di masa lalu. Jadi,Banyak dari apa yang kami lakukan adalah menggabungkan proyek-proyek terkenal dengan model multi-modal berskala besar baru dan menjadi sistem generasi berikutnya, seperti kombinasi AlphaGo dan Gemini.

Frye: Menurut saya AlphaGo sangat baik dalam perencanaan.

Hassabis: Ya, AlphaGo sangat pandai dalam membuat perencanaan. Tentu saja hanya di ranah gaming saja. Oleh karena itu, kita perlu menggeneralisasikannya ke bidang umum seperti pekerjaan sehari-hari dan bahasa.

Frye: Anda baru saja menyebutkan bahwa Google DeepMind kini telah menjadi ruang mesin Google. Itu perubahan yang cukup besar. Jadi, apakah Google bertaruh besar pada AI?

Hassabis: Saya kira demikian. Saya rasa Google selalu memahami pentingnya AI. Ketika Sundar mengambil alih jabatan CEO, dia mengatakan Google adalah perusahaan yang mengutamakan AI. Kami membahas masalah ini sejak awal masa jabatannya, dan dia yakin bahwa AI berpotensi menjadi perubahan paradigma besar berikutnya setelah Internet seluler dan memiliki potensi lebih besar dibandingkan sebelumnya.

Mungkin dalam satu atau dua tahun terakhir, kita sudah benar-benar mulai merasakan maksudnya, tidak hanya dari sudut pandang penelitian, tapi juga dari segi produk dan aspek lainnya. Ini sangat menarik, jadi menurut saya adalah hal yang tepat bagi kita untuk menyatukan semua talenta dan melakukan yang terbaik untuk mendorong kemajuan AI.

Frye: Kami tahu bahwa Google DeepMind menangani penelitian dan sains dengan sangat serius. Namun karena ia menjadi ruang mesin Google, apakah itu berarti ia harus lebih mementingkan kepentingan komersial dan bukan lagi hal-hal yang paling murni?

Hassabis: Ya, kami pasti lebih mementingkan kepentingan komersial dalam kerangka acuan. Namun sebenarnya ada beberapa hal yang ingin saya sampaikan. Pertama, kami akan melanjutkan karya ilmiah kami tentang AlphaFold, yang kami rilis AlphaFold 3 beberapa bulan lalu. Kami juga menggandakan investasi kami dalam hal ini. Menurut saya ini adalah pekerjaan unik yang dilakukan Google DeepMind.

Anda tahu, bahkan pesaing kita berpikir ini akan menjadi produk AI secara umum. Kami membentuk perusahaan baru, Isomorphic Labs, untuk melakukan pengembangan obat. Semuanya sangat menarik dan semuanya berjalan dengan sangat baik. Jadi kami akan terus melakukan itu. Pada saat yang sama, kami juga telah melakukan banyak pekerjaan dalam prediksi iklim dan aspek lainnya.

Kami memiliki tim yang besar sehingga kami dapat melakukan banyak pekerjaan sekaligus. Kami sedang membangun model skala besar Gemini dkk. Kami sedang membangun tim produk untuk menghadirkan semua teknologi luar biasa ini ke seluruh area tempat Google berada. Jadi, ini merupakan keuntungan bagi kami karena dapat menyambungkan semua teknologi kami kapan saja. Sungguh menginspirasi bahwa kami dapat menciptakan sesuatu yang dapat segera digunakan oleh satu miliar orang.

Hal lainnya adalah,Kita sekarang membutuhkan tingkat integrasi yang lebih besar antara teknologi AI yang dikembangkan untuk produk dan pekerjaan yang dilakukan untuk tujuan penelitian AGI murni.. Lima tahun lalu, Anda harus membuat AI khusus untuk suatu produk. Sekarang Anda dapat memisahkan penelitian utama, dan tentu saja Anda masih perlu melakukan beberapa pekerjaan khusus produk, tapi itu mungkin hanya 10% dari seluruh pekerjaan.

Karena itu,Faktanya, tidak ada lagi kontradiksi antara pengembangan produk AI dan pembangunan AGI. Menurut saya 90% adalah rencana penelitian yang sama. Jadi, jika Anda meluncurkan produk dan memperkenalkannya ke seluruh dunia, Anda akan belajar banyak dari produk tersebut. Orang-orang juga menggunakannya, sehingga Anda belajar banyak tentang, misalnya, metrik internal Anda tidak sesuai dengan apa yang dikatakan orang, dan kemudian Anda dapat membuat pembaruan. Ini sangat membantu penelitian Anda.

Cara menguji teknologi GenAI

Frye: Saya bertanya-tanya apakah ada ketegangan antara terobosan penerapan AI pada sains dan waktu yang tepat untuk merilis hal-hal ini ke publik. Dalam Google DeepMind, alat seperti model bahasa besar digunakan untuk penelitian dan bukan dipandang sebagai produk komersial potensial.

Hassabis: Kami telah mengambil tanggung jawab dan keselamatan dengan sangat serius sejak awal. Bahkan sebelum tahun 2010, Google memasukkan beberapa etika dasar ke dalam pedoman AI-nya. Kami telah selaras di seluruh Google dan ingin menerapkannya secara bertanggung jawab sebagai salah satu pemimpin di bidang ini.

Jadi menarik sekarang untuk mulai meluncurkan produk nyata dengan kemampuan GenAI. Sebenarnya ada banyak hal yang harus dipelajari, dan kami belajar dengan cepat, dan itu bagus. Risiko kita relatif rendah dengan teknologi yang ada saat ini, yang belum sekuat itu. Namun seiring dengan semakin canggihnya teknologi, kita harus lebih berhati-hati.

Tim produk dan tim lainnya sedang mempelajari cara menguji teknologi GenAI. Teknik-teknik ini berbeda dari teknik biasa karena tidak selalu menghasilkan hal yang sama. Ini hampir seperti menguji permainan dunia terbuka, hal-hal yang dapat Anda coba lakukan dengannya hampir tidak terbatas. Jadi menarik untuk mengetahui cara membuat tim merah.

Frye: Jadi, tes tim merah di sini apakah kalian saling bersaing?

Hassabis:Ya. Pengujian tim merah adalah saat Anda menarik tim khusus dari tim teknis pengembangan untuk menguji teknologi dan mencoba memecahkannya dengan cara apa pun yang memungkinkan. Anda sebenarnya perlu menggunakan alat untuk mengotomatiskan pengujian, dan meskipun ada ribuan orang yang melakukannya, itu tidak cukup dibandingkan dengan miliaran pengguna.

Selain itu, menurut saya kami harus melakukannya secara bertahap, termasuk fase eksperimental, fase beta tertutup, dan kemudian rilis ulang, seperti yang telah kami lakukan dengan game di masa lalu. Jadi, Anda mempelajari setiap langkahnya. Saya pikir yang perlu kita lakukan lebih banyak adalah menggunakan AI itu sendiri untuk membantu kami melakukan pengujian tim merah secara internal dan secara otomatis menemukan beberapa bug atau melakukan penyaringan tiga kali lipat. Dengan cara ini pengembang dan penguji kami dapat benar-benar fokus pada situasi sulit tersebut.

Frye: Ada sesuatu yang sangat menarik di sini, Anda berada dalam ruang dengan probabilitas lebih tinggi. Jadi, meskipun peluang terjadinya sesuatu kecil, jika Anda cukup mencobanya, pada akhirnya akan gagal. Saya pikir ada beberapa kesalahan publik.

Hassabis: Seperti yang saya sebutkan, menurut saya tim produk terbiasa melakukan segala jenis pengujian. Mereka tahu mereka telah menguji hal ini, tapi ini acak dan probabilistik. Faktanya, dalam banyak kasus, jika itu hanya perangkat lunak biasa, Anda dapat mengatakan bahwa Anda telah menguji 99,999% perangkat lunak tersebut. Kemudian simpulkan bahwa ini sudah cukup.

Namun tidak demikian halnya dengan sistem generatif. Mereka dapat melakukan segala macam hal yang sedikit di luar norma, sedikit di luar apa yang pernah Anda lihat sebelumnya. Jika ada orang pintar atau musuh yang memutuskan untuk menguji sistem ini dengan cara tertentu, seperti yang dilakukan peretas.

Sistem ini mungkin ada dalam kombinasi yang mencakup semua yang telah Anda katakan sebelumnya. Kemudian berada dalam keadaan khusus, atau memori diisi dengan hal-hal khusus, dan itulah mengapa mereka perlu mengeluarkan sesuatu. Ini rumit di sini, dan tidak terbatas. Jadi ada cara untuk mengatasi masalah ini, tetapi ada banyak perbedaan dalam meluncurkan teknologi normal.

Frye: Saya ingat Anda berkata, Saya rasa ini adalah pertama kalinya saya mewawancarai Anda, Anda menyebutkan bahwa sebenarnya kita harus menyadari bahwa ini adalah cara komputasi yang sangat berbeda. Anda harus menjauh dari hal-hal deterministik yang kita pahami sepenuhnya dan beralih ke sesuatu yang lebih berantakan, seperti probabilistik. Apakah menurut Anda masyarakat juga perlu sedikit mengubah cara pandang mereka terhadap jenis komputasi?

Hassabis: Ya, saya setuju. Mungkin itu hal lain yang perlu kita pikirkan, menariknya,Sebelum Anda merilis suatu sistem, Anda sebenarnya bisa merilis dokumen prinsip atau semacamnya, untuk mendemonstrasikan dengan jelas tujuan penggunaan sistem ini, apa yang dirancang untuk dilakukan? Untuk apa ini digunakan? Apa yang tidak bisa dilakukannya? Menurut saya, diperlukan semacam kesadaran di sini, seperti, jika Anda menggunakannya dengan cara ini, Anda akan merasakan manfaatnya, namun jangan mencoba melakukan hal lain dengannya karena hal itu tidak akan berhasil.

Saya rasa ini adalah sesuatu yang perlu kami lakukan di beberapa area, dan pengguna mungkin memerlukan pengalaman di area ini juga. Ini sebenarnya cukup menarik, mungkin itulah sebabnya chatbots itu sendiri agak mengejutkan, bahkan bagi OpenAI, termasuk ChatGPT. Kami juga memiliki chatbot sendiri, dan kami memperhatikan bahwa robot ini masih memiliki kekurangan, seperti halusinasi dan masalah lainnya.

Namun yang tidak kami sadari adalah meskipun ada kekurangan ini, sebenarnya ada banyak kasus penggunaan chatbot yang bagus. Saat ini orang menemukan beberapa kegunaan yang sangat berharga, seperti meringkas file dan dokumen panjang, menulis email, mengisi formulir, dll. Karena beragamnya skenario penggunaan, meskipun ada beberapa kesalahan kecil, manusia sebenarnya tidak keberatan. Manusia dapat dengan mudah memperbaiki kesalahan tersebut dan menghemat banyak waktu. Saya rasa itulah hal mengejutkan yang ditemukan orang, ketika digunakan, orang menemukan kasus penggunaan yang berharga ini, meskipun sistem ini memiliki kelemahan dalam segala hal yang kita ketahui.

Tentang Open Source: Setelah diterbitkan, tidak dapat ditarik kembali

Frye: Itu membawa saya ke pertanyaan berikutnya yang ingin saya tanyakan, yaitu tentang open source. Seperti yang Anda sebutkan, ketika segala sesuatunya ada di tangan orang, hal-hal yang sungguh luar biasa terjadi. Saya memahami bahwa DeepMind telah melakukan banyak proyek open source di masa lalu, tetapi hal ini tampaknya telah berubah seiring berjalannya waktu.

Hassabis: Ya, kami sangat mendukung open source dan open science. Seperti yang Anda ketahui, kami mempublikasikan hampir semua yang kami lakukan, seperti Transformer, dan penelitian tentang AlphaGo dan AlphaFold dipublikasikan di Nature dan jurnal lainnya, dan AlphaFold juga merupakan sumber terbuka. Dengan berbagi informasi, teknologi dan ilmu pengetahuan dapat maju pesat. Jadi kami hampir selalu melakukannya, dan menurut kami ini adalah hal yang sangat bermanfaat untuk dilakukan, dan itulah cara sains bekerja.

Satu-satunya pengecualian adalah AI, AGI, dan AI yang kuat memiliki kedua sisi. Pertanyaannya adalah siapa yang menggunakannya, para ilmuwan dan teknolog yang benar-benar bertindak dengan niat baik dan dapat memberikan saran yang konstruktif dan kritis, yang merupakan cara tercepat bagi masyarakat untuk maju. Namun pertanyaannya adalah, bagaimana Anda juga membatasi akses kepada orang-orang dengan niat buruk yang mungkin menggunakan sistem yang sama untuk tujuan yang buruk, menyalahgunakannya, seperti sistem senjata, tapi kita tidak bisa memprediksinya sebelumnya. Terlebih lagi, sistem universal itu sendiri dapat digunakan kembali dengan cara ini. Kita masih bisa mempertahankannya saat ini karena menurut saya sistemnya belum sekuat itu.

Selama dua hingga empat tahun ke depan, terutama ketika kita mulai mengembangkan sistem dengan perilaku agen, jika sistem ini disalahgunakan oleh seseorang, kerugian serius dapat terjadi. Meskipun kami tidak memiliki solusi konkrit, sebagai komunitas kami perlu memikirkan dampaknya bagi open source.

Mungkin model-model mutakhir perlu melalui tinjauan lebih lanjut sebelum menjadi open source satu atau dua tahun setelah rilis. Model inilah yang kami ikuti karena kami memiliki model open source sendiri yang disebut Gemma. Model ini lebih kecil dan tidak mutakhir, sehingga fitur-fiturnya masih sangat berguna bagi pengembang dan mudah dijalankan di laptop dengan parameter lebih sedikit. Fungsi-fungsi ini sekarang telah dipahami dengan baik. Namun performa model tersebut tidak sebaik model mutakhir terkini, seperti Gemini 1.5. Pendekatan terakhir yang mungkin kita ambil adalah,Kita akan memiliki model-model open source, namun model-model tersebut tertinggal sekitar satu tahun dari model-model tercanggih, sehingga kami benar-benar dapat mengevaluasi penggunaan model ini oleh pengguna di depan umum dan memahami kemampuan model mutakhir.

Masalah utama dengan open source adalah setelah dirilis, ia tidak dapat ditarik kembali. Tidak seperti model berpemilik, pengembang tidak bisa begitu saja menutup model open source jika digunakan secara tidak tepat.Setelah menjadi open source, ini seperti berjalan melalui pintu satu arah, jadi Anda harus sangat berhati-hati sebelum menjadi open source.

Frye: Mungkinkah membatasi kecerdasan umum buatan (AGI) hanya sebatas parit dalam suatu organisasi?

Hassabis: Ini masih merupakan pertanyaan yang belum terpecahkan. Kami belum tahu bagaimana cara melakukannya, karena itu adalah sesuatu yang perlu kami pikirkan ketika kita mulai berbicara tentang AI tingkat tinggi yang mirip manusia.

Frye: Bagaimana dengan lapisan tengahnya?

Hassabis: Di tingkat menengah, kami memiliki beberapa ide yang lebih baik untuk mengatasi masalah ini. Misalnya, dapat diuji melalui lingkungan sandbox yang aman. Ini berarti menguji perilaku agen di lingkungan game atau versi internet yang terhubung sebagian. Sudah banyak pekerjaan keamanan yang dilakukan di bidang ini, serta di bidang lain seperti fintech. Kami mungkin mengambil ide-ide tersebut dan membangun sistem yang sesuai, yang merupakan cara kami menguji sistem prototipe awal. Namun kita juga tahu bahwa langkah-langkah ini mungkin tidak cukup untuk membatasi AGI, sebuah sistem yang mungkin lebih pintar dari kita. Oleh karena itu, kita perlu lebih memahami sistem ini untuk merancang protokol untuk AGI. Pada saat itu, kita akan memiliki cara yang lebih baik untuk mengendalikannya dan mungkin memanfaatkan sistem dan alat AI untuk memantau sistem AI generasi berikutnya.

Bagaimana mengatur AI

Frye: Mengenai topik keamanan, banyak orang tampaknya berpikir bahwa kata regulasi menyelesaikan semua masalah. Menurut Anda bagaimana peraturan harus disusun?

Hassabis: Pemerintah sedang mempercepat pemahaman dan keterlibatannya dalam teknologi AI, dan ini merupakan fenomena positif.Saya pikir kerja sama internasional diperlukan, terutama di bidang regulasi, langkah-langkah keamanan dan spesifikasi penempatan

Saat kita mendekati AGI, kita perlu menyadari bahwa karena teknologi berkembang pesat,Pendekatan regulasi kita juga harus fleksibel dan cepat beradaptasi dengan perkembangan teknologi terkini. Jika Anda mengatur AI lima tahun lalu, Anda akan mengatur sesuatu yang sangat berbeda. Apa yang kita lihat saat ini adalah AI generatif, namun lima tahun dari sekarang mungkin akan berbeda.

Saat ini, sistem berbasis agen mungkin menimbulkan risiko tertinggi. Oleh karena itu, saya merekomendasikan untuk memperkuat peraturan yang ada di bidang yang sudah diatur (seperti kesehatan, transportasi, dll.) untuk menyesuaikannya dengan era AI, seperti peraturan yang sebelumnya diperbarui untuk seluler dan Internet.

Hal pertama yang akan saya lakukan adalah tetap fokus dan memastikan kami memahami dan menguji sistem mutakhir. Ketika situasi menjadi lebih jelas dan peraturan perlu mulai dikembangkan untuk mengatasi situasi ini, mungkin akan lebih masuk akal untuk melakukan hal tersebut dalam waktu beberapa tahun ke depan. Apa yang kita lewatkan saat ini adalah penentuan tolok ukur (benchmarking), pengujian kompetensi yang tepat, termasuk, seperti yang ingin diketahui oleh industri, pada titik mana kemampuan kita dapat menimbulkan risiko yang signifikan. Saat ini belum ada jawaban untuk pertanyaan ini, dan kemampuan berbasis agen yang baru saja saya sebutkan mungkin merupakan ambang batas berikutnya, namun saat ini belum ada metode pengujian yang diterima.

Salah satu pengujian yang mungkin dilakukan adalah mendeteksi apakah sistem memiliki kemampuan menipu. Jika ada penipuan dalam sistem, maka tidak ada laporan lain yang dapat dipercaya. Karena itu,Menguji penipuan harus menjadi prioritas utama untuk kemampuan yang muncul. Selain itu, masih banyak kemampuan lain yang patut diuji, seperti kemampuan mencapai tujuan tertentu, kemampuan replikasi, dll., dan banyak pekerjaan terkait yang sedang dilakukan. Saya pikir pada dasarnya di sinilah lembaga-lembaga pemerintah ikut berperan. Saya pikir akan sangat bagus jika mereka berusaha keras dalam hal ini, dan tentu saja laboratorium harus menyumbangkan apa yang mereka ketahui.

Frye: Di manakah posisi institusi dalam dunia yang Anda gambarkan? Bahkan jika kita sudah mencapai tahap di mana kita memiliki AGI yang mampu mendukung semua penelitian ilmiah, apakah institusi masih akan mendapat tempat?

Hassabis: Saya kira demikian. Untuk mencapai AGI, saya kira ini merupakan kolaborasi antara komunitas, akademisi, pemerintah, dan laboratorium industri. Saya benar-benar yakin inilah satu-satunya cara kita bisa mencapai tahap akhir ini.

Standar pengujian Kazakhstan untuk AGI

Hassabis: Jika Anda bertanya apa yang terjadi setelah AGI, salah satu alasan saya selalu ingin membangun AGI adalah agar kita dapat menggunakannya untuk mulai menjawab beberapa pertanyaan terbesar dan paling mendasar tentang alam, realitas, fisika, dan kesadaran. . Tergantung pada bentuknya, hal ini dapat berupa kombinasi pakar manusia dan AI. Saya pikir hal ini akan terus terjadi untuk sementara waktu dalam rangka menjajaki batas berikutnya.

Saat ini sistem ini tidak dapat menghasilkan dugaan atau hipotesis sendiri. Saat ini, mereka dapat membantu Anda membuktikan permasalahan tertentu, memenangkan medali emas di Olimpiade Matematika Internasional, dan bahkan mungkin memecahkan dugaan matematika terkenal, namun mereka belum mampu merumuskan hipotesis seperti hipotesis Riemann atau relativitas umum.Ini telah menjadi standar pengujian saya untuk kecerdasan buatan umum yang sebenarnya- Ia akan mampu melakukan ini dan bahkan menciptakan teori-teori baru. Kita belum mempunyai sistem apa pun, dan kita mungkin bahkan tidak tahu cara merancang sistem secara teori untuk melakukan hal ini.

Frye: Ilmuwan komputer Stuart Russell mengungkapkan kekhawatirannya kepada saya bahwa begitu kita mencapai tahap perkembangan AGI, kita semua mungkin akan menikmati kehidupan mewah yang tak terkendali tanpa tujuan hidup apa pun. Meskipun kehidupan seperti ini penuh dengan kenyamanan materi, namun kurang memiliki makna dan tujuan yang dalam.

Hassabis: Ini memang pertanyaan yang menarik. Ini mungkin di luar AGI dan lebih mirip apa yang kadang-kadang disebut ASI. Pada saat itu kita sudah mempunyai sumber daya yang sangat besar, dan dengan asumsi kita dapat memastikan distribusi sumber daya yang adil dan merata, kita akan berada dalam posisi di mana kita dapat dengan bebas memilih bagaimana bertindak, dan “makna” akan menjadi pertanyaan filosofis yang besar. Saya rasa kita memerlukan para filsuf, bahkan mungkin teolog, dan ilmuwan sosial untuk mulai memikirkan hal ini sekarang. Apa yang membawa makna? Saya masih menganggap aktualisasi diri itu penting dan menurut saya kita semua tidak akan begitu saja membenamkan diri dalam meditasi, mungkin kita akan bermain game komputer. Namun meski begitu, apakah ini benar-benar buruk? Ini adalah pertanyaan yang perlu ditelusuri.

Meskipun AGI akan membawa perubahan besar, seperti menyembuhkan banyak atau semua penyakit dan menyelesaikan permasalahan energi dan iklim, AGI juga dapat membuat kita menghadapi pertanyaan yang lebih dalam: Apa makna hidup? Sama seperti orang yang mendaki Gunung Everest atau berpartisipasi dalam olahraga ekstrem, aktivitas ini mungkin tampak tidak ada artinya di permukaan, namun sebenarnya aktivitas tersebut adalah upaya manusia untuk menantang diri mereka sendiri. Dengan berkembangnya AGI, kita mungkin memiliki segalanya pada tingkat materi, namun seiring dengan itu muncullah pemikiran ulang tentang makna hidup. Masalah ini dianggap remeh baik pada tahap awal maupun akhir perkembangan teknologi, dan kita perlu mengevaluasi kembali apa yang disebut hype dan dampak nyatanya terhadap masa depan kita.

Frye: Mari kita kembali ke pertanyaan tentang AGI. Saya tahu misi besar Anda adalah membangun AI yang bermanfaat bagi semua orang. Namun bagaimana Anda memastikan hal ini benar-benar bermanfaat bagi semua orang? Bagaimana cara memperhitungkan preferensi semua orang dan bukan hanya para desainer?

Hassabis: Menurut saya, tidak mungkin memasukkan semua preferensi dalam satu sistem karena orang tidak bisa sepakat dalam banyak hal. Saya pikir kita mungkin memiliki arsitektur yang aman di mana kecerdasan buatan yang dipersonalisasi dapat dibangun, dan kemudian orang-orang memutuskan untuk apa sistem AI dapat dan tidak dapat digunakan berdasarkan preferensi, tujuan penggunaan, dan tujuan penerapan mereka sendiri. Secara umum, arsitektur perlu menjamin keamanan, dan kemudian orang dapat membuat beberapa variasi dan peningkatan berdasarkan arsitektur tersebut.

Jadi menurut saya seiring dengan semakin dekatnya kita dengan AGI, kita mungkin harus berkolaborasi secara lebih ideal secara internasional dan kemudian memastikan bahwa kita membangun AGI dalam lingkungan yang aman.

Setelah kami menyelesaikan tugas ini, setiap orang dapat memiliki API saku yang dipersonalisasi jika mereka mau.

Goreng: Oke. Namun yang saya maksud adalah AI dapat menunjukkan perilaku buruk.

Hassabis: Ya, perilaku buruk yang muncul, kemampuan. Penipuan adalah salah satu contohnya. Kita harus lebih memahami semua masalah ini.

Ada dua hal yang perlu dikhawatirkan: manusia mungkin menyalahgunakan AI, dan AI itu sendiri (saat mendekati AGI, kinerjanya akan menurun). Menurut saya kedua masalah ini memerlukan solusi yang berbeda. Ya, inilah yang harus kita hadapi seiring semakin dekatnya kita membangun AGI.

Kembali ke poin Anda tentang memberi manfaat bagi semua orang, dengan menggunakan AlphaFold sebagai contoh, menurut saya kita dapat menyembuhkan sebagian besar penyakit dalam satu atau dua tahun ke depan jika desain obat AI berhasil. Obat-obatan tersebut kemudian dapat diubah menjadi obat-obatan yang dipersonalisasi untuk meminimalkan efek samping bagi individu, antara lain terkait dengan penyakit individu dan metabolisme individu. Jadi ini hal yang luar biasa lho, energi bersih, energi terbarukan, teknologi akan membawa manfaat yang besar, tetapi kita juga harus memitigasi risikonya.

Frye: Anda mengatakan bahwa salah satu cara Anda ingin mengurangi risiko adalah suatu hari nanti Anda akan membuat versi ilmiah dari "Avengers Assemble"?

Hassabis:tentu.

Frye: Jadi, bagaimana kamu tahu kapan waktunya tepat?

Hassabis: Nah, ini pertanyaan besar. Anda tidak dapat melakukannya terlalu dini karena Anda tidak akan pernah mendapatkan dukungan dari beberapa penentang. Saat ini, Anda melihat beberapa orang terkenal mengatakan bahwa AI bebas risiko. Dan kemudian orang-orang seperti Geoffrey Hinton mengatakan bahwa ada banyak risiko.

Frye: Saya ingin berbicara lebih banyak dengan Anda tentang ilmu saraf. Seberapa besar hal itu masih menginspirasi apa yang Anda lakukan? Karena saya perhatikan beberapa hari yang lalu DeepMind meluncurkan mouse virtual dengan otak buatan, yang membantu mengubah pemahaman kita tentang bagaimana otak mengontrol gerakan. Saya ingat kita banyak berbicara tentang mengambil inspirasi langsung dari sistem biologis, apakah ini masih menjadi inti pendekatan Anda?

Hassabis: Tidak, ini telah berkembang sekarang dan saya pikir kita telah memasuki tahap rekayasa, seperti sistem skala besar, arsitektur pelatihan skala besar. Ilmu saraf memiliki pengaruh yang lebih kecil dalam hal ini. Ilmu saraf adalah salah satu sumber ide, namun ketika jumlah rekayasanya banyak, ilmu saraf akan mengambil tempat di belakang. Jadi sekarang ini mungkin lebih tentang penerapan kecerdasan buatan pada ilmu saraf. Saya pikir ketika kita semakin dekat dengan AGI, memahami otak akan menjadi salah satu kasus penggunaan AGI yang paling keren.

Frye: Saya bertanya-tanya apakah Anda juga membayangkan bahwa akan ada hal-hal di luar pemahaman manusia yang AGI akan bantu kita temukan dan pahami?

Hassabis: Saya pikir sistem AGI mungkin memahami tingkat abstraksi yang lebih tinggi dengan lebih baik daripada yang kita bisa. Saya pikir sistem AI dapat secara efektif memiliki segala jenis korteks prefrontal, sehingga dapat membayangkan tingkat abstraksi dan pola yang lebih tinggi, dan dapat melihat alam semesta yang tidak dapat langsung kita pahami atau ingat.

Lalu menurut saya, dari perspektif interpretabilitas, kita tidak bisa menskalakan otak kita tanpa batas, namun secara teori, dengan waktu, SPE, dan memori yang cukup, AGI bisa memahami apa pun yang bisa dihitung.

Frye: Anda bilang DeepMind adalah proyek 20 tahun. Seberapa dekat Anda untuk mencapai jalur yang benar?

Hassabis: Kami berada di jalur yang benar.

Frye: Apakah AGI akan tersedia pada tahun 2030?

Hassabis: Saya tidak akan terkejut jika film ini keluar dalam sepuluh tahun ke depan.