소식

Hassabis: Google은 AlphaGo와 Gemini를 결합한 두 번째 Transformer를 만들고 싶어합니다.

2024-08-20

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

기계 심장 보고서

머신하트 편집부

“AI 회사의 CEO가 세일즈맨보다는 컴퓨터 과학자일 때 더 마음이 편해요.”



DeepMind에게 2023년은 변화가 가득한 해입니다. 올해 4월 구글은 구글 브레인(Google Brain)과 딥마인드(DeepMind)를 합병해 구글 딥마인드(Google DeepMind)라는 새로운 부서를 만들겠다고 발표했다. 새로운 부서는 윤리적 기준을 유지하면서 획기적인 AI 제품 연구 및 발전을 주도할 것입니다.

Google Brain과 DeepMind - 하나는 Transformer를 만들었고 다른 하나는 AlphaGo, AlphaFold를 만들었습니다. 두 부서가 힘을 합쳐 ChatGPT를 벤치마킹하기 위해 2023년 말에 Gemini를 만들었습니다. 현재 Gemini는 대형 모델 순위 LMSYS Chatbot Arena에서 정기적으로 상위 3위 안에 들었습니다. 두 사람의 합병이 일정한 결과를 가져 오는 것을 볼 수 있습니다.



그렇다면 Google DeepMind는 여기서 어디로 갈까요? University College London의 고급 공간 분석 센터의 도시 수학 부교수인 Hannah Fry와의 최근 대화에서 Google DeepMind의 CEO이자 공동 창립자인 Demis Hassabis는 회사의 일부 계획과 AI 분야의 최근 이슈들.



视频链接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650930939&idx=2&sn=00d72f97f26fc7acc3b2a2fd39434048&chksm=84e43a85b393b393d7 a9bd7caeafce2fcd71b6299e195df3e5a716cb840a401c85dc9efff669&token=899618486&lang=zh_CN#rd

Hassabis의 핵심 견해는 다음과 같습니다.

  • AI는 단기적으로는 과대평가되지만, 장기적으로는 과소평가된다. 허사비스는 AI 분야에서 과장된 것과 달성 가능한 것을 구별하는 방법에 대해 연구를 하는 것 외에도 발언하는 사람의 배경, 기술에 대해 얼마나 지식이 있는지, 그리고 작년에 다른 분야를 공부했는지 여부. 방향은 AI로 향합니다. 댓글을 단 사람이 단지 추세를 따르고 있다면, 그 사람이 좋은 아이디어를 떠올릴 확률은 복권 추첨과 같습니다.
  • DeepMind와 Google Brain의 합병은 많은 혁신 기회를 제공하며, Google Brain이 Transformer 아키텍처를 발명한 것처럼 AI의 한계를 뛰어넘을 수 있는 차세대 아키텍처를 발명하는 것이 이들의 목표입니다.
  • 기존 학술 벤치마크는 포화상태에 이르렀고 상위 모델 간의 미묘한 차이를 구별할 수 없게 되었습니다. Hassabis는 AI 분야, 특히 다중 모드 이해, 장기 기억 및 추론 능력과 같은 분야에서 더 나은 벤치마크가 필요하다고 믿습니다.
  • 오늘날의 많은 모델은 5~6년 전에 발명된 기술에서 파생되었습니다. 따라서 이러한 모델은 여전히 ​​부족한 부분이 많고 환상적이며 장기 계획을 잘 세우지 못하고 복잡한 작업을 적극적으로 완료하지 못합니다. 이러한 문제에 대응하여 Google은 AlphaGo의 계획 및 의사 결정 장점을 Gemini와 같은 다중 모드 모델과 결합하는 등 게임 에이전트에 대한 전문 지식과 대규모 언어 모델을 결합하여 더욱 강력한 에이전트 행동을 갖춘 시스템을 개발할 계획입니다.
  • 오픈소스에 관해 Hassabis는 Transformer 및 AlphaFold와 같은 많은 기술을 오픈소스화했다고 말했습니다. 그러나 그는 최첨단 모델이 더 많은 검토를 거쳐 출시 후 1~2년 후에 오픈소스화되어야 한다고 생각하며, 이는 Google도 따르고 있는 모델입니다. Google은 소스 모델을 오픈할 예정이지만 최신 모델보다 약 1년 정도 뒤처집니다. Hassabis는 오픈소스의 주요 문제점은 일단 공개되면 철회할 수 없는 일방통행의 문과 같다고 말했습니다. 따라서 오픈소스를 공개하기 전에는 매우 주의해야 합니다.
  • AI는 유명한 수학적 추측을 해결하는 데 도움을 주거나 국제 수학 대회에서 좋은 성적을 거두는 등 복잡한 수학 문제에서 획기적인 발전을 가져올 수 있습니다. 그러나 현재의 AI 시스템은 아직 스스로 새로운 수학적 가설이나 독창적인 이론을 제시할 수 없습니다. Hassabis는 AGI의 중요한 테스트가 일반 상대성 이론과 같은 완전히 새로운 가설과 이론을 자율적으로 생성하는 능력이 될 것이라고 믿습니다.
  • AGI가 모든 사람에게 이익이 될 수 있도록 보장하는 방법에 대해 Hassabis는 모든 선호도를 하나의 시스템에 포함하는 것은 불가능하지만 안전한 아키텍처를 구축하면 사람들이 선호도, 사용 목적, 배포 목적에 따라 이를 사용할 수 있다고 믿습니다. AI 시스템을 어떤 용도로 사용할 수 있고 사용할 수 없는지 결정하세요.

인터뷰를 본 후 한 사람은 허사비스가 세일즈맨이라기보다는 컴퓨터 과학자처럼 들리기 때문에 마음이 편해졌다고 말했습니다. 딥마인드를 인수해 자유롭게 개발할 수 있게 한 것은 구글이 내린 최고의 인공지능 결정이라며, 구글이 최대한 중단 없이 작업을 계속할 수 있도록 해주기를 바라는 이들도 있다.



다음은 머신하트가 정리한 인터뷰 내용이다.

AI의 발전은 예상치 못한 일이다

Frye: 돌이켜보면, 우리가 2017년에 이 팟캐스트를 계획하기 시작했을 때 DeepMind는 Google에 인수되어 런던의 안전한 거리에서 고유한 연구를 수행할 수 있는 권한을 부여받은 상대적으로 작고 집중적인 AI 연구실이었습니다. . 그러나 그 이후로 상황은 극적으로 변했습니다. 지난해부터 구글은 AI와 딥마인드 팀을 전략의 핵심으로 두면서 전체 아키텍처를 개편했다.

Google DeepMind는 소위 인공 일반 지능(AGI)이라고 불리는 인간 수준의 지능을 AI에 제공하기 위한 노력을 계속하고 있습니다. Gemini라는 강력한 새 AI 모델 시리즈와 오디오, 비디오, 이미지 및 코드를 처리할 수 있는 Project Astra라는 AI 에이전트를 출시했습니다. 또한, 단백질뿐만 아니라 인체 내 모든 분자의 구조 예측을 포함하여 다양한 과학 분야에 AI를 적용하는 데에도 큰 도약을 하고 있습니다. 2021년에는 질병 치료를 위한 신약 발견에 전념하는 새로운 회사인 Isomorphic Labs도 설립했습니다. 구글 딥마인드는 강화학습을 통해 스스로 작업 수행 방법을 학습할 수 있는 강력한 AI 에이전트도 연구하고 있으며, 바둑에서 알파고가 인간을 물리치는 전설을 이어가고 있습니다.

오늘 우리는 DeepMind의 공동 창립자이자 CEO인 Demis Hassabis를 초대했습니다.

AI에 대한 대중의 관심이 급증한 이후 귀하의 업무가 더 쉬워졌나요, 아니면 더 어려워졌나요?

허사비스: 양날의 검인 것 같아요. 어려운 점은 지금 현장 전체에 너무 많은 조사와 관심, 소음이 있다는 것입니다. 나는 사람이 적고 과학에 더 집중할 수 있는 시간을 선호합니다. 하지만 긍정적인 측면에서는 기술이 다양한 방식으로 현실 세계에 영향을 미치고 사람들의 일상 생활에 긍정적인 방식으로 영향을 미칠 준비가 되어 있다는 점을 보여주기 때문에 그것도 흥미롭다고 생각합니다.

프라이: 대중의 상상력이 얼마나 빨리 포착되는지 보고 놀란 적이 있나요? 이대로 끝날 거라고 예상하셨을 것 같은데요, 그렇죠?

허사비스: 물론. 수십 년 동안 이 분야를 연구해 온 우리는 결국 어느 시점에서 AI가 얼마나 중요한지 깨닫게 될 것입니다. 하지만 모든 일이 이런 식으로 결실을 맺고 일어나는 것을 보는 것은 여전히 ​​조금 초현실적입니다. 이는 정말 챗봇의 등장과 언어 모델의 발달 덕분이라고 생각합니다. 누구나 언어를 사용하고 누구나 언어를 이해할 수 있기 때문에 이것이 대중이 AI의 발전 수준을 쉽게 이해하고 측정할 수 있는 방법이기 때문입니다.

프라이: 이 챗봇이 "매우 효과적"이라고 설명했다고 들었습니다. 그게 무슨 뜻인가요?

허사비스: 내 말은, 5~10년 전을 되돌아보면 사람들은 AI의 발전을 이루려면 추상적인 개념처럼 구체적으로 풀 필요 없이 놀라운 아키텍처를 구축하고 그 위에 확장해야 한다고 생각했을 것입니다. 구체적인 질문. 5~10년 전 많은 토론에서 사람들은 추상적인 개념을 다루는 데 특별한 방법이 필요하다고 생각했습니다. 왜냐하면 그것이 분명히 뇌가 작동하는 방식이기 때문입니다. 그러나 AI 시스템에 인터넷 전체의 데이터와 같은 충분한 데이터가 제공되면, 단순히 암기 학습에 그치지 않고 실제로 처리 중인 내용을 어느 정도 이해할 수 있는 것 같습니다. 콘텐츠. 5년 전에는 누구도 지금처럼 효과적일 것이라고 생각하지 않았을 것이기 때문에 일종의 "매우 효과적"입니다.

프라이: 그럼, 정말 놀랐지...

허사비스: 예, 우리는 이전에 시뮬레이션이나 로봇 구현 지능과 같은 실제 경험에 언어를 배치하는 개념과 기반에 대해 이야기했습니다. 물론 이러한 시스템은 아직 그 수준에 이르지 못했고, 많은 실수를 저지르며, 아직 진정한 세계 모델을 갖고 있지 않습니다. 하지만언어를 배운 것만으로도 그들은 기대했던 것보다 더 많은 발전을 이루었습니다.

프라이: 접지의 개념을 설명해야 할 것 같아요.

허사비스: 접지 문제는 1980년대와 1990년대 MIT와 같은 곳에서 구축된 고전적인 AI 시스템에서 발생하는 문제입니다. 이러한 시스템은 단어가 서로 연결된 거대한 논리적 데이터베이스로 생각할 수 있습니다. 문제는 "개에 다리가 있다"고 말하면 데이터베이스에 저장되지만 시스템에 개 사진을 표시하면 해당 픽셀 묶음이 해당 기호와 어떻게 관련되는지 알 수 없다는 것입니다. 이것이 근본적인 문제입니다. 이러한 상징적이고 추상적인 표현이 있지만 현실 세계, 특히 지저분한 현실 세계에서 실제로 무엇을 의미합니까? 그들은 문제를 해결하려고 노력했지만 결코 성공하지 못했습니다.

그리고 오늘날의 시스템은 데이터에서 직접 학습하므로 어떤 의미에서는 처음부터 연결을 형성하고 있습니다. 그러나 흥미로운 점은 단지 언어를 통해 학습하는 것이라면 이론적으로 접지에 필요한 많은 부분이 누락되어야 한다는 것입니다. , 그러나 그 결과 많은 접지 정보가 어떻게든 추론될 수 있다는 것입니다.

프라이: 왜 그런 말을 하는 거죠?

허사비스: 이론적으로 이러한 초기 대형 언어 모델은 현실 세계에 존재하지 않았기 때문에 시뮬레이터에도 연결되지 않았고 로봇에도 연결되지 않았으며 초기에는 다중 모드도 아니었습니다. 노출되지 않았습니다. 시각이나 다른 어떤 것에도 그것은 언어 공간에만 존재합니다. 그래서 그들은 추상적 영역에서 학습됩니다. 그래서 그들이 그 영역에서 현실 세계에 관해 무언가를 추론할 수 있다는 것은 놀라운 일입니다.

Frye: 접지는 사람들과 시스템의 상호작용을 통해 획득된다고 말하는 것이 합리적입니다...

허사비스:정말. 따라서 특정 질문에 답할 때 실수를 한다면, 예를 들어 초기 버전은 접지 부족으로 인해 현실 세계에서 개 짖는 문제를 다룰 때 질문에 잘못 대답했습니다. 사람들은 피드백을 통해 이를 수정합니다. 이 피드백의 일부는 현실에 대한 우리 자신의 지식에서 비롯됩니다. 그래서 접지가 약간 흘러 들어간 것입니다.

프라이: "영국 해협을 건너는 것"과 "영국 해협을 건너는 것"의 차이를 매우 생생한 예에서 본 기억이 납니다.

허사비스: 이 예제는 작동합니다. 대답이 틀리면 틀렸다고 말한 다음 알아내야 합니다. 영국 해협을 건널 수는 없습니다.

AI가 과대평가된 걸까요, 아니면 과소평가된 걸까요?

Frye: 과대광고에 대해 조금 묻고 싶습니다. 지금 AI가 과대평가된 것인지, 과소평가된 것인지, 아니면 단지 잘못된 방향으로 과장된 것이라고 생각하십니까?

허사비스: 한편으로는 AI가 단기적으로 과대평가된다. 사람들은 그것이 많은 일을 할 수 있다고 주장하지만 실제로는 그렇지 않습니다. 아직 충분히 성숙되지 않은 미친 아이디어를 쫓는 스타트업과 VC가 많이 있습니다.

반면에 AI는 아직 저평가되어 있다고 생각합니다. 아마도 사람들은 AGI에 도달하면 무슨 일이 일어나고 그 책임이 얼마나 큰지 완전히 이해하지 못할 수도 있습니다.

Frye: 당신은 수십 년 동안 이 분야에 종사해 왔으며 이러한 스타트업과 VC가 추구하는 것과 그렇지 않은 것에 대한 현실적인 목표가 무엇인지 쉽게 알 수 있습니다. 하지만 다른 사람들은 어떻게 그 차이를 알 수 있습니까?

허사비스: 당연히 기술적인 실사를 해야 하고 기술과 최신 동향에 대한 이해도도 있어야 합니다.동시에 댓글을 단 사람의 배경도 살펴봐야 합니다. 작년에 다른 방향에서 AI로 전환했나요? 작년에 암호화폐를 거래하고 있었나요? 이는 그들이 시류에 편승할 수 있다는 단서일 수 있지만, 이것이 그들이 훌륭한 아이디어를 갖게 될 것이라는 의미는 아니며, 설사 그렇게 한다고 해도 아마도 복권이 될 것입니다.

어떤 분야가 갑자기 많은 관심을 받게 된다면, 펀딩이 들어오고 모두가 놓칠 수 없을 것 같은 기분이 들 때 항상 이런 일이 일어나는 것 같아요.

이는 수십 년 동안 심층 기술, 심층 과학 분야에 종사해 온 사람들과 약간 반대되는 기회주의적인 환경을 조성합니다. 저는 이것이 우리가 AGI에 접근하면서 계속 유지해야 하는 방식이라고 생각합니다.

Gemini: Google Brain과 DeepMind 합병 이후 최초의 등대 프로젝트

프라이: 다음에는 쌍둥이자리에 대해 이야기해 보겠습니다. Gemini는 다른 연구소에서 출시한 다른 대규모 언어 모델과 어떤 점에서 다릅니까?

허사비스: 처음부터 Gemini가 다양한 양식을 처리할 수 있도록 하여 언어뿐만 아니라 오디오, 비디오, 이미지, 코드 등 다양한 양식을 처리할 수 있기를 바랐습니다. 우리가 이것을 하려는 이유는 무엇보다도 이것이 이러한 시스템이 주변 세계를 실제로 이해하고 더 나은 세계 모델을 구축할 수 있는 방법이라고 생각하기 때문입니다. 이는 이전의 접지 문제로 거슬러 올라갑니다.

우리는 또한 보편적인 비서를 갖는 비전을 가지고 있습니다. 우리는 사용자가 입력하는 내용을 이해할 뿐만 아니라 사용자가 처한 환경을 실제로 이해하는 Astra라는 프로토타입을 만들었습니다. 이런 스마트 어시스턴트가 더 유용할 것 같습니다. 그래서 우리는 처음부터 다중 모드를 구축했습니다. 이것은 그 당시 우리 모델만이 하고 있던 또 다른 일이고, 지금은 다른 모델들이 따라잡고 있습니다.

긴 컨텍스트와 같은 메모리 분야의 다른 큰 혁신은 실제로 약 100만 또는 200만 개의 토큰을 기억할 수 있습니다. 따라서 전쟁과 평화 또는 영화 전체를 제공하고 질문에 답하거나 비디오 스트림에서 항목을 찾도록 할 수 있습니다.

Frye: Google I/O에서 Astra가 안경을 어디에 두었는지 기억하는 데 어떻게 도움이 되는지에 대한 예를 사용하셨죠? 하지만 이것이 단지 오래된 구글 안경의 고급 버전일 뿐인지 궁금합니다.

허사비스: 물론 구글은 글래스 기기를 개발한 오랜 역사를 갖고 있는데, 사실 그 시기는 시대를 훨씬 앞선 2012년쯤으로 거슬러 올라간다. 하지만 에이전트나 스마트 비서가 사용자가 말하는 내용을 실제로 이해하는 기술이 부족할 수도 있습니다. 따라서 우리는 항상 여러분과 함께하고 주변 세계를 이해할 수 있는 디지털 비서에 대해 매우 기대하고 있습니다. 막상 사용해보면 정말 자연스러운 활용 사례인 것 같습니다.

Frye: 다음으로 Gemini의 기원에 대해 조금 돌아가고 싶습니다. 결국 Gemini는 Google의 서로 다른 두 연구 부서에서 나온 것입니다.

허사비스: 네, 작년에 우리는 Alphabet의 두 연구 부서를 합병하여 Google Brain과 DeepMind를 Google DeepMind로 통합했습니다. 우리는 이를 슈퍼 유닛이라고 부르는데, 회사 전체의 최고의 인재들을 하나의 부서로 모으는 것입니다. 이는 우리가 모든 연구, 특히 언어 모델에서 얻은 최고의 지식을 결합한다는 것을 의미합니다.

따라서 Chinchilla, Gopher 등의 모델을 출시하고 PaLM, LaMDA 등 초기 모델을 구축했습니다. 이러한 모델 각각에는 고유한 장점과 단점이 있으므로 이를 Gemini에 통합하여 부서 합병 후 시작된 첫 번째 Lighthouse 프로젝트가 되었습니다. 그리고 또 다른 중요한 점은 매우 큰 규모의 훈련 실행을 수행할 수 있도록 모든 컴퓨팅 리소스를 하나로 모으는 것입니다. 나는 이것이 훌륭하다고 생각합니다.

프라이: 여러 면에서 Google Brain과 DeepMind는 초점이 약간 다릅니다. 이렇게 말해도 될까요?

허사비스: 구글의 다양한 부서는 분명히 인공지능의 최첨단에 집중하고 있으며, 개별 연구 수준에서는 이미 많은 협업이 이루어지고 있지만 전략적 수준에서는 다릅니다. Google DeepMind가 통합되면서 Google의 엔진룸이라고 표현하고 싶습니다. 매우 잘 돌아가고 있습니다. 우리가 일하는 방식에는 차이점보다 공통점이 훨씬 많다고 생각하며, 앞으로도 기초연구 등의 분야에서 우리의 강점을 유지하고 강화해 나가겠습니다.

예를 들어,다음 Transformer 아키텍처는 어디에서 나올까요?우리는 그것을 발명하고 싶습니다. Google Brain 연구진은 현재 인기 있는 Transformer 아키텍처를 발명했습니다. 우리는 이 아키텍처를 우리가 개척한 심층 강화 학습과 결합했습니다. 아직은 더 많은 혁신이 필요하다고 생각합니다. Google Brain 및 DeepMind 팀이 지난 10년 동안 해왔던 것처럼 저는 이를 지지합니다. 정말 흥미롭습니다.

향후 방향: AlphaGo와 Gemini의 결합

Frye: Gemini에 대해 이야기하고 싶은데요. 성능이 어떻게 되나요? 다른 모델과 비교하면 어떤가요?

허사비스: 이 질문은 벤치마크와 관련이 있습니다.저는 전체 분야에 더 나은 벤치마크가 필요하다고 생각합니다. 몇몇 잘 알려진 학문적 벤치마크가 있지만 이제는 포화 상태이며 서로 다른 상위 모델 간의 뉘앙스를 실제로 구별하지 못합니다.

내 생각에는,현재 최상위 및 최첨단 모델에는 Gemini, OpenAI의 GPT 및 Anthropic의 Claude의 세 가지 유형이 있습니다.. 그 밖에도 Meta, Mistral 등에서 출시한 Llama 시리즈와 Mistral 시리즈 모델 등 성능이 좋은 모델이 많이 있습니다. 이들은 다양한 작업에 능숙합니다. 수행하려는 작업 유형에 따라 인코딩에는 Claude를, 추론에는 GPT를, 메모리, 긴 컨텍스트 및 다중 모드 이해에는 Gemini를 선택하세요.

물론 기업은 계속해서 모델을 개선할 것입니다. 예를 들어 제미니(Gemini)는 태어난 지 1년도 채 되지 않은 모델일 뿐입니다. 나는 우리가 정말 좋은 궤도에 있다고 생각하며 다음에 우리가 이야기할 때 Gemini가 최전선에 서기를 바랍니다.

프라이: 네, 큰 모델들은 아직 갈 길이 멉니다. 이는 또한 이러한 모델이 일부 측면에서 그다지 좋지 않다는 것을 의미합니까?

허사비스:틀림없이. 사실 이게 지금 가장 큰 논쟁이다. 오늘날의 많은 모델은 5~6년 전에 발명된 기술에서 파생되었습니다. 그래서 이 모델들은 아직 부족한 점이 많고, 환각적이고 기획력이 부족합니다.

프라이: 계획이 뭐예요?

허사비스: 예를 들어 일부 장기 계획에서는 모델이 장기적으로 문제를 해결할 수 없습니다. 당신이 목표를 정하면 그들은 실제로 당신을 위해 조치를 취할 수 없습니다. 그래서,이 모델은 수동적인 질문 응답 시스템과 매우 유사합니다.. 당신이 질문을 하면 그들은 당신에게 어떤 종류의 응답을 주지만, 그들은 당신을 위해 문제를 해결해 주지는 않습니다. 예를 들어, 이탈리아에서의 휴가 전체를 예약하고 모든 레스토랑, 박물관 등을 예약하는 데 도움을 주는 디지털 도우미가 필요합니다. 불행하게도 이런 일은 할 수 없습니다.

나는 이것이 에이전트 기반 시스템 또는 에이전트와 유사한 행동을 하는 지능형 시스템이라고 부르는 차세대 연구의 주제라고 생각합니다. 물론 이것이 Google이 잘하는 일입니다. Google은 과거에 게임 에이전트 AlphaGo 및 기타 에이전트를 구축했습니다. 그래서,우리가 하고 있는 일은 유명한 프로젝트를 새로운 대규모 다중 모드 모델과 결합하고 AlphaGo와 Gemini의 결합과 같은 차세대 시스템으로 만드는 것입니다.

프라이: 알파고는 계획을 아주 잘 세우는 것 같아요.

허사비스: 네, 알파고는 기획을 정말 잘해요. 물론 게임 영역에서만 그렇습니다. 그러므로 일상 업무, 언어 등 일반적인 영역으로 일반화할 필요가 있습니다.

프라이: 방금 Google DeepMind가 이제 Google의 엔진룸이 되었다고 말씀하셨는데요. 그것은 상당한 변화입니다. 그렇다면 구글은 AI에 큰 투자를 하고 있는 걸까요?

허사비스: 그렇게 생각해요. 구글은 항상 AI의 중요성을 이해해 왔다고 생각합니다. Sundar가 CEO로 취임했을 때 그는 Google이 AI 우선 회사라고 말했습니다. 우리는 그의 임기 초기에 이 문제에 대해 논의했으며, 그는 AI가 모바일 인터넷 이후 차세대 패러다임 전환이 될 잠재력이 있고 이전보다 더 큰 잠재력을 가지고 있다고 믿습니다.

아마도 지난 1~2년 동안 우리는 연구 관점뿐만 아니라 제품 및 기타 측면에서도 그것이 의미하는 바를 실제로 맛보기 시작했습니다. 매우 흥미롭기 때문에 모든 인재를 모아 최선을 다해 AI를 발전시키는 것이 옳은 일이라고 생각합니다.

Frye: 우리는 Google DeepMind가 연구와 과학을 매우 중요하게 여긴다는 것을 알고 있습니다. 하지만 구글의 엔진룸이 되면서 더 이상 가장 순수한 것이 아닌 상업적인 이익에 더 관심을 가져야 한다는 뜻일까요?

허사비스: 네, 저희는 확실히 위임사항 내에서의 상업적 이익에 더 관심을 갖고 있습니다. 하지만 사실 여기에 제가 말하고 싶은 몇 가지가 있습니다. 첫째, 우리는 몇 달 전에 AlphaFold 3를 출시한 AlphaFold에 대한 과학적 연구를 계속할 것입니다. 이에 대한 투자도 두 배로 늘리고 있습니다. 이건 구글 딥마인드만의 독특한 작업인 것 같아요.

아시다시피 경쟁사조차도 이것이 일반적인 AI 제품이 될 것이라고 생각합니다. 우리는 신약 개발을 수행하기 위해 새로운 회사인 Isomorphic Labs를 설립했습니다. 모든 것이 매우 흥미롭고 모든 것이 정말 잘 진행되고 있습니다. 그래서 우리는 계속 그렇게 할 것입니다. 동시에 우리는 기후 예측 및 기타 측면에서도 많은 작업을 수행했습니다.

우리는 대규모 팀을 보유하고 있어 동시에 여러 작업을 수행할 수 있습니다. 우리는 대규모 모델 Gemini et al.을 구축하고 있습니다. 우리는 이러한 놀라운 기술을 Google이 존재하는 모든 영역에 적용하기 위해 제품 팀을 구성하고 있습니다. 어떤 면에서는 언제든지 우리의 모든 기술을 연결할 수 있다는 점은 우리에게 장점이 됩니다. 10억 명의 사람들이 즉시 사용할 수 있는 무언가를 발명할 수 있다는 것은 정말 고무적인 일입니다.

또 다른 점은,이제 제품용으로 개발된 AI 기술과 순수 AGI 연구 목적으로 수행된 작업 간에 훨씬 더 높은 수준의 통합이 필요합니다.. 5년 전에는 제품을 위한 특별한 AI를 구축해야 했습니다. 이제 주요 연구를 분리할 수 있고 물론 일부 제품별 작업도 수행해야 하지만 이는 아마도 전체 작업의 10%에 불과할 것입니다.

그러므로,실제로 AI 제품 개발과 AGI 구축 사이에는 더 이상 모순이 없습니다.. 90%는 동일한 연구 계획이라고 말하고 싶습니다. 그래서 제품을 출시하고 세상에 내보내면 그로부터 많은 것을 배울 수 있을 것입니다. 사람들도 이를 사용하기 때문에 내부 측정항목이 사람들이 말하는 것과 일치하지 않는다는 사실을 많이 알게 되어 업데이트할 수 있습니다. 이는 귀하의 연구에 매우 도움이 됩니다.

GenAI 기술을 테스트하는 방법

프라이: AI를 과학에 적용한 획기적인 발전과 이러한 것들을 대중에게 공개할 적절한 시기 사이에 긴장이 있는지 궁금합니다. Google DeepMind 내에서는 대규모 언어 모델과 같은 도구가 잠재적인 상용 제품으로 간주되기보다는 연구에 사용됩니다.

허사비스: 우리는 처음부터 책임과 안전을 매우 중요하게 생각했습니다. 2010년 이전에도 Google은 AI 지침에 몇 가지 기본 윤리를 포함했습니다. 우리는 Google 전반에 걸쳐 협력하고 있으며 이 분야의 리더 중 하나로 책임감 있게 배포하고 싶습니다.

따라서 이제 GenAI 기능을 갖춘 실제 제품 출시를 시작하는 것이 흥미롭습니다. 사실 배울 게 많고, 빨리 배우는 게 좋은 것 같아요. 아직 그다지 강력하지 않은 현재 기술을 사용하면 우리의 위험은 상대적으로 낮습니다. 하지만 기술이 더욱 강력해질수록 우리는 더욱 조심해야 합니다.

제품 팀과 기타 팀은 GenAI 기술을 테스트하는 방법을 배우고 있습니다. 이러한 기술은 항상 동일한 작업을 수행하지 않는다는 점에서 일반 기술과 다릅니다. 이는 오픈 월드 게임을 테스트하는 것과 거의 같습니다. 이 게임으로 시도할 수 있는 작업은 거의 무한합니다. 그래서 레드팀을 구성하는 방법을 알아내는 것은 흥미로웠습니다.

프라이: 그럼 여기서 레드팀 테스트는 서로 경쟁하는 건가요?

허사비스:예. 레드팀 테스트는 개발 기술팀에서 전담팀을 구성하여 기술에 대한 스트레스 테스트를 진행하고 가능한 모든 방법으로 이를 깨뜨리려고 노력하는 것입니다. 실제로 테스트를 자동화하려면 도구를 사용해야 하며, 수천 명이 수행한다고 해도 수십억 명의 사용자에 비하면 충분하지 않습니다.

또한, 과거 게임에서 그랬던 것처럼 실험 단계, 클로즈 베타 단계, 재출시 등 단계적으로 진행해야 한다고 생각합니다. 그래서 당신은 모든 단계를 배우고 있습니다. 우리가 더 해야 할 일은 AI 자체를 사용하여 내부적으로 레드팀 테스트를 돕고 실제로 자동으로 버그를 찾거나 삼중 심사를 수행하는 것이라고 생각합니다. 이렇게 하면 개발자와 테스터가 까다로운 상황에 집중할 수 있습니다.

프라이: 여기에 매우 흥미로운 점이 있습니다. 당신은 더 높은 확률의 공간에 있다는 것입니다. 그래서 어떤 일이 일어날 가능성이 작더라도 충분히 시도하면 결국에는 잘못될 것입니다. 나는 공개적인 실수가 있었다고 생각한다.

허사비스: 앞서 말했듯이 제품팀은 모든 종류의 테스트에 익숙하다고 생각합니다. 그들은 이 물건을 테스트했다는 것을 알고 있지만 그것은 무작위적이고 확률적입니다. 실제로, 많은 경우, 단지 일반적인 소프트웨어라면 99.999%를 테스트했다고 말할 수 있습니다. 그러면 이 정도면 충분하다고 추론해 보세요.

그러나 생성 시스템의 경우에는 그렇지 않습니다. 그들은 표준에서 조금 벗어난 모든 종류의 일을 할 수 있습니다. 이전에 본 것에서 조금 벗어난 일을 할 수 있습니다. 똑똑한 사람이나 적이 해커처럼 어떤 방식으로든 이러한 시스템을 테스트하기로 결정한 경우.

이러한 시스템은 이전에 언급한 모든 내용을 포함하는 조합으로 존재할 수 있습니다. 그런 다음 그것은 어떤 특별한 상태에 있거나 메모리가 특별한 것들로 채워져 있기 때문에 무언가를 출력해야 합니다. 여기는 복잡하고 무한하지도 않습니다. 따라서 이 문제를 해결할 수 있는 방법이 있지만 일반 기술을 출시하는 데에는 미묘한 차이가 많습니다.

Frye: 당신이 인터뷰한 게 처음인 것 같아요. 실제로 이것이 완전히 다른 컴퓨팅 방식이라는 것을 인식해야 한다고 말씀하셨던 기억이 나요. 우리가 완전히 이해하고 있는 결정론적인 것에서 벗어나 확률론적인 것과 같이 좀 더 복잡한 것으로 나아가야 합니다. 대중도 컴퓨팅 유형에 대한 관점을 조금 바꿔야 한다고 생각하시나요?

허사비스: 네, 동의합니다. 아마도 그것은 우리가 흥미롭게도 생각해야 할 또 다른 문제일 것입니다.시스템을 출시하기 전에 실제로 원칙 문서 등을 출시할 수 있습니다., 이 시스템의 의도된 용도를 명확하게 보여주기 위해 이 시스템은 무엇을 하도록 설계되었습니까? 그것은 무엇을 위해 사용됩니까? 무엇을 할 수 없습니까? 저는 여기에 일종의 인식이 정말로 필요하다고 생각합니다. 예를 들어, 이런 식으로 사용하면 유용할 것이지만, 작동하지 않을 것이기 때문에 다른 일을 하려고 하지 마세요.

일부 영역에서는 이것이 우리가 해야 할 일이라고 생각하며, 사용자에게도 이 영역에 대한 경험이 필요할 수 있습니다. 이는 실제로 매우 흥미롭습니다. 이는 아마도 ChatGPT를 포함한 OpenAI에게도 챗봇 자체가 다소 놀라운 이유일 것입니다. 우리는 또한 자체 챗봇을 보유하고 있으며 이러한 로봇에는 환각 및 기타 문제와 같은 결함이 여전히 있음을 발견했습니다.

그러나 우리가 깨닫지 못하는 것은 이러한 결함에도 불구하고 실제로 챗봇에 대한 훌륭한 사용 사례가 많다는 것입니다. 요즘 사람들은 파일 및 긴 문서 요약, 이메일 작성, 양식 작성 등과 같은 매우 유용한 용도를 발견합니다. 광범위한 사용 시나리오로 인해 작은 오류가 있더라도 사람들은 실제로 이러한 오류를 쉽게 수정하고 많은 시간을 절약할 수 있습니다. 내 생각엔 이러한 시스템이 우리가 알고 있는 모든 면에서 결함이 있음에도 불구하고 사람들이 사용했을 때 이러한 귀중한 사용 사례를 발견한다는 것은 놀라운 일이라고 생각합니다.

오픈 소스 정보: 일단 게시되면 철회할 수 없습니다.

Frye: 그렇다면 제가 묻고 싶은 다음 질문으로 넘어가겠습니다. 바로 오픈 소스에 관한 것입니다. 당신이 말했듯이, 사물이 사람들의 손에 들어가면 정말 놀라운 일이 일어납니다. DeepMind가 과거에 많은 프로젝트를 오픈 소스로 제공했다는 것을 알고 있지만 시간이 지남에 따라 변경된 것 같습니다.

허사비스: 네, 저희는 오픈소스와 오픈사이언스를 적극 지지합니다. 아시다시피 우리는 Transformer 등 우리가 하는 거의 모든 것을 공개하고 있으며 AlphaGo 및 AlphaFold에 대한 연구는 Nature 및 기타 저널에 게재되며 AlphaFold도 오픈 소스입니다. 정보를 공유함으로써 기술과 과학은 빠르게 발전할 수 있습니다. 그래서 우리는 거의 항상 그렇게 합니다. 우리는 그것이 매우 유익한 일이라고 생각하며 이것이 과학이 작동하는 방식입니다.

유일한 예외는 AI, AGI 및 강력한 AI가 양면을 가지고 있다는 것입니다. 문제는 누가 그것을 사용하고 있는지, 실제로 좋은 의도로 행동하고 건설적이고 비판적인 제안을 할 수 있는 과학자와 기술자가 사회가 발전하는 가장 빠른 방법이라는 것입니다. 그러나 문제는 동일한 시스템을 나쁜 목적으로 사용하거나 무기 시스템과 같이 오용할 수 있는 나쁜 의도를 가진 사람들에 대한 접근을 어떻게 제한할 것인가인데, 우리는 이를 미리 예측할 수 없습니다. 게다가, 보편적 시스템 자체도 이런 방식으로 재사용될 수 있습니다. 시스템이 아직 그렇게 강력하다고 생각하지 않기 때문에 오늘날에도 여전히 이를 유지할 수 있습니다.

향후 2~4년 동안, 특히 에이전트 동작이 포함된 시스템을 개발하기 시작하면서 이러한 시스템이 누군가에 의해 오용될 경우 심각한 피해가 발생할 수 있습니다. 구체적인 해결책은 없지만 커뮤니티로서 이것이 오픈 소스에 어떤 의미인지 생각해 볼 필요가 있습니다.

어쩌면 최첨단 모델은 출시 후 1~2년 후에 오픈 소스로 제공되기 전에 더 많은 검토를 거쳐야 할 수도 있습니다.. 우리가 따르는 모델은 Gemma라는 자체 오픈 소스 모델이 있기 때문입니다. 이러한 모델은 더 작고 최첨단이 아니기 때문에 해당 기능은 개발자에게 여전히 매우 유용하며 더 적은 매개변수로 노트북에서 쉽게 실행할 수 있습니다. 이제 이러한 기능은 잘 이해되었습니다. 하지만 이들 모델의 성능은 Gemini 1.5 등 최신 최첨단 모델만큼 좋지는 않습니다. 우리가 취할 수 있는 마지막 접근 방식은 다음과 같습니다.우리는 오픈 소스 모델을 갖게 될 것이지만, 이는 최첨단 모델보다 약 1년 정도 뒤쳐질 것입니다., 공개적으로 사용자의 이러한 모델 사용을 실제로 평가하고 최첨단 모델의 기능을 이해할 수 있습니다.

오픈소스의 가장 큰 문제점은 한번 공개되면 철회할 수 없다는 것이다.. 독점 모델과 달리 개발자는 오픈 소스 모델이 부적절하게 사용되는 경우 간단히 종료할 수 없습니다.일단 오픈소스를 한다는 것은 일방통행의 문을 걷는 것과 같기 때문에 오픈소스를 하기 전에는 매우 조심해야 합니다.

프라이: 일반 인공 지능(AGI)을 조직 내 해자에 제한하는 것이 가능합니까?

허사비스: 아직 풀리지 않은 문제입니다. 우리는 아직 어떻게 해야 할지 모릅니다. 인간과 유사한 높은 수준의 AI에 관해 이야기하기 시작할 때 그것에 대해 생각해 봐야 할 것이기 때문입니다.

프라이: 중간층은 어떻습니까?

허사비스: 중간 계층에는 이러한 문제를 해결하기 위한 더 나은 아이디어가 있습니다. 예를 들어 안전한 샌드박스 환경을 통해 테스트할 수 있습니다. 이는 게임 환경이나 부분적으로 연결된 인터넷 버전에서 에이전트의 동작을 테스트하는 것을 의미합니다. 이 분야는 물론 핀테크 등 다른 분야에서도 이미 많은 보안 작업이 진행되고 있습니다. 우리는 이러한 아이디어를 받아들여 그에 따라 시스템을 구축할 수 있으며, 이것이 초기 프로토타입 시스템을 테스트하는 방법입니다. 그러나 우리는 이러한 조치가 우리보다 더 똑똑할 수 있는 시스템인 AGI를 제한하는 데 충분하지 않을 수도 있다는 것도 알고 있습니다. 따라서 AGI용 프로토콜을 설계하려면 이러한 시스템을 더 잘 이해해야 합니다. 그때쯤이면 우리는 이를 제어하고 AI 시스템과 도구를 활용하여 차세대 AI 시스템을 모니터링할 수 있는 더 나은 방법을 갖게 될 것입니다.

AI를 규제하는 방법

프라이: 보안에 관해서 많은 사람들은 규제라는 단어가 모든 문제를 해결한다고 생각하는 것 같습니다. 규제는 어떻게 구성되어야 한다고 생각하시나요?

허사비스: 정부가 AI 기술에 대한 이해와 참여를 가속화하고 있는 것은 긍정적인 현상이다.특히 규제, 보안 조치, 배치 사양 등의 분야에서 국제적 협력이 필요하다고 생각합니다.

AGI에 접근하면서 우리는 기술이 빠르게 발전하고 있기 때문에,우리의 규제 접근 방식은 유연해야 하며 최신 기술 개발에 신속하게 적응해야 합니다.. 5년 전에 AI를 규제했다면 완전히 다른 것을 규제했을 것입니다. 오늘날 우리가 보는 것은 생성적 AI이지만, 5년 후에는 다를 수도 있습니다.

현재 에이전트 기반 시스템이 가장 큰 위험을 초래할 수 있습니다. 따라서 앞서 모바일과 인터넷에 대한 규제가 업데이트됐듯이, 이미 규제된 분야(보건, 교통 등)에서 기존 규제를 강화해 AI 시대에 적응할 것을 권고한다.

제가 가장 먼저 할 일은 집중을 유지하고 최첨단 시스템을 이해하고 테스트하는 것입니다. 상황이 더욱 명확해지고 이러한 상황에 대한 규정이 개발되기 시작하면 몇 년 안에 그렇게 하는 것이 더 합리적일 수 있습니다. 지금 우리가 놓치고 있는 것은 벤치마킹, 적절한 역량 테스트입니다. 업계가 알고 싶어하는 것처럼 우리의 역량이 어느 시점에 상당한 위험을 초래할 수 있는지를 포함합니다. 이에 대한 답은 현재 없으며 방금 언급한 에이전트 기반 기능이 다음 임계값이 될 수 있지만 현재 허용되는 테스트 방법은 없습니다.

가능한 테스트 중 하나는 시스템에 사기성 기능이 있는지 여부를 검색하는 것입니다. 시스템에 속임수가 있는 경우 보고된 다른 어떤 것도 신뢰할 수 없습니다. 그러므로,새로운 역량을 위해서는 속임수 테스트가 최우선 과제여야 합니다.. 이 외에도 특정 목표를 달성하는 능력, 복제 능력 등 테스트할 만한 능력이 많이 있으며, 현재 관련 작업도 많이 진행되고 있다. 나는 이것이 기본적으로 정부 기관이 활동하는 곳이라고 생각합니다. 나는 그들이 이 일을 열심히 추진하는 것이 좋을 것이라고 생각하며, 물론 연구실은 그들이 알고 있는 것에 기여해야 합니다.

프라이: 당신이 묘사하는 세계에서 기관은 어디에 속합니까? 모든 과학 연구를 지원할 수 있는 AGI를 갖춘 단계에 도달하더라도 기관이 여전히 자리를 잡을 수 있을까요?

허사비스: 그렇게 생각해요. AGI에 도달하려면 지역사회, 학계, 정부, 산업 연구소 간의 협력이 필요하다고 생각합니다. 저는 이것이 우리가 마지막 단계에 도달할 수 있는 유일한 방법이라고 진심으로 믿습니다.

카자흐스탄의 AGI 테스트 표준

허사비스: AGI 이후에 어떤 일이 일어나는지 묻는다면, 제가 항상 AGI를 만들고 싶었던 이유 중 하나는 AGI를 사용하여 자연, 현실, 물리학 및 의식에 관한 가장 크고 근본적인 질문에 답할 수 있기 때문입니다. . 어떤 형태를 취하느냐에 따라 인간 전문가와 AI의 결합이 될 수도 있다. 다음 개척지 탐색이라는 측면에서 당분간은 이런 상황이 계속될 것이라고 생각합니다.

현재 이러한 시스템은 자체적으로 추측이나 가설을 제시할 수 없습니다.. 현재로서는 특정 문제를 증명하고, 국제 수학 올림피아드에서 금메달을 획득하고, 유명한 수학적 추측을 풀도록 도울 수 있지만 아직 리만 가설이나 일반 상대성이론과 같은 가설을 공식화할 수는 없습니다.이것이 진정한 일반 인공 지능에 대한 나의 테스트 표준이었습니다.- 이것을 할 수 있을 것이고 심지어 새로운 이론을 발명할 수도 있을 것입니다. 우리에게는 아직 시스템이 없으며, 이를 수행하는 시스템을 이론적으로 설계하는 방법조차 모를 수도 있습니다.

프라이: 컴퓨터 과학자 스튜어트 러셀(Stuart Russell)은 일단 우리가 AGI 개발 단계에 도달하면 우리 모두 삶의 목적 없이 자유롭고 사치스러운 삶을 즐기게 될 수도 있다는 우려를 표명했습니다. 이런 종류의 삶은 물질적인 안락함으로 가득 차 있지만 깊은 의미와 목적이 부족합니다.

허사비스: 정말 흥미로운 질문이네요. 이것은 아마도 AGI를 넘어 사람들이 때때로 ASI라고 부르는 것과 더 유사할 것입니다. 그때쯤 되면 우리는 엄청난 자원을 갖게 될 것이고, 그 자원의 공정하고 평등한 분배가 보장된다면 우리는 어떻게 행동할지 자유롭게 선택할 수 있는 위치에 있게 될 것이고, '의미'는 큰 철학적 질문이 될 것입니다. 지금 이 문제에 대해 생각하기 시작하려면 철학자, 심지어 신학자, 사회과학자도 필요하다고 생각합니다. 무엇이 의미를 가져오는가? 나는 여전히 자아실현이 중요하다고 생각하며, 우리 모두 명상에만 몰두할 것이라고는 생각하지 않는다. 아마도 컴퓨터 게임을 할 수도 있을 것이다. 하지만 그렇다고 해도 이것이 정말 나쁜 일일까요? 이것은 탐구해볼 가치가 있는 질문이다.

AGI는 많은 질병이나 모든 질병을 치료하고 에너지 및 기후 문제를 해결하는 등 큰 변화를 가져오지만, 삶의 의미는 무엇인가라는 더 깊은 질문에 직면하게 할 수도 있습니다. 에베레스트 산을 오르거나 익스트림 스포츠를 즐기는 사람들처럼 이러한 활동도 겉으로는 무의미해 보이지만 실제로는 도전을 추구하는 사람들의 활동입니다. AGI의 발달로 우리는 물질적 수준의 모든 것을 가질 수 있지만, 동시에 삶의 의미에 대해 다시 생각해 보게 됩니다. 이 문제는 기술 개발의 초기 단계와 후기 단계 모두에서 과소평가되고 있으며, 소위 과대광고와 그것이 우리 미래에 미치는 실제 영향을 재평가해야 합니다.

프라이: AGI에 관한 질문으로 돌아가 보겠습니다. 나는 당신의 큰 임무가 모든 사람에게 이익이 되는 AI를 구축하는 것임을 알고 있습니다. 하지만 그것이 실제로 모든 사람에게 이익이 되는지 어떻게 확인할 수 있을까요? 디자이너뿐만 아니라 모든 사람의 선호도를 어떻게 고려합니까?

허사비스: 많은 이슈에 대해 사람들이 동의할 수 없기 때문에 모든 선호 사항을 하나의 시스템에 포함하는 것은 불가능하다고 생각합니다. 개인화된 인공 지능을 구축할 수 있는 보안 아키텍처가 있고 사람들은 자신의 선호도, 사용 목적 및 배포 목적에 따라 AI 시스템을 사용할 수 있는 것과 사용할 수 없는 것을 결정할 수 있다고 생각합니다. 일반적으로 아키텍처는 보안을 보장해야 하며, 그러면 사람들은 아키텍처를 기반으로 몇 가지 변형과 증분을 만들 수 있습니다.

따라서 AGI에 가까워질수록 우리는 국제적으로 보다 이상적으로 협력해야 하며 안전한 환경에서 AGI를 구축해야 할 것입니다.

이 작업을 완료하면 원하는 경우 모든 사람이 자신만의 개인화된 포켓 API를 가질 수 있습니다.

프라이: 알았어. 하지만 내 말은 AI가 나쁜 행동을 보일 수 있다는 것입니다.

허사비스: 네, 나쁜 행동, 능력이 나타납니다. 속임수가 한 예입니다. 우리는 이 모든 문제를 더 잘 이해해야 합니다.

걱정해야 할 두 가지가 있습니다. 인간이 AI를 오용할 수 있다는 것과 AI 자체(AGI에 가까워질수록 성능이 저하됨)입니다. 저는 이 두 가지 문제에는 서로 다른 해결책이 필요하다고 생각합니다. 예, 이것이 바로 AGI 구축에 점점 더 가까워짐에 따라 우리가 처리해야 하는 것입니다.

모든 사람에게 혜택을 준다는 점으로 돌아가서 AlphaFold를 예로 들면 AI 약물 설계가 효과가 있다면 내년 또는 2년 안에 대부분의 질병을 치료할 수 있다고 생각합니다. 그런 다음 개인별 질병 및 개인 신진 대사와 관련된 개인의 부작용을 최소화하기 위해 맞춤형 의약품으로 전환할 수 있습니다. 청정 에너지, 재생 가능 에너지, 기술은 엄청난 이점을 가져다 주지만 위험도 완화해야 합니다.

프라이: 위험을 완화하고 싶다는 한 가지 방법은 언젠가 기본적으로 "Avengers Assemble"의 과학 버전을 만드는 것이라고 말씀하셨나요?

허사비스:틀림없이.

프라이: 그럼, 적절한 때가 언제인지 어떻게 알 수 있나요?

허사비스: 음, 이것은 큰 질문입니다. 일부 반대자들의 지지를 결코 얻지 못할 것이기 때문에 너무 일찍 그렇게 할 수는 없습니다. 오늘날 AI에는 위험이 없다고 말하는 매우 유명한 사람들이 있습니다. 그리고 Geoffrey Hinton 같은 사람들은 위험이 크다고 말합니다.

프라이: 신경과학에 관해 좀 더 이야기하고 싶습니다. 당신이 하고 있는 일에 여전히 얼마나 많은 영감을 주고 있나요? 며칠 전에 DeepMind가 인공 두뇌를 갖춘 가상 마우스를 공개했다는 사실을 알았기 때문입니다. 이는 두뇌가 움직임을 제어하는 ​​방식에 대한 우리의 이해를 바꾸는 데 도움이 됩니다. 우리가 생물학적 시스템에서 직접 영감을 얻는 것에 대해 많이 이야기했던 것을 기억합니다. 이것이 여전히 당신의 접근 방식의 핵심인가요?

허사비스: 아니요, 지금은 진화해서 대규모 시스템, 대규모 훈련 아키텍처 등 엔지니어링 단계에 들어선 것 같아요. 신경과학은 이에 대한 영향력이 약간 적습니다. 신경과학은 아이디어의 원천 중 하나이지만 공학의 규모가 커지면 신경과학은 뒷전으로 밀립니다. 이제 인공 지능을 신경 과학에 적용하는 것이 더 중요할 것입니다. AGI에 가까워질수록 뇌를 이해하는 것이 AGI의 가장 멋진 사용 사례 중 하나가 될 것이라고 생각합니다.

프라이: AGI가 인간의 이해를 넘어서는 것들을 발견하고 이해하는 데 도움이 될 것이라고 상상하고 계신지 궁금합니다.

허사비스: AGI 시스템이 우리보다 더 높은 수준의 추상화를 더 잘 이해하는 것이 가능하다고 생각합니다. AI 시스템은 어떤 종류의 전두엽 피질이라도 효과적으로 가질 수 있어 더 높은 수준의 추상화와 패턴을 상상할 수 있고, 우리가 실제로 이해하거나 기억할 수 없는 우주를 바로 볼 수 있다고 생각합니다.

그리고 해석 가능성의 관점에서 우리는 우리 자신의 두뇌를 무한히 확장할 수는 없지만 이론적으로 충분한 시간, SPE 및 메모리가 주어지면 AGI는 계산 가능한 모든 것을 이해할 수 있다고 생각합니다.

프라이: DeepMind가 20년 프로젝트라고 말씀하셨는데요. 정상 궤도에 얼마나 가까워졌나요?

허사비스: 우리는 순조롭게 진행되고 있습니다.

프라이: AGI는 2030년에 이용 가능할까요?

허사비스: 앞으로 10년 안에 나온다고 해도 놀랍지 않을 것 같아요.