новости

Хассабис: Google хочет создать второй Трансформер, комбинацию AlphaGo и Gemini

2024-08-20

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Отчет о сердце машины

Редакция «Машинное сердце»

«Я чувствую себя более комфортно, когда генеральный директор компании, занимающейся искусственным интеллектом, больше похож на ученого-компьютерщика, чем на продавца».



Для DeepMind 2023 год — год, полный перемен. В апреле этого года Google объявила, что объединит Google Brain и DeepMind, чтобы сформировать новый отдел под названием Google DeepMind. Новый отдел будет руководить революционными исследованиями и развитием продуктов искусственного интеллекта, сохраняя при этом этические стандарты.

Google Brain и DeepMind — один создал Transformer, другой — AlphaGo, AlphaFold… Два отдела объединили усилия для создания Gemini в конце 2023 года для тестирования ChatGPT. Сегодня Gemini регулярно входит в тройку лидеров в рейтинге крупных моделей LMSYS Chatbot Arena. Видно, что слияние двух компаний имеет определенные результаты.



Итак, куда же пойдет Google DeepMind дальше? В недавнем разговоре с Ханной Фрай, доцентом городской математики Центра перспективного пространственного анализа Университетского колледжа Лондона, Демис Хассабис, генеральный директор и соучредитель Google DeepMind, рассказал, что он также выразил свое мнение о некоторых планах компании и некоторые текущие проблемы в сфере ИИ.



视频链接: https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650930939&idx=2&sn=00d72f97f26fc7acc3b2a2fd39434048&chksm=84e43a85b393b393d 7a9bd7caeafce2fcd71b6299e195df3e5a716cb840a401c85dc9efff669&token=899618486&lang=zh_CN#rd

Основные взгляды Хассабиса заключаются в следующем:

  • В краткосрочной перспективе ИИ переоценен, но в долгосрочной перспективе он недооценен. Что касается того, как отличить хайп от того, что достижимо в области искусственного интеллекта, Хассабис сказал, что помимо проведения исследований вам также нужно посмотреть на биографию человека, делающего замечания, насколько он осведомлен о технологиях и учились ли они в других областях в прошлом году? Направление идет в ИИ. Если человек, оставляющий комментарий, просто следует тенденции, вероятность того, что у него или нее появится хорошая идея, подобна розыгрышу лотереи.
  • Слияние DeepMind и Google Brain открывает множество инновационных возможностей, и их цель — изобрести следующую архитектуру, которая сможет раздвинуть границы ИИ, точно так же, как Google Brain изобрел архитектуру Transformer.
  • Существующие академические критерии стали насыщенными и неспособны различать тонкие различия между топ-моделями. Хассабис считает, что область искусственного интеллекта нуждается в более эффективных тестах, особенно в таких областях, как мультимодальное понимание, долговременная память и способности к рассуждению.
  • Многие из сегодняшних моделей основаны на технологиях, изобретенных пять или шесть лет назад. Таким образом, этим моделям все еще не хватает многого, они галлюцинируют, не умеют долгосрочное планирование и не могут активно выполнять сложные задачи. В ответ на эти проблемы Google намерен разработать системы с более сильным поведением агентов, объединив свой опыт в области игровых агентов и больших языковых моделей, например, объединив преимущества AlphaGo в планировании и принятии решений с мультимодальными моделями, такими как Gemini.
  • Говоря об открытом исходном коде, Хассабис сказал, что они открыли исходный код многих технологий, таких как Transformer и AlphaFold. Но он считает, что передовые модели должны пройти дополнительную проверку и быть открытыми через один-два года после выпуска — модели, которой также следует Google. Google будет использовать модели с открытым исходным кодом, но они будут отставать примерно на год от современных моделей. Хассабис далее сказал, что основная проблема с открытым исходным кодом заключается в том, что он похож на дверь с односторонним движением. Будучи выпущенным, его невозможно отозвать. Поэтому вам нужно быть очень осторожным перед открытием исходного кода.
  • ИИ может привести к прорывам в решении сложных математических задач, например помочь решить известные математические гипотезы или добиться хороших результатов на международных математических соревнованиях. Однако современные системы искусственного интеллекта пока не способны самостоятельно выдвигать новые математические гипотезы или оригинальные теории. Хассабис считает, что важным испытанием ОИИ станет его способность автономно генерировать совершенно новые гипотезы и теории, такие как общая теория относительности.
  • Что касается того, как гарантировать, что AGI может принести пользу всем, Хассабис считает, что невозможно включить все предпочтения в одну систему, но можно построить безопасную архитектуру, и тогда люди смогут использовать ее в соответствии со своими предпочтениями, целями использования и целями развертывания. Решите, для чего можно и для чего нельзя использовать систему ИИ.

Посмотрев интервью, один человек заметил, что ему стало комфортно, потому что Хассабис больше походил на ученого-компьютерщика, чем на продавца. Другие говорят, что приобретение DeepMind и предоставление им возможности свободно развиваться — лучшее решение в области искусственного интеллекта, которое когда-либо принимал Google, и они надеются, что Google позволит им продолжать свою работу без перерывов, насколько это возможно.



Ниже приводится содержание интервью, составленное Machine Heart.

Развитие ИИ является неожиданным

Фрай: Если вспомнить, когда мы начали планировать этот подкаст в 2017 году, DeepMind представляла собой относительно небольшую исследовательскую лабораторию, специализирующуюся на искусственном интеллекте, которая только что была приобретена Google и получила право проводить свои собственные уникальные исследования на безопасном расстоянии в рамках свободы проекта в Лондоне. . Но с тех пор все резко изменилось. С прошлого года Google реорганизовала всю свою архитектуру, поместив команды искусственного интеллекта и DeepMind в ядро ​​своей стратегии.

Google DeepMind продолжает стремиться к созданию искусственного интеллекта человеческого уровня, так называемого общего искусственного интеллекта (AGI). Компания запустила серию новых мощных моделей искусственного интеллекта под названием Gemini, а также агента искусственного интеллекта под названием Project Astra, который может обрабатывать аудио, видео, изображения и код. Лаборатория также делает гигантские скачки в применении ИИ во многих научных областях, включая предсказание структуры всех молекул в человеческом организме, а не только белков. В 2021 году они также создали новую компанию Isomorphic Labs, занимающуюся открытием новых лекарств для лечения болезней. Google DeepMind также исследует мощных агентов искусственного интеллекта, которые могут научиться выполнять задачи самостоятельно посредством обучения с подкреплением, и продолжает легенду о том, как Альфа Го побеждает людей в игре Го.

Сегодня мы пригласили Демиса Хассабиса, сооснователя и генерального директора DeepMind.

Мне интересно, стала ли ваша работа проще или сложнее с тех пор, как всплеск общественного интереса к ИИ?

Хассабис: Я думаю, это палка о двух концах. Трудность в том, что сейчас вокруг так много пристального внимания, внимания и много шума. Я предпочитаю, чтобы было меньше людей и мы могли больше сосредоточиться на науке. Но есть и положительная сторона: это показывает, что технологии готовы влиять на реальный мир разными способами и позитивно влиять на повседневную жизнь людей, поэтому я думаю, что это тоже интересно.

Фрай: Вы когда-нибудь удивлялись тому, как быстро захватывалось воображение публики? Думаю, вы ожидали, что все закончится именно так, не так ли?

Хассабис: Действительно. Те из нас, кто изучал эту область на протяжении десятилетий, в какой-то момент в конце концов поймут, насколько важным станет ИИ. Но все равно кажется немного сюрреалистичным видеть, как все это реализуется и происходит таким образом. Я думаю, что на самом деле это связано с появлением чат-ботов и развитием языковых моделей, потому что каждый использует язык и каждый может понимать язык, поэтому для общественности это простой способ понять и измерить уровень развития ИИ.

Фрай: Я слышал, вы назвали этих чат-ботов «чрезвычайно эффективными». Что это значит?

Хассабис: Я имею в виду, если вы оглянетесь назад на 5–10 лет назад, люди могли бы подумать, что для достижения развития ИИ нужно построить какую-то удивительную архитектуру и расширить ее, не решая специально такие абстрактные концепции. конкретные вопросы. Во многих дискуссиях 5–10 лет назад люди думали, что необходим особый способ обращения с абстрактными понятиями, потому что, очевидно, именно так работает мозг. Но если системам искусственного интеллекта будет предоставлено достаточно данных, например, данных со всего Интернета, они, похоже, смогут учиться на их основе и обобщать закономерности, не только путем механического заучивания, но и на самом деле в некоторой степени понимать, что они обрабатывают. содержание. Это своего рода «чрезвычайно эффективно», потому что я не думаю, что 5 лет назад кто-то мог подумать, что это будет так же эффективно, как сейчас.

Фрай: Итак, это был сюрприз...

Хассабис: Да, мы уже говорили о концепции и ее обосновании ранее – о месте языка в реальном опыте, возможно, в симуляциях или роботизированном интеллекте. Конечно, эти системы еще не на том уровне, они допускают много ошибок, у них еще нет истинной модели мира. ноПросто изучая язык, они пошли дальше, чем ожидали.

Фрай: Я думаю, нам нужно объяснить концепцию заземления.

Хассабис:Проблема заземления — это проблема, возникающая в классических системах искусственного интеллекта, созданных в таких местах, как Массачусетский технологический институт, в 1980-х и 1990-х годах. Вы можете думать об этих системах как об огромных логических базах данных, в которых слова связаны друг с другом. Проблема в том, что вы можете сказать «у собаки есть ноги», и это будет в базе данных, но когда вы показываете системе изображение собаки, она не знает, как эта группа пикселей связана с этим символом. Это основная проблема: у вас есть эти символические, абстрактные представления, но что они на самом деле означают в реальном мире, особенно в этом беспорядочном реальном мире? Они пытались решить проблему, но им это так и не удалось.

И сегодняшние системы учатся непосредственно на данных, поэтому в каком-то смысле они формируют эту связь с самого начала, но что интересно, если они просто изучают язык, теоретически им должно не хватать многого из того, что вам требуется. Заземление требуется. , но в результате можно каким-то образом вывести большое количество базовой информации.

Фрай: Почему ты так говоришь?

Хассабис: Теоретически, поскольку эти первоначальные большие языковые модели не существовали в реальном мире, они не были подключены к симулятору, они не были подключены к роботу, они даже изначально не были мультимодальными — они не были раскрыты. зрению или чему-либо еще, они существуют только в языковом пространстве. Таким образом, они изучаются в абстрактной области. Поэтому удивительно, что они могут сделать какие-то выводы о реальном мире из этой области.

Фрай: Имеет смысл сказать, что заземление достигается посредством взаимодействия людей с системой...

Хассабис:Действительно. Так что наверняка, если они допускают ошибки при ответе на определенные вопросы, например, ранние версии неправильно отвечали на вопросы при работе с лаем собак в реальном мире из-за отсутствия заземления. Люди исправляют их через обратную связь. Частично эта обратная связь исходит из нашего собственного знания реальности. Вот так и появилось какое-то заземление.

Фрай: Я помню, как видел очень яркий пример разницы между «пересечь Ла-Манш» и «пройти через Ла-Манш».

Хассабис: Этот пример работает. Если он ответит неправильно, вы скажете ему, что это неправильно, и тогда ему придется разобраться: через Ла-Манш невозможно перейти.

ИИ переоценен или недооценен?

Фрай: Я собираюсь спросить вас немного о шумихе. Как вы думаете, сейчас ИИ переоценен или недооценен, или просто раскручен в неправильном направлении?

Хассабис: С одной стороны, в краткосрочной перспективе ИИ переоценен. Люди утверждают, что он может многое, но на самом деле это не так, и существует множество стартапов и венчурных капиталистов, гоняющихся за сумасшедшими идеями, которые еще недостаточно зрелы.

С другой стороны, я думаю, что ИИ все еще недооценен. Возможно, люди не до конца понимают, что происходит, когда мы достигаем AGI, и насколько велика ответственность.

Фрай: Вы находитесь в этой сфере уже несколько десятилетий, и легко понять, какие цели преследуют эти стартапы и венчурные капиталисты, а какие нет. Но как другие смогут заметить разницу?

Хассабис: Очевидно, вам необходимо провести техническую экспертизу и иметь некоторое представление о технологиях и последних тенденциях.В то же время вам также следует обратить внимание на биографию человека, оставившего комментарий. Насколько они осведомлены о технологиях? Перешли ли они на ИИ с другого направления в прошлом году? Занимались ли они криптовалютой в прошлом году? Это может быть намеком на то, что они присоединятся к победе, но это не значит, что у них появятся отличные идеи, и даже если они появятся, это, вероятно, будет лотереей.

Я думаю, что это всегда происходит, когда область внезапно привлекает много внимания, а затем приходит финансирование, и все чувствуют, что не могут его пропустить.

Это создает, скажем так, оппортунистическую среду, которая немного противоречит тем, кто десятилетиями работал над глубокими технологиями и глубокой наукой, и, я думаю, именно этим нам и следует оставаться, приближаясь к ОИИ.

Gemini: первый проект-маяк после слияния Google Brain и DeepMind

Фрай: Давайте дальше поговорим о Близнецах. Чем Gemini отличается от других крупных языковых моделей, выпущенных другими лабораториями?

Хассабис: С самого начала мы хотели, чтобы Gemini мог обрабатывать несколько модальностей, чтобы он мог обрабатывать не только язык, но и различные модальности, такие как аудио, видео, изображения, код и т. д. Причина, по которой мы хотим это сделать, прежде всего, заключается в том, что я думаю, что это способ для этих систем по-настоящему понять мир вокруг них и построить более качественные модели мира, что восходит к предыдущему вопросу заземления.

У нас также есть идея создания универсального помощника. Мы создали прототип под названием Astra, который не только понимает, что вы печатаете, но и понимает среду, в которой вы находитесь. Такой умный помощник был бы полезнее. Поэтому мы с самого начала заложили мультимодальность. Это еще одна вещь, которой в то время занималась только наша модель, а теперь другие модели ее догоняют.

Другие наши большие инновации в памяти, такие как длинные контексты, на самом деле могут запоминать около миллиона или двух миллионов токенов. Таким образом, вы можете дать ему «Войну и мир» или весь фильм и заставить его отвечать на вопросы или находить что-то в видеопотоке.

Фрай: На Google I/O вы использовали пример того, как Astra помогает вам запомнить, куда вы положили очки, верно? Но мне интересно, не является ли это просто усовершенствованной версией старых Google Glasses?

Хассабис: Конечно, Google имеет долгую историю разработки устройств Glass, начавшуюся примерно с 2012 года, что намного опередило свое время. Но им может просто не хватать технологий, позволяющих агенту или умному помощнику действительно понять, что вы говорите. Итак, мы очень рады цифровым помощникам, которые могут быть с вами всегда и понимать мир вокруг вас. Когда вы его используете, это действительно кажется естественным вариантом использования.

Фрай: Далее я хочу немного вернуться к происхождению Gemini, ведь оно разработано двумя разными исследовательскими отделами Google.

Хассабис: Да, в прошлом году мы объединили два исследовательских отдела Alphabet, интегрировав Google Brain и DeepMind в Google DeepMind. Мы называем это суперподразделением, которое объединяет лучшие таланты всей компании в один отдел. Это означает, что мы объединяем лучшие знания, полученные в результате всех исследований, особенно в области языковых моделей.

Поэтому мы выпустили такие модели, как Chinchilla и Gopher, а также создали PaLM, LaMDA и другие ранние модели. У каждой из этих моделей есть свои преимущества и недостатки, поэтому мы интегрировали их в Gemini и стали первым проектом «Маяк», запущенным после слияния отделов. Еще одна важная вещь — объединить все вычислительные ресурсы, чтобы можно было выполнять очень большие тренировочные прогоны. Я думаю, это здорово.

Фрай: Во многих отношениях Google Brain и DeepMind имеют несколько разные цели. Могу ли я сказать это?

Хассабис: Различные подразделения Google явно сосредоточены на передовых разработках в области искусственного интеллекта, и на уровне отдельных исследований уже ведется активное сотрудничество, но на стратегическом уровне все по-другому. С появлением Google DeepMind, я бы назвал его «Машинным отделением Google», он работает очень хорошо. Я думаю, что в том, как мы работаем, гораздо больше сходства, чем различий, и мы продолжим сохранять и укреплять наши сильные стороны в таких областях, как фундаментальные исследования.

Например,Откуда появится следующая архитектура Transformer?Мы хотим изобрести это. Исследователи Google Brain изобрели популярную ныне архитектуру Transformer. Мы объединили эту архитектуру с глубоким обучением с подкреплением, которое мы разработали впервые. Я думаю, что все еще необходимо больше инноваций. Я поддерживаю это, как это делали команды Google Brain и DeepMind последние 10 лет. Это захватывающе.

Будущее направление: объединение AlphaGo с Gemini

Фрай: Я хочу поговорить о Близнецах, как они себя ведут? Чем он отличается от других моделей?

Хассабис: Этот вопрос касается критериев,Я думаю, что вся эта область нуждается в более эффективных ориентирах. Существуют некоторые известные академические тесты, но они сейчас насыщены и не различают нюансы между различными топ-моделями.

По моему мнению,В настоящее время существует три типа моделей: топовые и передовые: наш Gemini, GPT от OpenAI и Claude от Anthropic.. Кроме того, есть много моделей, которые работают хорошо, например, модели серии Llama и серии Mistral, выпускаемые Meta, Mistral и т. д. Они хорошо справляются с разными задачами. Это зависит от того, какой тип задач вы хотите выполнять: выбирайте Claude для кодирования, GPT для рассуждений и Gemini для памяти, длинного контекста и мультимодального понимания.

Разумеется, компании будут продолжать совершенствовать свои модели. Например, Gemini — это всего лишь модель, которой меньше года. Я думаю, что мы находимся на действительно хорошем пути, и, надеюсь, в следующий раз, когда мы поговорим, Близнецы будут в первых рядах.

Фрай: Да, крупным моделям еще предстоит пройти долгий путь. Означает ли это также, что эти модели не очень хороши в некоторых аспектах.

Хассабис:конечно. На самом деле, это самая большая дискуссия сейчас. Многие из сегодняшних моделей основаны на технологиях, изобретенных пять или шесть лет назад. Так вот, этим моделям еще много чего не хватает, галлюцинируют и плохо планируют.

Фрай: Какой план?

Хассабис: Например, при некотором долгосрочном планировании модель не может решить проблему в долгосрочной перспективе. Вы ставите цель, а они не могут предпринять действия за вас. так,Модель очень похожа на пассивную систему ответов на вопросы.. Вы задаете вопрос, и вам дают какой-то ответ, но проблему за вас не решают. Например, вам нужен цифровой помощник, который поможет вам забронировать весь отпуск в Италии, а также забронировать все рестораны, музеи и многое другое. К сожалению, он не может этого сделать.

Я думаю, что это тема для следующей эпохи исследований, которую мы называем (в большей степени) агентно-ориентированными системами или интеллектуальными системами, имеющими агентоподобное поведение. Конечно, в этом Google хорош. В прошлом Google создал игровой агент AlphaGo и другие агенты. так,Многое из того, что мы делаем, — это объединение известных проектов с новыми крупномасштабными мультимодальными моделями и превращение их в системы нового поколения, такие как комбинация AlphaGo и Gemini.

Фрай: Я думаю, что AlphaGo очень хорошо умеет планировать.

Хассабис: Да, AlphaGo очень хорошо умеет планировать. Конечно, это только в игровой сфере. Поэтому нам необходимо распространить его на общие области, такие как повседневная работа и язык.

Фрай: Вы только что упомянули, что Google DeepMind теперь стал машинным отделением Google. Это настоящий сдвиг. Итак, делает ли Google большую ставку на искусственный интеллект?

Хассабис: Я так думаю. Я думаю, что Google всегда понимал важность искусственного интеллекта. Когда Сундар занял пост генерального директора, он сказал, что Google — компания, ориентированная прежде всего на искусственный интеллект. Мы обсуждали этот вопрос в начале его пребывания в должности, и он считает, что ИИ может стать следующим большим сдвигом парадигмы после мобильного Интернета и иметь больший потенциал, чем раньше.

Возможно, в последние год или два мы действительно начали понимать, что это значит, не только с точки зрения исследований, но также с точки зрения продуктов и других аспектов. Это очень интересно, поэтому я думаю, что для нас будет правильным объединить все таланты и сделать все возможное, чтобы продвинуть искусственный интеллект вперед.

Фрай: Мы знаем, что Google DeepMind очень серьезно относится к исследованиям и науке. Но поскольку он становится машинным отделением Google, означает ли это, что ему придется больше заботиться о коммерческих интересах, а не о самых чистых вещах?

Хассабис: Да, нас определенно больше волнуют коммерческие интересы в рамках технического задания. Но на самом деле, вот несколько вещей, которые я должен сказать. Во-первых, мы продолжим нашу научную работу над AlphaFold, которую мы выпустили AlphaFold 3 несколько месяцев назад. Мы также удваиваем наши инвестиции в это. Я думаю, что это уникальная работа, которую делает Google DeepMind.

Знаете, даже наши конкуренты думают, что это будет универсальный продукт для искусственного интеллекта. Мы создали новую компанию Isomorphic Labs для разработки лекарств. Все очень интересно и все идет очень хорошо. Так что мы продолжим это делать. В то же время мы также проделали большую работу в области прогнозирования климата и других аспектов.

У нас большая команда, поэтому мы можем выполнять несколько работ одновременно. Мы строим нашу крупномасштабную модель Gemini et al. Мы создаем команду разработчиков, чтобы внедрить все эти удивительные технологии во все области присутствия Google. В каком-то смысле для нас это преимущество — возможность подключить все наши технологии в любое время. Очень вдохновляет то, что мы можем изобрести что-то, что сразу же смогут использовать миллиарды людей.

Другое дело,Теперь нам нужна гораздо большая степень интеграции между технологиями искусственного интеллекта, разработанными для продуктов, и работой, выполняемой исключительно в исследовательских целях AGI.. Пять лет назад вам нужно было создать специальный ИИ для продукта. Теперь вы можете выделить основные исследования, и, конечно, вам еще нужно проделать некоторую работу по конкретному продукту, но это, вероятно, только 10% всей работы.

поэтому,Фактически больше нет противоречия между разработкой продуктов ИИ и созданием AGI.. Я бы сказал, что 90% — это один и тот же план исследования. Поэтому, если вы запускаете продукты и выводите их в мир, вы многому у них научитесь. Люди также используют его, поэтому вы узнаете много нового о том, например, что ваши внутренние показатели не совсем соответствуют тому, что говорят люди, и тогда вы сможете вносить обновления. Это очень полезно для вашего исследования.

Как протестировать технологию GenAI

Фрай: Мне интересно, существует ли противоречие между прорывами в применении ИИ в науке и подходящим временем для обнародования этих вещей. В Google DeepMind такие инструменты, как большие языковые модели, используются для исследований, а не рассматриваются как потенциальные коммерческие продукты.

Хассабис: Мы с самого начала очень серьезно относились к ответственности и безопасности. Еще до 2010 года Google включил некоторые базовые этические принципы в свои рекомендации по искусственному интеллекту. Мы сотрудничаем со всей компанией Google и хотим действовать ответственно, будучи одними из лидеров в этой области.

Так что сейчас интересно начать выпуск реальных продуктов с возможностями GenAI. На самом деле нам есть чему поучиться, и мы учимся быстро, и это хорошо. Наш риск относительно невелик при нынешних технологиях, которые еще не настолько мощны. Но поскольку технологии становятся все более мощными, мы должны быть более осторожными.

Продуктовые команды и другие команды учатся тестировать технологию GenAI. Эти методы отличаются от обычных техник тем, что они не всегда делают одно и то же. Это почти похоже на тестирование игры с открытым миром: возможности, которые вы можете попытаться сделать с ней, практически безграничны. Так что было интересно выяснить, как это сделать в красной команде.

Фрай: Итак, тест красной команды заключается в том, что вы соревнуетесь друг с другом?

Хассабис:Да. Тестирование красной команды — это когда вы привлекаете специальную команду из технической группы разработчиков для стресс-тестирования технологии и попытки взломать ее любым возможным способом. На самом деле вам необходимо использовать инструменты для автоматизации тестирования, и даже если этим занимаются тысячи людей, этого недостаточно по сравнению с миллиардами пользователей.

Кроме того, я думаю, что нам нужно делать это поэтапно, включая экспериментальную фазу, фазу закрытого бета-тестирования, а затем переиздание, точно так же, как мы делали это с играми в прошлом. Таким образом, вы учитесь на каждом этапе пути. Я думаю, что нам нужно больше использовать сам ИИ, чтобы помочь нам с внутренним тестированием красной команды и фактически автоматически находить некоторые ошибки или проводить тройную проверку. Таким образом, наши разработчики и тестировщики смогут сосредоточиться на таких сложных ситуациях.

Фрай: Здесь есть что-то очень интересное: вы находитесь в пространстве более высоких вероятностей. Итак, даже если что-то имеет небольшой шанс произойти, если вы будете стараться изо всех сил, в конечном итоге все пойдет не так. Я думаю, что были некоторые общественные ошибки.

Хассабис: Как я уже говорил, я думаю, что продуктовые команды привыкли к разного рода тестированиям. Они знают, что проверяли эту штуку, но она случайна и вероятностна. Фактически, во многих случаях, если это просто обычное программное обеспечение, вы можете сказать, что протестировали 99,999% этого программного обеспечения. Тогда сделайте вывод, что этого достаточно.

Однако это не относится к генеративным системам. Они могут делать самые разные вещи, которые немного выходят за рамки нормы, немного за рамки того, что вы видели раньше. Если какой-нибудь умный человек или злоумышленник решит каким-то образом протестировать эти системы, как это сделал бы хакер.

Эти системы могут существовать в комбинациях, включающих в себя все, что вы говорили о них раньше. Тогда он находится в каком-то особом состоянии, или память заполнена чем-то особенным, и поэтому им нужно что-то вывести. Здесь все сложно, и оно не бесконечно. Так что пути решения этой проблемы есть, но есть масса нюансов по выкатке нормальной технологии.

Фрай: Я помню, как вы сказали: кажется, это был первый раз, когда я брал у вас интервью, вы упомянули, что на самом деле мы должны признать, что это совершенно другой способ вычислений. Вам придется отойти от детерминистических вещей, которые мы полностью понимаем, и перейти к чему-то более запутанному, например вероятностному. Считаете ли вы, что общественности также необходимо немного изменить свой взгляд на типы вычислений?

Хассабис: Да, я согласен. Может быть, это еще одна вещь, о которой нам нужно подумать, что интересно,Прежде чем выпустить систему, вы можете выпустить документ с принципами или что-то в этом роде., чтобы четко продемонстрировать предполагаемое использование этой системы, для чего она предназначена? Для чего он используется? Чего оно не может? Я думаю, что здесь действительно необходима некая осознанность, например, если вы будете использовать это таким образом, вы найдете это полезным, но не пытайтесь делать с ним другие вещи, потому что это просто не сработает.

Я думаю, что это то, что нам нужно сделать в некоторых областях, и пользователям также может понадобиться опыт в этой области. На самом деле это довольно интересно, возможно, поэтому сами чат-боты вызывают некоторое удивление даже у OpenAI, включая ChatGPT. У нас также есть свои чат-боты, и мы заметили, что у этих роботов все еще есть недостатки, такие как галлюцинации и другие проблемы.

Но мы не осознаём, что, несмотря на эти недостатки, на самом деле существует множество отличных вариантов использования чат-ботов. В настоящее время люди находят очень ценные применения, такие как обобщение файлов и длинных документов, написание электронных писем, заполнение форм и т. д. Благодаря широкому спектру сценариев использования, даже если есть небольшие ошибки, люди на самом деле не возражают, люди могут легко исправить эти ошибки и сэкономить много времени. Я думаю, это то удивительное, что люди находят при использовании, люди находят эти ценные варианты использования, даже несмотря на то, что эти системы имеют недостатки во всех отношениях, о которых мы знаем.

О открытом исходном коде: после публикации его нельзя отозвать.

Фрай: Это подводит меня к следующему вопросу, который я хочу задать, а именно об открытом исходном коде. Как вы упомянули, когда все находится в руках людей, происходят поистине экстраординарные вещи. Я понимаю, что в прошлом DeepMind открывала исходный код многих проектов, но, похоже, со временем ситуация изменилась.

Хассабис: Да, мы очень поддерживаем открытый исходный код и открытую науку. Как вы знаете, мы публикуем почти все, что делаем, например, Transformer, а исследования AlphaGo и AlphaFold публикуются в Nature и других журналах, а исходный код AlphaFold также открыт. Благодаря обмену информацией технологии и наука могут быстро развиваться. Итак, мы почти всегда так делаем и думаем, что это очень полезно, и именно так работает наука.

Единственным исключением является то, что ИИ, ЛИИ и мощный ИИ имеют обе стороны. Вопрос в том, кто его использует, ученые и технологи, которые на самом деле действуют с добрыми намерениями и могут вносить конструктивные и критические предложения, что является самым быстрым способом прогресса общества. Но вопрос в том, как ограничить доступ людям с плохими намерениями, которые могут использовать одни и те же системы в плохих целях, использовать их не по назначению, например, системы вооружений, но мы не можем предсказать это заранее. Более того, саму универсальную систему можно таким образом повторно использовать. Мы все еще можем удержать это сегодня, потому что я не думаю, что системы еще настолько сильны.

В течение следующих двух-четырех лет, особенно когда мы начнем разрабатывать системы с поведением агентов, если эти системы будут кем-то использоваться не по назначению, это может нанести серьезный вред. Хотя у нас нет конкретных решений, нам как сообществу нужно подумать о том, что это значит для открытого исходного кода.

Возможно, передовые модели должны пройти дополнительную проверку, прежде чем они станут открытыми через год или два после выпуска.. Мы следуем этой модели, поскольку у нас есть собственная модель с открытым исходным кодом под названием Gemma. Эти модели меньше по размеру и не являются передовыми, поэтому их функции по-прежнему очень полезны для разработчиков и их легко запустить на ноутбуке с меньшим количеством параметров. Эти функции теперь хорошо изучены. Однако производительность этих моделей не так хороша, как у последних передовых моделей, таких как Gemini 1.5. Последний подход, который мы могли бы использовать, заключается в следующем:У нас будут модели с открытым исходным кодом, но они будут отставать примерно на год от современных моделей., чтобы мы могли реально оценить использование пользователями этих моделей публично и понять возможности передовых моделей.

Основная проблема с открытым исходным кодом заключается в том, что после его выпуска его нельзя отозвать.. В отличие от проприетарных моделей, разработчики не могут просто закрыть модель с открытым исходным кодом, если она используется ненадлежащим образом.Когда исходный код открыт, это все равно, что пройти через дверь с односторонним движением, поэтому вам нужно быть очень осторожным, прежде чем открывать исходный код.

Фрай: Можно ли ограничить общий искусственный интеллект (AGI) рвом внутри организации?

Хассабис: Это еще нерешенный вопрос. Мы пока не знаем, как это сделать, потому что об этом нам нужно подумать, когда мы начинаем говорить о человекоподобном искусственном интеллекте высокого уровня.

Фрай: А что насчет среднего слоя?

Хассабис: На среднем уровне у нас есть несколько лучших идей для решения этих проблем. Например, его можно протестировать в безопасной изолированной среде. Это означает тестирование поведения агента в игровой среде или частично подключенной версии Интернета. В этой сфере уже ведется большая работа по обеспечению безопасности, а также в других областях, таких как финансовые технологии. Мы могли бы взять на вооружение эти идеи и построить соответствующие системы, и именно так мы тестируем ранние прототипы систем. Но мы также знаем, что этих мер может быть недостаточно, чтобы ограничить AGI — систему, которая может быть умнее нас. Поэтому нам необходимо лучше понимать эти системы, чтобы разрабатывать протоколы для AGI. К тому времени у нас будут более эффективные способы контроля над ним и, возможно, использование систем и инструментов ИИ для мониторинга систем ИИ следующего поколения.

Как регулировать ИИ

Фрай: Что касается безопасности, многие люди, кажется, думают, что слово «регулирование» решает все проблемы. Как, по вашему мнению, должно быть структурировано регулирование?

Хассабис: Правительство ускоряет понимание и участие в технологии искусственного интеллекта, что является положительным явлением.Я считаю, что международное сотрудничество необходимо, особенно в таких областях, как регулирование, меры безопасности и характеристики развертывания.

Приближаясь к ОИИ, мы должны признать, что, поскольку технологии быстро развиваются,Наш подход к регулированию также должен быть гибким и быстро адаптироваться к новейшим технологическим разработкам.. Если бы вы регулировали ИИ пять лет назад, вы бы регулировали что-то совершенно другое. То, что мы видим сегодня, — это генеративный ИИ, но через пять лет все может быть иначе.

В настоящее время агентные системы могут представлять наибольший риск. Поэтому я рекомендую усилить существующие правила в уже регулируемых областях (таких как здравоохранение, транспорт и т. д.), чтобы адаптировать их к эпохе ИИ, точно так же, как ранее были обновлены правила для мобильных устройств и Интернета.

Первое, что я хотел бы сделать, — это сосредоточиться и убедиться, что мы понимаем и тестируем передовые системы. Когда ситуация прояснится и необходимо будет начать разработку правил, регулирующих такие ситуации, возможно, будет разумнее сделать это через несколько лет. Чего нам сейчас не хватает, так это сравнительного анализа, надлежащего тестирования компетентности, в том числе, поскольку отрасль хочет знать, в какой момент наши возможности могут представлять значительный риск. В настоящее время нет ответа на этот вопрос, и возможности агентов, которые я только что упомянул, могут стать следующим порогом, но в настоящее время не существует общепринятого метода тестирования.

Одним из возможных тестов является определение наличия у системы обманных способностей. Если в системе есть обман, то ничему другому, что она сообщает, нельзя доверять. поэтому,Тестирование обмана должно быть главным приоритетом для новых возможностей.. Кроме того, существует множество других способностей, которые стоит протестировать, таких как способность достигать определенных целей, возможности репликации и т. д., и в настоящее время ведется большая соответствующая работа. Я думаю, что именно здесь в игру вступают государственные учреждения. Я думаю, что было бы здорово, если бы они активно работали над этим, и, конечно, лаборатории должны поделиться тем, что они знают.

Фрай: Как институты вписываются в мир, который вы описываете? Даже если мы доберемся до стадии, когда у нас будет ОИИ, способный поддерживать все научные исследования, останутся ли институты?

Хассабис: Я так думаю. Я думаю, что переход к AGI будет результатом сотрудничества сообщества, научных кругов, правительства и промышленных лабораторий. Я искренне верю, что это единственный способ добраться до заключительного этапа.

Казахстанские стандарты тестирования AGI

Хассабис: Если вы спрашиваете, что произойдет после создания AGI, то одна из причин, по которой я всегда хотел создать AGI, заключается в том, чтобы мы могли использовать его, чтобы начать отвечать на некоторые из самых больших и фундаментальных вопросов о природе, реальности, физике и сознании. . В зависимости от того, какую форму это примет, это может быть комбинация людей-экспертов и ИИ. Я думаю, что так будет продолжаться еще какое-то время с точки зрения исследования следующего рубежа.

В настоящее время эти системы не могут самостоятельно выдвигать предположения или гипотезы.. В нынешнем виде они могут помочь вам доказать определенные проблемы, выиграть золотые медали на международных математических олимпиадах и, возможно, даже решить известные математические гипотезы, но они пока не способны формулировать гипотезы, такие как гипотеза Римана или общая теория относительности.Это был мой стандарт тестирования настоящего общего искусственного интеллекта.- Оно сможет это делать и даже изобретать новые теории. У нас пока нет никаких систем, и мы, возможно, даже не знаем, как теоретически спроектировать систему, которая это сделает.

Фрай: Ученый-компьютерщик Стюарт Рассел выразил мне свою обеспокоенность тем, что, как только мы достигнем стадии развития AGI, мы все можем в конечном итоге наслаждаться жизнью в безудержной роскоши без какой-либо цели в жизни. Хотя такая жизнь полна материальных благ, ей недостает глубокого смысла и цели.

Хассабис: Это действительно интересный вопрос. Вероятно, это выходит за рамки AGI и больше похоже на то, что люди иногда называют ASI. К тому времени у нас должны быть огромные ресурсы, и, если мы сможем обеспечить справедливое и равное распределение этих ресурсов, мы окажемся в положении, когда мы сможем свободно выбирать, как действовать, и «смысл» станет большим философским вопросом. Я думаю, нам понадобятся философы, может быть, даже теологи и социологи, чтобы начать думать об этом уже сейчас. Что приносит смысл? Я по-прежнему считаю, что самореализация важна, и не думаю, что мы все просто погрузимся в медитацию, может быть, поиграем в компьютерные игры. Но даже в этом случае действительно ли это плохо? Это вопрос, который стоит изучить.

Хотя ОИИ приведет к огромным изменениям, таким как излечение многих или всех болезней и решение энергетических и климатических проблем, он также может поставить нас перед более глубоким вопросом: в чем смысл жизни? Подобно восхождению на Эверест или участию в экстремальных видах спорта, эти занятия на первый взгляд могут показаться бессмысленными, но на самом деле они являются стремлением людей бросить вызов самим себе. С развитием ОИИ у нас может быть всё на материальном уровне, но вместе с ним происходит переосмысление смысла жизни. Эту проблему недооценивают как на ранних, так и на поздних стадиях развития технологий, и нам необходимо переоценить так называемую шумиху и ее реальное влияние на наше будущее.

Фрай: Давайте вернемся к вопросу об AGI. Я знаю, что ваша большая миссия — создать ИИ, который принесет пользу всем. Но как убедиться, что это действительно принесет пользу всем? Как учесть предпочтения всех, а не только дизайнеров?

Хассабис: Я не думаю, что можно объединить все предпочтения в одну систему, потому что по многим вопросам люди не могут прийти к согласию. Я думаю, что у нас может быть безопасная архитектура, на которой можно построить персонализированный искусственный интеллект, а затем люди решат, для чего можно, а что нельзя использовать систему ИИ, исходя из своих собственных предпочтений, целей использования и целей развертывания. В общем, архитектура должна обеспечивать безопасность, а затем люди могут вносить некоторые изменения и дополнения на основе архитектуры.

Поэтому я думаю, что по мере того, как мы приближаемся к AGI, нам, вероятно, придется более идеально сотрудничать на международном уровне, а затем убедиться, что мы создаем AGI в безопасной среде.

Как только мы выполним эту задачу, каждый сможет иметь свой собственный персональный карманный API, если пожелает.

Фрай: Хорошо. Но я имею в виду, что ИИ может демонстрировать плохое поведение.

Хассабис: Да, появляются плохие черты поведения, способности. Обман – один из примеров. Мы должны лучше понять все эти вопросы.

Есть две вещи, о которых следует беспокоиться: люди могут неправильно использовать ИИ и сам ИИ (по мере того, как он приближается к AGI, его производительность выходит за рамки). Я думаю, что эти две проблемы требуют разных решений. Да, именно с этим нам приходится иметь дело по мере того, как мы приближаемся к созданию ОИИ.

Возвращаясь к вашей точке зрения о том, чтобы принести пользу всем, на примере AlphaFold: я думаю, что мы сможем вылечить большинство болезней в течение следующих года или двух, если разработка лекарств с использованием ИИ сработает. Затем их можно превратить в персонализированные лекарства, чтобы минимизировать побочные эффекты для человека, которые, среди прочего, связаны с индивидуальным заболеванием человека и индивидуальным метаболизмом. Знаете, это удивительные вещи: чистая энергия, возобновляемая энергия, технологии принесут огромную пользу, но нам также необходимо снизить риски.

Фрай: Вы сказали, что одним из способов снизить риск было бы создание научной версии «Мстителей в сборе»?

Хассабис:конечно.

Фрай: Итак, как узнать, что настало время?

Хассабис: Ну, это большой вопрос. Вы не можете сделать это слишком рано, потому что вы никогда не заручитесь поддержкой некоторых скептиков. Сегодня вы видите, как некоторые очень известные люди говорят, что ИИ безопасен. А потом такие люди, как Джеффри Хинтон, говорят, что риск очень велик.

Фрай: Я хочу поговорить с вами подробнее о нейробиологии. Насколько это до сих пор вдохновляет то, что вы делаете? Потому что я заметил, что несколько дней назад DeepMind представила виртуальную мышь с искусственным мозгом, которая помогает изменить наше представление о том, как мозг контролирует движение. Я помню, мы много говорили о том, чтобы черпать вдохновение непосредственно из биологических систем. Это все еще лежит в основе вашего подхода?

Хассабис: Нет, сейчас это развилось, и я думаю, что мы вступили в стадию разработки, например, крупномасштабных систем, крупномасштабной архитектуры обучения. Нейронаука имеет на это немного меньшее влияние. Нейронаука является одним из источников идей, но когда объем инженерных разработок велик, нейронаука отходит на второй план. Так что теперь, вероятно, речь идет больше о применении искусственного интеллекта в нейробиологии. Я думаю, что по мере того, как мы приближаемся к AGI, понимание мозга станет одним из самых крутых вариантов использования AGI.

Фрай: Мне интересно, думаете ли вы, что будут вещи, находящиеся за пределами человеческого понимания, которые AGI поможет нам обнаружить и понять?

Хассабис: Я думаю, что системы AGI могут понимать более высокие уровни абстракции лучше, чем мы. Я думаю, что система искусственного интеллекта могла бы эффективно иметь любую префронтальную кору, чтобы она могла представлять себе более высокие уровни абстракции и шаблонов и могла видеть вселенную, которую мы не можем сразу понять или запомнить.

И затем я думаю, что с точки зрения интерпретируемости мы не можем бесконечно масштабировать наш собственный мозг, но теоретически, при наличии достаточного количества времени, SPE и памяти, AGI может понять все, что можно вычислить.

Фрай: Вы сказали, что DeepMind — это 20-летний проект. Насколько вы близки к тому, чтобы идти по правильному пути?

Хассабис: Мы на верном пути.

Фрай: Будет ли AGI доступен в 2030 году?

Хассабис: Я не удивлюсь, если это выйдет в течение следующих десяти лет.