Новости

Гонконгский университет финансов и экономики Ма И: Большие модели без теории в течение долгого времени подобны слепым людям, чувствующим, что громкие имена собираются, чтобы обсудить следующий шаг в области искусственного интеллекта;

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Западный ветер дует из храма Аофэй.
Кубиты | Публичный аккаунт QbitAI

«Я хочу задать вам вопрос. Независимо от того, являетесь ли вы учеником Академии Цючжэнь или младшего класса Цю Чэнтуна, если вы не знаете этого вопроса, вам не следует посещать этот класс!»

На Международной фундаментальной научной конференции 2024 года «Форум фундаментальной науки и искусственного интеллекта» технический директор Lenovo Group и иностранный академик Европейской академии наукРуй ЁнКак только прозвучали эти слова, вся публика немного занервничала.

Но затем он задал вопрос:Какой больше: 13,11 или 13,8?



Эй, ребята, просто спросите, кто еще не знает эту шутку.

Однако на этот раз речь не идет о высмеивании безумия модели. Несколько экспертов по искусственному интеллекту из академических кругов и промышленности проанализировали ряд проблем, таких как «иллюзия» модели, и высказали свое мнение по поводу «Каков следующий шаг искусственного интеллекта?"мнение о.



Вкратце, он включает в себя следующие пункты:

  • Следующим шагом в разработке больших моделей является отход от парадигмы поиска «нет абстрактных способностей, нет субъективной ценности и нет эмоционального знания».
  • Коммерческие приложения отстают от масштабов роста самой модели, и отсутствует суперпродукт, который действительно мог бы отражать ценность инвестиций.
  • При ограничении иллюзий следующим шагом может стать размышление о том, как расширить обобщение и интерактивность модели.
  • Для интеллектуального агента очень важно знать границы своих возможностей.

Декан факультета данных Гонконгского университета и председатель кафедры компьютерных наук Гонконгского университетаМогу ли яВ ходе дискуссии даже был поднят вопросительный знак по поводу «искусственного интеллекта», который сейчас используется мейнстримом:

Развитие технологий искусственного интеллекта накопило большой опыт, часть которого мы можем объяснить, а часть не можем объяснить. Сейчас настало время, когда теория крайне необходима. Фактически, можно сказать, что за последние десять лет наша наука не добилась большого прорыва. Вполне вероятно, что быстрое развитие промышленности и инженерных технологий повлияло на темпы академической деятельности.



Давайте посмотрим, что конкретно сказали большие парни.

Какова природа интеллекта?

На месте происшествия декан Школы данных Гонконгского университета и заведующий кафедрой компьютерных наук Гонконгского университета.Могу ли явыступил с программной речью под названием «Возвращение к основам теории и исследование сущности интеллекта».

Высказанные мнения совпадают с вопросами, обсуждавшимися на круглом столе.

Темой выступления профессора Ма И было «Возвращение к основам теории и исследование сущности интеллекта». Он рассмотрел исторический процесс развития ИИ и изложил собственные взгляды на современное развитие ИИ.



Он впервые говорил об эволюции жизни и разума.

По его личному мнению, жизнь является носителем разума, а способность жизни производить и развиваться является результатом действия разумных механизмов. и,Мир не случайен, он предсказуем, в процессе непрерывной эволюции жизнь усваивает более предсказуемые знания о мире.

Выживание наиболее приспособленных посредством естественного отбора — это своего рода обратная связь от интеллекта, аналогичная современной концепции обучения с подкреплением.



От растений до животных, рептилий, птиц, а затем и до человека, жизнь совершенствует свой интеллект, но существует феномен, который, по-видимому, заключается в том, что чем разумнее жизнь, тем дольше она будет следовать за своими родителями после рождения. Почему?

Профессор Ма И далее объяснил: поскольку генов недостаточно, некоторым способностям необходимо научиться. Чем сильнее способность к обучению, тем больше вещей нужно выучить. Это более продвинутая форма интеллекта.

Если мы учимся индивидуально, то это недостаточно быстро и недостаточно хорошо, поэтому люди изобрели язык, а человеческий интеллект стал формой группового интеллекта.

Была произведена групповая разведка и произошли качественные изменения.Мы не только узнаем об этих предсказуемых явлениях из эмпирических наблюдений;абстрактное логическое мышлениемы называем это человеческим интеллектом, или позже искусственным интеллектом.



Далее он рассказал о происхождении машинного интеллекта.

С 1940-х годов люди начали пытаться позволить машинам имитировать интеллект живых существ, особенно животных.

Люди начали моделировать нейроны и исследовать, «как работает восприятие мозга». Позже все обнаружили, что моделирование нервных систем животных должно быть построено на основе искусственных нейронных сетей, и исследования становились все более и более сложными.



В этом вопросе не все было гладко. После двух холодных зим все обнаружили некоторые ограничения нейронных сетей, и некоторые люди все еще настаивают на решении этих проблем.

Впоследствии вычислительная мощность данных выросла, и стало возможным обучать нейронные сети. Стали развиваться все более глубокие сети, и их производительность становилась все лучше и лучше.



Но есть самая большая проблема:Эти сети созданы эмпирически. Это черный ящик, который становится все больше и больше. Люди не знают, что происходит внутри.

Что не так с черным ящиком? С технической точки зрения также возможен дизайн опыта, и можно продолжать метод проб и ошибок. Однако стоимость высока, цикл длительный, а результаты трудно контролировать. также:

Пока в мире существует важное явление, которое никто не может объяснить, и многие люди остаются в неведении, это будет вызывать панику. Это происходит сейчас.

Итак, как открыть черный ящик? Профессор Ма И предложил вернуться к первоначальному вопросу: Зачем учиться? Почему жизнь может развиваться?

Он особо подчеркнул, что надо говорить о вещах, которые можно реализовать посредством расчета:

Не говорите ни о чём абстрактном. Это мой совет всем. Вы должны говорить о том, как посчитать и как выполнить это дело.



Так чему же научиться?

Профессор Ма И считает, что нам следует изучать предсказуемые и регулярные вещи.

Например, если взять ручку в руку и отпустить, все знают, что произойдет, а если быстро двигаться, то можно ее поймать. Это было известно еще до Ньютона. Кажется, что люди и животные имеют хорошие модели внешнего мира.



А в математикеПредсказуемая информация равномерно отражается в низкоразмерной структуре данных в многомерном пространстве.

Так что же представляет собой единый механизм расчета? Профессор Ма И дал ответ:Похожие вещи собираются вместе, а разные отталкиваются., суть так проста.

Как измерить, сделано ли что-то хорошо? Почему сжатие?

Он привел пример, как показано ниже. Например, мир случайный, ничего не известно, и все может случиться. Если вместо этого использовать синие шары, все синие шары могут произойти в следующую секунду.

Но если вы хотите запомнить, что произошло одно из этих событий, вам придется закодировать все пространство, дать ему код, и может произойти только область с зелеными шариками, а синих шариков будет гораздо меньше.

Когда мы знаем, что области, в которых будут происходить события, становятся все меньше и меньше, мы знаем все меньше и меньше о мире. Это то, что теория информации установила в 1940-х годах.

Чтобы лучше находить эти зеленые зоны, мы должны лучше организовать их в мозгу. Итак, наш мозг организует это явление и эту низкоразмерную структуру.



Как этого можно достичь вычислительным путем?

Профессор Ма И сказал, что все глубокие сети действительно делают это. Как и нынешний Трансформер, он делает это путем сегментации изображений и их классификации.



Фактически каждый уровень нейронной сетиСжатие данных

Математика играет в этом очень важную роль. Вы должны строго определить, что вы хотите оптимизировать и как это оптимизировать. После того, как вы проделали эти две вещи, вы обнаружите, что полученный вами оператор такой же, как и тот, который вы нашли. текущий опыт Многие операторы очень похожи.
Будь то Transformer, ResNet или CNN, все они делают это по-разному. И его можно полностью объяснить статистически и геометрически, что он делает.



ноОптимальное решение оптимизации само по себе может не быть правильным решением. , важная информация может быть потеряна в процессе сжатия. Как доказать, что существующие размеры информации хорошие? Как доказать, что галлюцинаций не будет?

Возвращаясь к основам обучения, почему нам нужно помнить эти вещи?Это быть тамМозг моделирует физический мир,Чтобы лучше работать в физическом пространствепредсказывать

Позже Ма И упомянул концепцию выравнивания:

Таким образом, согласованность – это не согласованность с людьми, согласованность – этоМодель согласуется с тем, чему она научилась.



Недостаточно научиться автокодированию изнутри наружу. Как животные в природе изучают физическую модель внешнего мира?

Постоянно используйте собственные наблюдения для прогнозирования внешнего мира, если это согласуется с наблюдениями.последовательный , вот и все. Это включает в себя концепцию замкнутого цикла.

Пока существуют живые существа, пока существуют разумные существа, все они замкнуты.



Затем профессор Ма И отметил, что мы еще далеки от истинного интеллекта.

Что такое интеллект? Люди часто путают знания и интеллект. Обладает ли система интеллектом, если у нее есть знания? Интеллектуальная система должна иметь основу для самосовершенствования и увеличения собственных знаний.

Наконец, профессор Ма И заключил.

Оглядываясь назад на историю, можно сказать, что в 1940-е годы все хотели, чтобы машины имитировали животных, но в 1950-е годы Тьюринг предложил одну вещь — могут ли машины думать, как люди. На Дартмутской конференции 1956 года группа людей собралась вместе, и их целью было сделать что-то.Уникальный интеллект, отличающий человека от животныхАбстрактные способности, символические операции, логическое рассуждение, причинный анализ.ждать.

Это то, что они определили для искусственного интеллекта в 1956 году. Позже эти люди фактически получили премию Тьюринга. Итак, если вы хотите в будущем выиграть Премию Тьюринга, стоит ли вам следовать за толпой или сделать что-то уникальное...

Оглядываясь назад, чем мы занимались последние 10 лет?

Нынешний «искусственный интеллект» занимается распознаванием изображений, генерацией изображений, генерацией текста, сжатием и шумоподавлением, а также обучением с подкреплением, считает профессор Ма И.По сути, то, что мы делаем, происходит на уровне животных., включая прогнозирование следующего токена и изображения следующего кадра.

Дело не в том, что у нас не было людей, которые работали над этим позже. Но это не массовая большая модель.



Далее он объяснил, что если вложить достаточно денег и данных, производительность многих моделей будет продолжать развиваться, но если в течение длительного времени не будет теории, возникнут проблемы, точно так же, как слепой пытается вычислить вышел слон.



Профессор Ма И сказал, что рассказ о своем личном путешествии надеется вдохновить молодых людей.

Как только у нас появятся принципы, мы сможем смело проектировать, и нам больше не придется ждать, пока следующее поколение изобретет, казалось бы, хорошую сеть, и мы сможем использовать ее вместе. Так где же ваши возможности?

Давайте посмотрим, как другие эксперты по искусственному интеллекту ответили на вопрос «Каков следующий шаг искусственного интеллекта» на форуме за круглым столом?

Каков следующий шаг искусственного интеллекта?
Большие модели требуют изменения «парадигмы»

Член Королевской инженерной академии, Европейской академии наук, Гонконгской академии инженерных наук и главный вице-президент Гонконгского университета науки и технологий.Го ЙикеЯ думаю, мы сейчас переживаем очень интересный момент...

Поскольку закон масштабирования широко принят, война ста моделей постепенно превратилась в войну за ресурсы.Кажется, что теперь нам нужно сделать только две вещи. После создания модели Трансформера необходимо решить следующее.Большая вычислительная мощностьиБольшие данныеПроблема.

Однако, по его мнению, это не так.Современное развитие искусственного интеллекта по-прежнему сталкивается со многими проблемами. Одна из них — это.Ограниченная вычислительная мощность и бесконечный спросПроблема.

Как в этом случае нам следует построить большую модель? Академик Го поделился своими мыслями через некоторые практики.

Прежде всего, академик Го упомянул об использовании более экономичных МЧС в условиях ограничения вычислительных мощностей.смешанная экспертная модельТакже можно добиться очень хороших результатов.



Кроме того, как постоянно улучшать модель на новых данных после обучения, чтобы она могла запоминать то, что следует запомнить, забывать то, что следует забыть, и иметь возможность запоминать забытые вещи, когда это необходимо, — тоже сложный вопрос.

Академик Го не согласен с некоторыми заявлениями в отрасли о том, что «данные израсходованы». «На самом деле модель просто сжимается, а сжатые данные можно перегенерировать в новые данные», то есть с помощью генеративного метода. модели для генерации данных.

Далее, не все модели нужно изучать с нуля. Можно.внедрение знаний в базовую модель. В этой области также предстоит проделать большую работу.

Помимо вычислительной мощности, у алгоритма есть еще одна проблема:Развитие машинного интеллекта и человеческого интеллекта само по себе имеет две полярности.

Академик Го считает, что при обучении больших моделей более важным является не передняя часть, а задняя часть.

Как показано на рисунке ниже, эволюционный путь большой модели идет от самообучения > косвенных знаний > ценностей > здравого смысла, в то время как путь совершенствования человеческого образования является противоположным.



По этой причине академик Го считает, что нам следует выйти из сегодняшней парадигмы поиска больших моделей «без абстрактных способностей, без субъективной ценности и без эмоциональных знаний».

Мы все знаем, что человеческий язык велик. Человеческий язык — это не только содержание, не только информация, но также человеческая природа и энергия информации. Так как же эти вещи классифицируются в модели? Это важное направление для наших будущих исследований.



Подводя итог, что касается следующего шага искусственного интеллекта, академик Го считает, что существует три этапа развития:

Первый этап основан на аутентичности; второй этап основан на ценности. Машина должна быть способна выражать собственную точку зрения и формировать собственную субъективную ценность, и эта точка зрения может меняться в зависимости от ее окружения; стадия Только тогда, когда у него есть ценности, он может понять, что такое новизна, и только с новизной он может творить.

Когда дело доходит до создания этой модели, так называемая иллюзия не является проблемой, потому что иллюзия — это проблема только парадигмальной модели. Написание романа должно быть иллюзией. Без иллюзии вы не сможете написать роман. Ему нужно только сохранять последовательность и не требовать аутентичности, поэтому ему нужно только отражать ценность. Так что в этом смысле разработка большой модели на самом деле. требует Происходит смена парадигмы.
При разработке крупных моделей не хватает «суперпродукта»

Вице-президент JD.com, адъюнкт-профессор и руководитель докторской диссертации Вашингтонского университета.Хэ СяодунСчитается, что на следующем этапе ИИ столкнется с тремя проблемами.

Прежде всего, он считает, что в каком-то смысле развитие крупных моделей вступило в период плато.

Из-за ограничений в данных и вычислительной мощности, если улучшения будут основаны просто на масштабе, потолок может быть достигнут, и вычислительные ресурсы станут все более тяжелым бременем. Если следовать последней ценовой войне (ценнику), весьма вероятно, что экономические выгоды, генерируемые большими моделями, не смогут даже покрыть счета за электроэнергию, поэтому она, естественно, будет неустойчивой.

Во-вторых, профессор Хе считает, что все коммерческое применение отстает от масштабного роста самой модели. В среднесрочной и долгосрочной перспективе это со временем станет проблемой:

Особенно когда мы видим такой большой масштаб, это уже не просто научная проблема, это также станет инженерной проблемой. Например, если параметры достигнут уровня триллиона, данные вызова достигнут уровня 10 триллионов токенов. Тогда необходимо поставить вопрос: какую социальную ценность это приносит.

Исходя из этого, профессор Хэ полагает, что в настоящее времяОтсутствие супер приложения и супер продукта, может действительно отражать стоимость инвестиций.

Третий вопрос является относительно конкретным вопросом, а именно:иллюзия большой модели

Если мы хотим построить ИИ-индустрию на основе больших моделей, у нас должны быть чрезвычайно высокие требования к базовой иллюзии большой модели. Если уровень ошибок базовой большой модели очень высок, трудно представить, что на нее можно будет наложить больше коммерческих приложений.
Серьезные промышленные приложения должны развеять эту иллюзию.

Профессор Хе считает, что в условиях ограничения иллюзий следующим шагом может стать размышление о том, как расширить обобщенность и интерактивность модели, имультимодальныйЭто неизбежный выбор.



Большим моделям не хватает понимания «границ возможностей».

Технический директор Lenovo Group, иностранный академик Европейской академии наукРуй ЁнС промышленной точки зрения он высказал свое мнение о следующем этапе развития ИИ.

Он сказал, что с промышленной точки зрения более важным является то, как эта модель реализуется. Что касается реализации, доктор Руй Юн в основном говорил о двух моментах:

  • Недостаточно иметь большую модель, мы должны ее разработать.агент
  • Недостаточно иметь большую модель измерения облака, необходимо иметьгибридная структура



В частности, доктор Руй Юн первым перечислил некоторые исследования и отметил, что ограничения больших моделей становятся все более очевидными. Например, вопрос «Что больше, 13,8 или 13,11», упомянутый в начале, показывает, что модель не совсем понимает проблему.

По его мнению, нынешние большие модели лишь соединяют массивную фрагментированную информацию, видимую в многомерном семантическом пространстве. Недостаточно построить большие сети с большой вычислительной мощностью для создания больших генеративных моделей. Следующий шаг должен быть в направлении. разработка интеллектуальных агентов.

Доктор Руй Юн особо подчеркнул большую модель.Граница возможностейвопрос.

Сегодняшние большие модели фактически не знают, где находятся границы их возможностей.
Почему у крупных моделей возникают галлюцинации и почему они несут серьезную чепуху? На самом деле он не пытается нас обмануть, но он не знает, что он знает или чего не знает. Это очень важный вопрос, поэтому я думаю, что первый шаг — заставить агента знать границы. его возможности.

Кроме того, доктор Руи Юн заявил, что одного интеллекта недостаточно для внедрения ИИ, и крупные общедоступные модели в облаке необходимо приватизировать для предприятий. Управляемые данными и знаниями образуют гибридную модель ИИ, а небольшие модели также очень полезны во многих ситуациях. Существуют также индивидуально-ориентированные модели, которые могут знать личные предпочтения.

Это будет не большая модель, полностью основанная на облачном тестировании, а большая модель, сочетающая в себе устройство, периферию и облако.