новости

«Крестный отец ИИ» Бенджио сказал: Люди, возможно, не смогут решить риски ИИ и проблемы политического надзора через 10 лет.

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Новости приложения Titanium Media от 24 августа,Йошуа Бенджио, канадский ученый-компьютерщик, известный как «Крестный отец искусственного интеллекта», пионер в области технологий глубокого обучения и лауреат Премии Тьюринга 2018 года, публично заявил, что с запуском ChatGPT время для рисков, связанных с технологиями искусственного интеллекта, сократилось. .К сожалению, мы не можем использовать десять лет для решения проблем, связанных с рисками и политикой ИИ, но можем использовать более короткий срок, поэтому отрасли необходимо действовать сейчас, чтобы ускорить внедрение политики безопасности ИИ.

«На создание политики уходит много времени, на разрешение разногласий уходят годы, на принятие такого законодательства уходят годы, есть процессы, которые необходимо внедрить, нужны годы, чтобы действительно сделать это правильно», — Бенджио сказал Bloomberg. Теперь беспокойтесь, что времени, чтобы «все сделать правильно», может не хватить.И что еще хуже, риски, связанные с ИИ, — это не только нормативный вопрос, это международный договор, и нам необходимо решать эту проблему в глобальном масштабе.

Сообщается, что Бенджио родился в Париже и вырос в Канаде. Сейчас он живет в Монреале, Канада, и работает профессором на кафедре компьютерных наук и вычислений в Монреальском университете. Он получил степень доктора компьютерных наук в Университете Макгилла в Канаде в 1991 году. Основными областями исследований Бенджио являются глубокое обучение и обработка естественного языка.

За свою более чем 30-летнюю исследовательскую карьеру в области глубокого обучения Бенджио опубликовал более 300 научных статей, которые цитировались более 138 000 раз. Нг Энда однажды сказал, что многочисленные теоретические исследования Бенджио очень вдохновили его.

В 2018 году он, «отец нейронных сетей» Джеффри Хинтон и «отец сверточных сетей» Янн ЛеКун получили «Премию Тьюринга» за новаторство в области теории технологий глубокого обучения. Этих троих также называют «ИИ». индустрия ИИ «Большая тройка», «Большая тройка глубокого обучения», «Три крестных отца ИИ».

Бенджио, один из «Трех гигантов глубокого обучения», однажды отметил, что термином «ИИ» злоупотребляют. Некоторые компании антропоморфизируют системы ИИ, как будто система ИИ представляет собой интеллектуальную сущность, эквивалентную человеку. Фактически, пока не существует разумной сущности, сравнимой с человеческим интеллектом. Конечно, он по-прежнему любит ИИ как технологию.

Бенджио рассказал, что до появления ChatGPT в конце 2022 года он считал, что реальные риски ИИ не проявятся, по крайней мере, в течение десятилетий. Было время, когда его не очень беспокоили проблемы безопасности ИИ, и он считал, что люди далеко. от разработки технологии, которая могла бы конкурировать с людьми. Хотя до технологии искусственного интеллекта еще «несколько десятилетий», он предполагает, что мы можем «пожинать плоды искусственного интеллекта» в течение многих лет, прежде чем столкнемся с рисками.

Но теперь запуск ChatGPT полностью изменил его мнение. Он уже не был так уверен. Его предположения о скорости развития ИИ – и потенциальных угрозах, которые эта технология представляет для общества –Он был отменен после того, как OpenAI выпустила ChatGPT в конце 2022 года, поскольку появилась технология искусственного интеллекта человеческого уровня.

«Я полностью изменил свое мнение, поскольку у нас наконец-то появились машины, которые могут с нами разговаривать (ChatGPT)», — сказал Бенджио. «Теперь у нас есть машины с искусственным интеллектом, которые могут понимать язык. До сих пор мы не ожидали, что это произойдет. Я не думаю, что кто-то действительно этого ожидал, даже те, кто создавал эти системы. Вы можете видеть, что люди думали, что пройдут годы, десятилетия или даже больше, прежде чем мы достигнем человеческого уровня интеллекта. На уровне интеллекта трудно предсказать, что произойдет – получим ли мы что-то действительно хорошее или что-то очень плохое, и как мы на это отреагируем. Именно это движет моей нынешней работой в области науки и политики. »

После того, как ChatGPT вызвал глобальную дискуссию о рисках ИИ, Бенджио начал уделять больше энергии пропаганде регулирования ИИ и вместе с коллегой-ученым и пионером ИИ Джеффри Хинтоном публично поддержал спорный калифорнийский законопроект о безопасности ИИ SB1047, который будет привлекать компании к ответственности за катастрофический ущерб, причиненный их моделями ИИ без принятия мер безопасности.

Бенджио считает, что это «второе по важности предложение на столе переговоров», уступающее только законопроекту ЕС об искусственном интеллекте.

15 августа по местному времени спорный Калифорнийский Закон о безопасности инновационных моделей искусственного интеллекта Frontier (позже известный как Калифорнийский закон о безопасности искусственного интеллекта SB 1047) наконец прошел проверку Комитета по ассигнованиям Палаты представителей Калифорнии после значительного ослабления соответствующих положений.

Целью SB 1047 является предотвращение инцидентов кибербезопасности, в которых крупномасштабные системы искусственного интеллекта убивают большое количество людей или причиняют убытки, превышающие 500 миллионов долларов, путем привлечения разработчиков к ответственности. После успешного прохождения проверки это означает, что законопроект стал важным шагом на пути к тому, чтобы стать официальным законом и постановлением, а также важным шагом в надзоре за ИИ в Соединенных Штатах.

Однако Калифорнийский закон о безопасности ИИ вызвал споры. Профессор Стэнфордского университета Ли Фейфей, главный научный сотрудник Meta Ян Ликунь и другие считают, что законопроект в конечном итоге нанесет ущерб Калифорнии и даже лидирующим позициям США в области искусственного интеллекта. Более 100 ученых также опубликовали статьи, выступающие против законопроекта. Институт a16z создал веб-сайт, на котором подробно описаны шесть случаев преступлений, предусмотренных законопроектом.

Даже бывший спикер Палаты представителей США Нэнси Пелоси выступила с заявлением против этого законопроекта, полагая, что калифорнийский законопроект о безопасности ИИ имеет благие намерения, но ему не хватает полного понимания. Многие важные ученые и руководители калифорнийских технологических компаний выразили несогласие с этим законопроектом. хороший.

Последним противником калифорнийского законопроекта об искусственном интеллекте является OpenAI. На этой неделе OpenAI опубликовала документ, в котором говорится, что этот закон нанесет вред инновациям в области искусственного интеллекта и может оказать «широкомасштабное и значительное» влияние на конкурентоспособность Соединенных Штатов в области искусственного интеллекта и национальную безопасность.

Бенджио, однако, заявил, что Калифорнийский закон о безопасности ИИ не носит чрезмерно предписывающего характера и вместо этого предусматривает ответственность, гарантирующую, что компании, занимающиеся ИИ, не игнорируют меры предосторожности, «которые сделал бы разумный эксперт». «Это создаст стимул для компаний, чтобы они не стали худшими учениками в классе».

Бенджио отметил, что на дискуссии о регулировании ИИ могут повлиять венчурные капиталисты и компании, стремящиеся получить прибыль от этой технологии. «Можно провести аналогию с изменением климата, компаниями, работающими на ископаемом топливе, и так далее», — сказал он.

«Дело не в этом, а совсем наоборот. Это не так уж и обязывает. Это не оказывает большого влияния. Там просто говорится: если вы причините ущерб на миллиарды долларов, вы несете ответственность. На протяжении десятилетий весь расчет Я думаю, что (оппозиция) более идеологизирована. Меня действительно беспокоит сила лобби и триллионы и даже квадриллионы, которые принесет Ай (сказал Стюарт Рассел, профессор). Калифорнийский университет в Беркли и основатель Центра систем искусственного интеллекта) будут мотивировать компании выступать против любого регулирования», — сказал Бенджио.

Что касается управления рисками, Бенджио отметил: «Я скептически отношусь к риску. Я слышал много хороших аргументов в пользу того, что ИИ, который умнее нас, может быть очень опасным. Даже если он не умнее нас, он может быть опасным. используется людьми способами, которые чрезвычайно опасны для демократии. Любой, кто говорит, что знает, слишком самоуверен, потому что, по сути, наука не может ответить на этот вопрос проверяемым способом. Аргументы все верны. Но если вы агностик. и вы думаете о политике, вам необходимо защитить общественность от действительно плохих вещей. Это то, что правительство делает во многих других областях. Они не могут сделать это в области вычислений и искусственного интеллекта».

Бенджио неоднократно подчеркивал, что он не ожидал, что люди так быстро освоят технологию разговорного голоса на основе искусственного интеллекта и что она, по крайней мере, достигла достаточно гуманного уровня.

«Я думаю, что желание быстро внедрять инновации в опасных вещах неразумно. В биологии, когда исследователи обнаружили, что опасные вирусы могут быть созданы с помощью так называемых исследований увеличения функциональности, они коллективно решили: ну, мы этого не сделали. Давайте попросите правительство установить правила, чтобы, если вы сделаете это, по крайней мере, если это не будет контролироваться, вы попадете в тюрьму», — сказал Бенджио. «Я уверен, что вы знаете о синтетической детской порнографии, возможно, это не так эмоционально, но более того. Важно отметить, что те же самые дипфейки будут искажать общество. Эти дипфейки будут становиться только лучше. , новое исследование, проведенное в Швейцарии, сравнило GPT-4 с людьми, чтобы выяснить, кто может убедить людей, которые явно понятия не имеют. Человек, разговаривающий с человеком или машиной, меняет свое мнение о чем-то».

Бенджио отметил, что «мы должны придерживаться аналогичного принципа предосторожности, когда дело касается ИИ».

Глядя в будущее,Бенджио подчеркнул:Все приложения технологий искусственного интеллекта по-прежнему будут менять образ жизни человека здоровым образом.Например, с точки зрения биологии ИИ поймет, как работает тело и как работает каждая клетка, что может произвести революцию в таких областях, как медицина и исследования и разработки лекарств, с точки зрения климата, он может помочь создать более совершенные батареи, улучшить улавливание углерода; и лучше хранения энергии.

«Этого пока не происходит, но я думаю, что это замечательные технологические продукты, которые мы можем создавать с помощью ИИ. И, кстати, эти приложения — большинство из них не опасны. больше инвестировать в решение своих задач», — сказал Бенджио в конце разговора.