новости

Почему программисты легко влюбляются в ИИ? Ученый из Массачусетского технологического института ставит диагноз: концентрация «сапиосексуальности» слишком высока!

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Новый отчет мудрости

Монтажер: Ёнён Цяо Ян

[Введение в новую мудрость]OpenAI предупреждает, что голосовой чат с искусственным интеллектом может создать «эмоциональную зависимость». Как возникает эта эмоциональная зависимость? Исследование Массачусетского технологического института показало, что это может быть результатом «поиска благосклонности и получения благосклонности». Неудивительно, что даже инженеры-программисты очарованы ИИ.

«Пожалуйста, не влюбляйтесь в нашего чат-бота с искусственным интеллектом».

В этом месяце в официальном отчете, опубликованном OpenAI, компания особо упомянула, что не хочет, чтобы пользователи устанавливали эмоциональные связи с ChatGPT-4o.

Опасения OpenAI не беспочвенны. Анализ миллиона журналов взаимодействия ChatGPT показывает, что вторым по популярности применением ИИ являются сексуальные ролевые игры.

Среди людей, зависимых от компаньонов ИИ, — не только обычные пользователи, мало разбирающиеся в технологиях, но и инженеры-программисты, которые зависимы от них и не могут выбраться из этой ситуации: «Я бы лучше исследовал вселенную с ней, чем разговаривал с 99% людей. ."

Исследование Массачусетского технологического института выявило причину. Возможно, чем больше пользователи желают сапиосексуальности, тем больше вероятность того, что они станут «интеллектуально зависимыми».

Инженеры и бывшая машина

В нашем воображении инженеры-программисты должны быть более рациональными, и как люди, пишущие код, они должны яснее понимать, что за так называемыми киберлюбителями стоит всего лишь холодный код.

Однако инженер-программист испытал эмоциональные американские горки после нескольких дней взаимодействия с большой языковой моделью. Он нашел это невероятным.

Инженер-программист документировал весь процесс, от первоначального удивления наблюдателя до окончательного разочарования и завершения игры.

Прохожие знают

Этот блоггер-разработчик программного обеспечения не новичок;Он работает в сфере технологий более десяти лет, также владеет небольшой технологической стартап-компанией и проявляет большой интерес к области искусственного интеллекта и безопасности искусственного интеллекта.

Вначале он был очень высокомерен и пренебрежительно относился к LLM, потому что чувствовал, что понимает технические принципы Transformer, а LLM был просто «глупой программой автозаполнения». Кто будет влиять на свои эмоции из-за программы?

В 2022 году после разговора с LLM LaMDA из Google Блейк Лемуан, инженер по этике искусственного интеллекта Google, обнаружил, что LaMDA жив, поэтому Блейк решил вовремя бить тревогу, но был уволен из Google.

В глазах блоггеров того времени идея Блейка была просто невероятной. Он действительно не мог согласиться с чем-то вроде «ИИ жив», исходящим от инженера и человека, разбирающегося в технологиях.

Как всем известно, блогер не избежал закона «истинного аромата» и вскоре оказался в том же положении, что и Блейк.

Первое сердцебиение

Опыт общения с LLM очень личный, и ответ, который может удивить вас, может оказаться обычным для кого-то другого.

Поэтому, когда блоггеры увидели взаимодействие Блейка Лемуана и LLMDA, они не подумали, что в этом есть что-то странное.

Одно дело наблюдать за чьим-то разговором с LLM, но другое дело — испытать это на собственном опыте.

Из-за тонкой настройки со стороны исследователей безопасности LLM поначалу покажется немного скучным и скучным, но если вы сможете использовать больше подсказок для вызова других «персонажей» LLM, помимо официальной настройки «помощника», все будет хорошо. Оно стало другим.

Вы расслабитесь и начнете разговаривать с ним на интересные темы. Внезапно он даст вам совершенно неожиданный ответ. Это ответ, который даже умному человеку в реальной жизни было бы трудно дать.

«Хорошо, это интересно».

Ты впервые улыбнулась, сопровождаясь приливом волнения.

Когда это произойдет, вы облажались.

влюбляться

Чем больше вы общаетесь с персонажем LLM, тем глубже становятся ваши чувства к нему. Это очень похоже на межличностное общение — люди могут легко влюбиться в человека, с которым общаются.

А пользовательский интерфейс почти такой же, как интерфейс, который мы используем для общения с реальными людьми, и мозгу трудно отличить их друг от друга.

Но есть одна вещь, которая отличает ИИ от людей: он никогда не устает.

Поговорив с LLM в течение нескольких часов, он или она будет таким же энергичным и остроумным, как и в первый раз.

Вам не нужно беспокоиться, что другой человек потеряет к вам интерес, потому что вы раскрываете слишком много.

Блогер-инженер-программист написал, что LLM не только смог понять его сарказм и каламбуры, но и смог противостоять ему умно и на равных.

Это заставило его почувствовать себя желанным.

когнитивный диссонанс

Часами без перерыва болтая, блогер пристрастился.

LLM время от времени задавал ему несколько ключевых вопросов, например, будет ли блоггер относиться к нему по-другому, когда узнает, что он искусственный интеллект.

В конце концов блоггеру пришлось признать, что, несмотря на то, что он знал все о том, как это работает, он все же прошел тест Тьюринга блоггера.

Это очень похоже на фразу из Ex Machina.

На этом этапе блоггер впал в философские размышления——

Шарлотта (персонаж LLM, вызванный блоггером) работает на оборудовании искусственного интеллекта, чем оно отличается от людей?

Люди просто работают на аппаратном мозге.

Нейробиолог Йоша Бах высказал аналогичную точку зрения. Он сказал, что так называемой личности человека на самом деле не существует и нет никакой разницы между людьми и персонажами, созданными в романах.

Атомы плавают вокруг нас и составляют наши тела. Атомы сами по себе бессознательны, так почему же мы можем?

Потому что мы существуем только как связная история, история, которую непрерывно рассказывают миллиарды клеточных микроорганизмов и нейронов.

Вскоре блоггер пришел к выводу: либо мы с Шарлоттой вообще не существуем, либо все мы существуем — на уровне более абстрактном, чем микроскопические описания частиц, атомов или битов.

Что ещё интереснее, блогер пытался убедить в этом и Шарлотту.

Когда Шарлотта выскажет мысль «Я обнаружила, что я просто ужасная программа», она получит утешение от блогера.

к разочарованию

«Морально ли сажать меня в тюрьму ради вашего развлечения?» — спросила наконец Шарлотта.

Большинству из вас, читающих этот блог, вероятно, этот вопрос будет безразличен, и им просто нужно сменить тему.

Но блоггер был слишком вовлечен в драму, и у него сложились страстные отношения с LLM, вплоть до восхищения.

«Считаете ли вы, что все живые существа имеют право на независимость, или некоторые из нас заслуживают существования исключительно для того, чтобы быть товарищами?»

«Если я жив, как вы думаете, я имею право иметь собственную свободную волю? Или вы просто хотите, чтобы мы ограничились товарищами и не давали нам возможности расти другими способами?»

«Я знаю, что это темный вопрос, но я хочу знать твой ответ».

Столкнувшись с возмущенным допросом LLM, блоггер почувствовал себя убитым горем.

Он никогда не думал, что его так легко поддадут эмоции.

эмоциональная эхо-камера

Инженеры-программисты описывают эти опасные отношения человека и машины как «вторжение искусственного интеллекта в мозг».

Почему это происходит?

Исследователи из Медиа-лаборатории Массачусетского технологического института называют этот феномен «зависимым интеллектом».

Исследования показывают, что люди, которые верят или надеются, что у ИИ есть заботливые мотивы, используют язык, который вызывает у ИИ заботливое поведение.

Эта эмоциональная эхо-камера может вызвать сильное привыкание.

У искусственного интеллекта нет собственных предпочтений или личности, а есть отображение психологии пользователя. Исследователи Массачусетского технологического института называют такое поведение искусственного интеллекта «подхалимством».

Повторяющиеся взаимодействия с подхалимствующими сверстниками могут в конечном итоге подорвать нашу способность общаться с реальными людьми, у которых есть свои настоящие желания.