новости

фотообзор ai вызывает споры: микки маус курит, трамп целуется, губка боб носит нацистскую форму

2024-09-04

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

zhidixi (публичный аккаунт: zhidxcom)

составлено | сюй юй

редактор | мо ин

согласно сообщению wall street journal от 2 сентября, некоторые шутливые и политически вводящие в заблуждение изображения ии недавно были распространены на платформе социальных сетей «микки с пистолетом» и т. д., содержание изображения заставляет пользователей чувствовать себя сбитыми с толку и некомфортными.

эти изображения ии генерируются большими моделями ии, такими как grok-2 и gemini. grok-2 был разработан xai, американской крупной моделью единорога искусственного интеллекта, основанной маском, а gemini — от американского технологического гиганта google.

в последнее время google совершенствует свой механизм проверки контента, созданного изображениями ии, чтобы избежать предвзятости, двусмысленности, неправильности, расизма и противоречия историческим фактам.

в ответ на аналогичные проблемы openai, крупный американский единорог модели искусственного интеллекта, запретил использование искусственного интеллекта для создания четко направленных символов, чтобы усилить проверку контента при генерации изображений искусственного интеллекта.

1. большая модель нового поколения grok-2 от xai позволяет негласно разыгрывать политических деятелей.

откройте платформу социальных сетей. камала харрис целуется.

эти загадочные и неудобные изображения были созданы с использованием xai и новых моделей или программного обеспечения генеративного искусственного интеллекта google.

▲на изображении, созданном с помощью технологии искусственного интеллекта, трамп «принцесса обнимает» харрис с четким портретом (источник: «wall street journal»)

14 августа компания xai запустила модель большого языка нового поколения grok-2. через несколько дней после выпуска модели платформа x была завалена изображениями, которые, как утверждается, были созданы с помощью grok-2. в этих сценах «соперники» трамп и харрис интимны, а микки в сказочном мире держит в руках пистолет и курит. эти изображения, созданные с помощью генеративной технологии искусственного интеллекта, не только наносят ущерб имиджу политических деятелей, но и заставляют персонажей, защищенных авторским правом, совершать некоторые оскорбительные действия. «если бы дисней это увидел, они бы, наверное, не смеялись».

большая языковая модель grok-2 разработана black forest labs, немецким стартапом по созданию изображений и видео с использованием искусственного интеллекта, и в настоящее время доступна только платным подписчикам платформы x.

согласно политике позже, в день выхода grok-2, хотя некоторые нелегальные изображения ии больше нельзя было получить на платформе x, пользователи все равно могли использовать grok-2 для создания новых работ, полных «безвкусицы».

однако маск, фактический контролер платформы x, похоже, не возражает против такого рода политических пародий. в июле он ретвитнул фейковое дипфейковое видео, в котором харрис назвала себя «лучшим специалистом по разнообразию».

эксперты по модерации контента заявили, что подобные генеративные инструменты искусственного интеллекта могут генерировать ложную информацию во время избирательного цикла в сша и даже распространяться на общество.

19 августа, за день до открытия национального съезда демократической партии 2024 года, трамп опубликовал изображение, которое предположительно было создано искусственным интеллектом. в то время, поскольку нынешний президент сша байден отказался от переизбрания, после внутрипартийного голосования харрис, главный герой этого образа ии, заранее зафиксировал свою кандидатуру на пост президента от демократической партии.

на изображении изображена сцена «выступления харриса в чикаго» с красным флагом с серпом и молотом на заднем плане, что, по-видимому, подразумевает, что харрис является коммунистом, что вызывает политические разногласия.

2. крупную модель gemini от google неоднократно переворачивали, и она не различает черное и белое, когда дело касается чувствительных элементов.

чат-бот google gemini, основанный на одноименной большой языковой модели gemini.

прежде чем запустить новую версию чат-бота gemini в феврале этого года, google отладил модель gemini, чтобы она могла реагировать на более разнообразные символы с более неоднозначными атрибутами при обнаружении инструкций, связанных с генерацией символов.

например, при создании изображений врачей ии обычно выдаёт изображения белых мужчин. google надеется уменьшить «предвзятость» моделей генерации изображений ии за счет «диверсификации».

но уже через месяц модель gemini совершила большую ошибку. когда эта модель создавала «расово разнообразные» образы, она не соответствовала религии, расе, полу и т. д., что приводило к появлению множества образов людей, не соответствующих историческим фактам. получив критику со стороны большого количества пользователей сети, google решила приостановить функцию генерации изображений модели gemini, «внезапно затормозив» потенциальные риски генерации изображений с помощью ии.

сисси сяо, вице-президент google и руководитель чат-бота gemini, заявила в недавнем интервью, что обеспечение того, чтобы модель ии подчинялась инструкциям пользователя, — это принцип, которого придерживается google. «это близнецы пользователя, и мы обслуживаем пользователя».

тем не менее, некоторые изображения, созданные с помощью чат-бота gemini, по-прежнему противоречат историческим фактам. многие пользователи платформы x делали снимки экрана, ставя под сомнение возможности модерации контента модели google.

что касается модели gemini, публикующей оскорбительный и расово-предвзятый контент, генеральный директор google сундар пичаи ответил, что «это неприемлемо» и компания «всесторонне решит эту проблему».

однако недавно google снова разозлил пользователей из-за небрежного содержания изображений, созданных с помощью технологии искусственного интеллекта.

в середине августа были представлены смартфоны google последнего поколения — серия pixel 9. в серии pixel 9 представлен инструмент редактирования фотографий с искусственным интеллектом под названием «reimagine», поэтому пользователи могут вызывать искусственный интеллект для изменения содержимого фотографий, вводя текстовые подсказки.

однако некоторые пользователи обнаружили, что reimagine позволяет пользователям добавлять некоторые незаконные элементы, такие как «ношение» нацистских символов для губки боба. этот недостаток безопасности контента вызвал отвращение у пользователей.

представитель google заявил, что компания «постоянно укрепляет и совершенствует существующие средства защиты для моделей искусственного интеллекта».

в конце августа этого года компания google сообщила, что ее чат-бот gemini с искусственным интеллектом перезапустит функцию создания изображений персонажей. первоначально эта функция будет доступна только английским пользователям с платной подпиской. в то же время google добился «значительного прогресса» в создании и проверке изображений с помощью ии, но «невозможно, чтобы каждое изображение, созданное gemini, было точным».

3. этические и правовые границы изображений, созданных с помощью ии, должны быть установлены в качестве отраслевых эталонов.

в настоящее время программное обеспечение для создания изображений с помощью искусственного интеллекта продолжает проверять практические результаты политики платформ социальных сетей. это явление вызвало споры и размышления, например, должны ли технологические компании контролировать и как проверять контент, выводимый с помощью передового программного обеспечения для создания изображений с использованием искусственного интеллекта?

прежде чем технология генеративного ии будет открыта для свободного творчества пользователями сети, программное обеспечение для создания изображений ии оснащено эффективными мерами защиты, гарантирующими, что работы, созданные ии, не нарушают правила или этические принципы. это давление, с которым сталкиваются технологические компании при модерации контента ии.

помимо этических дилемм, разработчики моделей и программного обеспечения ии также сталкиваются со многими потенциальными юридическими обязательствами. это связано с тем, что данные обучения, которые они используют при обучении моделей и программного обеспечения ии, нарушают права интеллектуальной собственности и другие права.

из-за предполагаемого нарушения в 2023 году художники подали коллективный иск против стартапов, занимающихся созданием изображений в области искусственного интеллекта, stability ai и midjourney. коллективный иск также направлен против ряда компаний, использующих модели создания изображений с использованием искусственного интеллекта, таких как deviantart и runway.

кроме того, помимо коллективного иска со стороны художников, stability ai также предъявлен иск от американской компании визуальных медиа getty images. последний обвинил stability ai в нарушении своих прав на обучение моделей. в ответ представитель getty images сообщил, что компания запустила собственную модель генерации изображений с помощью искусственного интеллекта.

openai запустила модель генерации изображений ai dall-e в 2022 году. после получения коллективного иска от художников в прошлом году openai добавила новую опцию в интерфейс модели dall-e, позволяющую создателям проверить возможность личной загрузки изображений, которые не будут использоваться для обучения модели dall-e следующего поколения.

news corp, материнская компания the wall street journal, подписала соглашение о лицензировании контента с openai. благодаря этому openai может свободно получать доступ к существующим медиа-ресурсам news corp и собирать их в определенных пределах.

«со временем мы разберемся с этим». юрист по защите интеллектуальной собственности джеффри лоттенберг заявил, что подобные юридические споры, связанные с авторскими правами на интеллектуальную собственность ии, могут создать прецедент для юридических границ ии. тогда у других компаний, занимающихся искусственным интеллектом, будет эталонный стандарт того, какие изображения, видео и другие данные они могут использовать при обучении своих моделей и чат-ботов.

вывод: google и openai активно исправляют ошибки, а xai делает наоборот.

способность программного обеспечения для создания изображений ии генерировать изображения конкретных, хорошо известных фигур является одним из основных спорных моментов в этом раунде споров по обзору контента ии.

многие технологические компании, в том числе google и openai, запретили использование программного обеспечения для создания изображений ии для создания произведений ии, которые содержат определенные символы и персонажи которых легко идентифицировать.

из-за того, что основатель xai маск настаивал на свободе слова, большая модель grok-2 от xai решила сохранить функцию генерации изображений конкретных людей и ролей. однако этот шаг привел к критике xai со стороны наблюдателей за технологической индустрией.

профессор сара т. робертс из калифорнийского университета в лос-анджелесе занимается исследованием модерации контента. она считает, что пользователи будут использовать передовые технологии искусственного интеллекта для подделки видео, звуков, фотографий и т. д. для распространения ложной информации.

робертс добавил, что все проблемы, существующие в традиционных социальных сетях, по-прежнему приходится решать с помощью генеративного ии, и их труднее обнаружить. в частности, визуальный контент, такой как изображения, созданные с помощью технологии искусственного интеллекта, иногда бывает более убедительным.

пинар йылдирим, профессор пенсильванского университета, сказала, что платформы пытаются установить некоторые правила, например запрет ключевых слов, чтобы предотвратить злоупотребление технологией искусственного интеллекта. но в то же время пользователи также могут находить дыры в безопасности и обходить эти правила, чтобы получить нужный им контент. «пользователи станут умнее и в конечном итоге смогут использовать лазейки для создания незаконного контента», — сказал йылдирим.

источник: «уолл стрит джорнал»