новости

Все красоты ИИ были уничтожены! Коды ИИ, коллективно превратившиеся в «призраков» под кибер-волшебным зеркалом, нарушили процесс создания изображений ИИ.

2024-08-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

  • Мингмин Креси из храма Аофэй
    Кубиты | Публичный аккаунт QbitAI

Под кибер-волшебным зеркалом все красавицы ИИ превратились в призраков.

Приходите и посмотрите на его зубы



Когда насыщенность изображения будет полностью увеличена, зубы портрета ИИ станут очень странными, а границы будут размыты.

По цвету общая картинка нормальная, но микрофонная часть еще более странная.

контрастФотографии реальных людей, должно быть так.

Зубы чистые, цветные пятна на снимке однородные.



Этот инструмент является открытым, и каждый может попробовать его с фотографиями.

Определенный кадр в видео, сгенерированном AI, не может избежать этого метода.



Фотографии отсутствующих зубов также могут выявить проблемы.



Но, кстати, этот инструментот Клода. Используйте ИИ, чтобы взломать ИИ — замечательный замкнутый цикл.



На самом деле портреты ИИ в последнее время стали слишком реалистичными и вызвали много дискуссий. Например, в серии популярных «видео спикеров TED» ни один из них на самом деле не является реальным человеком.



Мало того, что трудно различить лица, но даже письмо — предыдущий недостаток ИИ — теперь может быть полностью фальшивым.



Что еще более важно, стоимость создания таких портретов ИИ невелика. Это можно сделать всего за 5 минут и за 1,5 доллара США (около 10 юаней) каждые 20 секунд.



Теперь пользователи сети не могли сидеть на месте и начали одно за другим соревнования по борьбе с ИИ.

Около 5000 человек пришли обсудить, кто из этих двух фотографий настоящий человек.



Причины были разные. Некоторые люди находят текст и детали узора очень абстрактными, а другие думают, что глаза персонажей пусты...

Постепенно выясняются правила, по которым самый продвинутый ИИ генерирует портреты.

Трудно сказать, не глядя на детали

Таким образом, регулировка насыщенности может быть самым быстрым способом ее выявления.

Таким образом групповые портреты ИИ раскрываются более тщательно.



Однако с этим есть проблема. Этот метод может не работать, если изображение сжато с помощью алгоритма JPEG.

Например, убедитесь, что фотография настоящая.



Однако из-за сжатия изображения и проблем с освещением зубы персонажа также немного размыты.



Поэтому пользователи сети также перечислили дополнительные способы узнать, синтезирован ли портрет ИИ.

Проще говоря, первый метод заключается в том, чтобы полагаться на человеческие знания и суждения.

Поскольку способ, которым ИИ изучает изображения, не соответствует человеческому, неизбежно, что он не сможет усвоить 100% визуальной информации с человеческой точки зрения.

В результате изображения, созданные ИИ, часто содержатНе соответствует реальному мируЭто обеспечивает отправную точку для идентификации изображения.

Используйте изображение в начале в качестве примера.

В целом кожа персонажа слишком гладкая, пор не видно. Эта слишком идеальная особенность на самом деле добавляет ощущения нереальности.

Конечно, это «нереальное ощущение» не совсем эквивалентно «фейковости» Ведь на снимках, обработанных микродермабразией, поры не видны.

Но это не единственный фактор суждения. Возможно, в этой картине не осталось ни одного отклонения от здравого смысла.



Фактически, если вы посмотрите на следующие детали этой картинки, вы сможете увидеть относительно очевидную особенность:Своеобразный способ крепления крючка над шильдиком.



Существуют также микрофоны, которые показывают дефекты в режиме высокой насыщенности, и подсказки можно увидеть непосредственно невооруженным глазом после усиления.



Что еще более тонко, так это то, что на конце волос есть несколько волосков, которые находятся в очень неразумном положении, но чтобы увидеть такую ​​особенность, вероятно, потребуется зрение на уровне Левенгука.

Однако с развитием технологий генерации обнаруживаемые особенности становятся все более и более скрытыми, что является неизбежной тенденцией.



Другой способ — посмотреть на текст. Хотя ИИ постепенно преодолевает проблему «символов-призраков» в изображении шрифтов, все еще существуют некоторые трудности с правильной отрисовкой текста с правильным реальным смыслом.

Например, некоторые пользователи сети обнаружили, что на значке, который носит человек на фотографии, две буквы в последней строке под логотипом Google — это «CA», что означает «Калифорния», а длинная строка впереди должна быть названием компании. город.

Но на самом деле в Калифорнии нет города с таким длинным названием.



Помимо деталей самих объектов, для определения подлинности также может использоваться такая информация, как свет и тень.

Эта картинка извлечена из видео, и в видео есть такой кадр, где она находится.

С правой стороны микрофона есть очень странная тень. Эта тень соответствует одной из рук персонажа. Очевидно, обработка ИИ здесь отсутствует.



Когда дело касается видео, из-за согласованности контента до и после, ИИ с большей вероятностью выявит недостатки, чем в статических изображениях.



Есть также некоторые особенности, которые не являются «ошибками здравого смысла», но также отражают некоторые предпочтения ИИ при генерации изображений.

Например, все эти четыре картинки — «обычные люди», синтезированные ИИ. Нашли ли вы что-нибудь общее?



Некоторые пользователи сети заявили, что ни у одного из людей на этих четырех фотографиях нет улыбающегося лица, что, похоже, отражает некоторые характеристики изображений, созданных искусственным интеллектом.



Это действительно верно для этих изображений, но сложно сформировать систему для такого рода суждений. В конце концов, разные инструменты рисования ИИ имеют разные характеристики.

Короче говоря, чтобы справиться с постепенным развитием ИИ, мы, с одной стороны, можем увеличить интенсивность «Ливенгука», а с другой стороны, мы также можем внедрить методы обработки изображений, такие как увеличение насыщенности.

Но если таких «количественных изменений» будет накапливаться все больше и больше, судить невооруженным глазом станет все труднее, а насыщенность изображения однажды может быть нарушена искусственным интеллектом.

Таким образом, люди также меняют свое мышление и думают о методе «модель за моделью», используя изображения, сгенерированные ИИ, для обучения моделей обнаружения и анализа большего количества функций на изображениях.

Например, изображения, созданные ИИ, имеют множество характеристик по спектру, распределению шума и т. д. Эти характеристики невозможно уловить невооруженным глазом, но ИИ может их ясно видеть.

Конечно, не исключается возможность того, что метод обнаружения отстает и не успевает за изменениями модели, или что разработчики моделей даже специализируются на состязательной разработке.

Например, на изображении, рассмотренном выше, инструмент обнаружения ИИ имеет только 2% вероятности того, что он синтезирован ИИ.



Однако игровой процесс между мошенничеством с использованием ИИ и обнаружением ИИ сам по себе является «игрой в кошки-мышки».

Поэтому, помимо обнаружения, разработчикам моделей, возможно, также придется взять на себя некоторые обязанности, например, добавить невидимые водяные знаки к изображениям, созданным ИИ, чтобы мошенничеству с ИИ негде было спрятаться.

ИИ на фут выше

Стоит отметить, что многие портреты ИИ, вызвавшие панику, как упоминалось выше, взяты из популярного в последнее времяПотокСоздавать/участвовать в производстве.

Все даже начали предполагать, что эффекты, которые слишком хороши, чтобы их можно было различить, производятся Флюксом.



Он был создан оригинальной командой Stable Diffusion и вызвал бурю негодования в Интернете всего через 10 дней после своего выпуска.

Все эти красивые фотографии фальшивых выступлений на TED сделаны им.



Другие использовали Flux и Gen-3 вместе для создания красивой рекламы продуктов по уходу за кожей.



И различные эффекты синтеза с разных точек зрения.



Он очень хорошо решает такие проблемы, как ИИ-художники и генерируемый ИИ текст на картинках.



Это напрямую приводит к тому, что люди больше не могут напрямую смотреть на руки и слова, чтобы различать рисунки ИИ, а могут только догадываться на основе подсказок.



Flux должен был иметь усиленную подготовку по рукам, тексту и другим индикаторам.

Это также означает, что если нынешний ИИ продолжит усердно работать над обучением деталям текстур, цветам и т. д., то к тому времени, когда выйдет модель рисования ИИ следующего поколения, методы распознавания человека могут снова стать неэффективными...

Более того, Flux имеет открытый исходный код и может работать на ноутбуках. Многие люди сейчас находятся в Forget Midjourney.

Переход от стабильной диффузии к флюсу занял 2 года.

Путь от «Уилла Смита, который ест лапшу» до «спикера Tedx» занял 1 год.

Я действительно не знаю, какие трюки придется придумать людям, чтобы различать поколения ИИ в будущем...

Справочные ссылки:
[1]https://x.com/ChuckBaggett/status/1822686462044754160
[2]https://www.reddit.com/r/artificial/comments/1epjlbl/average_looking_people/
[3]https://www.reddit.com/r/ChatGPT/comments/1epeshq/these_are_all_ai/
[4]https://x.com/levelsio/status/1822751995012268062