Новости

Я больше не смею использовать ChatGPT для написания статей! Открыт античит-инструмент OpenAI

2024-08-05

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Проверьте, используется ли контентЧатGPT, точность столь же высока, как99.9%

Этот инструмент происходит отOpenAI

Его можно специально использовать для определения того, была ли скомпрометирована статья/задание с помощью ChatGPT. Идеи были высказаны еще в ноябре 2022 года (в том же месяце, когда был запущен ChatGPT).

но!

Такая полезная штука, но это было внутриСпрятался в снегу 2 года., оно еще не было обнародовано.

Почему?

OpenAI провела опрос среди лояльных пользователей и выяснила, чтопочти треть человек заявили, что откажутся от ChatGPT, если будут использоваться инструменты борьбы с мошенничеством. И это также может оказать большее влияние на пользователей, для которых английский язык не является родным.

Однако некоторые люди в компании также предположили, что использование методов борьбы с мошенничеством полезно для экосистемы OpenAI.

Обе стороны спорят, а инструмент обнаружения водяных знаков так и не был выпущен.

Помимо OpenAI, Google и Apple также подготовили аналогичные инструменты, а некоторые начали внутреннее тестирование, но официально ни один из них не запущен.

Обсуждения начались до выпуска ChatGPT.

После того, как ChatGPT стал популярным, многие старшеклассники и студенты колледжей использовали его для выполнения домашних заданий, поэтому вопрос о том, как идентифицировать контент, созданный искусственным интеллектом, стал горячей темой в кругу.

Судя по последней опубликованной информации, OpenAI рассмотрела этот вопрос задолго до выпуска ChatGPT.

Человеком, который в то время разработал эту технологию, былСкотт Ааронсон, который работает над безопасностью в OpenAI и является профессором информатики в Техасском университете.

В начале 2023 года один из сооснователей OpenAIДжон Шульман, с описанием плюсов и минусов инструмента в документе Google.

Затем руководители компании решили, что прежде чем предпринимать дальнейшие действия, они попросят мнение широкого круга людей.

В апреле 2023 года опрос, проведенный по заказу OpenAI, показал, что существует только1/4людей поддерживают добавление инструментов обнаружения.

В том же месяце OpenAI объявила еще об одномПользователи ChatGPTМы провели опрос.

Результаты показывают, что существуютпочти 30%пользователей заявили, что стали бы меньше использовать ChatGPT, если бы там были установлены водяные знаки.

С тех пор продолжаются споры по поводу технической зрелости инструмента и предпочтений пользователей.

В начале июня этого года OpenAI собрала старших сотрудников и исследователей, чтобы снова обсудить проект.

Говорят, что в конце концов все согласились с тем, что, хотя технология и созрела, результаты прошлогоднего опроса пользователей ChatGPT нельзя игнорировать.

Внутренние документы показывают, что OpenAI считает необходимымдо этой осениРазработать план по оказанию влияния на общественное восприятие прозрачности ИИ.

Однако до тех пор, пока не появились текущие новости, OpenAI не раскрыла соответствующие контрмеры.

Почему бы не обнародовать это?

Подводя итог причинам, по которым OpenAI долгое время не раскрывала эту технологию:В основном это два аспекта: Первое — это технология, а второе — предпочтения пользователя.

Давайте сначала поговорим о технологии. Еще в январе 2023 года OpenAI разработала технологию фильтрации текста из нескольких моделей искусственного интеллекта (включая ChatGPT).

Технология использует подход, подобный «водяным знакам», для встраивания невидимых маркеров в текст.

Таким образом, когда кто-то анализирует текст с помощью инструмента обнаружения, детектор может предоставить оценку, указывающую, насколько вероятно, что текст был сгенерирован ChatGPT.

Однако на тот момент вероятность успеха составляла всего 26%, и OpenAI отозвала его всего через 7 месяцев.

Позже OpenAI постепенно довела успешность технологии до 99,9%. Технически проект был готов к выпуску около года назад.

Однако еще одно противоречие вокруг этой технологии заключается в том, что внутренние сотрудники считают, что технология может нанести вред.Качество записи ChatGPT

В то же время сотрудники также выразили некоторую обеспокоенность по поводу«Люди могут обходить водяные знаки»потенциальные риски.

Например, «техника перевода», практикуемая студентами колледжей, заключается в переводе текста на другой язык, а затем обратном переводе его с помощью метода, аналогичного Google Translate, который можно удалить.

Другой пример: кто-то внедрил «политику сверху и контрмеры снизу». Как только люди начнут публично использовать инструмент водяных знаков, пользователи сети за считанные минуты обозначат взломанную версию.

Помимо технологий, еще одним серьезным препятствием являются пользователи. Многочисленные опросы OpenAI показывают, что пользователи, похоже, не испытывают оптимизма в отношении этой технологии.

Об этом также приходится упомянуть пользователям.Что вы делаете с ChatGPT?

Этот вопрос можно задать в опросе Washington Post. Они просмотрели почти 200 000 записей чатов на английском языке из набора данных WildChat. Эти разговоры были созданы людьми и двумя ботами, созданными на основе ChatGPT.

Как видно, люди в основном используют ChatGPT дляПисьмо (21%)а такжеПомощь с домашним заданием (18%)

Кажется, нетрудно понять, почему люди выступают против этой технологии обнаружения.

Итак, согласны ли вы добавлять водяные знаки при использовании таких инструментов, как ChatGPT?