Галлюцинации ИИ неизбежны, как с этим бороться
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Чжан ХайС быстрым развитием технологий искусственного интеллекта (ИИ) «иллюзия ИИ», то есть ошибки или иллюзии при обработке и генерации информации искусственным интеллектом, стала проблемой, которую нельзя игнорировать. В 2023 году «галлюцинация» стала словом года по версии Cambridge Dictionary и Dictionary.com. По данным Dictionary.com, количество поисковых запросов по слову «галлюцинация» в 2023 году выросло на 46% по сравнению с предыдущим годом. В дополнение к первоначальному значению слова «галлюцинация» в Кембриджском словаре «видеть, слышать, чувствовать или обонять что-то, чего нет, обычно из-за состояния здоровья или из-за того, что вы приняли какое-то лекарство». Галлюцинации ИИ генерирует сообщения об ошибках».В недавней статье «Поведение машин» в журнале «Nature» отмечается, что сегодня искусственный интеллект стал повсеместным в человеческом обществе. Алгоритмы ранжирования новостей будут влиять на информацию, которую видят люди, алгоритмы потребления влияют на то, какие потребительские товары люди покупают, а алгоритмы вызова такси. повлияет на нашу семейную жизнь. В таких областях, как право и медицина, влияние искусственного интеллекта еще больше. Искусственный интеллект позволяет машинам думать и вести себя все больше и больше как люди. В результате машины все больше влияют на структуру человеческого общества. Машины формируют поведение людей, а люди также формируют поведение машин. То, как люди и машины взаимодействуют, окажет значительное и далеко идущее влияние на будущую социальную форму.В эпоху искусственного интеллекта галлюцинации ИИ стали обычным явлением. От возможных ошибок в беспилотных автомобилях до неправильной интерпретации инструкций умными помощниками и неправильного диагноза с помощью медицинских диагностических инструментов — иллюзии искусственного интеллекта присутствуют в каждом уголке нашей повседневной жизни. В 2024 году поисковая система Google запустила поисковую службу искусственного интеллекта: AI Review, которая предоставляет ответы, сгенерированные ИИ. Первоначальное намерение состояло в том, чтобы улучшить взаимодействие с пользователем, но вскоре пользователи обнаружили, что обзор ИИ дает большое количество возмутительных ответов, таких как предложение использовать клей для приклеивания пиццы и ежедневно есть камни для получения питательных веществ и т. д., что вызвало у Google быстро отключить некоторые из его функций.С точки зрения ученых, занимающихся искусственным интеллектом, иллюзия ИИ по сути неизбежна из-за технических ограничений и недостатков человеческого познания. Хотя технические специалисты усердно работают над повышением точности и надежности ИИ, иллюзии ИИ по-прежнему возникают часто, и их трудно полностью устранить из-за таких факторов, как неполные данные, ограничения алгоритмов и сложные интерактивные среды.Механизм галлюцинаций ИИ включает в себя множество аспектов. Прежде всего, одной из основных причин является предвзятость данных. Если данным обучения ИИ не хватает разнообразия или они имеют систематическую предвзятость, выходные результаты могут оказаться галлюцинаторными. Во-вторых, нынешние алгоритмы ИИ, особенно основанные на статистике, не могут идеально адаптироваться к новым, невидимым ситуациям, что может привести к неверным суждениям. В-третьих, серьезной проблемой также являются когнитивные ограничения дизайнеров-людей. Субъективные предубеждения дизайнеров и тренеров могут быть непреднамеренно закодированы в системе ИИ, влияя на процесс принятия ею решений. Наконец, интерактивная среда, в которой работает система ИИ, полна переменных. Сложные и меняющиеся факторы окружающей среды часто превышают вычислительные возможности системы ИИ, что приводит к генерации галлюцинаций ИИ.Как бороться с повсеместностью и неизбежностью галлюцинаций ИИ? Во-первых, фундаментальное значение имеет улучшение качества и разнообразия данных. Увеличивая широту и глубину обучающих данных, можно уменьшить смещение данных и улучшить способность системы ИИ к обобщению. Во-вторых, оптимизация конструкции алгоритма и повышение его надежности и адаптивности могут позволить системе ИИ лучше справляться с новыми ситуациями. В-третьих, также крайне важно улучшить обучение и осведомленность пользователей. Помощь пользователям в правильном понимании возможностей и ограничений ИИ может эффективно уменьшить иллюзии, вызванные недопониманием. Кроме того, установление этических норм и механизмов надзора для обеспечения соответствия разработки и применения ИИ этическим и правовым стандартам не менее важно для снижения частоты возникновения галлюцинаций ИИ. Наконец, междисциплинарное сотрудничество играет ключевую роль в борьбе с галлюцинациями ИИ. Инженеры, специалисты по данным, психологи, специалисты по этике и юристы должны совместно участвовать в процессе проектирования и оценки систем ИИ и совместно решать проблему иллюзий ИИ с профессиональной точки зрения в своих соответствующих областях.В эпоху искусственного интеллекта галлюцинации ИИ представляют собой сложную, распространенную и неизбежную проблему, которая требует от нас принятия многомерных и многоуровневых стратегий для борьбы с ней, тем самым сводя к минимуму негативное воздействие галлюцинаций ИИ. В «Руководстве по использованию генеративного искусственного интеллекта в образовании и исследованиях», выпущенном ЮНЕСКО в 2023 году, рекомендуется установить минимальный возраст для использования инструментов искусственного интеллекта в классе — 13 лет. Open AI рекомендует запретить детям до 13 лет использовать генеративный искусственный интеллект, а детям от 13 до 18 лет использовать его под руководством опекуна.В 2023 году в Сингапуре пройдет саммит Trusted Media Summit, на котором будут обсуждаться меры, принятые различными странами для повышения медиаграмотности молодежи. Например, «SQUIZ KIDS», благотворительная деятельность, запущенная за рубежом на основе веб-сайтов и подкастов и ориентированная на учащихся начальных классов с целью повышения медиаграмотности, помогает развивать у молодых людей способность различать дезинформацию и ложную информацию, появляющуюся в Интернете. В основном он состоит из трех шагов: ОСТАНОВИТЬСЯ при получении сетевой информации, подумать об этом (ДУМАТЬ) и, наконец, проверить пару (ПРОВЕРИТЬ), чтобы подтвердить, соответствует ли она надежному источнику информации. Собирая знания и навыки из разных областей для более полного выявления проблем и поиска решений, мы можем рассчитывать на появление более умного, безопасного и надежного общества искусственного интеллекта. (Автор — профессор Школы медианауки Северо-Восточного педагогического университета и директор Интегрированного инновационного инженерного центра образования и искусственного интеллекта провинции Цзилинь) ▲