Новости

Невидимые проверки безопасности: Когда Европа полностью запрещает распознавание лиц, она начинает «смотреть на сердце с лица»

2024-07-27

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Текст | Мозговое тело

Общественная безопасность подобна «иммунитету» нашего общества. В обычное время мы редко обращаем на нее внимание. Если происходит авария, это означает, что наступила опасность, которая может варьироваться от «простудной» до «фатальной». .

Проверки безопасности могут обнаружить материальные вредные предметы, но трудно обнаружить нематериальные вредные эмоции. Эти вредные эмоции, такие как крайняя ненависть, конфликты, социальная психология мести и т. д., подобны бомбам замедленного действия, которые приведут к невинным жертвам, как только они взорвутся.

Поэтому общественная безопасность не может останавливаться на проверке объектов.

Обнаружение эмоций ИИ — это невидимый барьер, повышающий «иммунитет» общественной безопасности.

По данным технологического СМИ WIRED, камеры на британских вокзалах в настоящее время используют систему обнаружения эмоций Amazon для отслеживания ситуации внутри вокзала. Как только будет обнаружен человек с ненормальным настроением, сотрудники будут уведомлены для дальнейшей проверки.

Тот факт, что обнаружение эмоций может быть реализовано в европейских странах, где существует строгая защита личных данных, может кое-что объяснить.

В этой статье речь пойдет о том, что ИИ-распознавание эмоций делает правильно, чтобы заставить традиционно консервативную Великобританию принять это? Где необходимость?

Согласно сообщениям, интеллектуальные камеры, использующие алгоритмы распознавания эмоций, будут использоваться для обнаружения эмоций пассажиров поездов и прогнозирования потенциальных эмоций посредством сканирования лиц для обнаружения аномального поведения, такого как кражи и злоумышленников.

Самая сложная часть этого вопроса — не технология, а то, как принять распознавание лиц для населения в европейских странах с самыми строгими правилами распознавания лиц?

Применение технологии распознавания лиц в общественных местах в Европе претерпело значительные изменения:

Тотальный запрет.С момента бурного развития технологий глубокого обучения в 2017 году распознавание лиц в области CV стало одним из основных приложений, и в декабре 2019 года Европа строго регламентировала это.«Белая книга по искусственному интеллекту (проект)»заявил, что использование технологии распознавания лиц в общественных местах будет запрещено на срок от 3 до 5 лет.

Качайте несколько раз. После обнародования самых строгих в истории правил в области ИИ и данных большое количество аналитиков и специалистов в области технологий заявили, что эти ограничения сильно затруднили прогресс и применение технологий искусственного интеллекта в Европе, что привело к стагнации в развитии ИИ. промышленность.Однако отношение Европы к этому всегда было относительно колеблющимся. В феврале 2021 г.Стратегия данных ЕСКогда документ смягчил свое отношение, там говорилось, что он строго ограничит, но не запретит полностью. В октябре того же года была принята резолюция, запрещающая полиции использовать технологию распознавания лиц в общественных местах.

Временная отсрочка.Наконец, 13 марта 2024 года Европа миновала знаковый рубежЗакон об искусственном интеллекте, смягчило свое отношение к технологии распознавания лиц, запретив «применение бесцельного крупномасштабного наблюдения, основанного на чувствительной биометрии (например, распознавание лиц)» и отказавшись от разумного использования этой технологии.

Почему распознаванию эмоций ИИ уделяется «особое внимание»?

Это подводит нас к «невозможному треугольнику» общественной безопасности: затраты, выгоды и опыт.

В целях общественной безопасности «предотвратить ситуацию лучше, чем исправить ситуацию потом». Если происходит событие высокого риска, цена «исправления ситуации» часто равна человеческой жизни, поэтому следует принять более строгий предварительный надзор. В общем, это проверка безопасности.

Однако в проверке безопасности существует «невозможный треугольник», который требует сложного компромисса между инвестиционными затратами, преимуществами безопасности и общественным опытом.

Если процесс проверки безопасности недостаточно чувствителен и происходит «пропущенное обнаружение», вредоносные «вирусы» получат возможность воспользоваться этим. Опасные группы разовьют «лекарственную устойчивость» к системе проверки безопасности, точно так же, как повышенная устойчивость вируса к наркотикам, и найдут лазейки в процессе проверки безопасности, чтобы обойти ее.

Но мы также совершенно ясно понимаем, что безразборное внедрение проверок безопасности на уровне аэропорта и личного досмотра контрабанды в любом месте не только повлияет на эффективность дорожного движения и удобство поездок людей, но также потребует большего количества сотрудников для проверки безопасности, что повлечет за собой высокие затраты. Затраты и предельная выгода очень низки.

Раньше вообще не проводилось проверок безопасности, особенно в европейском метро, ​​на вокзалах высокоскоростных поездов и в живописных местах, что эквивалентно «открытию двери» для опасных грузов и террористических угроз. Внедрение нормализованных проверок безопасности с нуля требует развертывания персонала службы безопасности, оборудования и других затрат с нуля, а также обучения общественности изменению своих давних привычек в поездках. Это практически невозможно получить широкое признание.

В этом контексте ожидается, что применение обнаружения эмоций ИИ найдет новое решение «невозможного треугольника» традиционных проверок безопасности.

Обнаружение эмоций ИИ не является новой технологией, так почему же в настоящее время оно стало спасительной соломинкой для европейской общественной безопасности?

Это начинается с нескольких изменений:

Первым изменением является развитие алгоритмов, которое значительно увеличило преимущества безопасности.

Система обнаружения эмоций, используемая на британских станциях высокоскоростных железных дорог, — это то, что Amazon уже много лет исследует в электронной коммерции, здравоохранении, общественной безопасности, маркетинге и других областях.Система Rekognition может распознавать различные эмоции, включая счастье, печаль, гнев, удивление, отвращение, спокойствие и замешательство. После итерации 2023 года она также может распознавать «страх».

Например, в сценариях электронной коммерции камеры магазинов используются для оценки эмоций потребителей для оптимизации демонстрации продуктов; в сценариях личных развлечений интеллектуальные устройства, такие как Alexa от Amazon, могут своевременно улавливать эмоции пользователей и определять, когда пользователи испытывают негативные эмоции. например, гнев или печаль, чтобы утешить или дать совет.

Можно сказать, что нынешние алгоритмы анализа и распознавания эмоций достаточно зрелы, а точность и точность обнаружения могут удовлетворить сложные требования по учету эффективности, безопасности и опыта работы в общественных местах.

Второе изменение — это продолжающееся развитие цифрового общества, которое делает стоимость распознавания эмоций ИИ контролируемой.

Умные города постоянно совершенствуются во многих странах и регионах мира. Смарт-камеры, используемые для городской безопасности, совершенствуются уже много лет, и нынешние технологии и продукты достаточно зрелы. Среди них «программно-определяемые» интеллектуальные камеры, которые могут загружать различные алгоритмы онлайн для реализации вертикальных интеллектуальных приложений. Они могут обновлять и совершенствовать систему обнаружения эмоций с помощью искусственного интеллекта без замены оборудования и не влекут за собой чрезмерного финансового давления.

Третье изменение заключается в том, что в последние годы обеспокоенность людей по поводу общественной безопасности и конфиденциальности снизилась, поэтому они стали более терпимо относиться к обнаружению эмоций.

В условиях нестабильности политической и экономической ситуации в мире возросла обеспокоенность общественности по поводу общественной безопасности во многих странах, особенно в Европе, где возросла нелегальная иммиграция. Транснациональные преступления и конфликты создают множество угроз общественной безопасности.

В этом контексте распознавание эмоций ИИ может не только заранее обнаружить потенциальные признаки напряженности и конфликта, чтобы избежать инцидентов общественной безопасности, вызванных эмоциональной потерей, но и не так неудобно, как раскрытие конфиденциальности лица.

Это связано с тем, что данные, собранные с помощью обнаружения эмоций, не являются «строго идентифицируемыми».

Как сказано в «Праве на неприкосновенность частной жизни», неприкосновенность частной жизни — это «право быть оставленным в покое». По сравнению с «сильным распознаванием» распознавания лиц,Обнаружение эмоций ИИ в общественных местах не будет беспокоить общественность и не будет затрагивать личную конфиденциальную информацию до того, как кризис станет известен. , то есть невозможно однозначно идентифицировать и аутентифицировать физических лиц с помощью эмоций, и он не будет знать, какая у вас фамилия. Это значительно снижает ощущение у общественности того, что за ней шпионят.

С этой точки зрения обнаружение эмоций ИИ достигло хорошего баланса с точки зрения затрат, выгод и опыта и должно стать невидимым барьером на пути общественной безопасности в дополнение к традиционным проверкам безопасности.

Обнаружение эмоций ИИ и предотвращение злокачественных инцидентов, связанных с экстремальной безопасностью, определенно принесут больше пользы, чем вреда всему обществу. Итак, когда мы сможем это сделать?

Честно говоря, нынешние интеллектуальные системы безопасности в крупных и средних городах Китая уже работают очень хорошо. Реализовать алгоритмы обнаружения эмоций несложно.Путь к локализации алгоритмов все равно займет некоторое время.

Самым большим препятствием является то, что наборы данных недостаточно велики и недостаточно хороши.

Я посетил преподавателя из университета в Шаньдуне, который использовал технологию глубокого обучения для разработки алгоритмов распознавания микровыражений. Микровыражения характеризуются очень короткой продолжительностью, небольшими изменениями амплитуды движений, сложностью сокрытия и подавления, поэтому они очень подходят для обнаружения эмоций потенциально опасных людей.

Микровыражения требуют психологических экспериментов для сбора, а затем анализа и обработки компьютерами. Необходимо сначала показать испытуемым некоторые стимулы, которые были продемонстрированы психологами, чтобы вызвать появление микровыражений, затем использовать высокоскоростную камеру, чтобы посмотреть на лицо испытуемого, и позволить компьютеру сохранять изображения кадр за кадром. После сбора данных необходимо пометить их метками эмоций и характеристиками пространственно-временной области, которыми являются начальный момент, конечный момент и кульминационный момент выражения.

Учитель упомянул, что до того, как его команда создала базу данных MMEW, не хватало некоторых особенно крупных общедоступных баз данных для исследований микровыражений. Самая крупная база данных содержала всего 247 образцов, а разрешение изображений было невысоким.


Это требует как психологических экспериментов, так и компьютерной инженерии. Если набор данных о микровыражениях настолько сложен, зачем создавать его самостоятельно с нуля?

Мы знаем, что на эмоциональное выражение влияют культура, социальная жизнь и другие факторы. Большинство международных эмоциональных картин основаны на данных, собранных с лиц иностранцев, которые могут быть не очень точными, когда речь идет об определении эмоционального состояния, намерений и поведения китайских лиц. Таким образом, реальное применение обнаружения эмоций ИИ в сфере общественной безопасности по-прежнему должно начинаться с надежного построения внутренних наборов высококачественных данных.

Другой вопрос, с алгоритмом, кто его будет продавать?

Точнее, кто предоставит вычислительные мощности и ряд сопутствующих услуг? Распознавание эмоций — это сложный процесс, требующий мощных вычислительных мощностей для быстрого анализа огромных данных и возврата результатов распознавания эмоций в режиме реального времени, что требует чрезвычайно высокой вычислительной мощности. Кроме того, искусственный интеллект — это постоянно развивающаяся технология, а модели обнаружения эмоций требуют постоянного обучения и оптимизации для повышения точности распознавания и возможностей обобщения. В качестве примера возьмем систему Rekognition, внедренную на британской станции высокоскоростной железной дороги. Это один из облачных сервисов, запущенных Amazon AWS, который выполняет обучение, анализ и функциональные улучшения в облаке.

В Китае, поскольку это связано с общедоступными информационными данными, их необходимо приватизировать и внедрить на местном уровне. В конечном итоге, основная конкурентоспособность — это алгоритмические технологии и возможности обслуживания ToB. Таким образом, отечественные компании, занимающиеся алгоритмами CV, будут более конкурентоспособными, чем поставщики облачных технологий на этом рынке. Однако, как решить проблему стоимости вычислительных мощностей и человеческой эффективности услуг, является давней проблемой для компаний, занимающихся алгоритмами, которая требует более сложных и разумных решений. бизнес-дизайн.

Девятиэтажная платформа поднимается из-под земли. Хотя путь к локализации обнаружения эмоций ИИ все еще нуждается в постепенной консолидации на уровне данных, алгоритмов, бизнеса и других уровнях, используя технологии для повышения «иммунитета» общественной безопасности, предотвращения аварийных ситуаций и достижения баланса между затраты, выгоды и опыт. Постепенно это должно стать консенсусом и целью всего общества.

Люди – это цель, а технологии – это средства.

Технологии, защищающие право людей на жизнь, должны получить право на развитие даже в Европе, которая крайне строга к новым технологиям. Это, возможно, самое большое открытие, которое принесет нам внедрение ИИ-распознавания эмоций.