Новости

После заливки керосина положить растительное масло? ИИ может заметить разницу! Академики и эксперты подчеркивают, что безопасность искусственного интеллекта должна быть «в курсе событий».

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Краткое содержание:Искусственный интеллект и человеческое общество на самом деле имеют симбиотические отношения, включая вспомогательные отношения, взаимодействие человека и компьютера, взаимодействие человека и конкурентные отношения.


По сообщениям, танкер заполнил танкер керосином, не очистил резервуар, а затем залил его растительным маслом. Такая «обширная» операция бросила вызов опасениям общественности по поводу безопасности пищевых продуктов. «AI Eye» на базе искусственного интеллекта сможет своевременно отслеживать подобные нарушения.

«Использование существующих и вновь добавленных камер на заправочных станциях и использование режима анализа облачного видео для выявления поведения в процессе разгрузки, заправки, разгрузки, заправки газом, разгрузки и добавления жидкости, сигнализации, статистики и анализа нештатных действий для установления интеллектуальных Платформа заправочной станции». 2-го числа на 12-й конференции по интернет-безопасности в Шанхае по искусственному интеллекту, проходившей в Китайско-израильском инновационном парке в районе Путуо, было показано, что путем развертывания платформы интеллектуального видеоанализа AI на облачных ресурсах China Telecom и ее внедрения в энергетике. компаний, 300 AI-анализ поведения в зоне разгрузки нефти с использованием дорожных видеопотоков позволяет идентифицировать автоцистерны, идентификацию огнетушителей, обнаружение нефтепродуктов и нефтепроводов.


Китайско-Израильский (Шанхай) Инновационный парк.

[Мошенничество с использованием искусственного интеллекта выросло на 3000%]

Фактически, крупные модели искусственного интеллекта в значительной степени расширяют возможности социального управления, помогая решать проблемы средств к существованию людей и улучшая их чувство безопасности. Вэй Вэньбо, заместитель генерального директора отдела производства продукции компании China Telecom Artificial Intelligence Technology Co., Ltd., привел такие примеры, как умный надзор за питанием для обеспечения «светлых кухонь и ярких печей», безопасность на улицах и деревнях для ухода за пожилыми людьми. и предотвращение утопления, а также разумный контроль за размещением мусора и парковкой электромобилей. Благодаря стандартизации даже езда на электрическом велосипеде без шлема может «четко различать и различать».

Однако сам ИИ неизбежно имеет проблемы с безопасностью. В «Отчете о безопасности искусственного интеллекта за 2024 год» говорится, что ИИ не только усиливает существующие угрозы сетевой безопасности, но и создает новые угрозы, вызывая экспоненциальный рост инцидентов сетевой безопасности. В 2023 году масштабы мошенничества с глубокой подделкой данных с использованием искусственного интеллекта вырастут на 3000%, а количество фишинговых писем с использованием искусственного интеллекта увеличится на 1000%.

Лю Цюань, иностранный академик РАЕН и заместитель главного инженера НИИ CCID, процитировал опрос, проведенный среди лидеров ИТ-индустрии по таким крупным моделям, как ChatGPT, который показал, что 71% респондентов считают, что генеративный искусственный интеллект улучшит безопасность данных предприятий, принесет новые риски. Чтобы предотвратить утечку конфиденциальных данных, технологические компании, такие как Microsoft и Amazon, даже ограничили или запретили своим сотрудникам использовать инструменты генеративного искусственного интеллекта.


Шанхайский саммит по искусственному интеллекту.

[«Используйте формы для изготовления форм», чтобы обеспечить безопасность в «Битве сотен моделей»]

Мультимодальная генерация, появление крупных моделей. Пока только в моей стране количество крупных моделей, прошедших двойную регистрацию, достигло 117. Согласно статистическим данным «Пекинской белой книги по инновационному применению больших моделей в индустрии искусственного интеллекта (2023 г.)», по состоянию на октябрь прошлого года в моей стране было 254 поставщика больших моделей с параметрами «1 миллиард+». В настоящее время доступны отечественные крупномасштабные модели с сотнями миллиардов параметров, а количество нейронов в человеческом мозге также составляет порядка 100 миллиардов. IDC прогнозирует, что к 2026 году рынок крупных моделей искусственного интеллекта в Китае достигнет 21,1 миллиарда долларов США.

Когда искусственный интеллект вступает в критический период для крупномасштабного внедрения, эти новые риски, начиная от утечек конфиденциальности, дискриминации алгоритмов и заканчивая предвзятостью данных, также создают серьезные проблемы для высококачественного развития искусственного интеллекта. Хэ Фан, директор по продуктам 360 Digital Intelligence Group, сказал, что в эпоху больших моделей необходимо «использовать формы для моделирования», чтобы обеспечить безопасность, что означает использование больших данных безопасности, накопленных за последние 20 лет, и добавление экспертные знания для обучения крупных моделей безопасности высокого уровня.

Чэнь Сяохан, заместитель генерального директора отдела информационных сетей шанхайского филиала China Telecom, также рассказал репортеру Liberation Daily Shangguan News, что в «Битве сотен моделей» большие модели по своей сути являются «чистым листом бумаги» и требуют постоянного «обучения». и «обучение», поэтому они должны контролировать направление общественного мнения у источника и отфильтровывать ненужную информацию в процессе, чтобы предотвратить «неверное направление» больших моделей.


Конференция ISC по интернет-безопасности.

[Конкурентоспособные отношения между человеком и машиной требуют «людей в курсе»]

Как мы все знаем, природа моделей ИИ как «черного ящика» затрудняет объяснение процессов принятия решений, что особенно важно в таких областях высокого риска, как финансы и здравоохранение. Как регулирующие органы, так и отраслевые клиенты должны понимать основу модельных решений, чтобы обеспечить прозрачность и справедливость своих моделей кредитного скоринга. В то же время сама модель ИИ может иметь уязвимости безопасности. Например, хакеры могут атаковать с помощью состязательных образцов, в результате чего модель выдает неправильные выходные данные при, казалось бы, нормальных входных данных, что создает угрозу безопасности.

По мнению академика Лю Цюаня, очевидные характеристики ИИ как «палка о двух концах» принесли человечеству множество преимуществ и огромных проблем. Искусственный интеллект и человеческое общество на самом деле находятся в симбиотических отношениях, включая вспомогательные отношения, взаимодействие человека и компьютера. Человек в цикле и конкурентные отношения. Это правда, что при быстром развитии от слабого искусственного интеллекта к сильному искусственному интеллекту 90% пилотируемых рабочих мест могут быть заменены искусственным интеллектом как «беспилотные рабочие места». А 10% людей на работе, которые не будут лежать, должны обладать огромными объемами данных и мощными возможностями работы с искусственным интеллектом.

В фильме «Блуждающая Земля 2» робот МОСС выразил концепцию «Человека в петле», а также имел идею «уничтожения человечества». Это также показывает, что только итерация искусственного интеллекта под руководством человека может сформировать замкнутую систему «человек-машина». Включая гарантии безопасности ИИ, машины не могут обойтись без вмешательства человека в любое время. Лю Цюань сказал, что, по сути, искусственный интеллект не может заменить человеческое мышление и не может полностью заменить человека. В противном случае развитие ИИ может потерять свой первоначальный смысл.