소식

등유를 채운 후 식용유를 넣는다? AI는 차이를 구분할 수 있습니다! 학계와 전문가들은 인공지능 보안에는 '루프에 사람'이 있어야 한다고 강조합니다.

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

요약:인공 지능과 인간 사회는 실제로 보조 관계, 인간-컴퓨터 상호 작용, 인간 루프 및 경쟁 관계를 포함하여 공생 관계를 가지고 있습니다.


보도에 따르면 해당 유조선은 등유를 가득 채운 뒤 탱크를 청소하지 않고 식용유를 채운 것으로 알려졌다. 인공지능을 기반으로 한 'AI 아이'는 이러한 위반 행위를 적시에 감시할 수도 있다.

"기존 및 신규 주유소 카메라를 활용하고, 클라우드 영상 분석 모드를 활용해 하역, 주유, 하역, 주유, 하역, 액체 첨가 과정에서의 행위를 파악하고, 경보, 통계, 이상 행위 분석을 통해 스마트 구축" 주유소 플랫폼'이 지난 2일 푸퉈구 중국-이스라엘 혁신단지에서 열린 제12회 인터넷 보안 컨퍼런스 상하이 AI 서밋에서 차이나텔레콤의 클라우드 자원에 AI 영상 지능형 분석 플랫폼을 배치하고 이를 에너지 분야에 구현했다고 밝혔다. 기업들은 도로 ​​비디오 스트림을 활용해 원유 하역 구역의 행동을 AI로 분석해 탱크 트럭 식별, 소화기 식별, 석유 제품 탐지, 송유관 탐지 등을 가능하게 합니다.


중국-이스라엘(상하이) 혁신 단지.

[AI 딥페이크 사기 3000% 급증]

실제로 대규모 AI 모델은 사회 거버넌스에 대규모로 힘을 실어 사람들의 생계 문제를 해결하고 사람들의 안보 의식을 향상시키는 데 도움을 주고 있습니다. China Telecom Artificial Intelligence Technology Co., Ltd.의 출력 사업부 차장인 Wei Wenbo는 "밝은 주방과 밝은 스토브"를 보장하기 위한 스마트 케이터링 감독, 노인을 돌보기 위한 거리 및 마을 보안 등의 예를 들었습니다. 익사 방지, 쓰레기 투기, 전기차 주차까지 스마트하게 감독하는 기술이 표준화되면 헬멧을 쓰지 않고 전기자전거를 타는 것조차 '명확하게 구별하고 차별화'할 수 있다.

하지만 AI 자체도 필연적으로 보안 문제를 안고 있다. AI의 얼굴 변화부터 AI 음성 변화까지, '2024년 인공지능 보안 보고서'는 AI가 기존 네트워크 보안 위협을 증폭시킬 뿐만 아니라 새로운 위협을 도입해 네트워크 보안 사고가 기하급수적으로 증가한다는 사실을 보여준다. 2023년에는 AI 기반 심층위조 사기가 3,000% 급증하고, AI 기반 피싱 이메일 수도 1,000% 증가할 것으로 예상된다.

러시아 자연과학원의 외국 학자이자 CCID 연구소의 수석 엔지니어인 Liu Quan은 ChatGPT와 같은 대형 모델에 대해 IT 업계 리더들을 대상으로 실시한 설문 조사를 인용했는데, 응답자의 71%가 생성 인공 지능을 믿고 있는 것으로 나타났습니다. 기업의 데이터 보안이 향상되면 새로운 위험이 발생할 수 있습니다. 민감한 데이터의 유출을 방지하기 위해 마이크로소프트, 아마존 등 기술 기업들은 직원들이 생성 인공지능 도구를 사용하는 것을 제한하거나 금지하기도 했습니다.


상하이 AI 서밋.

['수백개의 모형대전'에서 안전을 확보하기 위한 '거푸집을 이용해 모형을 만든다']

다중 모드 세대, 대형 모델 등장. 현재까지 우리나라에서만 이중등록을 통과한 대형 모델이 117대에 이른다. '인공지능 산업에서 대형 모델의 혁신적 적용에 관한 베이징 백서(2023년)' 통계에 따르면 지난해 10월 현재 우리나라에는 매개변수가 '10억 개 이상'인 대형 모델 공급업체가 254개이다. 현재 국내에는 수천억 개의 매개변수를 갖춘 대규모 모델이 나와 있으며, 인간 뇌의 뉴런 수도 약 1000억 개에 이른다. IDC는 중국의 AI 대형 모델 시장이 2026년까지 211억 달러에 이를 것으로 예측하고 있다.

인공지능이 대규모 구현을 위한 중요한 시기에 진입하면 개인 정보 유출, 알고리즘 차별, 데이터 편향에 이르는 이러한 새로운 위험도 인공지능의 고품질 개발에 심각한 도전을 제기합니다. 360 Digital Intelligence Group의 최고 제품 책임자인 He Fan은 대형 모델 시대에는 보안을 보장하기 위해 "몰드를 사용하여 모델링"해야 한다고 말했습니다. 이는 지난 20년 동안 축적된 보안 빅데이터를 활용하고 추가하는 것을 의미합니다. 높은 수준의 보안 대형 모델을 훈련하기 위한 전문 지식.

China Telecom 상하이 지점 정보 네트워크 부서 부국장 Chen Xiaohang도 Liberation Daily Shangguan News 기자에게 "수백 모델의 전투"에서 대형 모델은 본질적으로 "백지"이며 지속적인 "교육"이 필요하다고 말했습니다. 그리고 "훈련"이므로, 대형 모델이 "오도"되는 것을 방지하기 위해 소스에서 여론의 방향을 제어하고 그 과정에서 정크 정보를 필터링해야 합니다.


ISC 인터넷 보안 컨퍼런스.

[인간과 기계의 경쟁관계에는 'People in the Loop'가 필요합니다.]

우리 모두 알고 있듯이 AI 모델의 "블랙박스" 특성으로 인해 의사결정 프로세스를 설명하기가 어렵습니다. 이는 금융, 의료 등 고위험 분야에서 특히 중요합니다. 규제 기관과 업계 고객 모두 신용 평가 모델의 투명성과 공정성을 보장하기 위해 모델 결정의 기초를 이해해야 합니다. 동시에 AI 모델 자체에도 보안 취약점이 있을 수 있다. 예를 들어, 해커는 적대적인 샘플을 통해 공격할 수 있으며, 이로 인해 모델이 겉으로는 정상인 입력에서 잘못된 출력을 생성하게 되어 보안 위험이 발생할 수 있습니다.

Liu Quan 학자의 눈에는 AI의 명백한 '양날의 검' 특성이 인류에게 많은 이점과 큰 도전을 가져왔습니다. 인공 지능과 인간 사회는 실제로 보조 관계, 인간-컴퓨터 상호 작용, 인간 참여형 및 경쟁적 관계. 약한 인공지능에서 강한 인공지능으로의 급속한 발전으로 유인 일자리의 90%가 '무인 일자리'로서 인공지능으로 대체될 수 있는 것이 사실이다. 그리고 누워있지 않는 10%의 직장인들은 엄청난 양의 데이터와 강력한 인공지능 운용 능력을 갖추고 있어야 합니다.

영화 '유랑지구2'에서 로봇 MOSS는 '휴먼인루프' 컨셉을 표현하며 '인류를 파괴한다'는 생각도 갖고 있었다. 이는 인간이 주도하는 인공 지능 반복만이 인간-기계 폐쇄 루프 시스템을 형성할 수 있음을 더욱 보여줍니다. AI 안전 보장을 포함해 기계는 언제든지 인간의 개입 없이는 작동할 수 없습니다. Liu Quan은 본질적으로 인공 지능이 인간의 사고 방식을 대체할 수 없고 인간을 완전히 대체할 수도 없다고 말했습니다. 그렇지 않으면 AI 개발이 원래 의미를 잃을 수 있습니다.