소식

베이징 샹산 포럼(beijing xiangshan forum) | 신흥 기술을 어떻게 좋게 만들 것인가? 안전기준 공동개발을 위한 국제협력 강화 필요

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

러시아-우크라이나 전쟁터에서 우크라이나의 자살 드론이 러시아군 진지 상공을 맴돌고 있었는데, 드론에 탑재된 카메라가 참호를 겨냥해 지속적으로 스캔을 하던 중 인간의 활동이 감지되자 인공지능이 이를 재빠르게 식별해 잠수했다. 자살하려고.
카메라는 러시아-우크라이나 전장의 우크라이나 군 진지 위 하늘을 향했고, 러시아 무인 정찰기는 탱크와 장갑차를 발견한 후 신속하게 이 정보를 우크라이나 군 진지에 전달했습니다. 전투원인 '란셋' 순항미사일은 목표물이 발견된 위치 부근으로 비행하는 순항미사일도 인공지능 시스템을 탑재해 탱크와 장갑차를 빠르게 식별해 운반할 수 있다. 간섭이 발생하더라도 대상에 대한 잠긴 공격을 수행할 수도 있습니다.
위는 러시아와 우크라이나군이 공개한 드론과 순항미사일의 전투영상으로, 러시아-우크라이나 분쟁에서 눈길을 끄는 인공지능(ai) 기술의 성능이 큰 주목을 받고 있으며, 이에 대한 활용도 크게 촉진될 예정이다. 군사 분야의 기술. 인공 지능과 같은 신기술의 급속한 발전으로 인해 이번 베이징 샹산 포럼에서는 이러한 기술의 안전한 적용을 보장하는 방법이 여러 국가의 초점이 되었습니다.
9월 12일 포럼에서는 인공지능 보안을 논의하기 위한 고급 인터뷰를 위한 특별 세션이 마련되었습니다. 지난 9월 13일 포럼 제6차 그룹회의 '선을 위한 신기술'에서는 인공지능, 합성생물학 등 신기술이 어떻게 선하게 활용될 수 있는지에 대한 교류와 논의가 진행됐다.
인공지능 기술이 전장에 진출하다
2021년 키신저 전 미국 국무장관은 인공지능의 발전과 영향에 대한 자신의 견해를 밝히는 『인공지능 시대와 인류의 미래』라는 책을 출간했다. 이 책은 인공지능이 글로벌 안보와 세계 질서를 재편할 것이라고 제안하고, 인공지능의 부상에 대한 아이디어와 경고를 제공합니다. 키신저는 인공지능 무기에는 핵무기가 갖고 있지 않은 세 가지 특성이 있다고 믿습니다. 즉, 인공지능 무기는 대기업과 민간 부문에 집중되어 있으며, 기술은 더 쉽게 복제되므로 비정부 조직에서도 쉽게 습득할 수 있으며 소규모 국가에도 기회가 있습니다. 그것을 마스터하기 위해.
책이 출간된 지 2년 만에 러시아-우크라이나 분쟁이 터졌다. 분쟁이 진행될수록 드론, 무인전투차량, 무인정류장, 순항미사일 등 인공지능 기술을 탑재한 무기들이 점점 더 많이 전장에 투입됐다. 인공지능 기술은 위성 영상 인식, 의사결정 보조, 네트워크 및 전자 대응 등에도 적용됩니다.
멍샹칭 국방대학교 교수는 더페이퍼(www.thepaper.cn)와의 인터뷰에서 1차 세계대전은 기계화전의 시작으로, 걸프전은 정보의 시작으로 여겨진다고 지적했다. 현재의 인공지능 기술은 무기와 작전 능력을 미미하게 강화하고 전쟁에 큰 영향을 미치지는 않지만 이미 이러한 추세를 예고하고 있다.
현재 러시아-우크라이나 분쟁을 통해 인공지능을 탑재한 무기가 전장에 등장하는 경우가 늘어나고 있다. 올해 3월 영국 국방부는 우크라이나를 지원하는 드론의 수를 4,000대에서 10,000대로 늘릴 것이라고 발표했는데, 그 중 수천 대는 전장에서의 작전을 지원하기 위해 인공지능 기술을 탑재한 드론입니다. 이들 드론은 첨단 센서와 무기 시스템을 탑재하고 고도의 자율성과 지능을 갖추고 복잡한 환경에서 정찰, 공격, 방어 등 다양한 임무를 수행할 수 있다.
2023년 1월에는 "알고리즘이 어떻게 러시아-우크라이나 전쟁의 균형을 깨뜨렸나?"라는 제목의 기사가 나왔습니다. ” 보고서에는 미국 첨단기술 기업이 미 국방부, 정보기관과 협력하고 러시아-우크라이나 분쟁에 깊이 관여한 내막이 드러났다. 보고서는 미국 첨단기술 기업들이 제공하는 인공지능 소프트웨어가 위성 영상을 해석하고 가치 있는 표적을 찾는 데 널리 사용되고 있다고 언급했다.
보도에 따르면 우크라이나군은 미국 민간 소프트웨어 회사인 palantir의 "meta-constellation" 정보 시스템을 광범위하게 활용하기도 했습니다. 이 시스템을 통해 다양한 정교한 기술 애플리케이션이 통합되어 우크라이나와 그 동맹국이 특정 전투 지역에서 현재 사용 가능한 데이터를 볼 수 있는 "킬 체인"을 형성합니다. 위성 영상 표적 인식은 중요하고 복잡한 문제입니다. 기존의 수동 해석은 많은 어려움에 직면해 있으며, 딥 러닝을 기반으로 한 인공 지능의 능력은 위성 영상 해석에 큰 역할을 하여 위성 영상 표적 인식 계획을 위한 새로운 솔루션을 제공할 수 있습니다.
러시아도 러시아-우크라이나 분쟁 전장에서 인공지능이 탑재된 무기를 사용하고 있다. 예를 들어 순항미사일 '란셋-3'의 미사일 탑재 인공지능은 표적 탐색과 식별에 활용돼 독자적으로 찾아 공격할 수 있다. 미리 정해진 목표. mt-1 무인 지뢰 제거 차량, '마크' 무인 전투 차량 등 러시아 무인 전투 차량도 전장에 등장했습니다.
러시아 국방부는 미래 전쟁에 적응하기 위해 2022년 인공지능무기연구부서를 신설해 인공지능 기술 활용을 강화하고 새로운 특수장비 개발을 추진하고 있다.
또 다른 주목할만한 분쟁인 팔레스타인-이스라엘 분쟁 역시 인공지능 기술을 탑재한 무기가 많이 전장에서 사용되고 있다. 보도에 따르면 이스라엘은 가자지구를 공격했을 때 하마스 무장세력 식별을 돕기 위해 '라벤더'라는 인공지능 시스템을 사용했다. 10일 작업으로 10개의 타겟을 찾아 승인했고, 이제는 10일 작업으로 약 100개의 타겟을 찾아 승인할 수 있습니다.
또한 인공지능이 이미지와 영상을 수정하고 생성해 전시 정보전이나 여론전에도 활용될 수 있다. 미국 '와이어드' 웹사이트에는 '생성 인공지능이 이스라엘과 하마스 간 허위정보 전쟁에서 놀라운 역할을 한다'라는 제목의 기사를 통해 팔레스타인-이스라엘 분쟁 발발이 전례 없는 '허위정보' 타이드를 촉발했다고 밝혔다. 전쟁의 안개'는 소셜 미디어를 곤경에 빠뜨렸다.
공동으로 안전 표준을 개발하는 것이 앞으로 나아갈 길입니다
현재 인공지능, 합성생물학 등 신기술의 급속한 발전은 엄청난 응용 가치를 창출하고 있지만, 인류 전체의 이익과 관련된 예측할 수 없는 위험과 과제도 가져오고 있습니다. 신기술의 안전한 적용을 보장하는 방법은 무엇입니까? 모든 국가의 관심사가 됩니다.
베이징 샹산 포럼에서 열린 '인공지능 보안'에 관한 고급 인터뷰에서 미국 국방분석연구소 연구원이자 전 미국 국방부 차관인 챈더 박사는 인공지능으로 조종되는 드론이 여러 곳에서 사용되고 있다고 말했다. 러시아-우크라이나 전쟁터는 물론 가자지구에서도 다른 나라 군대에서도 인공지능 관련 적용을 고려하고 있지만, 이제는 인공지능의 보안과 거버넌스에 대해서도 논의되고 있는데 이 역시 아직까지 미처 다루지 못한 분야다. 관련된.
인공지능의 안전성과 위험에 관해서는 인공지능이 자율적인 결정을 내릴 수 있는지, 신뢰할 수 있는지, 인공지능이 가져올 수 있는 위험을 어떻게 관리할 것인지 등의 이슈가 많은 관심을 끌었습니다.
인공지능 알고리즘의 '블랙박스'의 불투명성은 보안 위험을 가져오고 사회적 신뢰 문제를 점점 더 복잡하게 만듭니다. 이에 대해 도쿄대 생산기술연구소 석좌교수이자 일본공학한림원 해외학자인 후앙(hu ang) 교수는 인공지능의 '블랙박스'가 과연 신뢰할 수 있는 것인지가 궁극적인 문제라고 말했다. 그는 “적어도 단기간에 인공지능이 의사결정에서 인간의 두뇌를 대체하기는 어려울 것”이라고 말했다.
사회 발전을 위한 인공 지능 및 데이터 과학 분야의 유네스코 의장이자 네덜란드 헤이그 응용 과학 대학의 데이터 과학 교수인 lampros stégioulas는 다음과 같이 지적했습니다. “기계는 말할 것도 없고 인간 기술자도 모두 실수를 하는가?” 문제? 자율적 의사결정에서 인간의 두뇌를 대체할 수 있다는 것은 철학적 문제이자 실천적 문제다.”
레퍼런스 뉴스 네트워크(reference news network)는 올해 7월 미국 펀사이언스(american fun science) 웹사이트가 지난 6월 '인공지능이 만든 재앙적인 실수'라는 기사를 게재했다고 보도했다. 이 기사는 인공지능의 '재앙적인' 사례를 나열하고 인공지능의 위험성을 무시할 수 없음을 상기시켰다.
bbc 조사에 따르면 소셜 플랫폼은 전쟁 범죄 가능성이 있는 동영상을 삭제하기 위해 ai를 사용하고 있으며, 이는 향후 피해자의 합법적인 구제 수단을 거부할 수 있는 조치인 것으로 나타났습니다. 소셜 플랫폼은 전쟁과 사회적 불안에서 중요한 역할을 하며, 종종 위험에 처한 사람들을 위한 의사소통 수단으로도 사용됩니다. 조사 결과, 공익을 담은 노골적인 콘텐츠는 사이트에 남아 있을 수 있지만 우크라이나 공격에 대한 동영상은 신속하게 삭제된 것으로 나타났습니다.
이러한 '비참한' 사례는 사람들의 일상생활에서도 나타난다. 구글 이미지는 ai 소프트웨어에서 고릴라를 검색할 때 흑인의 이미지가 나타난 후 이 기능을 취소해야 했다. 애플을 포함한 다른 회사들도 비슷한 주장으로 소송을 당했다.
shi chande는 인공지능의 보안 문제가 국방과 민생을 포함한 모든 측면과 관련되어 있다고 믿습니다. 따라서 그는 인공지능 보안 위험을 완화하기 위해 국가들이 다자간 협약을 체결할 것을 제안했습니다.
칭화대학교 정보과학기술대학원장이자 중국공정원 원사인 dai qionghai에 따르면 인공지능 개발은 향후 3년 안에 빠른 속도로 진입할 것이라고 합니다. 인공지능 개발은 예측 불가능하기 때문에 관련 윤리와 거버넌스가 최우선시되어야 하며, 인공지능 응용이 인류에게 이익이 될 수 있도록 안전 위험을 줄여야 합니다.
전문가들에 따르면 인공지능 분야에서 국제 협력을 강화하는 것이 특히 중요하며, 특히 주요 국가 간의 협력을 통해 안전 표준을 공동으로 제정하면 인공지능이 인류에게 더 나은 혜택을 줄 수 있습니다.
올해 5월 14일, 스위스 제네바에서 중국-미국 인공지능 정부 간 대화의 첫 번째 회의가 열렸습니다. 두 당사자는 인공지능 기술의 위험성에 대한 각자의 견해와 거버넌스 조치, 그리고 경제 및 사회 발전에 힘을 실어주기 위해 인공지능을 촉진하기 위해 취한 조치를 소개했습니다. 양측은 인공지능 기술의 발전이 기회와 위험을 동시에 직면하고 있음을 인식하고, 샌프란시스코에서 양국 정상이 도달한 중요한 합의를 이행하겠다는 지속적인 의지를 재확인했습니다.
shi chande의 견해에 따르면 중국과 미국은 의사소통이 계속되도록 보장해야 합니다. "신기술 분야에서는 양측이 점차 어느 정도 동등성이나 균형에 도달하고 있으며, 이는 양측 간 더욱 솔직하고 심도 있는 대화로 이어질 수 있습니다. 우리는 양측이 계속해서 소통을 유지하기 위해 열심히 노력하도록 해야 합니다. ." 시잔데가 말했다.
더 페이퍼(the paper) 기자 셰 루이창(xie ruiqiang)
(이 기사는 the paper에서 발췌한 것입니다. 더 많은 원본 정보를 보려면 “the paper” 앱을 다운로드하세요.)
보고/피드백