소식

EU 인공지능법이 발효되어 글로벌 규칙을 선도할 수 있을까?

2024-08-13

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

EU는 인공지능을 활용해 글로벌 규칙을 입법하고 주도하기를 희망하지만, 산업 발전 초기 단계에서 엄격한 규제 조치를 신속하게 도입해 법의 실제 시행 과정과 시행 효과가 여전히 남아 있다는 비판을 받고 있다. 볼 수 있습니다.

이 글의 단어 수는 6256자, 읽는 시간은 약 18자 정도입니다.

텍스트 |금융 전자법 Fan Shuo

편집 |궈리친

유럽연합(EU)이 입법 속도에서 다시 한 번 세계를 선도하고 있는데, 이번에는 계속해서 뜨겁게 달아오르고 있는 인공지능(AI) 분야에서다. 그러나 이러한 모호한 용어가 궁극적으로 어떻게 구현될지는 여전히 불분명합니다.

지난 8월, 인공지능을 포괄적으로 규제하는 세계 최초의 법률인 유럽인공지능법(이하 'AI법')이 공식 발효됐다.

가장 주목받는 점은 AI법 조항이 단계적으로 시행된다는 점이다. 8월 1일은 이 법이 발효되는 날이지만 일부 조항만 발효됩니다. 시간표에 따르면 법안의 금지된 관행은 발효 후 6개월 후에 적용됩니다. 일반 인공 지능에 대한 관련 의무 및 규칙은 8월 1일부터 12개월 후에 적용되며 법안은 완전히 적용됩니다. 고위험 AI 시스템에 대한 적용은 36개월 이후부터 적용됩니다.

역사상 '가장 엄격한' 것으로 알려진 이 포괄적인 AI 규제 규칙에는 AI 시스템 제공자, 사용자, 수입업체, 유통업체 등 AI 산업 체인의 감독 범위 내 모든 주체가 포함됩니다. EU 시장, 제품 제조업체 등

'AI법'은 규제 도구도 확대했다. 위험 중심의 계층적 관리 모델을 도입했을 뿐만 아니라 중소기업과 스타트업의 규정 준수 부담을 줄이기 위한 '규제 샌드박스'도 설계했다. 날카로운 "치아"도 주목을 받았습니다.관련 규정을 위반할 경우 기업은 최대 3,500만 유로(약 2억 7,000만 위안) 또는 직전 회계연도 글로벌 연간 매출의 7%(둘 중 더 높은 금액)의 벌금을 물을 수 있습니다.

EU는 AI법 제정 초기부터 AI 분야의 규칙을 선도하는 데 이를 활용하기를 희망해 왔다.

'AI법'은 2021년 4월 EU 디지털 담당 수석인 마르그레테 베스타게르(Margrethe Vestager)가 발표했다. 당시 그녀는 “EU는 인공지능이 신뢰할 수 있도록 새로운 글로벌 규범 개발에 앞장서고 있다”고 말했다. 위원회의 내부 시장 위원도 소셜 미디어를 통해 이 법이 “EU 스타트업과 연구자들이 AI 분야에서 글로벌 경쟁을 주도하는 데 도움이 되는 중요한 지침이 될 것”이라고 말했습니다.

그러나 AI 산업 발전이 아직 초기 단계에 있는 상황에서 AI법이 급속하게 도입된 것도 폭넓은 비판을 불러일으켰다.반대자들은 기본 모델을 규제하려는 성급한 시도가 기술 자체의 사용을 제한할 것이라고 주장합니다.

대외경제대학 디지털 경제 및 법률 혁신 연구 센터 소장 Xu Xu는 'AI법'의 점진적인 시행 조항이 EU 기업에 충분한 완충 기간을 제공할 것이라고 믿습니다. 관련 법안.

중국 정법대학 데이터법 연구소 교수이자 유엔 인공지능 고위급 자문기구의 중국 회원인 장링한(Zhang Linghan)은 해당 조항을 연구한 후 "AI법"은 다음과 같이 말했다. 엄격하다고 알려진 규제 조치와 혁신적인 규제 도구의 제한적인 구현은 모두 EU 규정이지만 AI 기업은 유연한 개발에 필요한 공간을 제공합니다.또한 비 EU 기업의 규정 준수 비용도 증가합니다.

King & Wood Mallesons의 규정 준수 책임자인 Ning Xuanfeng은 모든 조항이 발효된 후 AI 산업의 개발 및 규제 결과와 결합하여 "AI 법률"의 실제 효과와 영향을 관찰해야 한다고 믿습니다. 시간. 중국 입법자들에게 시사하는 바는 고위험 AI 시스템이 사용되는 전체 과정에 걸쳐 여러 관련 주체를 포함한다는 것입니다. AI 법률은 관련 주체의 참여 정도에 따라 규정 준수 요구 사항을 설정하고 관련 주체의 위반 사항을 다룹니다. 단체에 벌금이 부과되었습니다. Ning Xuanfeng의 견해에 따르면 중국의 현재 '생성 인공 지능 서비스 관리를 위한 임시 조치'는 주로 거버넌스의 출발점인 서비스 제공업체에 초점을 맞추고 있습니다. 향후 중국이 AI를 입법화한다면 AI 시스템 가치 사슬의 모든 당사자를 포괄하는 책임 메커니즘 구축을 고려할 수 있으며, 이는 각 당사자의 책임 경계를 구분하여 연구 개발이나 서비스 동기를 자극하는 데 더 도움이 될 것입니다.

01

EU 법률에서 영감을 얻음

EU의 입법 과정에서 EU는 모든 당사자의 관심사를 다루는 세부적인 논의를 거쳤습니다. 이러한 내용은 물론 전체 법안의 방향과 사고도 다른 국가나 지역에 귀중한 참고 자료가 되었습니다.

EU의 신속한 입법은 국제적으로 비판을 받아왔다.

언론 보도에 따르면 EU 의원들은 규칙을 채택하기 위해 2023년 12월 마라톤 협상을 열었습니다. 그러나 비평가들은 규제 당국이 기업이 법을 집행하는 데 절실히 필요한 중요한 세부 사항을 놓치고 있어 규정이 충분하지 않다고 말합니다. 일부 전문가들은 이렇게 추정한다.EU는 AI법 시행을 지원하기 위해 60~70개의 2차 입법이 필요하다.

AI법 초안 작성에 참여한 유럽 의회 보좌관 카이 제나(Kai Zena)는 다음과 같이 인정했습니다."법은 매우 모호합니다. 시간의 압박으로 인해 많은 일이 발생합니다. 규제 당국은 이러한 사항에 동의할 수 없으므로 타협하기가 더 쉽습니다."

Xu는 AI법에 대한 가장 큰 비판은 위험 기반 접근 방식에 기반을 두고 있으며 개인의 권한 부여가 부족하다는 점이라고 말했습니다. 또한, 향후 AI법 시행 시에는 다른 법률 및 규정과의 조정 문제도 많이 직면해야 할 것이다. 예를 들어 일반 데이터 보호 규정(GDPR), 디지털 시장법(DMA), 데이터 거버넌스법(DGA)과 같은 법적 규제를 조정하면 많은 문제가 발생합니다. 아울러 AI법은 일반법으로서 금융, 의료, 교통 등 다양한 분야의 시행 문제를 고려해야 한다.

"사실, 해결하는 것보다 더 많은 문제를 일으킬 수 있습니다."라고 Xu는 말했습니다.

비록 비판을 받았지만 'AI 법'의 입법 아이디어는 주로 산업의 전반적인 발전 과정을 고려했기 때문에 확인되었습니다.

장링한(Zhang Linghan)은 다음과 같이 지적했다.AI법은 역사상 가장 엄격한 AI 규제법으로 알려져 있지만 실제로는 규제 조치가 제한적이며, 제정 과정에서도 EU AI 산업의 전반적인 발전을 촉진하려는 의도도 고려됐다.

구체적으로,Zhang Linghan은 먼저 다음과 같이 믿습니다.AI법은 일부 AI 시스템의 개발 및 활용에 대한 면제를 제공합니다.군사, 국방 또는 국가 안보 목적으로 특별히 개발된 시스템, 과학 연구를 위해 특별히 개발된 시스템, 무료 오픈 소스 인공 지능 시스템이 포함됩니다.

둘째, AI법은 일련의 지원 방안을 제시하고 있다.EU 기업, 특히 중소기업의 행정적, 재정적 부담을 줄이는 것입니다.

셋째, 'AI법'의 단계별 준수 일정과 이에 의해 만들어진 규제샌드박스 시스템은 각각EU AI 산업 발전을 위해 일정량의 시간과 공간을 제공합니다.

넷째, AI법의 치외법권적 효과는비 EU 기업의 규정 준수 비용 증가이는 비 EU 기업의 유럽 시장 확장 의지를 제한하여 EU 기업에 대한 경쟁 압력을 어느 정도 줄일 수 있습니다.

Xu는 AI법이 단계적으로 시행되는 데에는 두 가지 이유가 있을 수 있다고 생각합니다. 한편, 인공지능은 규제가 급속히 발전하고 있는 분야로, 법 시행 이후에도 기술과 산업의 변화에 ​​어떻게 대응할 것인지에 대한 불확실성이 여전히 크다. 반면에 "AI 법"은 기업이 자체 기술 경로와 비즈니스 모델을 검토할 수 있도록 허용합니다. 법률이 기술 언어 및 산업 표준으로 번역되려면 규제 당국 및 기업과 협력해야 하며, 이를 위해서는 기업과 규제 당국 간의 위험 커뮤니케이션, 커뮤니케이션 및 조정을 위한 시간도 확보해야 합니다.

베이징 사범대학교 법과대학원 박사강사이자 중국인터넷학회 연구센터 부소장인 Wu Shenkuo에 따르면, "AI 법"은 연구 개발 및 산업 응용의 핵심 논리로서 투명성과 공정성을 갖춘 규제 시스템 요구 사항을 확립합니다. 인공지능의. 이는 AI의 연구 개발 방향과 시장 적용에 장기적인 영향을 미칠 것이며 유럽의 시장 레이아웃도 변화시킬 것입니다.

그렇다면 AI법에 설계된 두 가지 주요 규제 도구가 다른 국가의 입법자들에게 어떤 영향을 미칠까요?

도구 1: 위험 분류 관리

"AI 법"의 전반적인 규제 구조는 "위험 피라미드"와 유사하게 인공 지능 응용 프로그램에 대한 위험 수준의 4가지 범주를 중심으로 돌아가며 해당 위험 예방 메커니즘이 각각 확립되어 있습니다.

인공지능이 사용자와 사회에 미치는 잠재적 영향에 따라 다음과 같은 4가지 수준으로 구분됩니다.허용되지 않는 위험 범주, 높은 위험 범주, 제한된 위험 범주, 최소 위험 범주.

가장 극단적인 수준에서는 국민의 안전, 일상생활, 기본권에 명백한 위협을 가한다고 판단되는 등 용납할 수 없는 위험을 내포하는 인공지능 시스템이나 애플리케이션의 사용을 전면 금지한다.이러한 AI 시스템 개발자에게는 이전 회계연도 전 세계 매출의 최대 6%에 해당하는 벌금이 부과됩니다.(자세한 내용은 다음을 참조하세요.같은 기간 동안 중국과 유럽의 AI 법안의 획기적인 발전: ChatGPT에 "신호등"을 설정하시겠습니까?

인공지능의 4가지 위험 수준, 출처: 유럽연합 집행위원회 공식 웹사이트

고위험 인공지능 시스템에 대해서는 'AI법'에 시판 전 진입부터 시판 후 진입까지 전 과정의 위험 관리 시스템을 규정하고 있다. 시장에 진입하기 전에 기업은 위험 관리 시스템을 구축 및 유지하고, 데이터 거버넌스를 수행하고, 기술 문서를 개발 및 업데이트하고, 규제 당국 등에 필요한 모든 정보를 제공해야 합니다.

Wu Shenkuo는 기본 방법론으로서 위험 분류 및 분류가 다양한 국가 및 지역의 법률에 다양한 정도로 반영될 것이라고 소개했습니다. 중요한 의미와 제도적 가치는 감독의 비례성을 보장하는 데 있습니다. 핵심 규제 문제와 전략적 요구를 충족하는 동시에 AI 개발에 필요한 유연한 개발 공간도 제공합니다.

중국에서는 위험 중심 분류 및 등급 시스템이 알고리즘 및 생성 AI 규제에도 반영됩니다. 2021년 9월, 중국 사이버 공간 관리국은 "인터넷 정보 서비스 알고리즘의 종합 관리 강화에 관한 지침 의견"을 발표했습니다. 이 의견은 알고리즘의 계층적, 분류된 보안 관리를 촉진하고 고위험 알고리즘을 효과적으로 식별하며 정밀한 구현을 제안했습니다. 통치.2023년 7월, 중국 사이버 관리국 및 기타 부서에서 발표한 "생성 인공 지능 서비스 관리를 위한 임시 조치"에서도 생성 인공 지능 서비스에 대한 포괄적이고 신중하며 분류되고 계층적인 감독을 구현할 것을 제안했습니다.

Ning Xuanfeng은 위험 분류 전략이 AI 기술로 인해 발생할 수 있는 사회적 위험을 완전히 이해하지 못한 채 AI 기술에 대한 현실적인 규제 요구 사항을 기반으로 한다고 믿습니다.진보적인 규제 전략.

라이센스는 분류 및 등급 지정이 규제 당국이 특정 비율에 따라 규제 자원을 할당해야 함을 의미한다고 믿습니다. 미래에는 AI가 Office 소프트웨어와 같은 수천 가지 산업에 내장될 것이므로계층적 분류는 여전히 AI 감독의 기본 아이디어 중 하나여야 합니다.그러나 현재의 위험 기반 분류 및 등급 지정은 AI의 정적 위험만 보고 동적 이점은 보지 않기 때문에 폐기되어야 합니다. 예를 들어, 고위험 AI 시스템은 종종 높은 수익을 의미합니다.

'AI법'의 계층적 분류는 중국의 기존 계층적 분류 논리와 다르다. 라이센스 소개, 분류를 영어로 하면 분류라는 한 단어입니다. 그러나 중국에서는 분류와 등급을 매기는 것이 '분류'와 '등급'이라는 두 가지 개념입니다. 더욱 특별한 점은 일반 인공지능의 출현으로 인해 중국의 이전 정책에서 AI 적용 시나리오의 고전적인 분류 방법이 조정될 필요가 있다는 점입니다. 예를 들어, "인터넷 정보 서비스 알고리즘 추천 관리 규정"은 생성 및 합성, 개인화된 푸시, 정렬 및 선택, 검색 및 필터링, 스케줄링 및 결정과 같은 정보 서비스를 포함하여 "응용 알고리즘 추천 기술"의 5가지 주요 범주를 규제합니다. 만들기.하지만 제너레이티브 AI는 더 이상 이 아이디어를 따를 수 없으며 대형 모델은 모든 분야에 적용될 수 있습니다.

라이센스 소개,분류 조정의 경우 규제 당국은 여전히 ​​인공지능에 대한 계층적 관리를 수행할 수 있습니다. 중국은 AI 영향 정도에 따른 분류를 채택하고 있다.예를 들어, "생성인공지능 서비스 관리에 관한 경과조치"여론 속성이나 사회 동원 능력을 제공하는 생성적 인공지능 서비스를 분류하고 등급을 매긴다.이러한 유형의 서비스 제공업체는 알고리즘 파일링 및 대규모 모델 파일링에 대한 요구 사항을 제시했습니다. 일부 AI 시스템은 국가와 사회 질서에 중대한 영향을 미치기 때문에 규제 당국은 다양한 규제 조치를 취한다는 논리다. 그러나 Xu Xu는 이것이 중국의 AI 법안이 앞으로도 동일한 규제 조치를 계속할 것이라는 의미는 아니지만,규제 당국은 다양한 요소를 사용하여 AI 시스템의 영향을 결정하고 해당 규제 조치를 설정합니다.

장링한(Zhang Linghan)도 말했다.생성 AI가 더욱 다양해짐에 따라 중국의 분류 시스템은 기술 발전에 맞춰 조정되어야 합니다.

도구 2: “규제 샌드박스” 시스템

'AI법'은 이전 초안에 이어 금융기술 감독에서 흔히 볼 수 있는 '규제샌드박스' 제도를 도입한다.

소위 '규제 샌드박스'는 기업, 특히 중소기업과 스타트업이 '샌드박스'에 진입하고 혁신적인 AI 개발에 적극적으로 참여할 수 있도록 감독 및 제어 가능한 안전한 공간을 만드는 것입니다. 규제 기관의 엄격한 감독 하에 이러한 AI 시스템을 테스트한 후 서비스 시장에 출시합니다. 개발 및 테스트 과정에서 주요 위험이 발견되면 즉시 위험을 완화하거나 통제할 수 없는 경우 공개 테스트를 중단해야 합니다.

'규제 샌드박스'는 영국 금융행위감독청(FCA)이 2015년 처음 만들었습니다. Li에 따르면, "규제 샌드박스" 시스템은 통제 가능한 위험 하에서 기술 혁신을 달성하는 것을 목표로 혁신을 지원하기 위한 EU 이니셔티브입니다. "규제 샌드박스"는 제어 가능한 환경을 조성하고, 일부 AI 애플리케이션에 대해 특정 규제 조치를 취하고, 잠재적으로 위험한 AI에게 시행착오를 위한 공간을 제공할 수 있습니다.

Wu Shenkuo는 또한 '규제 샌드박스'가 'AI 법'의 특징 중 하나라고 말했습니다. AI와 같은 새로운 기술 및 응용 분야에 직면하여 EU 규제 기관과 규제 대상자 간의 지속적인 대화를 돕거나 촉진할 수 있습니다.기술 개발과 규제 문제 간의 동적 균형을 해결합니다.

현재 여러 EU 회원국에서는 AI 분야에서 '규제 샌드박스' 시스템을 시범 운영하고 있습니다.

프랑스는 2022년부터 '규제 샌드박스' 시스템을 시범적으로 시작할 예정이다.교육산업현재 시범사업에는 5개 기업이 참여하고 있다.

2024년 5월 스페인은 '규제 샌드박스' 시행에 대한 의견을 구했습니다. 스페인은 맑음'규제샌드박스' 시스템에는 고위험 인공지능 시스템과 일반 인공지능, 생체인식, 핵심 인프라, 교육훈련 등 8개 분야 기본모델이 적용된다.또한 프로젝트 접근, 문서 제출, 위험 관리 및 종료 조건에 대한 보다 자세한 규정을 제공합니다.

노르웨이와 스위스도 유사한 시범 프로젝트를 진행하고 있습니다. 예를 들어, 노르웨이 대중교통 제공업체 Ruter는 '규제 샌드박스'를 기반으로 하는 온라인 여행 추천 AI 알고리즘에 대한 위험 평가를 수행했습니다. 스위스의 5개 파일럿 회사가 참여하고 있습니다.무인농업기계, 드론, 기계번역, 작동오류수정, 주차예약 등분야의 연구와 개발.

중국에서는 금융기술 감독에도 '규제샌드박스' 제도를 적용하고 있다. 2019년 1월 31일, 국무원은 '베이징 서비스 산업의 확장 및 개방을 포괄적으로 촉진하기 위한 종합 시범 작업 계획에 대한 답변'에서 중국이 법적 전제 하에 '규제 샌드박스' 메커니즘을 탐색해야 한다는 데 동의했습니다. 규정 준수. 2019년 12월 5일, 중국 인민은행은 중국이 금융 기술 혁신 감독을 위한 전국 시범 프로그램을 주도하고 중국 버전의 '규제 샌드박스'를 탐색하는 데 앞장서도록 지원을 승인했습니다.

라이센싱의 관점에서 보면 '규제 샌드박스'는 기술 혁신일 뿐만 아니라 규제 혁신이기도 합니다. 이 시스템은 실제로 두 가지 측면에서 실험을 수행하고 있습니다. 첫째, 규제 대상에 대한 실험적 거버넌스입니다. 둘째, 규제 기관은 샌드박스 내에서 규제 규칙의 합리성과 필요성을 테스트할 수 있습니다.성숙한 "규제 샌드박스"는 규제 기관과 규제 대상 간의 공동 혁신입니다. 즉, 규제 기관은 "샌드박스"의 피드백을 기반으로 규제 규칙을 조정하고 규제 대상도 "샌드박스"를 기반으로 테스트 및 검증됩니다. 상황에 따라 비즈니스 모델과 기술 개발 방향을 조정합니다.

그러나 Zhang Linghan은 다음과 같이 상기시켰습니다.'규제 샌드박스'는 규제 기관의 모니터링 및 평가 역량에 대해 더 높은 요구 사항을 부여하며, 실제 효과와 업계에 미치는 영향은 지속적으로 관찰되어야 합니다.

02

글로벌 영향은 아직 지켜봐야

EU는 늘 디지털 입법에 앞장서 왔으며 '브뤼셀 효과'를 통해 표준을 전 세계에 수출하려고 노력하고 있습니다.

'브뤼셀 효과'는 EU가 내부 단일 시장을 감독하는 과정에서 다국적 기업들이 컴플라이언스를 통해 이러한 표준을 수용하고 점차 EU 표준을 세계 표준으로 만들어가는 현상을 말한다. GDPR의 시행이 좋은 예입니다. GDPR은 2018년 5월 25일 발효된 유럽 연합의 개인 데이터 보호에 관한 지침 및 정책입니다. 다국적 기술 기업은 GDPR 요구 사항을 기반으로 데이터 처리 규정 준수를 구현하고 EU 외부의 데이터 처리에 이 표준을 사용하여 EU 표준을 세계 표준으로 만듭니다.

Zhang Linghan은 AI의 중요한 시장인 EU 자체 AI 산업이 상대적으로 약하다고 생각합니다. "AI 법"은 GDPR 글로벌 거버넌스 프레임워크를 재현하고 "브뤼셀 효과"를 더욱 확장하여 글로벌 산업 경쟁을 위한 협상 카드를 얻으려고 합니다. 그리고 혜택을 재분배합니다. 이에 세계는 'AI법'이 기대에 부응할 수 있을지 주목하고 있다.

"AI법"을 시행하려면 전제 조건이 있습니다. 현지 EU 기술 기업과 다국적 기술 기업 모두 규정 준수 문제를 기꺼이 받아들입니다.

Digital Europe의 사무총장인 Cecilia Bonefield-Dahl은 이러한 접근 방식이 규제를 약화시킨다고 경고했습니다.이는 향후 새로운 인공지능 기업 분야에서 유럽과 미국 간 경쟁을 저해할 것이다.“EU 기업에 대한 추가 규정 준수 비용으로 인해 우리 수익이 더욱 감소했습니다.”라고 그녀는 말했습니다."다른 세계에서는 프로그래머를 고용하고 있지만 우리는 변호사를 고용하고 있습니다."

Zhang Linghan은 'AI 법'의 발효로 유럽에서 활동하는 기술 회사에 다차원적인 과제가 발생했으며 AI 제품 연구 및 개발, 테스트, 배포 및 적용의 모든 측면에서 상응하는 규정을 마련했다고 말했습니다. 그녀의 관점에서 기술 회사는 EU와 일치하는 규정 준수 시스템 구축을 보장하기 위해 규정 준수 비용에 대한 투자를 늘릴 뿐만 아니라 목표 시장을 지속적으로 평가 및 모니터링하고 연구 및 조사에서 필요한 조정을 수행해야 합니다. AI법에서 요구하는 높은 보안 및 투명성 기준을 충족하기 위한 개발 프로세스 및 기능 설계.

Ning Xuanfeng은 가장 직관적인 것은 고위험 AI 시스템 제공업체에 관한 한 "AI 법률"의 영향이 관련 규제 요구 사항에 적응하기 위한 관련 기관의 규정 준수 비용에 최소한 반영될 것이라고 믿습니다. 즉, 관련 주체가 관련 시스템을 계속 제공하지 못할 수도 있으며, 이로 인해 해당 경제적 손실이 더욱 발생할 수 있습니다.

그렇다면 중국 AI 기업들은 어떻게 대응해야 할까?

Zhang Linghan은 다음과 같이 제안했습니다.준수 수준, 중국 기업은 먼저 "AI 법"의 요구 사항을 종합적으로 평가하고 규정 준수 전략을 신속하고 역동적으로 조정하며 내부 규정 준수 관리 시스템을 구축해야 합니다. 둘째, 기술 혁신 능력을 향상하고 AI 시스템의 기술적 특성과 제품 기능을 목표로 삼아야 합니다. .관련 위험 계획 개발;드디어,국제협력과 교류를 강화해야 하며,국제 경쟁력을 강화하기 위해 해외 법률 및 법 집행 발전에 세심한 주의를 기울이십시오.

Permit은 EU가 GDPR의 "브뤼셀" 효과를 재현하는 데 성공하지 못할 것이라고 믿습니다. GDPR의 성공을 위해서는 세 가지 전제 조건이 있습니다. 첫 번째는 광범위한 관할권, 두 번째는 높은 수준의 법적 요구 사항, 세 번째는 높은 벌금입니다. 현재 AI법은 이 세 가지 측면에서 GDPR과 일치하지만 중요한 차이점은 데이터가 국경을 넘어 흘러야 하고 인공지능 시스템이 분할될 수 있다는 점이다. 데이터의 유동성 덕분에 규제 당국은 EU 내 데이터 유입과 유출을 통제해 전 세계에 간접적으로 영향을 미칠 수 있지만, AI 규제에는 이를 반영할 수 없다.AI 기업은 분할 가능한 시장을 완전히 구축할 수 있으며 EU 외부에서 AI 산업을 개발할 때 EU 규칙을 준수할 필요가 없습니다.

라이선스 알림으로 AI법에는 두 가지 면제가 있다는 점에 유의하는 것이 중요합니다. 하나는 AI 연구 및 개발에 대한 면제입니다. 많은 기업이 EU에서 연구 개발을 수행하고 EU 외부에서 서비스를 제공할 수 있습니다. 두 번째는 일부 폐쇄 소스 AI 시스템만 제한하는 오픈 소스 면제입니다. 예를 들어 구글은 오픈소스 인공지능을 통해 EU 시장의 제품과 서비스에 간접적으로 영향을 미칠 수 있다.

Xu는 또한 GDPR이 개인에게 매우 강력한 권리를 부여하며 이러한 사적 권리로 인해 개인과 NGO가 사법 소송을 시작하도록 촉진하여 소송을 통해 감독을 달성했다고 지적했습니다. 'AI법'은 본질적으로 AI 시스템의 제조물 책임을 규정하고 있다.개인에게 새로운 권리가 부여되지 않기 때문에 집행은 주권 원칙에 따라 EU의 행정 집행에만 의존할 수 있으며 실제로 관련 집행은 EU 내에서만 수행될 수 있으며 이는 AI의 글로벌 영향력에도 도전이 됩니다. ​​법률.

그러나 미국의 법학자 Sun Yuanzhao는 'AI법'의 준수 요구 사항이 기업 운영에 어느 정도 불편을 초래할 수 있다고 생각하지만 이는 모든 준수 요구 사항에 해당됩니다. 긍정적인 관점에서는 대형 안전사고를 어느 정도 예방할 수 있고, 불행하게도 사고가 발생했을 경우 최단 시간 내에 아이디어를 브레인스토밍하여 공동으로 문제와 해결 방안을 마련하는 데에도 도움이 될 것입니다. 사회의 신뢰를 높이고 전체 시장의 건강하고 질서 있는 발전을 촉진합니다.