소식

“AI 대모” Li Feifei가 직접 썼습니다: 캘리포니아의 AI 안전 법안은 미국 ​​생태계에 해를 끼칠 것입니다 |Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

8월 7일 TMTpost 앱 뉴스에 따르면 'AI의 대모'는 미국 국립공학한림원 학자, 미국 예술과학아카데미 학자, 스탠포드대학교 최초의 세쿼이아 석좌교수로, 스탠포드 인간 중심 인공 지능 연구소 (HAI) 학장 Feifei Li는 오늘 아침 "Fortune"에 기사를 작성하여 캘리포니아에서 곧 시행되는 AI 안전법이 개발자, 학계, 심지어 전체에 해를 끼칠 것이라고 지적했습니다. 미국의 AI 생태계이지만 AI의 잠재적인 피해를 해결하지는 못할 것입니다.

“오늘날 AI는 그 어느 때보다 발전했습니다. 그러나 큰 힘에는 큰 책임이 따릅니다. 정책 입안자, 시민 사회 및 업계 관계자는 잠재적인 피해를 최소화하고 안전한 인간 중심의 AI 사회를 형성하는 거버넌스 접근 방식을 찾고 있습니다. 캘리포니아의 첨단 인공 지능 모델을 위한 안전한 혁신법(이하 SB-1047)은 이러한 노력 중 일부에 속하지만 다른 노력에는 주의가 필요합니다. 전국적으로요." Li Feifei가 말했습니다.

올해 7월 캘리포니아 상원은 개발자들이 자신의 AI 모델이 해를 끼치는 데 사용되지 않는다는 것을 증명하도록 요구하는 SB-1047 법안의 버전을 승인한 것으로 알려졌습니다. 이는 제안된 600개 이상의 AI 법안보다 더 많은 수치입니다. 올해 미국 주 의회의 규제가 너무 많아 관심을 끌 수 없습니다. 극도로 피해가 큰 이 제안은 올해 8월 Gavin Newsom 캘리포니아 주지사가 법으로 서명할 예정입니다.

법안의 정의에 따르면 Meta의 Llama-3은 훈련 비용이 1억 달러가 넘는 "최첨단 모델"로 정의됩니다. 또한 누군가가 불법적인 목적으로 모델을 사용하는 경우 Meta는 심각한 처벌을 받게 됩니다. 동시에 법의 섹션 22603(a)(3)(4)에서는 정부 기관에 인증서를 제출하고 오류가 있는 경우 모델 작동을 중지하기 위해 "제한된 관세 면제"를 요구하는 반면, 섹션 22603(b)에서는 다음을 요구합니다. 개발자는 모든 모델에 대한 잠재적인 AI 보안 사고를 보고할 수 있습니다. 개발자가 자신의 모델을 기반으로 다양한 파생 버전을 완전히 제어할 수 없는 경우 보안 사고가 발생하면 책임은 최초 개발자에게 있습니다.이는 공동 책임에 해당합니다.

또한 법안의 섹션 22604(a)(b)에서는 사용자가 "최첨단 모델"과 컴퓨팅 리소스를 사용할 때 개발자가 고객의 신원, 신용 카드 번호, 계좌 번호를 포함한 모든 고객 정보를 제출해야 한다고 규정합니다. 고객 식별 식별자, 거래 식별자, 이메일, 전화번호. 또한 정보는 1년에 한 번씩 제출되어야 하며 사용자의 행동과 의도가 평가됩니다. 모든 사용자 정보는 7년 동안 백업되며 관세국경청에도 제출됩니다.

미국 캘리포니아주의 지리적 위치는 매우 특별합니다. 스탠포드, 칼텍, 서던캘리포니아 대학교 등 유명 대학은 물론 구글, 애플,오픈AI 또한 Meta 및 Meta와 같은 거대 기술 기업의 본사가 있는 곳이기도 합니다. 따라서 이와 관련하여 Turing Award 수상자이자 Meta의 수석 AI 과학자인 Yann LeCun, Li Feifei, 투자 기관 a16z의 창립 파트너인 Andreessen Horowitz, 스탠포드 대학 컴퓨터 공학과 및 전기 공학과 Andrew Ng 객원 교수 등 이의를 표명했습니다.

그중 양리쿤은 해당 법안의 “공동 및 여러 책임 조항은 오픈소스 AI 플랫폼을 큰 위험에 노출시킬 것”이라고 경고했다. 메타는 영향을 받지 않지만 AI 스타트업은 이 모델을 사용하면 파산할 것으로 알려졌다. 이 법안은 AI 개발자가 자신이 개발한 모델에 대해 민사적, 심지어 형사적 책임을 져야 한다고 요구합니다.

호로위츠는 캘리포니아의 AI 방지 법안이 좋은 의도로 만들어졌지만, 기술의 미래가 중대한 갈림길에 섰을 때 잘못된 정보로 인해 미국 기술 산업이 약화될 수 있다고 믿습니다. 미국은 지도자들이 지금이 AI에 대한 스마트하고 통합된 규제 조치가 필요한 중요한 순간이라는 점을 인식해야 합니다.

Andrew Ng는 캘리포니아 SB-1047 법안이 대규모 오픈 소스 모델의 개발을 방해할 것이라는 기사를 발표했습니다. 그는 나아가 다음과 같이 지적했다.규제해야 할 것은 대형 모델 자체가 아니라 AI 애플리케이션이다

Li Feifei는 AI 정책이 혁신을 장려하고 적절한 제한을 설정하며 이러한 제한의 영향을 완화해야 한다고 믿습니다. 그렇게 하지 못하는 정책은 기껏해야 목표를 달성하지 못할 것이며, 최악의 경우 의도하지 않은 심각한 결과를 초래할 것입니다. SB-1047이 법으로 통과되면 미국의 초기 AI 생태계, 특히 오늘날의 거대 기술 기업인 공공 부문, 학계 및 "소형 기술"에 의해 이미 불이익을 받고 있는 부분에 해를 끼칠 것입니다. SB-1047은 개발자에게 불필요하게 불이익을 주고, 오픈 소스 커뮤니티를 억압하고, 학문적 AI 연구를 방해하는 동시에 해결하도록 설계된 실제 문제를 해결하지 못합니다.

Li Feifei는 네 가지 이유를 제시했습니다.

첫째, SB-1047은 개발자를 부당하게 처벌하고 혁신을 억제할 것입니다. AI 모델이 오용되는 경우 SB-1047은 책임 당사자와 모델의 원래 개발자에게 책임을 묻습니다. 모든 AI 개발자(특히 신진 프로그래머와 기업가)가 모델의 가능한 모든 용도를 예측하는 것은 불가능합니다. SB-1047은 개발자가 후퇴하고 방어하도록 강요할 것입니다. 바로 우리가 피하려고 하는 것입니다.

둘째, SB-1047은 오픈 소스 개발을 제한합니다. SB-1047은 특정 임계값을 초과하는 모든 모델에 언제든지 프로그램을 종료할 수 있는 메커니즘인 "킬 스위치"를 포함하도록 요구합니다. 개발자는 자신이 다운로드하고 구축한 프로그램이 삭제될까 봐 걱정한다면 코딩과 협업을 더욱 꺼릴 것입니다. 이 킬 스위치는 AI뿐만 아니라 GPS에서 MRI, 인터넷 자체에 이르기까지 모든 분야에서 수많은 혁신의 원천인 오픈 소스 커뮤니티를 파괴할 것입니다.

셋째, SB-1047은 공공 부문과 학계의 AI 연구를 약화시킬 것이다. 오픈소스 개발은 민간 부문에서도 중요하지만, 협업과 모델 데이터 없이는 발전할 수 없는 학계에서도 매우 중요합니다. 개방형 AI 모델을 연구하는 컴퓨터공학과 학생들을 예로 들어보겠습니다. 우리 기관이 적절한 모델과 데이터에 접근할 수 없다면 차세대 AI 리더를 어떻게 교육할 것인가? 킬 스위치는 이미 대기업에 비해 데이터 및 컴퓨팅에 열세인 학생과 연구원의 노력을 더욱 약화시킬 것입니다. SB-1047은 투자를 두 배로 늘려야 하는 학계 및 공공 부문 AI에 대한 "죽음의 종소리"를 울릴 것입니다.

가장 걱정스러운 점은 이 법안이 편견과 딥페이크를 포함한 AI 개발의 잠재적인 피해를 다루지 않는다는 것입니다. 대신 SB-1047은 임의의 임계값을 설정하여 특정 양의 컴퓨팅 성능을 사용하거나 훈련하는 데 1억 달러의 비용이 드는 모델을 규제합니다. 이 조치는 보호를 제공하기는커녕 학계를 포함한 다양한 분야의 혁신을 제한할 뿐입니다.

Li Feifei는 오늘날 학계의 AI 모델이 이 기준점보다 낮지만 미국이 민간 및 공공 부문 AI에 대한 투자를 재조정한다면 학계는 SB-1047에 의해 규제될 것이며 결과적으로 미국 AI 생태계는 더욱 악화될 것이라고 지적했습니다. . 그러므로 미국은 그 반대를 해야 한다.

"지난 1년 동안 바이든 대통령과 여러 차례 대화를 나누면서 나는 우리나라의 AI 교육, 연구, 개발을 발전시키기 위해 '문샷 사고방식'이 필요하다는 점을 표명했습니다. 그러나 SB-1047의 제한은 너무 자의적이어서 미국에 타격을 줄 뿐만 아니라 캘리포니아 AI 생태계는 또한 전국 AI에 혼란스러운 하류 영향을 미칠 것입니다." Li Feifei는 AI 거버넌스에 반대하지 않는다고 지적했습니다. AI의 안전하고 효과적인 개발을 위해서는 법률이 매우 중요합니다. 그러나 AI 정책은 오픈 소스 개발을 촉진하고 통일되고 합리적인 규칙을 제안하며 소비자 신뢰를 구축해야 합니다. SB-1047은 이러한 표준을 충족하지 않습니다.

리 페이페이는 법안 발의자인 스캇 위너(Scott Wiener) 상원의원에게 협력을 제안했다고 강조했다. “우리가 함께 AI 법안을 제정하고 기술이 주도하고 사람 중심의 미래 사회를 진정으로 건설합시다.

“실제로 AI의 미래는 여기에 달려 있습니다. 미국에서 가장 강력한 AI 생태계의 선구자이자 본거지인 캘리포니아는 AI 운동의 중심에 있으며 캘리포니아의 발전은 국가의 나머지 지역에도 영향을 미칠 것입니다. "라고 Li Feifei는 마지막에 말했습니다.