2024-09-30
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
편집자: 편집부 hyz
[새로운 지혜 소개]즐거운 축하를 보내세요! 방금 캘리포니아 주지사는 캘리포니아 ai 제한 법안을 거부하겠다고 발표했습니다. lecun, li feifei, ng enda는 서둘러 서로에게 신나게 이야기하고 이마와 손으로 축하했습니다. 법안을 강력하게 지지하는 벤지오와 힌튼은 침묵을 지켰다. openai, google, meta는 모두 재난에서 벗어났습니다.
무거운!
오늘 이른 아침, gavin newsom 캘리포니아 주지사는 sb-1047 법안을 거부하겠다고 공식적으로 발표했습니다!
전 세계 개발자들에게 sb-1047 법안이 취소된다는 것은 meta, google과 같은 주요 제조업체의 오픈 소스 모델을 계속해서 다시 사용할 수 있다는 의미입니다.
이번 결정은 충분히 예상됐다고 할 수 있다. ai계 빅네임들은 신나게 서로에게 달려들었고, 야당에서 막강한 역할을 펼친 응엔다, 르쿤, 리페이페이는 특히 기뻐했다.
캘리포니아 주지사의 거부권은 무엇을 의미합니까?
sb-1047 법안은 사실상 그것의 끝입니다.
"악명 높은" sb-1047은 sb 1047이 개발자에게 책임을 물음으로써 ai 시스템이 대량 사상자를 일으키거나 5억 달러 이상의 비용이 드는 사이버 보안 사고를 촉발하는 것을 방지할 것이라고 규정하고 있습니다.
해당 소식이 나오자마자 학계와 업계에서는 큰 반발을 불러일으켰다.
아시다시피, 세계 상위 50개 genai 회사 중 32개가 캘리포니아에 본사를 두고 있으며 ai의 미래를 정의하는 데 핵심적인 역할을 하고 있습니다.
캘리포니아 사무소의 보도 자료에 따르면 gavin은 지난 달 18개의 genai 법안에 서명했지만 sb-1047에만 거부권을 행사했습니다.
지난 30일 동안 주지사는 딥페이크 콘텐츠 퇴치, 공연자의 디지털 이미지 권리 보호 등을 위한 일련의 법안에 서명했습니다.
이 법안은 좋은 의도를 가지고 있지만 실제로는 몇 가지 심각한 문제를 안고 있습니다.
그는 “이것이 ai로 인한 실제 위협으로부터 대중을 보호하는 최선의 방법이라고 생각하지 않는다”고 말했다.
sb-1047은 ai 시스템이 고위험 환경에 배포되는지, 중요한 결정이 필요한지, 민감한 데이터를 사용하는지 여부를 고려하지 않습니다. 대신 이 법안은 대형 모델 시스템을 배포하는 가장 기본적인 기능에 엄격한 표준을 적용합니다.
sb-1047이 거절당하는 과정에서 ai 대모 리페이페이의 역할도 무시할 수 없다.
스탠포드 교수인 리 페이페이(li feifei)는 stanfordhai와 협력하여 캘리포니아에서 책임 있는 ai 거버넌스의 초석을 다지게 된 것을 매우 영광으로 생각한다고 기쁘게 말했습니다.
ai 전문가 andrew ng은 또한 sb-1047에 대한 대중의 반대에 대해 li feifei에게 감사를 표하며 그녀의 노력이 연구와 혁신을 보호하기 위해 보다 합리적인 ai 정책을 촉진할 수 있다고 말했습니다.
불과 며칠 전, sb-1047 법안이 마무리되려고 할 때 ng와 lecun은 일단 통과되면 오픈 소스 ai와 전체 ai 생태계가 냉각 효과를 가져올 것을 두려워하면서 여전히 걱정스럽게 투표를 요구하고 시작했습니다.
오늘, 캘리포니아 전역의 ai 기업들은 마침내 안도의 한숨을 쉬고 있습니다.
주지사의 거부권 편지: 서명되지 않음
"나는 이로써 내 서명 없이 상원 법안 1047을 반환합니다."
서한에서 주지사는 sb-1047이 ai 배치로 인한 위협을 과장하고 있음을 인정했습니다.
더욱이 이 법안은 가장 비싼 대형 모델에만 초점을 맞춰 국민들에게 '잘못된 안정감'을 심어주는 셈이다.
그는 심지어 더 작은 독점 모델도 마찬가지로 위험할 수 있다고 지적합니다.
간단히 말해서, 법안의 ai 규제는 “공익에 도움이 되는 혁신을 축소”하는 대가를 치르게 됩니다.
주지사는 이 법안이 가장 기본적인 기능에 가장 엄격한 기준을 적용하는 것은 ai 기술의 위협으로부터 국민을 보호하는 최선의 방법이 아니라고 말했다.
가장 좋은 해결책은 ai 시스템과 역량의 실증적 개발 궤적 분석에 기반하지 않는 계획입니다.
ai 상사가 싫어해요
이 엔딩은 벤지오와 힌튼을 제외한 대부분의 사람들에게 매우 만족스러운 엔딩이라고 할 수 있다.
sb-1047에 관해서는 많은 큰 사람들이 그것을 싫어합니다.
전체 이야기는 이것이다.
작년에 캘리포니아 주지사는 캘리포니아가 genai에 대해 더욱 신중해야 하며 ai를 더욱 윤리적이고 투명하며 신뢰할 수 있게 만들어야 함을 강조하는 행정 명령에 서명했습니다.
올해 2월 캘리포니아주는 대형 모델의 안전하고 투명한 사용을 위해 보다 구체적인 규정을 담은 'sb-1047 프론티어 ai 대형 모델 안전 혁신법'이라는 법안 초안을 직접 작성했다.
하지만 그 안에는 특정 기업의 이름만 들어도 질식시키는 불합리한 내용이 많다.
1억 원 넘는 모델 '심각한 피해' 막아야
예를 들어, 개발 및 학습 비용이 1억 달러를 초과하고 부동 소수점 연산 횟수가 10^26회를 초과하는 대형 모델을 오픈소스화한 후 누군가가 불법적인 행위에 사용하는 경우 모델 개발자는 또한 엄중히 처벌받게 됩니다.
meta의 llama 3 모델, google의 gemma 모델 등이 모두 이 조건을 충족한다는 것을 아셔야 합니다.
이 조항은 분명히 매우 논란의 여지가 있습니다.
예를 들어 누군가 자율주행 시스템을 해킹해 사고를 낸다면, 해당 시스템을 개발한 회사도 책임을 지게 될까요?
법안에 따르면 개발자는 모델의 파생물을 평가하고 고객이 모델을 미세 조정하거나 모델을 수정(탈옥)하거나 다른 소프트웨어와 결합하는 경우를 포함하여 모델이 초래할 수 있는 모든 피해를 방지해야 합니다.
그러나 오픈 소스 소프트웨어가 출시되면 사람들은 모델을 개인 장치에 직접 다운로드할 수 있으므로 개발자는 다른 개발자나 고객의 구체적인 작업을 알 수 없습니다.
또한 법안에는 모호한 정의가 많이 포함되어 있습니다.
예를 들어, ai 모델의 "심각한 부상"은 대규모 사상자, 5억 달러를 초과하는 손실 또는 기타 "동등한 심각한" 부상으로 설명됩니다. 그러나 어떤 조건에서 개발자가 책임을 지게 될까요? 어떤 책임이 있나요?
법안은 이에 대해 침묵하고 있다.
더욱이 이 법안은 훈련에 1억 달러 이상을 지출하는 ai 모델이나 기존 모델을 미세 조정하는 데 1천만 달러 이상을 지출하는 개발자에게 적용되므로 많은 소규모 기술 회사가 공격 범위에 포함됩니다.
sb-1047에도 일부 불합리한 조항이 있다. 예를 들어 기업이 해외에 모델을 공개하는 경우 고객의 신분증, 신용카드 번호, 계좌번호 등 모든 고객 정보를 제출해야 한다.
또한 개발자는 ai 모델 위험을 해결하는 테스트 절차를 작성해야 하며 매년 제3자 감사자를 고용하여 ai 보안 관행을 평가해야 합니다.
모델을 기반으로 구축된 ai 제품의 경우 전체 ai 모델을 종료하는 '비상 중지' 버튼을 포함하여 남용을 방지하기 위해 해당 보안 프로토콜을 개발해야 합니다.
빌은 실제 위험을 무시했다고 비판을 받았다.
더 많은 비평가들은 이 법안이 너무 근거가 없다고 생각합니다.
ai 혁신을 방해할 뿐만 아니라 오늘날 ai의 보안에도 도움이 되지 않습니다.
더욱 아이러니한 점은 이 법안이 세상의 종말을 막기 위해 이른바 '비상스위치'를 사용하면서도 딥페이크, 허위정보 등 기존 보안 위험은 무시하고 있다는 점이다.
이후 수정안은 좀 더 느슨하게 표현되었지만, ai 연구소에 책임을 묻는 캘리포니아 정부의 권한은 축소되었습니다.
하지만 그럼에도 불구하고 sb-1047은 openai, meta, google과 같은 주요 제조업체에 상당한 영향을 미칠 것입니다.
일부 스타트업의 경우 이러한 타격은 치명적일 수도 있습니다.
이제 먼지가 진정됐으니 대기업도, 중소기업도 안도의 한숨을 쉴 수 있게 됐다.
튜링 거인의 해체
sb-1047은 심지어 turing big three가 이 문제로 인해 "해산"되도록 만들었습니다.
lecun, li feifei, ng enda로 대표되는 대기업들은 여러 번 공개적으로 반대하고 불만을 표시했습니다.
르쿤은 ai 연구 중단을 요구할 때 사용한 원본 메시지까지 복사했습니다. ai 입법을 6개월 동안 중단해 주세요!
turing big three 중 나머지 두 명인 yoshua bengio와 geoffrey hinton은 놀랍게도 이 법안의 통과를 강력하게 지지했습니다.
심지어 현행 용어가 좀 너무 느슨하다는 느낌도 듭니다.
수석 인공 지능 기술 및 정책 연구원으로서 우리는 캘리포니아 상원 법안 1047에 대한 강력한 지지를 표명하기 위해 글을 씁니다.
sb 1047은 이 기술의 효과적인 규제를 위한 기본 요구 사항을 설명합니다. 라이선스 시스템을 구현하지 않고, 기업이 모델을 훈련하거나 배포하기 전에 정부 기관의 허가를 받도록 요구하지 않으며, 기업이 스스로 위험을 평가하도록 의존하고, 재해 발생 시에도 기업에 엄격한 책임을 묻지 않습니다.
이는 우리가 직면한 위험의 규모에 비해 비교적 관대한 법안입니다.
법안의 기본 조치를 취소하는 것은 역사적인 실수가 될 것입니다. 이 실수는 더욱 강력한 차세대 ai 시스템이 출시되는 1년 후에 더욱 명백해질 것입니다.
그러나 bengio와 hinton은 분명히 주류가 아닙니다.
각종 기술거인과 빅샷의 입장을 정리하면 다음과 같다.