소식

openai와 anthropic은 새로운 모델을 출시하기 전에 미국 정부가 안전성을 평가하도록 동의했습니다.

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house는 8월 30일 인공지능 기업인 openai와 anthropic이 보안 개선을 위해 이들 기업이 이러한 모델을 출시하기 전에 미국 정부가 새로운 주요 인공지능 모델에 접근할 수 있도록 허용하기로 합의했다고 보도했습니다.


이미지 출처pexels

미국 ai 안전 연구소(us ai safety institute)는 목요일에 다음과 같이 발표했습니다.두 회사는 연구소와 양해각서(mou)를 체결하고 모델 공개 전후에 접근 권한을 제공하기로 약속했습니다.. 미국 정부는 이번 조치가 보안 위험을 공동으로 평가하고 잠재적인 문제를 완화하는 데 도움이 될 것이라고 말했습니다. 해당 기관은 안전 개선에 대한 피드백을 제공하기 위해 영국 측과 협력할 것이라고 말했습니다.

openai 최고전략책임자(cso) 제이슨 권(jason k)은 이번 협력에 대한 지지를 표명했습니다.

“우리는 미국 ai 안전 연구소(american ai safety institute)의 사명을 강력히 지지하며 ai 모델의 안전을 위한 모범 사례와 표준을 개발하기 위해 협력하기를 기대합니다. 우리는 연구소가 ai 역할의 책임 있는 개발에서 미국의 리더십을 보장하는 데 핵심적인 역할을 한다고 믿습니다. 연구소와의 협력을 통해 전 세계가 배울 수 있는 프레임워크를 제공할 수 있기를 바랍니다.”

anthropic도 ai 모델을 효과적으로 테스트할 수 있는 능력을 확립하는 것이 매우 중요하다고 밝혔습니다. 회사의 공동 창립자이자 정책 책임자인 jack clark은 다음과 같이 말했습니다.

"ai가 안전하고 신뢰할 수 있다는 것을 보장하는 것은 이 기술이 긍정적인 영향을 미치기 위해 매우 중요합니다. 이러한 테스트와 협력을 통해 ai로 인한 위험을 더 잘 발견하고 줄일 수 있으며 책임 있는 ai 개발을 촉진할 수 있습니다. 우리는 다음과 같이 약속합니다. 이 중요한 작업에 참여하게 된 것을 자랑스럽게 생각하며 ai의 안전과 신뢰성에 대한 새로운 표준을 설정하기를 희망합니다.”

연방 및 주 의회가 혁신을 저해하지 않고 기술에 제한을 두는 방법을 고려함에 따라 인공 지능 모델에 대한 액세스를 공유하는 것은 중요한 단계입니다. it house는 수요일 캘리포니아 주의회 의원들이 캘리포니아의 인공 지능 회사가 고급 기본 모델을 교육하기 전에 특정 보안 조치를 취하도록 요구하는 frontier artificial intelligence model security innovation act(sb 1047)를 통과시켰다고 밝혔습니다. 이는 소규모 오픈 소스 개발자에게 해를 끼칠 수 있다고 경고한 openai 및 anthropic을 포함한 인공 지능 회사의 반발을 불러일으켰지만, 법안은 이후 개정되었으며 여전히 gavin newsom 캘리포니아 주지사의 서명을 기다리고 있습니다.

한편 백악관은 ai 보안 조치에 대해 주요 기업으로부터 자발적인 약속을 얻기 위해 노력해 왔습니다. 몇몇 선도적인 ai 기업은 사이버 보안 및 차별 연구에 투자하고 ai 생성 콘텐츠에 워터마킹을 적용하겠다는 구속력 없는 약속을 했습니다.

국립 인공지능 안전 연구소(national institute for artificial intelligence safety)의 엘리자베스 켈리(elizabeth kelly) 소장은 성명을 통해 “이번 합의는 단지 시작에 불과하지만 인공지능의 미래를 책임 있게 관리하기 위한 우리 노력의 중요한 이정표”라고 말했다.