소식

Altman은 OpenAI 보안 작업에 대해 부정직한 혐의로 기소되었습니다.

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

8월 3일 외신에 따르면 Whip Bull 보고서에 따르면 인공지능 기업 OpenAI의 기밀 유지 계약으로 인해 직원들이 주요 보안 문제를 국회의원에게 공개하는 것을 불법적으로 막았다는 내부 고발자가 미국 증권거래위원회(SEC)에 고발한 이후 OpenAI는 점점 더 큰 압력을 받고 있습니다. AI 위험을 숨기지 않는다는 것을 증명해야 한다는 압력이 더 커질 것입니다.

어제 OpenAI에 보낸 서한에서 Chuck Grassley 상원의원(공화당-아이오와)은 OpenAI가 더 이상 서명을 요구하지 않으면 직원이 공개 보호 계약에 요청을 제출하는 데 방해가 될 수 있다는 증거를 요청했습니다.

특히 Grassley는 계약이 공개를 방해하지 않는다는 점을 의회에 보장하기 위해 OpenAI에 현재 고용, 퇴직, 비방 및 기밀 유지 계약을 제공하도록 요청했습니다.

Grassley는 기술 발전으로 인해 발생하는 기존 AI 위험을 방지하는 효과적인 AI 정책을 개발하는 데 도움을 주기 위해 새로운 위협을 노출하는 내부 고발자에게 의존할 수 있도록 이것이 중요하다고 말했습니다.

Grassley의 편지에는 OpenAI에게 이러한 기록을 두 번 요청했지만 응답을 받지 못했다고 적혀 있습니다.

Grassley의 대변인인 Clare Slattery는 The Washington Post에 지금까지 OpenAI가 최근 문서 요청에 응답하지 않았다고 말했습니다.

Grassley는 Ars에 제공된 성명에서 "업데이트를 했다고 말하는 것만으로는 충분하지 않습니다."라고 말했습니다. "말보다 사실이 더 중요합니다. Altman은 기록을 제공하고 내 감독 요청에 응답해야 의회가 OpenAI가 직원과 사용자를 적절하게 보호하는지 여부를 정확하게 평가할 수 있습니다."

Grassley는 최근 OpenAI에 직원 계약 업데이트를 요청한 것 외에도 OpenAI에 2023년 이후 연방 공개를 원하는 직원 요청의 총 수에 대해 더 투명하게 할 것을 촉구했습니다.

상원의원들은 직원들이 공무원에게 공개하고 싶어하는 정보가 무엇인지, OpenAI가 실제로 그들의 요청을 승인했는지 여부를 알고 싶어했습니다.

마찬가지로 Grassley는 OpenAI에 2023년 이후 얼마나 많은 SEC 조사를 시작했는지 확인해달라고 요청했습니다.

종합하면, 이 문서는 OpenAI 직원이 여전히 연방 공개를 금지하는지 여부, OpenAI가 거부하는 공개 유형, 보안 위험을 숨기기 위해 SEC가 OpenAI를 모니터링하는 정도를 보여줍니다.

Grassley는 서신에서 다음과 같이 썼습니다. OpenAI는 직원들이 불법적인 제한 없이 보호된 공개를 제공할 수 있도록 보장해야 합니다.

그는 의회가 OpenAI의 보안 프로토콜과 기밀 유지 계약에 대해 객관적이고 독립적인 감독을 수행할 수 있도록 OpenAI에 8월 15일까지 응답할 것을 요청했습니다.

OpenAI는 Ars의 논평 요청에 즉시 응답하지 않았습니다.

에 .

그는 또한 OpenAI가 현직 및 전직 직원들이 편안하게 우려 사항을 제기하기를 원한다는 점을 확인했습니다.

Altman은 "이는 모든 회사에 중요하지만 특히 보안 프로그램의 중요한 부분인 우리에게는 더욱 그렇습니다."라고 썼습니다. 5월에 우리는 현재 및 이전 직원에 대한 비방 조항과 OpenAI에 기득권을 취소할 수 있는 권리를 부여하는 조항(사용된 적이 없더라도)을 삭제했습니다. 우리는 이 문제를 해결하기 위해 열심히 노력해 왔습니다.

내부고발자는 지난 7월 증권거래위원회에 OpenAI가 AI 보안 위험을 은폐하는 과거 또는 현재 관행을 은폐하지 않도록 하기 위해 OpenAI가 현행 직원 계약뿐만 아니라 기밀 유지 계약이 포함된 모든 계약을 제공해야 한다고 말했습니다. 그들은 현재 및 이전 직원 모두에게 불법 기밀 유지 계약이 포함된 계약에 대해 통보하고 OpenAI가 각 불법 계약에 대해 벌금을 부과하기를 원합니다.

샘 알트만(Sam Altman)은 AI 안전 문제를 무시한 혐의로 기소됐다.

그러나 OpenAI의 투명성 강화 요구는 국회의원에게만 국한되지 않습니다. Grassley의 공개 서한 전날, OpenAI CEO인 Sam Altman은 OpenAI가 지난 7월부터 보안 노력에 충분한 자원을 투자했다고 주장하는 X에 대한 성명을 발표했습니다.

Altman은 다음과 같이 썼습니다. 지난 7월에 말했듯이 우리는 컴퓨팅 리소스의 최소 20%를 회사 전체의 보안 노력에 할당하기로 약속했는데, 이는 많은 편견이 있는 X 독자들이 생각하는 커뮤니티의 우려를 불러일으켰습니다. 이것이 더 많은 맥락을 제공합니다.

커뮤니티 노트에 따르면 Altman은 OpenAI가 Super Alignment 팀에 컴퓨팅 리소스의 20%를 할당하고 있음을 명시적으로 확인한 7월 블로그를 언급했습니다. 이제 팀이 해체되고 Hyper-Alignment를 담당하는 수석 과학자가 회사를 떠나면서 X 평론가들은 Altman의 주장이 OpenAI가 현재 모호하게 정의된 보안 노력에 실제로 어떤 컴퓨팅 리소스를 할당하는지에 대해 대중을 호도했다고 말합니다.

일부 X 댓글 작성자는 OpenAI의 현재 보안 노력에 대한 자세한 내용을 요청했습니다. AI 보안 문제와 관련하여 다른 상원의원 5명에게 보낸 7월 31일 서한에서 OpenAI는 자사의 보안 노력을 더 자세히 설명했습니다. 회사는 또한 X가 "더 많은 맥락"이 필요하다고 표시했다는 Altman의 진술을 명확히 하면서 블로그에 언급된 컴퓨팅 리소스가 결코 Super Alignment 팀만을 언급해서는 안 된다고 적었습니다.

OpenAI는 상원의원에게 보낸 서한에서 다음과 같이 말했습니다. 보안 연구 의제를 더욱 발전시키기 위해 지난 7월 우리는 수년에 걸쳐 컴퓨팅 리소스의 최소 20%를 AI 보안에 할당하기로 약속했습니다. 이 약속은 항상 특정 팀뿐만 아니라 회사 전체의 보안 노력에 적용됩니다.

OpenAI의 블로그에서는 OpenAI가 향후 4년 동안 초지능 조정 문제를 해결하는 데 지금까지 확보한 컴퓨팅 리소스의 20%를 투자할 것이라고 분명히 명시하고 있기 때문에 이는 일부 사람들을 혼란스럽게 합니다. 당시 OpenAI는 자사의 주요 기본 연구 목표가 이전의 슈퍼 조직화된 팀이라고 밝혔습니다. "잘 수행하는 것이 우리의 임무를 달성하는 데 중요하기 때문에 컴퓨팅 리소스가 필요합니다."

하나

OpenAI는 아직 밈 계정에 응답하지 않았지만 이전에는 사회가 우리보다 똑똑한 AI 시스템을 안내하고 제어하기 위해 과학적이고 기술적인 혁신이 필요하기 때문에 초정렬 팀이 AI 안전에 중요하다고 말한 바 있습니다.

OpenAI가 보안 이니셔티브를 자세히 설명합니다.

OpenAI가 상원의원에게 보낸 서한에서 Jason Kwon 최고 전략 책임자는 OpenAI가 외부 전문가와 협력하여 모델을 평가하고 레드팀을 구성함으로써 위험으로부터 보호한다고 의원들에게 말했습니다. 여기에는 최신 모델인 GPT-4o와 관련된 위험을 평가하는 데 도움을 준 100명 이상의 외부 전문가와의 컨설팅이 포함되었습니다.

Kwon은 다음과 같이 썼습니다. 레드팀 테스트의 결과 및 보안 완화는 모델과 함께 제공되는 시스템 카드에서 공개적으로 사용할 수 있으며 OpenAI는 "인공 지능 시스템과 관련된 CBRN(화학, 생물학, 방사선 및 핵) 위험 측정"에 대한 논문을 발표했습니다. ," 다양한 직업과 산업이 언어 모델에 의해 영향을 받을 수 있는 정도를 추정하고, 운영에 영향을 미치는 언어 모델의 영향을 평가하며, 인공 지능 시스템 결정의 해석 가능성을 설명하는 연구입니다.

권 교수는 AI의 보안을 더욱 보장하기 위해 OpenAI가 반복 배포를 수행하여 먼저 소라 비디오 모델이나 음성 엔진과 같은 새로운 기능을 제한된 그룹에 공개한 다음 대중에게 널리 공개할 것이라고 말했습니다.

Kwon은 다음과 같이 썼습니다. 이 전략을 통해 우리는 OpenAI 외부 사람들로부터 피드백을 받고, 필요에 따라 안전 가드레일을 업데이트하고, 모델을 완전히 공개하기 전에 다가오는 AI 기능에 대해 대중에게 알릴 수 있습니다.

보안 문제 제기에 대한 보복을 여전히 두려워하는 새로운 기능이나 모델을 개발하는 직원들을 위해 권씨는 OpenAI가 3월에 무결성 핫라인을 개설했다고 말했습니다. 이 채널을 통해 직원들은 기존의 다른 채널을 통해 문제를 제기하는 것이 불편한 경우 익명으로 문제를 보고할 수 있습니다.

OpenAI는 직원들이 어떤 우려 사항에 대해서도 자유롭게 이야기할 수 있다고 말하지만 OpenAI가 특정 정보를 보안 위험으로 간주하는 경우 여전히 공유할 수 없다는 점은 분명합니다.

권씨는 다음과 같이 썼습니다. OpenAI는 우려를 제기하는 것과 회사 영업 비밀을 유출하는 것을 계속해서 구별하고 있습니다. 후자(공개 권리 보호)는 현재 및 이전 직원과의 비밀 유지 계약에 따라 여전히 금지되어 있습니다. 우리는 우리 기술이 미국 국가 안보에 미치는 영향을 고려할 때 이번 금지 조치가 특히 중요하다고 생각합니다.

이러한 예외로 인해 OpenAI가 일부 연방 공개를 거부할 수 있다는 점을 감안할 때 Grassley는 OpenAI가 영업 비밀 보호를 근거로 공개를 부적절하게 거부했는지 여부를 알고 싶었을 것입니다.

Grassley의 서한에는 상원의원들이 기업의 자체 보안 보안에 대한 위험을 우려하고 있음이 분명하게 나와 있습니다.