소식

심층 분석: 구글, 마이크로소프트 등 AI 거대 기업들이 약속한 '자율 감독'은 이루어졌는가?

2024-07-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

1년 전 아마존, 마이크로소프트, 구글, 메타를 비롯해오픈AIAnthropic, Inflection 등 7개 인공지능 기업은 안전하고 신뢰할 수 있는 방식으로 인공지능을 개발하는 방법에 관해 백악관과 8건의 자발적인 약속을 체결했습니다.

이러한 약속에는 AI 시스템의 테스트 및 투명성을 높이고 잠재적 위험에 대한 정보를 공유하는 것이 포함됩니다.

자발적 서약서 서명 1주년을 맞아 MIT 테크놀로지 리뷰는 서약서에 서명한 AI 기업들에게 지금까지의 활동에 대해 구체적으로 물었다. 그들의 답변은 기술 산업의 몇 가지 유망한 발전을 시사하지만 몇 가지 중요한 경고 사항도 있습니다.

이러한 자발적인 약속은생성 인공 지능 이러한 움직임은 회사들이 자체 모델을 출시하고 경쟁사보다 더 크고 더 나은 모델을 만들기 위해 경쟁하면서 "가장 거품이 생길 수 있는" 열광적인 상황에서 나온 것입니다. 동시에 저작권, 딥페이크 등의 문제를 둘러싼 논쟁도 시작되고 있습니다. 제프리 힌튼(Geoffrey Hinton)과 같은 영향력 있는 기술 인사들의 로비도 AI가 인류에 실존적 위험을 초래할 수 있다는 우려를 제기했습니다. 갑자기 모든 사람들이 AI 안전을 보장해야 할 긴급한 필요성에 대해 이야기하고 있으며, 모든 곳의 규제 기관은 조치를 취해야 한다는 압력을 받고 있습니다.

최근까지 인공지능의 발전은 '와일드 웨스트(Wild West)'와 같았다. 미국은 전통적으로 거대 기술기업을 규제하는 것을 꺼려왔고, 대신 그들 스스로 규제하는 데 의존해 왔습니다. 자발적인 약속이 좋은 예입니다. 이는 미국의 인공 지능 분야에 대한 몇 가지 규범적 규칙이지만 여전히 자발적이며 시행할 수 없습니다. 백악관은 나중에 이러한 약속을 확대하고 다른 기술 회사와 정부 기관에 적용하는 행정 명령을 발표했습니다.

"1년이 지난 지금 일부 기업은 자사 제품에 몇 가지 모범 사례를 채택하고 있지만 올바른 거버넌스나 기본권 보호 측면에서 우리가 갖춰야 할 수준에는 미치지 못하고 있습니다."라고 Merve는 말했습니다. Hickok, 사장 겸 연구 이사. 그녀는 MIT Technology Review의 요청에 따라 회사의 응답을 검토했습니다. “이들 회사 중 다수는 자사 제품이 인간의 지능과 능력을 능가할 수 있다는 주장 등 근거 없는 주장을 계속 홍보하고 있습니다.”라고 그녀는 덧붙였습니다.

이러한 기술 기업의 대응에서 나타나는 한 가지 추세는 기업이 적청 대결(인간이 AI 모델의 결함을 탐색하는 경우) 및 AI 생성 콘텐츠에 워터마크 추가와 같은 기술 솔루션을 추구하기 위해 더 많은 조치를 취하고 있다는 것입니다.

스탠포드 대학교 기본 모델링 센터 소장인 리시 봄마사니(Rishi Bommasani)는 이러한 약속에 어떤 변화가 생겼는지, 회사가 해당 조치를 시행할지 여부가 불분명하다고 말했습니다. 그는 또한 MIT Technology Review에 대한 답변을 검토했습니다.

인공지능 분야에서 1년은 긴 시간이다. 자발적 서약에 서명한 이후 Inflection AI 창립자인 Mustafa Suleyman은 회사를 떠나 Microsoft에 합류하여 AI 관련 노력을 주도했습니다. 굴절은 논평을 거부했습니다.

백악관 대변인 로빈 패터슨은 이렇게 말했습니다. "우리는 선도 기업들이 행정 명령의 요구 사항을 넘어서는 자발적인 약속을 이행하는 데 있어 진전을 이룬 것에 감사드립니다. 그러나 대통령은 인공 지능에 관한 초당적 법안을 통과시키도록 의회에 계속 촉구하고 있습니다."

버클리 캘리포니아 대학의 CITRIS 정책 연구소 소장인 Brandie Nonnecke는 포괄적인 연방 법률이 없다면 현재 미국이 할 수 있는 일은 기업이 이러한 자발적인 약속을 이행하도록 요구하는 것뿐이라고 말했습니다.

그러나 기억해야 할 중요한 것은 "이 회사들은 기본적으로 그들이 받는 테스트를 위해 공부하고 있다"고 Brandie Nonnecke는 말했습니다. "그래서 우리는 그들이 실제로 엄격한 방식으로 자신을 검증하고 있는지 주의 깊게 살펴보아야 합니다."

지난 한 해 동안 이들 AI 기업이 이룩한 진전에 대한 평가는 다음과 같습니다.

약속 1. 이 회사들은 출시 전에 AI 시스템에 대한 내부 및 외부 보안 테스트를 실시합니다. 독립적인 전문가가 부분적으로 수행하는 이 테스트는 생물 보안 및 사이버 보안과 같은 가장 중요한 AI 위험의 원천과 더 광범위한 사회적 영향을 보호합니다.

약속 1: AI 시스템을 출시하기 전에 내부 및 외부 보안 테스트를 수행하십시오. 이 테스트의 일부는 독립적인 전문가에 의해 수행되며 생물학적 보안, 사이버 보안 및 광범위한 사회적 영향과 같은 AI 위험의 가장 중요한 소스로부터 보호하도록 설계되었습니다.

논평하지 않기로 결정한 Inflection을 제외한 모든 회사는 내부 및 외부 테스터가 자사 모델의 결함과 위험을 탐색할 수 있도록 적청 대결을 실시했다고 말했습니다. OpenAI는 사이버 보안, 화학, 생물학, 방사능 및 핵 위협 모델뿐만 아니라 사람이 해를 끼칠 수 있는 일을 하거나 그렇게 하도록 설득할 수 있는 정교한 인공 지능 모델을 테스트하는 별도의 준비 팀을 보유하고 있다고 밝혔습니다. Anthropic과 OpenAI는 또한 새로운 모델을 출시하기 전에 외부 전문가와 함께 이러한 테스트를 수행할 것이라고 말했습니다.예를 들어 Anthropic은 최신 모델인 Claude 3.5를 출시하기 위해 영국 인공 지능 보안 연구소의 전문가들과 사전 배포 테스트를 수행했습니다. 또한 Anthropic은 비영리 연구 기관인 METR이 Claude 3.5의 사전 배포 테스트를 수행하도록 허용했습니다.자동 조종 장치 기능은 "사전 탐색"되었습니다. 구글은 또한 선거 관련 콘텐츠, 사회적 위험, 국가 안보 우려의 경계를 테스트하기 위해 모델 제미니에 대한 내부 적-청 대결을 진행하고 있다고 밝혔습니다. 마이크로소프트는 언론의 진실성을 장려하는 조직인 뉴스가드(NewsGuard)의 제3자 평가자와 협력하여 마이크로소프트의 텍스트-이미지 도구에서 딥페이크의 오용 위험을 평가하고 완화했다고 밝혔습니다. 메타는 적청 대결 외에도 무기, 사이버 공격, 아동 착취 등 다양한 위험 영역에서 성능을 확인하기 위해 최신 모델인 라마 3도 평가했다고 밝혔습니다.

Rishi Bommasani는 "테스트에 있어서는 회사가 조치를 취하고 있다고 보고하는 것만으로는 충분하지 않습니다."라고 말했습니다. 예를 들어 Amazon과 Anthropic은 인공 지능이 어린이 안전에 미치는 위험을 해결하기 위해 비영리 단체인 Thorn과 협력했다고 밝혔습니다. 그는 회사가 구현하는 개입이 실제로 이러한 위험을 어떻게 줄이는지 더 자세히 알고 싶어합니다.

Rishi Bommasani는 "일을 하는 것은 회사만이 아니라 그러한 일이 원하는 효과를 내고 있다는 점을 분명히 이해해야 합니다"라고 말했습니다.

결과: 매우 좋은. Red와 Blue를 발전시키고 다양한 위험을 테스트하는 것은 중요한 작업입니다. 그러나 Merve Hickok은 독립적인 연구자들이 회사 모델에 더 폭넓게 접근할 수 있기를 원합니다.

약속 2. 이 회사들은 AI 위험 관리에 대한 정보를 업계 전반과 정부, 시민 사회, 학계와 공유하기로 약속했습니다. 여기에는 안전에 대한 모범 사례, 보호 조치를 우회하려는 시도에 대한 정보, 기술 협업이 포함됩니다.

약속 2: 업계, 정부, 시민사회, 학계와 AI 위험 관리에 대한 정보를 공유합니다. 여기에는 최상의 보안 관행, 보호 장치 우회 시도에 대한 정보 및 기술 협력이 포함됩니다.

자발적 서약서에 서명한 후 구글, 마이크로소프트, 앤트로픽(Anthropic), 오픈AI(OpenAI)는 인공지능의 안전과 책임에 대한 논의와 행동을 촉진하기 위해 비영리 단체인 프론티어 모델 포럼(Frontier Model Forum)을 구성했습니다. 나중에 Amazon과 Meta가 합류했습니다.

Rishi Bommasani는 AI 회사가 스스로 자금을 조달하는 비영리 단체와 협력하는 것이 자발적인 헌신의 정신이 아닐 수도 있다고 말했습니다. 그의 견해에 따르면 프론티어 모델 포럼은 이들 기업이 서로 협력하고 경쟁사로서 종종 어려움을 겪는 안전 메시지를 전달하는 방법이 될 수 있습니다.

Rishi Bommasani는 "대중에게 정보를 공개하지 않더라도 최소한 집단적으로 위험을 줄이는 방법을 찾아내기를 바랍니다"라고 말했습니다.

7개 서명 기관 모두 미국 국립표준기술연구소(NIST)가 AI 정책 및 AI 성능 평가에 대한 지침과 표준을 개발하기 위해 설립한 AISIC(인공지능 안전 연구소 컨소시엄)의 회원이기도 하다. 부문 플레이어. Google, Microsoft 및 OpenAI에는 UN 인공 지능 고위급 자문 그룹에도 대표자가 있습니다.

또한 많은 기업들이 학계와의 연구 협력을 강조했습니다. 예를 들어 Google은 MLCommons의 일부로서 학계와 협력하여 업계 간 AI 보안 벤치마크 연구를 수행합니다. 구글은 또한 미국에서 AI 연구의 민주화를 목표로 하는 국립과학재단(National Science Foundation)의 국립인공지능연구자원 파일럿 프로그램과 같은 프로그램에 계산 크레딧과 같은 도구와 리소스를 적극적으로 기부한다고 밝혔습니다.

또한 많은 기업이 Amazon, Google, Microsoft, Facebook, DeepMind 및 IBM이 공동 설립한 또 다른 비영리 단체인 Partnership on AI에 기여하여 기본 모델을 배포합니다.

결과: 아직 더 많은 작업이 필요합니다. 업계가 AI 시스템을 안전하고 신뢰할 수 있게 만들기 위해 협력함에 따라 더 많은 정보를 공유하는 것은 의심할 여지 없이 올바른 방향으로 나아가는 중요한 단계입니다. 그러나 발표된 노력 중 얼마나 많은 부분이 실제로 의미 있는 변화를 가져올 것인지, 그리고 얼마나 많은 부분이 단지 외관상일지는 불분명합니다.

약속 3. 이 회사들은 독점적이고 공개되지 않은 모델 가중치를 보호하기 위해 사이버 보안 및 내부자 위협 보호에 투자하기로 약속했습니다. 이러한 모델 가중치는 AI 시스템의 가장 필수적인 부분이며, 이 회사들은 의도한 대로, 보안 위험이 고려될 때만 모델 가중치를 공개하는 것이 중요하다는 데 동의합니다.

약속 3: 독점 및 미공개 모델 가중치를 보호하기 위해 사이버 보안 및 내부 위협 방지 조치에 투자하십시오. 이러한 모델 가중치는 AI 시스템에서 가장 중요한 부분이며, 기업은 보안 위험을 염두에 두고 의도적으로 모델 가중치만 해제하는 것이 중요하다는 데 동의합니다.

많은 기업들이 지난 한 해 동안 새로운 사이버 보안 조치를 시행했습니다. 예를 들어, Microsoft는 점점 규모가 커지는 사이버 공격에 맞서기 위해 "미래 보안 이니셔티브(Security Future Initiative)"를 시작했습니다. Microsoft는 모델 도난의 잠재적 위험을 줄이기 위해 모델 가중치를 암호화했으며 고도로 맞춤화된 모델을 배포할 때 강력한 인증 및 액세스 제어를 적용한다고 밝혔습니다.

구글은 인공지능 사이버 방어 프로그램도 시작했다. 지난 5월 OpenAI는 암호화 보호를 AI 하드웨어로 확장하는 등 기존 사이버 보안 관행을 보완하기 위해 개발 중인 6가지 새로운 조치를 공유했으며, 연구자가 해당 모델을 사용하여 사이버 보안 방어를 구축할 수 있는 사이버 보안 보조금 프로그램도 보유하고 있습니다.

아마존은 또한 언어 모델이 이전 지침과 안전 보호를 무시하도록 힌트를 사용할 수 있는 '데이터 중독' 및 '힌트 단어 삽입'과 같은 생성 AI 고유의 공격에 대해서도 구체적인 조치를 취했다고 밝혔습니다.

자발적 서약에 서명한 지 며칠 후 Anthropic은 모델 및 모델 가중치에 액세스할 수 있는 사람을 제어하고 제3자 공급망을 검사 및 제어하는 ​​등 일반적인 사이버 보안 관행을 포함하는 안전 장치에 대한 세부 정보를 공개했습니다. 또한 회사는 독립적인 평가자와 협력하여 회사가 설계한 통제 장치가 사이버 보안 요구 사항을 충족하는지 여부를 평가합니다.

결과: 매우 좋은. 모든 회사는 AI 모델을 보호하기 위한 최선의 방법에 대해서는 합의가 이루어지지 않은 것으로 보이지만 모델을 보호하기 위해 추가 조치를 취했다고 말합니다.

약속 4. 이 회사들은 타사가 자사 AI 시스템의 취약성을 발견하고 보고하도록 하는 데 전념합니다. 일부 문제는 AI 시스템이 출시된 후에도 지속될 수 있으며, 강력한 보고 메커니즘을 통해 이를 신속하게 발견하고 수정할 수 있습니다.

약속 4: 제3자가 인공 지능 시스템의 취약점을 발견하고 보고할 수 있도록 지원합니다. 인공지능 시스템이 출시된 후에도 일부 문제는 여전히 존재할 수 있으며, 강력한 보고 메커니즘을 통해 적시에 문제를 신속하게 발견하고 수정할 수 있습니다.

이 약속을 이행하는 가장 인기 있는 방법 중 하나는 AI 시스템의 결함을 발견한 개인에게 보상하는 "버그 보상금" 프로그램을 구현하는 것입니다. Google, Microsoft, Meta, Anthropic 및 OpenAI를 포함하여 인공 지능 시스템에 대한 이러한 계획을 시작했습니다. Amazon과 Anthropic은 또한 보안 연구원이 취약성 보고서를 제출할 수 있는 양식을 웹사이트에 구축했다고 밝혔습니다.

Brandie Nonnecke에 따르면 제3자 감사를 통해 업무를 효과적으로 수행하는 방법을 알아내는 데 수년이 걸릴 수 있습니다. “이것은 단순한 기술적인 도전이 아니라 사회기술적인 도전입니다. 인공지능에 대한 기술 표준을 찾는 것뿐만 아니라 복잡하고 어려운 사회기술적인 표준을 찾는 데에도 수년이 걸릴 것입니다. " 그녀가 말했다. .

Brandie Nonnecke는 제3자 감사를 시행하는 최초의 기업이 인공 지능의 사회기술적 위험을 어떻게 생각하고 해결하는지에 대한 나쁜 선례를 남길 수 있다는 점을 우려한다고 말했습니다. 예를 들어, 감사에서는 특정 위험을 정의, 평가 및 해결하지만 다른 위험은 무시할 수 있습니다.

결과: 아직 더 많은 작업이 필요합니다. 버그 현상금은 훌륭하지만 충분히 포괄적이지는 않습니다. EU의 인공 지능 법안과 같은 새로운 법률에 따라 기술 회사는 감사를 수행해야 하며, 기술 회사가 그러한 감사의 성공 사례를 공유하면 더 좋을 것입니다.

약속 5. 이 회사들은 사용자가 콘텐츠가 AI에서 생성될 때 알 수 있도록 하는 강력한 기술적 메커니즘을 개발하기로 약속했습니다. 예를 들어 워터마킹 시스템입니다. 이 조치는 AI를 통한 창의성을 번성하게 하지만 사기와 기만의 위험을 줄입니다.

약속 5:사용자가 "워터마킹 시스템"과 같이 AI에 의해 생성된 콘텐츠를 알 수 있도록 하는 강력한 기술 메커니즘을 개발하면 사기 및 사기의 위험을 줄이면서 AI 창의성이 꽃피울 수 있습니다.

많은 회사들이 AI 생성 콘텐츠를 위한 워터마킹 시스템을 구축했습니다. 예를 들어 Google은 Gemini 생성 이미지, 오디오, 텍스트 및 비디오용 워터마킹 도구인 SynthID를 출시했습니다. Meta는 "Stable Signature"라는 이미지 워터마킹 도구와 "AudioSeal"이라는 음성 워터마킹 도구를 개발했습니다. Amazon은 이제 Titan 이미지 생성 모델로 생성된 이미지에 "보이지 않는 워터마크"를 추가합니다. OpenAI는 맞춤형 음성 모델 음성 엔진에 워터마크를 사용하고 DALL-E 3에서 생성된 이미지에 대한 이미지 감지 분류기를 구축했습니다. Anthropic은 워터마킹 도구를 아직 구축하지 않은 유일한 회사입니다. 워터마킹은 주로 이미지용이고 회사의 Claude 모델은 이미지를 지원하지 않기 때문입니다.

인플렉션(Inflection), 앤트로픽(Anthropic), 메타(Meta)를 제외한 모든 기업은 콘텐츠가 언제 만들어졌는지, 그것이 인공지능에 의해 만들어졌는지 편집되었는지를 둘러싼 문제를 논의하는 업계 연합인 C2PA(Content Provenance and Authenticity Alliance)의 회원이기도 하다. 이미지 메타데이터에 포함되어 있습니다. Microsoft와 OpenAl은 DALL-E 3로 생성된 이미지와 Sora로 생성된 비디오에 C2PA의 소스 메타데이터를 자동으로 추가합니다. Meta는 동맹 회원은 아니지만 플랫폼에서 AI 생성 이미지를 식별하기 위해 C2PA 표준을 사용한다고 발표했습니다.

Rishi Bommasani는 “자발적 약속에 서명한 6개 회사는 자연스럽게 위험을 해결하기 위한 기술 접근 ​​방식에 끌리게 되었으며, 이는 특히 워터마킹 시스템에 해당됩니다.”라고 말했습니다.

"문제는 '기술적 솔루션'이 의미 있는 진전을 이룰 수 있고, 콘텐츠가 기계에서 생성된 것인지 궁금해하게 만드는 근본적인 사회 문제를 해결할 수 있느냐는 것입니다."

결과: 매우 좋은. 전반적으로 이는 고무적인 결과이며, 워터마킹 시스템은 아직 실험적이고 신뢰할 수 없지만 이를 둘러싼 연구와 C2PA 표준에 대한 헌신을 보는 것은 여전히 ​​좋습니다. 아무것도 없는 것보다는 낫습니다. 특히 바쁜 선거 기간에는 더욱 그렇습니다.

6. 헌신 이 회사들은 AI 시스템의 역량, 한계, 적절하고 부적절한 사용 영역을 공개적으로 보고하기로 약속했습니다. 이 보고서는 보안 위험과 공정성과 편견에 미치는 영향과 같은 사회적 위험을 모두 다룰 것입니다.

약속 6: AI 시스템이 사용하기에 적합한 기능, 제한 사항 및 영역에 대해 공개적으로 보고합니다. 보고서에서는 공정성과 편견에 미치는 영향과 같은 보안 위험과 사회적 위험을 다룰 것입니다.

백악관의 서약은 해석의 여지가 많습니다. 예를 들어 기업은 해당 방향으로 나아가는 한 기술적으로 공개 요구 사항을 충족할 수 있지만 투명성 수준은 크게 다를 수 있습니다.

여기서 기술 회사가 제공하는 가장 일반적인 솔루션은 소위 "모델 카드"입니다. 회사마다 조금씩 다르게 부르지만 본질적으로는 AI 모델에 대한 일종의 제품 설명 역할을 한다. 이는 모델의 기능과 한계(공정성 및 설명 가능성 벤치마크 측정 방법 포함)부터 신뢰성, 견고성, 거버넌스, 개인 정보 보호 및 보안에 이르기까지 모든 것을 다룰 수 있습니다. Anthropic은 나중에 발생할 수 있는 잠재적인 안전 문제에 대해서도 모델을 테스트할 것이라고 말했습니다.

Microsoft는 회사가 생성 인공 지능을 사용하는 응용 프로그램을 구축하고 의사 결정을 내리고 이러한 응용 프로그램의 배포를 감독하는 방법에 대한 통찰력을 제공하는 연례 책임 있는 AI 투명성 보고서를 발표했습니다. 마이크로소프트는 자사 제품에 인공지능이 어디에, 어떻게 사용되는지도 분명히 밝혔다고 밝혔다.

결과: 아직 더 많은 작업이 필요합니다. Merve Hickok은 기업 간의 거버넌스 구조와 재무 관계의 투명성을 높이는 것이 모든 기업의 개선 영역이 될 것이며 기업이 데이터 소스, 모델 교육 프로세스, 보안 사고 및 에너지 사용에 대해 더욱 투명해지기를 원한다고 말했습니다.

약속 7. 이 회사들은 AI 시스템이 초래할 수 있는 사회적 위험에 대한 연구를 우선시하기로 약속했습니다. 여기에는 유해한 편견과 차별을 피하고 개인 정보를 보호하는 것이 포함됩니다. AI의 실적은 이러한 위험의 교활함과 만연함을 보여주며, 이 회사들은 이를 완화하는 AI를 출시하기로 약속했습니다.

약속 7: 유해한 편견, 차별, 개인정보 보호 등을 포함하여 인공지능 시스템이 가져올 수 있는 사회적 위험에 대한 연구를 우선적으로 수행합니다. AI의 실적은 이러한 위험이 얼마나 교활하고 만연해 있는지 보여주며, 이들 회사는 AI가 위험을 완화할 것이라고 약속합니다.

기술 회사들은 보안 연구를 수행하고 그 결과를 자사 제품에 통합하느라 바빴습니다. Amazon은 환각을 감지하고 보안, 개인 정보 보호 및 신뢰성 보호를 적용할 수 있는 "Amazon Bedrock"용 "가드레일"을 구축했습니다. Anthropic은 사회적 위험과 개인 정보 보호를 연구하는 데 중점을 둔 연구팀을 고용했으며 지난 1년 동안 스푸핑, 탈옥, 차별 감소 전략 및 자체 코드를 변조하거나 설득 연구를 수행하는 모델을 위한 새로운 기능을 도입했다고 밝혔습니다. OpenAI는 "증오 콘텐츠"를 피하고 증오 또는 극단주의 콘텐츠를 거부하도록 모델을 훈련했으며 고정관념에 기반한 답변이 필요한 많은 요청을 거부하도록 GPT-4V를 훈련했다고 밝혔습니다. Google DeepMind는 또한 위험한 기능을 평가하는 연구를 발표하고 생성 AI의 오용에 대한 연구를 수행했습니다.

모든 회사는 이 분야의 연구에 막대한 투자를 하고 있습니다. 예를 들어 Google은 최첨단 모델링 포럼을 통해 해당 분야의 연구를 촉진하기 위해 새로운 AI 보안 기금을 조성하는 데 수백만 달러를 투자했습니다. 마이크로소프트는 국가 인공 지능 연구 자원(National Artificial Intelligence Research Resource)을 통해 사회적 위험을 연구하기 위해 2천만 달러의 자금을 지원했으며 AI 모델 연구 가속 프로그램인 Accelerating Fundamental Model Research 프로그램을 시작했다고 밝혔습니다. 사회학.

결과: 매우 좋은. 서명자는 세계에서 가장 크고 가장 부유한 기업 AI 연구소 중 일부이기 때문에 달성하기 쉬운 약속입니다. AI 시스템을 안전하게 만드는 방법에 대한 더 많은 연구가 환영받는 단계이지만, 비평가들은 안전 연구에 초점을 맞추면 차별과 편견과 같은 보다 즉각적인 피해에 초점을 맞추는 AI 연구에서 관심과 자원이 멀어진다고 지적합니다.

약속 8. 이 회사들은 사회의 가장 큰 과제를 해결하는 데 도움이 되는 고급 AI 시스템을 개발하고 배포하기로 약속했습니다. 암 예방에서 기후 변화 완화에 이르기까지 그 사이에 있는 많은 것들에 이르기까지 AI는 적절하게 관리된다면 모든 사람의 번영, 평등, 안보에 엄청나게 기여할 수 있습니다.

약속 8:암 예방부터 기후 변화 완화, 기타 여러 분야에 이르기까지 사회의 가장 큰 과제를 해결하는 데 도움이 되는 고급 인공 지능 시스템을 개발 및 배포하는 경우 인공 지능을 올바르게 관리하면 인간의 번영, 평등 및 보안을 크게 향상시킬 수 있습니다.

이 약속 이후 기술 회사들은 다양한 문제를 해결해 왔습니다. 예를 들어, Pfizer는 Claude를 사용하여 관련 데이터를 수집한 후 암 치료 연구의 추세를 평가하고, 미국 바이오 제약 회사인 Gilead는 Amazon Web Services의 생성 AI를 사용하여 임상 연구의 타당성 평가를 수행하고 데이터 세트를 분석합니다.

Google DeepMind는 과학자를 돕는 인공 지능 도구를 출시한 강력한 기록을 보유하고 있습니다. 예를 들어 AlphaFold 3는 거의 모든 살아있는 분자의 구조와 상호 작용을 예측할 수 있습니다. AlphaGeometry는 고등학생과 비슷한 수준으로 기하학적 문제를 해결합니다. GraphCast는 중거리 일기예보가 가능한 인공지능 모델입니다. 한편, 마이크로소프트는 위성 이미지와 인공 지능을 사용해 하와이 마우이의 산불에 대한 대응을 개선하고 기후 영향에 취약한 인구를 지도화하여 연구자들이 식량 불안, 강제 이주, 질병 등의 위험을 발견하는 데 도움을 주고 있습니다.

한편 OpenAI는 교육자와 과학자가 실험실 환경에서 다중 모드 AI 모델을 안전하게 사용할 수 있는 방법과 같은 여러 연구 프로젝트에 대한 협력 및 자금 지원을 발표했습니다. 이 회사는 또한 연구원들이 자사 플랫폼에서 청정 에너지를 개발할 수 있도록 돕기 위해 "해커톤"에 자금을 지원하고 있습니다.

결과: 매우 좋은. 과학적 발견을 촉진하거나 날씨를 예측하기 위해 인공 지능을 사용하는 것과 같은 분야의 일부 작업은 정말 흥미롭습니다. AI 기업들은 아직 암 예방을 위해 AI를 활용하지 않고 있는데, 이는 애초에 꽤 높은 기준이다.

전반적으로 적-청 대결, 워터마킹 시스템, 업계 전반에 걸쳐 모범 사례를 공유하는 새로운 방법 등 AI 구축 방식에 몇 가지 긍정적인 변화가 있습니다. 그러나 이는 AI의 위험성이라는 지저분한 사회기술적 문제를 해결하기 위해 발견된 독창적인 기술 솔루션 중 일부일 뿐이며 수행해야 할 작업은 훨씬 더 많습니다. 1년이 지난 후에도 이 서약은 여전히 ​​생물 무기와 같은 "가설적 위험"에 초점을 맞춘 특정 유형의 AI 보안을 지나치게 강조하는 동시에 소비자 보호, 딥페이크, 데이터 및 저작권, 오늘날 누락된 것처럼 보이는 AI의 환경 발자국에 대해서는 언급하지 않습니다. 정말 기괴하다.

원본 링크:

https://www.technologyreview.com/2024/07/22/1095193/ai-companies-promised-the-white-house-to-self-regulate-one-year-ago-whats-changed/