notícias

Altman acusado de ser desonesto sobre o trabalho de segurança da OpenAI

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Relatório Whip Bull, 3 de agosto: De acordo com relatórios estrangeiros, a OpenAI está enfrentando pressão crescente depois que um denunciante acusou a Comissão de Valores Mobiliários dos EUA (SEC) do acordo de confidencialidade da empresa de inteligência artificial OpenAI que impede ilegalmente os funcionários de divulgarem questões importantes de segurança aos legisladores. haverá maior pressão para provar que não está a esconder os riscos da IA.

Em uma carta à OpenAI ontem, o senador Chuck Grassley (R-Iowa) pediu evidências de que o fato de a OpenAI não exigir mais assinaturas poderia impedir seus funcionários de enviar reivindicações aos reguladores governamentais do Acordo para Proteger a Divulgação.

Especificamente, Grassley pediu à OpenAI que fornecesse acordos atuais de emprego, indenização, não depreciação e confidencialidade para garantir ao Congresso que os contratos não impedem a divulgação.

Grassley disse que isto é fundamental para que possamos contar com denunciantes que expõem ameaças emergentes para ajudar a desenvolver políticas eficazes de IA que protejam contra os riscos existentes de IA decorrentes dos avanços tecnológicos.

A carta de Grassley dizia que ele aparentemente pediu esses registros à OpenAI duas vezes, mas não recebeu resposta.

A porta-voz de Grassley, Clare Slattery, disse ao The Washington Post que até agora a OpenAI não respondeu ao seu último pedido de documentos.

“Não é suficiente dizer que você fez uma atualização”, disse Grassley em comunicado enviado a Ars. "Os fatos falam mais alto que as palavras. Altman precisa fornecer registros e responder ao meu pedido de supervisão para que o Congresso possa avaliar com precisão se a OpenAI está protegendo adequadamente seus funcionários e usuários."

Além de pedir recentemente à OpenAI que atualizasse seu contrato de funcionários, Grassley também pediu à OpenAI que fosse mais transparente sobre o número total de solicitações de funcionários que buscam divulgações federais desde 2023.

Os senadores queriam saber quais informações os funcionários queriam divulgar aos funcionários e se a OpenAI realmente aprovou seus pedidos.

Da mesma forma, Grassley pediu à OpenAI que confirmasse quantas investigações da SEC abriu desde 2023.

Juntos, os documentos revelarão se os funcionários da OpenAI ainda estão proibidos de fazer divulgações federais, que tipos de divulgações a OpenAI nega e até que ponto a SEC monitora a OpenAI para ocultar riscos de segurança.

Grassley escreveu na carta: A OpenAI deve garantir que seus funcionários possam fornecer divulgações protegidas sem restrições ilegais.

Ele pediu à OpenAI que respondesse até 15 de agosto para que o Congresso pudesse conduzir uma supervisão objetiva e independente dos protocolos de segurança e acordos de confidencialidade da OpenAI.

A OpenAI não respondeu imediatamente ao pedido de comentários de Ars.

Sobre .

Ele também confirmou que a OpenAI deseja que funcionários atuais e ex-funcionários se sintam confortáveis ​​em expressar preocupações.

“Isso é fundamental para qualquer empresa, mas especialmente para nós, onde é uma parte importante do nosso programa de segurança”, escreveu Altman. Em maio, eliminamos uma cláusula de não depreciação para funcionários atuais e antigos, bem como uma cláusula que dava à OpenAI o direito de cancelar o patrimônio adquirido (mesmo que nunca tenha sido utilizado). Temos trabalhado muito para corrigir isso.

Em julho, o denunciante disse à Comissão de Valores Mobiliários que a OpenAI deveria ser obrigada a fornecer não apenas os contratos atuais dos funcionários, mas todos os contratos que contenham acordos de confidencialidade para garantir que a OpenAI não tenha encoberto práticas históricas ou atuais de encobrimento de riscos de segurança da IA. Eles querem que todos os funcionários atuais e antigos sejam notificados sobre quaisquer contratos que contenham acordos de confidencialidade ilegais e que a OpenAI seja multada por cada contrato ilegal.

Sam Altman acusado de desprezar questões de segurança de IA

Mas os apelos por mais transparência da OpenAI não se limitam aos legisladores. Um dia antes da carta aberta de Grassley, o CEO da OpenAI, Sam Altman, divulgou uma declaração sobre A declaração foi enganosa e gerou protestos públicos.

Altman escreveu: Como dissemos em julho passado, estávamos comprometidos em alocar pelo menos 20% de nossos recursos de computação para esforços de segurança em toda a empresa, o que levantou preocupações na comunidade que muitos leitores tendenciosos do X pensaram que isso fornece mais contexto.

A nota da comunidade observa que Altman estava se referindo a um blog de julho que confirmou explicitamente que a OpenAI estava alocando 20% dos recursos computacionais para sua equipe de Super Alignment. Com a equipe agora dissolvida e o cientista-chefe responsável pelo Hyper-Alignment deixando a empresa, os comentaristas do X dizem que as afirmações de Altman enganaram o público sobre quais recursos de computação a OpenAI realmente aloca para seus esforços de segurança agora vagamente definidos.

Alguns comentaristas do X solicitaram mais detalhes sobre os atuais esforços de segurança da OpenAI. Numa carta de 31 de julho em resposta a cinco outros senadores sobre questões de segurança de IA, a OpenAI explicou mais detalhadamente os seus esforços de segurança. A empresa também esclareceu a declaração de Altman de que X o sinalizou como exigindo “mais contexto”, escrevendo que os recursos de computação mencionados no blog não deveriam de forma alguma referir-se apenas à equipe do Super Alignment.

A OpenAI disse numa carta aos senadores: Para avançar ainda mais na nossa agenda de investigação em segurança, em julho passado comprometemo-nos a alocar pelo menos 20% dos recursos computacionais para a segurança da IA ​​durante um período de vários anos. Esse compromisso sempre se aplica aos esforços de segurança em toda a empresa, não apenas em uma equipe específica.

Isto confunde algumas pessoas porque o blog da OpenAI afirma claramente que a OpenAI dedicará 20% dos recursos computacionais que adquirimos até agora para resolver o problema de coordenação da superinteligência nos próximos quatro anos. Na época, a OpenAI disse que sua principal aposta fundamental em pesquisa era sua antiga equipe superorquestrada, que “precisa de recursos computacionais porque fazê-lo bem é fundamental para cumprir nossa missão”.

Um

A OpenAI ainda não respondeu ao relato do meme, mas já disse anteriormente que equipes superalinhadas são críticas para a segurança da IA ​​porque a sociedade precisa de avanços científicos e tecnológicos para orientar e controlar sistemas de IA que são mais inteligentes do que nós.

OpenAI detalha iniciativas de segurança

Na carta da OpenAI aos senadores, o diretor de estratégia Jason Kwon disse aos legisladores que a OpenAI protege contra riscos trabalhando com especialistas externos para avaliar e formar equipes em nossos modelos. Isto incluiu a consulta de mais de 100 especialistas externos que ajudaram a avaliar os riscos associados ao nosso modelo mais recente, o GPT-4o.

Kwon escreve: As descobertas e mitigações de segurança dos testes da equipe vermelha estão disponíveis publicamente nos cartões do sistema que acompanham nossos modelos, e a OpenAI publicou um artigo sobre "Medição de riscos químicos, biológicos, radiológicos e nucleares (CBRN) associados a sistemas de inteligência artificial ," Pesquisa que estima até que ponto diferentes ocupações e indústrias podem ser afetadas por modelos linguísticos, avalia o impacto dos modelos linguísticos na influência das operações e explica a interpretabilidade das decisões do sistema de inteligência artificial.

A fim de garantir ainda mais a segurança da IA, Kwon disse que a OpenAI conduzirá uma implantação iterativa, primeiro lançando novos recursos, como o modelo de vídeo Sora ou o mecanismo de fala, para um grupo limitado e, em seguida, divulgando-os amplamente ao público.

Kwon escreveu: Essa estratégia nos permite obter feedback de pessoas de fora da OpenAI, atualizar nossas proteções de segurança conforme necessário e informar o público sobre os próximos recursos de IA antes de abrir totalmente nosso modelo.

Para funcionários que desenvolvem novos recursos ou modelos que ainda temem retaliação por levantarem questões de segurança, Kwon disse que a OpenAI lançou uma linha direta de integridade em março. Este canal permite que os funcionários relatem problemas anonimamente caso não se sintam à vontade para levantar questões por meio de outros canais existentes.

Embora a OpenAI diga que os funcionários são livres para falar sobre quaisquer preocupações, está claro que, se a OpenAI considerar certas informações como um risco à segurança, elas ainda não poderão ser compartilhadas.

Kwon escreve: OpenAI continua a fazer uma distinção entre levantar preocupações e vazar segredos comerciais da empresa. Este último (direito protegido à divulgação) permanece proibido sob acordos de confidencialidade com funcionários atuais e antigos. Acreditamos que esta proibição é particularmente importante dado o impacto que a nossa tecnologia tem na segurança nacional dos EUA.

Dado que esta exceção permite à OpenAI negar algumas divulgações federais, Grassley provavelmente queria descobrir se a OpenAI poderia ter negado indevidamente divulgações com base na proteção de segredos comerciais.

A carta de Grassley deixou claro que os senadores estavam preocupados com os riscos para o autopoliciamento da segurança das empresas.