notícias

openai e anthropic concordam em permitir que o governo dos eua avalie a segurança antes de lançar novo modelo

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

a it house informou em 30 de agosto que as empresas de inteligência artificial openai e anthropic concordaram em permitir que o governo dos eua acesse novos modelos importantes de inteligência artificial antes que essas empresas liberem esses modelos para ajudar a melhorar sua segurança.


fonte da imagem pexels

o us ai safety institute anunciou na quinta-feira que esteas duas empresas assinaram um memorando de entendimento com o instituto, comprometendo-se a fornecer acesso antes e depois da divulgação pública do modelo. o governo dos eua disse que a medida os ajudará a avaliar conjuntamente os riscos de segurança e a mitigar possíveis problemas. a agência disse que trabalharia com o seu homólogo do reino unido para fornecer feedback sobre melhorias de segurança.

o diretor de estratégia da openai, jason kwon, expressou apoio à cooperação:

“apoiamos fortemente a missão do american ai safety institute e esperamos trabalhar juntos para desenvolver melhores práticas e padrões para a segurança dos modelos de ia. acreditamos que o instituto desempenha um papel fundamental para garantir a liderança dos eua no desenvolvimento responsável da ia. esperamos que, através da cooperação com o instituto, possamos fornecer uma estrutura com a qual o mundo possa aprender.”

a anthropic também afirmou que é muito importante estabelecer a capacidade de testar modelos de ia de forma eficaz. jack clark, cofundador e chefe de política da empresa, disse:

“garantir que a ia seja segura e confiável é crucial para que esta tecnologia tenha um impacto positivo. através desses testes e cooperação, os riscos trazidos pela ia podem ser melhor descobertos e reduzidos, e o desenvolvimento responsável da ia ​​pode ser promovido. estou orgulhoso de fazer parte deste importante trabalho e espero estabelecer novos padrões para a segurança e confiabilidade da ia.”

partilhar o acesso a modelos de inteligência artificial é um passo importante à medida que os legisladores federais e estaduais consideram como impor limites à tecnologia sem sufocar a inovação. a it house observou que na quarta-feira, os legisladores da califórnia aprovaram a lei de inovação de segurança do modelo de inteligência artificial da fronteira (sb 1047), que exige que as empresas de inteligência artificial na califórnia tomem medidas de segurança específicas antes de treinar modelos básicos avançados. isso atraiu resistência de empresas de inteligência artificial, incluindo openai e anthropic, que alertaram que isso poderia prejudicar desenvolvedores menores de código aberto, embora o projeto de lei tenha sido revisado e ainda esteja aguardando a aprovação do governador da califórnia, gavin newsom.

entretanto, a casa branca tem tentado obter compromissos voluntários de grandes empresas sobre medidas de segurança de ia. várias empresas líderes em ia assumiram compromissos não vinculativos de investir em investigação sobre segurança cibernética e discriminação e de trabalhar na criação de marcas de água em conteúdos gerados por ia.

elizabeth kelly, diretora do instituto nacional de segurança da inteligência artificial, disse num comunicado que estes novos acordos são apenas “o começo, mas são um marco importante nos nossos esforços para ajudar a gerir de forma responsável o futuro da inteligência artificial”.