notícias

ultraman deixa o comitê de segurança openai: ele pode decidir se lançará modelos grandes

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

whips informou que em 17 de setembro, de acordo com relatórios estrangeiros, o ceo da openai, sam altman, deixará o comitê interno estabelecido pela openai em maio, responsável por supervisionar as principais decisões de segurança relacionadas aos projetos e operações da empresa.

a openai disse hoje em uma postagem no blog que o comitê de segurança e proteção se tornará um grupo independente de supervisão do conselho presidido pelo professor da universidade carnegie mellon, zico kolter, com membros incluindo o ceo da quora, adam d'angelo, o general aposentado do exército dos eua, paul nakasone, e o ex-vice-executivo da sony. presidente nicole seligman.

todos são atuais membros do conselho de administração da openai.

a openai apontou no post que o comitê conduziu uma revisão de segurança do mais recente modelo de ia o1 da openai – embora altman ainda esteja envolvido.a empresa disse que o grupo continuará a receber instruções regulares da equipe de segurança da openai e reserva-se o direito de adiar o lançamento até que as questões de segurança sejam resolvidas.

a openai escreveu no post: como parte de seu trabalho, o conselho de segurança continuará a receber relatórios regulares de avaliação técnica sobre os modelos atuais e futuros, bem como relatórios contínuos de monitoramento pós-lançamento. estamos construindo uma estrutura de segurança abrangente com base em nossos processos e práticas de lançamento de modelos para definir claramente os critérios de sucesso para lançamentos de modelos.

a saída de altman do comitê de segurança e proteção ocorre depois que cinco senadores dos eua levantaram questões sobre as políticas da openai em uma carta a altman neste verão.

quase metade dos funcionários da openai que antes se concentravam nos riscos de longo prazo da inteligência artificial foram embora, e ex-pesquisadores da openai acusaram altman de se opor à regulamentação real da ia ​​​​em favor de políticas que promovam os objetivos corporativos da openai.

como se costuma dizer, a openai aumentou significativamente os seus gastos com lobby federal, com um orçamento de 800.000 dólares para os primeiros seis meses de 2024, em comparação com 260.000 dólares para todo o ano passado.

no início desta primavera, altman também se juntou ao conselho de segurança e proteção de inteligência artificial do departamento de segurança interna dos eua, que aconselha sobre o desenvolvimento e implantação de inteligência artificial em infraestruturas críticas dos eua.

mesmo que altman seja removido, há poucos sinais de que o comitê de segurança tomará decisões difíceis que impactarão seriamente o roteiro comercial da openai.

notavelmente, a openai disse em maio que procuraria responder às críticas válidas ao seu trabalho através de um comité – as críticas válidas, claro, dependem da perceção de quem vê.

em maio, os ex-membros do conselho da openai, helen toner e tasha mccauley, disseram em um artigo no the economist que acreditavam que a openai não era confiável e não poderia assumir a responsabilidade.

eles escrevem: com base na nossa experiência, acreditamos que a autonomia não consegue resistir de forma confiável à pressão dos incentivos ao lucro.

e os incentivos ao lucro da openai continuam a crescer.

há rumores de que a empresa está levantando mais de us$ 6,5 bilhões em financiamento, o que avaliaria a openai em mais de us$ 150 bilhões. para chegar ao acordo, a openai provavelmente abandonará a sua estrutura corporativa híbrida sem fins lucrativos, que foi concebida para limitar os retornos dos investidores, em parte para garantir que a openai permaneça consistente com a sua missão fundadora: desenvolver inteligência artificial geral que beneficie toda a humanidade.