notícias

Ex-pesquisador da OpenAI alerta “antigo empregador”: IA não regulamentada causará danos catastróficos

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House News em 24 de agosto, de acordo com um relatório do Business Insider, horário de Pequim, esta manhã, depois que a OpenAI expressou publicamente sua oposição ao projeto de lei SB 1047 da Califórnia (AI Safety Act), dois ex-pesquisadores da OpenAI se apresentaram para falar publicamente. club" e emitir um aviso.

A Lei de Segurança de IA da Califórnia exigirá que as empresas de IA tomem medidas para evitar que seus modelos causem "danos graves", como o desenvolvimento de armas biológicas que podem causar grandes vítimas ou causar mais de 500 milhões de dólares americanos (IT Home Note: atualmente cerca de 3,566 bilhões yuan) perdas econômicas.

Os ex-funcionários escreveram ao governador da Califórnia, Gavin Newsom, e a outros legisladores que a oposição da OpenAI ao projeto de lei era decepcionante, mas não surpreendente.

Dois pesquisadores, William Saunders e Daniel Cocotailo, escreveram na carta: “Nós (anteriormente) escolhemos ingressar na OpenAI porque queríamos garantir que a empresa estivesse desenvolvendo ‘sistemas de IA incrivelmente poderosos’.Mas optámos por sair porque perdemos a nossa confiança no desenvolvimento de sistemas de IA de forma segura, honesta e responsável.

A carta também mencionou que Altman, CEO da OpenAI, apoiou publicamente a regulamentação da IA ​​muitas vezes, mas quando medidas regulatórias reais foram preparadas para serem introduzidas, eles expressaram oposição. “O desenvolvimento de modelos de IA de ponta sem precauções de segurança adequadas representa um risco previsível de danos catastróficos ao público.”