nouvelles

Un ancien chercheur d’OpenAI met en garde son « ancien employeur » : une IA non réglementée causera des dommages catastrophiques

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

IT House News le 24 août, selon un rapport de Business Insider heure de Pékin ce matin, après qu'OpenAI ait publiquement exprimé son opposition au projet de loi californien SB 1047 (AI Safety Act), deux anciens chercheurs d'OpenAI se sont manifestés pour s'exprimer publiquement. club" et émettre un avertissement.

La loi californienne sur la sécurité de l'IA obligera les sociétés d'IA à prendre des mesures pour empêcher leurs modèles de causer des « dommages graves », comme le développement d'armes biologiques susceptibles de causer de lourdes pertes ou de causer plus de 500 millions de dollars américains (IT Home Note : actuellement environ 3,566 milliards de dollars). yuans) pertes économiques.

Les anciens employés ont écrit au gouverneur de Californie Gavin Newsom et à d'autres législateurs que l'opposition d'OpenAI au projet de loi était décevante mais pas surprenante.

Deux chercheurs, William Saunders et Daniel Cocotailo, ont écrit dans la lettre : « Nous avons (auparavant) choisi de rejoindre OpenAI parce que nous voulions nous assurer que l'entreprise développait des « systèmes d'IA incroyablement puissants ».Mais nous avons choisi de partir parce que nous avons perdu notre confiance dans le développement de systèmes d’IA de manière sûre, honnête et responsable.

La lettre mentionnait également que le PDG d'OpenAI, Altman, avait publiquement soutenu la réglementation de l'IA à plusieurs reprises, mais que lorsque de véritables mesures réglementaires étaient prêtes à être introduites, ils ont exprimé leur opposition. « Développer des modèles d’IA de pointe sans précautions de sécurité adéquates présente un risque prévisible de préjudice catastrophique pour le public. »