nouvelles

OpenAI affirme que le projet de loi controversé sur l’IA en Californie nuira à l’innovation

2024-08-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report, 22 août, selon Bloomberg News, OpenAI s'oppose à un projet de loi californien qui impose de nouvelles exigences de sécurité aux sociétés d'intelligence artificielle, rejoignant les leaders technologiques et les politiciens qui se sont récemment opposés à cette législation controversée.

La startup basée à San Francisco a déclaré que le projet de loi nuirait à l'innovation dans le secteur de l'intelligence artificielle et a fait valoir que la réglementation devrait être fixée par le gouvernement fédéral et non par les États.

La lettre soulevait également des inquiétudes quant au fait que le projet de loi, s'il était adopté, pourrait avoir des impacts étendus et significatifs sur la compétitivité des États-Unis en matière d'intelligence artificielle et de sécurité nationale.

Le SB 1047, proposé par Wiener, vise à créer ce que son bureau appelle des normes de sécurité de bon sens pour les entreprises produisant de grands modèles d'intelligence artificielle dépassant certains seuils de taille et de coût.

Le projet de loi, adopté par le Sénat de l'État en mai, obligerait les sociétés d'IA à prendre des mesures pour empêcher leurs modèles de causer de graves dommages, par exemple en facilitant le développement d'armes biologiques susceptibles de causer de nombreuses victimes ou de causer plus de 500 millions de dollars de dommages économiques.

En vertu du projet de loi, les entreprises sont tenues de garantir que les systèmes d'IA peuvent être arrêtés, de prendre des précautions raisonnables pour garantir que les modèles d'IA ne provoquent pas de catastrophes et de divulguer des déclarations de conformité au procureur général de Californie. Si les entreprises ne respectent pas ces exigences, elles s’exposent à des poursuites et à des sanctions civiles.

Le projet de loi s'est heurté à une forte opposition de la part de nombreuses grandes entreprises technologiques, startups et investisseurs en capital-risque, qui ont déclaré qu'il allait trop loin pour une technologie encore balbutiante et pourrait étouffer l'innovation technologique dans l'État.

Certains critiques du projet de loi craignent qu’il ne chasse les entreprises d’IA de Californie.

OpenAI a exprimé les mêmes préoccupations dans une lettre adressée au bureau de Weiner.

Jason Kwon, directeur de la stratégie d’OpenAI, a écrit dans la lettre : La révolution de l’intelligence artificielle vient de commencer, et la position unique de la Californie en tant que leader mondial de l’intelligence artificielle est le moteur de la vitalité économique de l’État. Le SB 1047 menacerait cette croissance, ralentirait le rythme de l’innovation et inciterait les ingénieurs et entrepreneurs californiens de classe mondiale à quitter l’État pour de plus grandes opportunités ailleurs.

Selon une personne proche des projets immobiliers de l’entreprise,OpenAI a suspendu les discussions sur l'expansion de son bureau de San Francisco en raison d'inquiétudes concernant l'environnement réglementaire incertain en Californie, a déclaré la personne, demandant l'anonymat pour discuter des conversations internes.

Wiener a défendu le projet de loi dans un communiqué et a déclaré que la lettre d'OpenAI ne critiquait aucune disposition du projet de loi.

Il a également déclaré que l'argument selon lequel les talents en IA quittent l'État est sans objet car la loi s'appliquerait à toute entreprise faisant des affaires en Californie, quel que soit l'endroit où se trouvent ses bureaux.

Un représentant du bureau de Wiener a noté que deux éminents experts en sécurité nationale avaient publiquement soutenu le projet de loi.

"Le SB 1047 est un projet de loi très raisonnable qui oblige les grands laboratoires d'intelligence artificielle à faire ce qu'ils ont promis de faire, c'est-à-dire tester leurs grands modèles pour détecter les risques catastrophiques en matière de sécurité", a déclaré Wiener. "Le SB 1047 est bien calibré par rapport à ce que nous savons sur les risques prévisibles de l'intelligence artificielle et mérite d'être promulgué."

Les critiques ont fait valoir que le projet de loi, qui obligerait les entreprises à soumettre à l'État des informations détaillées sur leurs modèles, entraverait l'innovation et empêcherait les petits développeurs open source de créer des startups de peur d'être poursuivis.

La semaine dernière, dans le but de répondre à certaines résistances, Wiener a révisé le projet de loi pour éliminer la responsabilité pénale des entreprises technologiques non conformes, ajouter des protections pour les petits développeurs de modèles open source et éliminer la nouvelle unité Frontier Model Unit.

Auparavant, les développeurs pouvaient être passibles de sanctions pour parjure s'ils soumettaient sciemment de fausses informations au gouvernement sur leurs plans de sécurité. Anthropic, rival d'OpenAI, connu pour être plus axé sur la sécurité que ses rivaux, a précédemment déclaré qu'il soutiendrait certains des amendements du projet de loi. Mais même après l’introduction des amendements, le projet de loi a continué à se heurter à l’opposition, notamment de la part de l’ancienne présidente de la Chambre, Nancy Pelosi, qui a publié une déclaration qualifiant le projet de loi de mal informé.

Un groupe de membres démocrates du Congrès s'est également prononcé contre le projet de loi.

OpenAI et d'autres entreprises du secteur technologique ont embauché des lobbyistes qui ont travaillé sur le projet de loi, selon des documents étatiques.

OpenAI a déclaré dans la lettre qu'elle était en contact avec le bureau de Wiener au sujet du projet de loi depuis plusieurs mois, mais qu'elle ne l'avait finalement pas soutenu.

« Nous devons protéger les avantages de l’IA de l’Amérique grâce à un ensemble de politiques fédérales, et non de politiques étatiques, qui apportent clarté et certitude aux laboratoires et aux développeurs d’IA tout en protégeant la sécurité publique », indique la lettre.

OpenAI estime que les agences fédérales telles que le Bureau de la politique scientifique et technologique de la Maison Blanche, le Département du Commerce et le Conseil national de sécurité sont mieux placées pour gérer les risques critiques de l'IA que les agences de l'État de Californie.

La société a déclaré qu'elle soutenait plusieurs propositions de législation fédérale, telles que la loi sur l'innovation sur l'avenir de l'intelligence artificielle, qui fournit le soutien du Congrès à la création d'un nouvel institut américain pour la sécurité de l'IA.

"Comme je l'ai dit à plusieurs reprises, je suis d'accord qu'idéalement, le Congrès se saisirait de cette question", a déclaré Wiener dans un communiqué. "Cependant, le Congrès ne l'a pas fait, et nous doutons qu'il le fasse. Selon l'argument d'OpenAI à propos du Congrès, la Californie n'adoptera jamais sa loi sur la confidentialité des données, et étant donné l'inaction du Congrès, les Californiens n'obtiendront rien pour la protection de leurs données."

Le SB 1047 sera sur le bulletin de vote à l'Assemblée législative de Californie ce mois-ci.

S’il est adopté, il finira par être transféré au bureau du gouverneur de Californie, Gavin Newsom.Bien que Newsom n’ait pas dit s’il opposerait son veto au projet de loi, il a parlé de la nécessité de promouvoir l’innovation en matière d’IA en Californie tout en réduisant les risques.