2024-08-16
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
des choses intelligentes
Auteur Chen Junda
ModifierPanken
Zhidongxi a rapporté le 16 août que tout à l'heure, la controversée « Frontier AI Model Safety Innovation Act » de Californie (plus tard connue sous le nom de California AI Safety Act) a été annoncée enconsidérablement affaibliPlus tard, il a passé avec succès l'examen du comité des crédits de la Chambre des représentants de Californie.Réguler les difficultés juridiques au niveau nationalAu milieu du dilemme, cela est devenu une étape importante pour les États-Unis dans la réglementation de l'IA. Cependant, certains membres de la communauté technologique pensent que c'est le cas.Cela finira par nuire à la position de leader de la Californie et même des États-Unis dans le domaine de l’IA.
L'ajustement le plus important dans le projet de loi modifié est quen'est plus autoriséLe procureur général de Californie a poursuivi les sociétés d'IA pour avoir ignoré les problèmes de sécurité avant qu'un événement catastrophique ne se produise. Le projet de loi initial stipule que tant que les auditeurs constatent que les sociétés d'IA mènent des activités illégales dans leurs opérations quotidiennes, elles peuvent être poursuivies. Cela marque le projet de loiL’accent réglementaire se tourne désormais vers les dommages réels, sera égalementRéduire la pression de conformité sur les entreprises.
La plupart des entreprises technologiques américaines et des startups d’IA opèrent en Californie.sera soumis à la Loi.Concrètement, ce projet de loi se concentre principalement sur «Modèles d'IA de pointe"Seuls les développeurs dont les coûts de puissance de calcul pour les modèles de formation dépassent 100 millions de dollars seront confrontés aux exigences réglementaires. Les modèles existants ne sont pas soumis à la supervision. À l'avenirLlama 4 et GPT-5 pourraient être ses principales cibles réglementaires.
Pour les entreprises nationales, si vous effectuez uniquement des réglages fins et d'autres opérations sur la base de l'open source, il y a de fortes chances que cela ne soit pas inclus dans le périmètre de surveillance. Cependant, le projet de loi oblige les fournisseurs de services cloud à collecter des informations sur les clients, les adresses IP, les modes de paiement et d'autres informations, ce qui facilite le travail de traçabilité des autorités de régulation. Si les contrôles sont davantage renforcés, cela pourrait devenirRisques réglementaires auxquels sont confrontées certaines entreprises chinoises d’IA qui utilisent la puissance de calcul étrangère pour la formation.
Les entreprises soumises à la surveillance devraientprendre des mesures proactivesPour éviter les abus de modèle, vous devez également avoirmodèle d'arrêt d'urgencecapacité. De plus, ils sont tenus de soumettre une déclaration publique décrivant leurs pratiques en matière de sécurité. Le projet de loi introduit "Inspection annuelle", les développeurs sont tenus d'embaucher des auditeurs indépendants pour évaluer la conformité chaque année.
Une fois que des activités illégales se produisent, les entreprises peuvent être confrontéesallant de 10 millions de dollars à 30 millions de dollarsCe montant augmentera à mesure que le coût de la formation des modèles augmentera.
Le cercle de l’IA s’est divisé en deux camps et il y a eu des débats acharnés.
Lauréat du prix Turing 2018Jeffrey Hinton(Geoffrey Hinton) etJosué Bengio(Yoshua Bengio) a exprimé son soutien et estime que la California AI Safety Act est une réglementation efficace de la technologie de l'IA.Exigences minimales”。
Des centaines d'entrepreneurs ont signéIncubateurYCPlus de 100 universitaires californiens ont également écrit des lettres d’opposition.Institution de capital-risque a16zCréer un site Web spécifiquement pour détailler les six crimes de la loi, professeur à l'Université de StanfordLi FeifeiSpécialement tweeté pour condamner, le point principal est que ce projet de loi entravera l'investissement et le développement de l'IA en Californie,Nuire considérablement à l’écosystème open source, ne répond pas aux risques substantiels engendrés par l’IA.
Cependant, le sénateur de l'État de Californie, Scott Wiener, auteur du projet de loi californien sur la réglementation de l'IA, a réfuté certaines critiques du projet de loi, affirmant que a16z et YCdéformer délibérément les faits, ce projet de loi est une optimisation du cadre juridique existant, améliore la pertinence de l'encadrement, ne mettra pas en prison un grand nombre de développeurs, et ne nuira pas à l'innovation et à l'IA open source.
Zhixixi a compilé une grande quantité d'informations et résumé le contenu spécifique et les discussions connexes de ce projet de loi dans les cinq questions et réponses suivantes :
1. Quel est le champ d’application ? La plupart des modèles existants ne sont pas applicables, et Llama 4 et GPT-5 peuvent être inclus dans le périmètre de supervision
Afin de parvenir à une supervision efficace, ce projet de loi prévoyait initialement de créer un « Département des modèles frontaliers (FMD) » pour mettre en œuvre les réglementations pertinentes. Avec les révisions d'aujourd'hui, cette division se transforme en une commission de neuf membres au sein de l'agence du gouvernement californien, qui comprend des représentants de l'industrie de l'IA, de la communauté open source et du monde universitaire, et est nommée par le gouverneur et l'Assemblée législative de Californie. Le Frontier Models Council fixera toujours des seuils de calcul pour les modèles couverts, publiera des directives de sécurité et publiera des réglementations pour les auditeurs.
En tant que l'un des centres de développement de l'IA aux États-Unis et même dans le monde, la Californie a attiré un grand nombre d'entreprises d'IA. Plus de 30 des 50 plus grandes entreprises d'IA du magazine Forbes en 2024 opèrent en Californie. Selon ce projet de loi, ils doivent tous se conformer aux dispositions pertinentes de la California AI Safety Act. Cependant, le champ d'application réel de cette loi sera considérablement limité par les capacités du modèle.Peut-être que seuls les principaux acteurs du secteur des grands modèles seront réglementés par ce projet de loi dans les années à venir.
▲Capture d'écran d'une partie du projet de loi californien sur la réglementation de l'IA (Source : site officiel du Sénat de Californie)
Ce projet de loi évaluera si un modèle doit être inclus dans le champ d'application réglementaire en fonction de la puissance de calcul et du coût de la puissance de calcul utilisé dans la formation du modèle, c'est-à-dire être classé comme «Modèle couvert». La réglementation pertinente peut être résumée dans les deux points suivants :
1. À utiliser avant le 1er janvier 202710^26et davantage d'opérations sur des nombres entiers ou à virgule flottante (100 millions de dollars sur la base du prix moyen du marché de la puissance de calcul) ou d'utilisation3*10^25Le modèle obtenu après avoir affiné le modèle à portée avec la puissance de calcul sera répertorié comme modèle à portée.
2. Après le 1er janvier 2027, les normes ci-dessus seront mises en œuvre par les autorités californiennes.Régulateur de modèle de pointeFaites une évaluation. Si le ministère modifie le seuil de puissance de calcul, la nouvelle norme prévaudra; si le ministère décide qu'aucune modification n'est nécessaire, la norme originale continuera d'être utilisée. De plus, après 2026, les 100 millions de dollars prévus dans la norme initiale devraientAjustez en conséquence pour tenir compte de l’inflation.
Alors, lesquels des modèles sortis maintenant feront partie de cette gamme ? Il existe de nombreuses façons de calculer la puissance de calcul utilisée dans la formation de modèles. OpenAI l'a déjà estimée approximativement dans un article :
FLOPS=6E
(où N est le nombre de paramètres et D est le nombre de jetons)
En utilisant cette méthode de calcul et les données du modèle open source, nous pouvons estimer approximativement le niveau de puissance de calcul actuellement utilisé par les modèles :
Lama 3 70B
Il comporte 70 milliards de paramètres et utilise des données d'entraînement de 15 T de jetons pendant l'entraînement. La puissance de calcul utilisée est donc d'environ :
6*70B*15T= 6,3*10^24 FLOPS
Lama 3.1 405B
Il comporte 405 milliards de paramètres et utilise 15,6T de données d'entraînement de jetons pendant l'entraînement, donc la puissance de calcul utilisée est d'environ :
6*405B*15.6T=3.79*10^25 FLOPS
▲ Informations relatives à Llama 3.1 405B (Source : Hugging Face)
Cette méthode de calcul est relativement grossière et peut différer considérablement de la situation réelle, mais elle a néanmoins une valeur de référence. D'après ce résultat,Llama 3.1 405B, le roi des modèles open source, ne sera pour l'instant pas répertorié comme modèle entrant dans le champ d'application du projet de loi., un modèle ne sera répertorié comme modèle à portée que s'il utilise 2,6 fois la puissance de calcul du Llama 3.1 405B.
Ces données peuvent également être étayées par la déclaration dans une lettre ouverte en réponse à la controverse sur le projet de loi du sénateur de l'État de Californie, William Wilson, l'auteur de ce projet de loi. Il a écrit dans la lettre : « Dans le modèle actuellement rendu public,Aucun modèle n'a atteint le seuil de puissance de calcul de 10^26 FLOP”。
Pendant longtemps, la grande majorité des petites et moyennes sociétés de développement de modèles et des développeurs indépendants n'auront peut-être pas à s'inquiéter de la supervision de ce projet de loi. Selon le seuil de puissance de calcul et le seuil de capital du projet de loi, ses principaux objets réglementaires sont tels queOpenAI, Méta, GoogleDe tels acteurs majeurs dans le domaine de l'IA etDes startups de premier plan qui ont reçu d’importants investissements.
Selon la déclaration publique du PDG d'OpenAI, Sam Altman, le coût de la formation de GPT-4 est d'environ 100 millions de dollars. Il n'est pas clair si ce coût inclut des investissements autres que la puissance de calcul. Si GPT-5 ou d'autres modèles OpenAI ultérieurs sont publiés, ils peuvent être réglementés par cette loi. Mark Zuckerburg, PDG de Meta, a estimé que Llama 4 nécessiterait environ 10 fois la puissance de calcul de Llama 3.1, ce qui signifieLlama 4 devrait être l'un des rares modèles open source qui sera répertorié comme modèle de gamme à l'avenir.
2. Quelles sont les responsabilités des entreprises ? Les développeurs doivent effectuer des « inspections annuelles », prévenir de manière proactive les abus et les équiper de « coupe-circuit ».
Selon les dispositions pertinentes de cette loi,Développeur de modèles de gammePrincipalement responsable des responsabilités suivantes :
1. Mise en œuvregestion, technologie et physiqueProtection de sécurité à trois volets pour empêcher les modèles concernés et les dérivés de modèles concernés contrôlés par les développeurs.Accès non autorisé, utilisation abusive ou modification post-formation。
2、Obtenez la possibilité d’arrêter complètement les modèles en temps opportun.
3. Le projet de loi original stipule que les développeurs de modèles doivent signer un accord de sécurité indépendant pour garantirLes modèles et dérivés risquant de causer des dommages graves (comme des cyberattaques entraînant des pertes de plus de 500 millions de dollars américains, causant des décès ou des blessures graves, etc.) ne seront pas développés.S'il y a de fausses informations dans l'accord, elles seront sanctionnées sous peine de parjure.
projet de loi modifiéCela affaiblit considérablement l'efficacité juridique de cet accord. Actuellement, les développeurs de modèles doivent uniquement soumettre des déclarations publiques décrivant leurs pratiques de sécurité.Toutefois, cette disposition n’impose plus aucune responsabilité pénale et les entités concernées ne seront poursuivies qu’après la survenance d’un dommage catastrophique.
4. Si le modèle et ses dérivés visés peuvent causer ou contribuer à causer un préjudice grave, le développeur ne doit pas l'utiliser seul à des fins commerciales ou publiques, ni le fournir à des tiers à des fins commerciales ou publiques.
5. À compter du 1er janvier 2028, les développeurs de modèles entrant dans le champ d'application devraientEmbaucher 1 auditeur tiers chaque année, pour procéder à une évaluation détaillée et objective de la conformité du promoteur aux exigences de la loi, signaler les violations et suggérer des révisions.
6、Le projet de loi révisé ajoute des protections pour affiner le modèle open source.Le projet de loi stipule explicitement que si les développeurs dépensent de l'argent pour affiner les modèles concernés,Moins de 10 millions de dollars, il ne sera pas reconnu comme le développeur du modèle affiné, et la responsabilité incombera toujours au développeur du modèle original.
De plus, ce projet de loi stipule que les services cloud tels qu'Amazon Cloud Services (AWS) et Microsoft AzureObligations des fournisseurs de services cloud. Lorsqu’ils fournissent aux clients une puissance de calcul suffisante pour entraîner des modèles, les fournisseurs de services cloud doivent être prêts à :
1. Obtenir les informations d’identité de base et les objectifs commerciaux du client, y comprisIdentité du client, adresse IP, mode de paiement et sourceetc. Les opérations de conformité pertinentes doivent laisser des traces et les enregistrements doivent être conservés pendant 7 ans.
2. Évaluez si le client envisage réellement d'utiliser la puissance de calcul pour entraîner le modèle concerné.
3、La possibilité d'arrêter les ressources informatiques utilisées par les utilisateurs lors de la formation ou de l'exploitation des modèles.
Les développeurs et les fournisseurs de services cloud des modèles concernés doivent également fournirTarifs transparents, unifiés et publics, et assurez-vous que pendant le processus de tarification et d'accèsPas de discrimination ni de comportement anticoncurrentiel. maisEntités publiques, institutions académiques et chercheurs non commerciauxVous pouvez bénéficier de droits d’utilisation gratuits ou à prix réduit. Certains fournisseurs de services cloud utiliseront des réductions de prix pour attirer ou soutenir des sociétés de développement d'IA spécifiques. Ce comportement pourrait devenir inévitable après l'entrée en vigueur officielle du projet de loi.
Le projet de loi stipule que lorsque les développeurs apprennent qu'un incident de sécurité s'est produit dans un modèle,Les incidents pertinents doivent être signalés aux autorités réglementaires dans les 72 heures.. En outre, les développeurs doivent également s’assurer qu’un modèle ou ses dérivés sont utilisés à des fins commerciales ou publiques.Dans les 30 jours, déposez une déclaration de conformité pour ce modèle. De plus, ceux qui signalent une mauvaise conduiteLes "lanceurs d'alerte" seront protégés par la loi, une entreprise ou une organisation ne peut pas empêcher ou exercer des représailles contre les employés qui divulguent une mauvaise conduite.
3. Comment punir les actes illégaux ? Des amendes à partir de 10 millions de dollars pourraient entraîner la fermeture ou la suppression du modèle.
Si les développeurs de modèles et les opérateurs de clusters informatiques ne respectent pas les réglementations ci-dessus et causent de graves dommages, le procureur général et la Commission du travail de Californie auront le pouvoir de poursuivre les entités concernées. S'il est déterminé qu'un comportement illégal a eu lieu, le tribunal peut imposer les sanctions suivantes :
1. Pour les violations survenues en 2026 et après, les entités qui enfreignent la loi pour la première fois seront condamnées à une amende correspondant à 10 % du coût moyen du modèle dans le cadre de la formation du marché du cloud computing. Pour les violations ultérieures, le montant de l'amende ne sera pas élevé. dépasser 30 % de ce coût (sur la base du calcul du seuil de 100 millions de dollars défini dans la facture pour les modèles concernés,L'amende pour une première infraction est d'au moins 10 millions de dollars)。
2. Le tribunal peut également prononcer une injonction,Y compris, mais sans s'y limiter, la modification, la fermeture complète ou la suppression de tous les dérivés contrôlés par le modèle concerné et ses développeurs.
Cependant, la pénalité pour modification, fermeture et suppression de modèles concernés ne s'applique que si elles entraînentMort d'autrui, blessures graves, dommages matériels ou menace grave pour la sécurité publiquene peut être utilisé que lorsque.
4. Qui s'oppose au projet de loi ? a16z et YC ont pris les devants en lançant une offensive publicitaire, Li Feifei et Yang Likun ont tweeté des questions
Les géants technologiques de la Silicon Valley, un grand nombre de startups et d’institutions d’investissement ont exprimé de sérieux doutes et leur mécontentement à l’égard du projet de loi californien sur la sécurité de l’IA.L’une des voix les plus fortes est a16z, une société de capital-risque bien connue de la Silicon Valley.a16z dispose d'un riche portefeuille d'investissements dans le domaine de l'IA, comprenant des sociétés d'IA matures et de premier plan telles que OpenAI et Mistral AI, ainsi que des étoiles montantes telles que World Labs nouvellement créé par le professeur Li Feifei de l'Université de Stanford. Ces entreprises ont des tailles et des montants de financement plus importants,Les modèles qu’ils développent et affinent peuvent être soumis à la réglementation.
▲Quelques objections d'a16z (Source : stopb1047.com)
a16z a pris l'initiative de payer pour créer un site Web et de fournir aux visiteurs un modèle de lettres d'objection, qui peuvent être envoyées directement par simple modification sur le site Web. a16z a également répertorié sur ce site Web les « 6 péchés » selon leur vision de la California AI Safety Act :
1. Ce projet de loi aura un effet dissuasif sur les investissements et le développement de l’IA en Californie.
2. Le projet de loi pénalise les développeurs/développeurs sur la base de résultats peu clairs. Les tests pertinents n'existent pas encore.
3. Les définitions vagues du projet de loi et les responsabilités juridiques strictes ont généré d’énormes incertitudes et risques économiques pour les développeurs d’IA et les propriétaires d’entreprises.
4. Ce projet de loi pourrait forcer la recherche sur l’IA à se cacher et réduire par inadvertance la sécurité des systèmes d’IA.
5. Ce projet de loi crée un désavantage systémique pour les développeurs open source et les startups, qui sont au cœur de l'innovation et des petites entreprises en Californie.
6. Ce projet de loi entrave la recherche et l’innovation en matière d’IA aux États-Unis et offre à des pays comme la Chine la possibilité de surpasser les États-Unis en matière d’IA.
Les fondateurs de nombreuses entreprises investies par a16z ont également exprimé leur opposition à la California AI Safety Act. Li Feifei a publié un article sur le site du magazine Fortune expliquant en détail les raisons de son opposition, estimant que ce projet de loi pose quatre problèmes principaux :
1. Punir excessivement les développeurs peut étouffer l’innovation.
2. Le « kill switch » restreindra le travail de développement open source et détruira la communauté open source.
3. Affaiblir la recherche sur l’IA dans les universités et le secteur public, et pourrait également empêcher les universitaires de recevoir davantage de financements.
4. Il ne traite pas des dommages potentiels causés par les progrès de l’IA, tels que les biais ou les deepfakes.
▲Li Feifei s'oppose au projet de loi californien sur la sécurité de l'IA (Source : X Platform)
Cependant, de nombreux internautes dans la zone de commentaires n'ont pas cru à cette déclaration. Ils ont appelé Li Feifei à révéler sa relation d'intérêt avec a16z.
▲Certains internautes ont remis en question la neutralité de Li Feifei (Source : X Platform)
En tant qu’incubateur le plus connu et le plus influent aux États-Unis, YC est le berceau de nombreuses startups d’IA.Leur principal site d’exploitation actuel se trouve en Californie.Sur les 260 startups du lot d’hiver YC 2024, plus de la moitié sont liées à l’IA. YC estime également que ce projet de loi pourrait avoir un impact négatif sur l'industrie et l'écosystème des développeurs :
1、Le projet de loi devrait punir les abuseurs d’outils, et non les développeurs.Il est souvent difficile pour les développeurs de prédire les applications possibles des modèles, et les développeurs peuvent aller en prison pour délit de parjure.
2. Les seuils réglementaires ne peuvent pas pleinement saisir la dynamique du développement technologique. Les entreprises non californiennes pourront développer plus librement la technologie de l’IA, ce qui pourrait affecter l’innovation en Californie.
3. « Kill Switch (faisant référence à la capacité des développeurs à désactiver des modèles) » peut interdire le développement de l’IA open source et entraver la collaboration et la transparence open source.
4. L'expression du projet de loi est relativement vague.Il est susceptible d'être interprété à volonté par le juge.。
La déclaration de YC a reçu le soutien conjoint de centaines de startups. YC a également organisé un certain nombre de conférences liées à la réglementation de l'IA en Californie, permettant aux avantages et aux inconvénients de communiquer.
Yann LeCun, scientifique en chef de Meta et lauréat du prix Turing 2018, s'est également opposé à ce projet de loi. Il s'est montré particulièrement préoccupé par le projet de loi.Clauses de responsabilité solidaire.Il craint que les plateformes open source puissent être tenues responsables si elles ne parviennent pas à évaluer avec précision les risques des modèles concernés.
En tant qu'acteur le plus important dans le domaine des modèles d'IA open source aujourd'hui, Meta Corporation a écrit dans une lettre d'opposition que ce projet de loi oblige les développeurs open source à supporter de grands risques juridiques lorsqu'ils sont open source, car les exigences pour garantir la sécurité des modèles sont irréalistes. . Ils recommandent aux législateurs californiens de se référer aux lois pertinentes d’autres pays et régions.Comme les exigences de transparence et les « tests de l’équipe rouge » dans la loi européenne sur l’IA.. Microsoft, Google et OpenAI ont également commenté négativement le projet de loi.
Anthropic, une startup d'IA avec une structure unique de « B Corporation », est l'une des nombreuses voix opposées à ce projet de loi. Cependant, contrairement à d'autres entreprises, elles ne tentent pas d'empêcher l'adoption du projet de loi, mais participent à son amendement. , donnant à la législature une lettre détaillant ses suggestions d'amélioration. Dans l’ensemble, Anthropic estime queLe projet de loi devrait passer de « l’application avant le préjudice » à une « dissuasion basée sur les résultats ».. Ils souhaitent également que les réglementations soient plus strictes, se concentrent sur la sécurité de pointe de l’IA et évitent les doubles emplois avec les exigences fédérales.
5. Qui soutient le projet de loi ? Hinton Bengio écrit une lettre de soutien, le sénateur accuse a16z de répandre des rumeurs
Bien que le projet de loi californien sur la sécurité de l’IA ait fait l’objet d’une controverse dès sa proposition, de nombreux universitaires et professionnels de l’industrie soutiennent une telle réglementation. Le 7 août, alors que ce projet de loi faisait à nouveau face à une vague de critiques, le lauréat du prix Turing et « Parrain de l'IA »Jeffrey Hinton(Geoffrey Hinton), spécialiste bien connu de l'IA, lauréat du prix TuringJosué Bengio(Yoshua Bengio), expert en droit du cyberespace, professeur à la Harvard Law SchoolLaurent Lesig(Lawrence Lessig) et auteur du célèbre manuel d'IA "Artificial Intelligence: A Modern Approach" et professeur à l'Université de Californie à BerkeleyStuart Russell(Stuart Russell) a écrit conjointement à la législature de Californie pour exprimer son « fort soutien » à la California AI Safety Act.
▲Quatre universitaires bien connus ont écrit une lettre soutenant la California AI Safety Act (Source : safesecureai)
Les quatre universitaires se sont déclarés profondément préoccupés par les risques de l’IA et par le fait que la loi californienne sur la sécurité de l’IA constitue l’exigence minimale pour réglementer efficacement la technologie. Ils ont écrit :
Le projet de loi ne prévoit pas de système de licence et n'exige pas que les entreprises obtiennent l'autorisation des agences gouvernementales avant de former ou de déployer des modèles. Il s'appuie sur l'auto-évaluation des risques par l'entreprise et ne tient pas les entreprises strictement responsables, même en cas de catastrophe.
Par rapport aux risques auxquels nous sommes confrontés,Il s'agit d'une législation très souple. Les lois actuelles régissant l’IA ne sont pas aussi strictes que celles qui réglementent les sandwicheries, et supprimer cette mesure fondamentale serait une mesureerreur historique——Un an plus tard, lorsque la prochaine génération de systèmes d'IA plus puissants sera lancée, cette erreur deviendra encore plus évidente.
Ils ont également souligné queQue ces risques soient infondés ou réels,, toutes les parties concernées doivent assumer la responsabilité d’atténuer les risques. "En tant que groupe d'experts qui connaissent le mieux ces systèmes", ils estiment que ces risques sont possibles et suffisamment importants pour que nous devions y faire face.Tests de sécurité et précautions de bon sens。
Quatre experts ont également cité le récent scandale de sécurité de Boeing. Ils estiment que les avions, les médicaments et d’autres technologies complexes sont devenus très sûrs et fiables, grâce aux efforts conjoints de l’industrie et du gouvernement.Quand les régulateurs assouplissent les règles et autorisent l’autorégulation, des problèmes comme ceux de Boeing surviennent, extrêmement effrayants pour le public et l'industrie.
Cette lettre de soutien a été soutenue par de nombreux internautes, mais certains pensent que Hinton et Bengio ne sont plus impliqués dans le travail de première ligne.Ils n’ont donc pas leur mot à dire sur les questions connexes.
Plusieurs anciens employés d'OpenAI ont également soutenu le projet de loi, notamment Daniel Kokotajlo, qui a volontairement renoncé à ses options OpenAI en échange du droit de critiquer librement l'entreprise. Il estime que les affirmations des critiques du projet de loi selon lesquelles les progrès de l’IA vont stagner ne se réaliseront probablement pas.
▲Remarques pertinentes de Kokotayolo (Source : X Platform)
Simon Last, le fondateur de Notion, une licorne d'outils de productivité d'IA évaluée à des dizaines de milliards de dollars, estIndustrieQuelques partisans du projet de loi californien sur la sécurité de l’IA. Il a écrit un article dans le Los Angeles Times, l'un des médias locaux les plus influents de Californie, en faveur du projet de loi, affirmant que face aux difficultés rencontrées dans la mise en œuvre des lois fédérales sur l'IA,En tant que centre technologique aux États-Unis et même dans le monde, la Californie assume d'importantes responsabilités. Il estime que la supervision des modèles améliore non seulement leur sécurité, mais facilite également les startups d'IA qui construisent des produits basés sur des modèles de base.Cela réduira le fardeau des petites et moyennes entreprises。
En outre, il estime également qu'il est erroné de souligner que « la réglementation devrait se concentrer sur les utilisations néfastes de l'IA et les comportements inappropriés des utilisateurs, plutôt que sur la technologie sous-jacente ». Parce que le premier a été classé comme illégal dans les lois à tous les niveaux, le nouveau projet de loi californien prévoit l'objectifAspects manquants de la réglementation précédente: Prévenir les dommages potentiels.
Après que YC et a16z ont lancé une campagne publicitaire, le sénateur de l'État de Californie, Wei Shangao, auteur principal du California AI Safety Bill, a publié une longue lettre en réponse aux plaintes pertinentes, affirmant que bon nombre des déclarations faites par ces deux organisations à propos de la Californie Le projet de loi sur la sécurité de l'IA était inexact, et certaines affirmations sont des « distorsions provocatrices des faits », par exemple que le projet de loi enverrait les développeurs qui ne parviennent pas à estimer avec précision les risques du modèle en prison ou à interdire les versions open source.
▲ Réponse de Wei Shangao à YC et a16z (Source : safesecureai)
Début 2023, Wei Shangao a commencé à contacter YC, mais il a déclaré qu'il n'avait toujours pas reçu de commentaires détaillés de YC sur la manière d'améliorer le projet de loi. a16z a participé tardivement au processus législatif et n’a jusqu’à présent proposé aucun amendement de fond.
Dans cette lettre, Wei Shangao répond à plusieurs préoccupations fondamentales des opposants au projet de loi :
1、Les développeurs n’iront pas en prison pour avoir omis de prédire les risques liés aux modèles.Premièrement, les développeurs de start-up et les universitaires n’ont pas à s’inquiéter puisque le projet de loi ne s’applique pas à eux. Deuxièmement, la clause de parjure du projet de loi ne s'applique qu'aux développeurs"délibérément"Elle ne prend effet que si une fausse déclaration est faite, et des jugements erronés involontaires sur les capacités d'un modèle ne déclencheront pas la clause de parjure (qui a été supprimée des amendements d'aujourd'hui).
2、Le projet de loi ne crée pas de responsabilités entièrement nouvelles.En vertu des lois en vigueur, les développeurs de modèles et les développeurs individuels peuvent être poursuivis en justice si un modèle cause un préjudice, et cela s'applique aux modèles de toutes capacités et toutes les personnes blessées peuvent poursuivre en justice. Le nouveau projet de loi californien non seulementLimite la portée de la surveillance, et limite également le droit de poursuivre en justiceProcureur général de Californieetconseil du travailsur les deux entités.
3、Le projet de loi n’étouffera pas l’innovation californienne.Ce projet de loi s'applique à toutes les entreprises faisant des affaires en Californie, même si elles déménagent leur siège social hors de Californie, elles doivent respecter les réglementations en vigueur (Remarque Zhixi : la Californie est la cinquième plus grande économie mondiale en termes de PIB et dispose d'un écosystème technologique complet. Technologie. Il est difficile de se dissocier de la Californie). Lorsque la Californie a adopté des lois sur la confidentialité des données et sur la protection de l’environnement, de nombreuses personnes ont affirmé que cela entraverait l’innovation, mais le fait est que la Californie reste à la pointe de l’innovation.
4、Les kill switchs et les exigences en matière d’évaluation de la sécurité n’entraveront pas le développement de l’IA open source.Le projet de loi a désormais été révisé et renforcé la protection de l’IA open source. L'exigence d'arrêt d'urgence du modèle dans le projet de loi s'applique uniquement aux modèles sous le contrôle du développeur, à l'exclusion des modèles open source non contrôlés. Le projet de loi crée également un nouveau comité consultatif chargé de défendre et de soutenir les efforts de développement d’IA open source sûrs et fiables.
Wei Shangao a également fourni un « paquet paresseux » pour les personnes préoccupées par ce projet de loi, résumant 6 points clés du projet de loi (voir l'image ci-dessous).
▲Points clés du projet de loi (Source : safesecureai)
Conclusion : la Californie a franchi une étape importante et l'avenir du projet de loi est incertain
Bien que le projet de loi californien sur la sécurité de l'IA soit opposé par un grand nombre d'initiés de l'industrie, les résultats de certains organismes de sondage montrent que les résidents californiens ont généralement une attitude positive à l'égard de ce projet de loi.
Lorsqu’il réussira officiellement, il pourrait être confronté à des contestations judiciaires de la part d’opposants déterminés tels que a16z. Cela suspendrait le projet de loi jusqu'à ce que la Cour suprême des États-Unis se prononce.
Récemment, la Cour suprême des États-Unis a annulé la « doctrine Chevron » qui durait depuis près de 40 ans et a soutenu la voix des agences de réglementation. Ce principe oblige les juges à s’en remettre à l’interprétation des dispositions légales par les régulateurs gouvernementaux lorsque celles-ci ne sont pas claires. L’abolition de ce principe reflète l’attitude conservatrice actuelle de la Cour suprême des États-Unis à l’égard de la réglementation technologique en général.