nouvelles

openai échappe-t-il à la mort ? le projet de loi californien sur l'ia vient d'être adopté, lecun, li feifei, ng enda sont ravis

2024-09-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

editeur : département éditorial hyz

[introduction à la nouvelle sagesse]bonne fête ! tout à l'heure, le gouverneur de californie a annoncé qu'il opposerait son veto au projet de loi californien sur la restriction de l'ia. lecun, li feifei et ng enda se sont précipités pour se le dire avec enthousiasme et ont célébré avec leur front et leurs mains. bengio et hinton, qui soutiennent fermement le projet de loi, sont restés silencieux. openai, google et meta ont tous échappé au désastre.

lourd!

tôt ce matin, le gouverneur de californie gavin newsom a officiellement annoncé qu'il opposerait son veto au projet de loi sb-1047 !

pour les développeurs du monde entier, l'annulation du projet de loi sb-1047 signifie que les modèles open source de grands fabricants tels que meta et google continueront d'être à nouveau disponibles.

on peut dire que cette décision est largement attendue. de grands noms du cercle de l'ia se sont précipités pour se le dire avec enthousiasme, et ng enda, lecun et li feifei, qui ont joué un rôle important dans l'opposition, étaient particulièrement heureux.

que signifie le veto du gouverneur de californie ?

le projet de loi sb-1047 est vraiment la fin.

le « notoire » sb-1047 stipule que le sb-1047 empêchera les systèmes d'ia de causer des pertes massives ou de déclencher des incidents de cybersécurité coûtant plus de 500 millions de dollars en tenant les développeurs pour responsables.

dès que la nouvelle a été publiée, elle a suscité une énorme opposition de la part du monde universitaire et de l’industrie.

vous savez, 32 des 50 plus grandes entreprises genai au monde sont basées en californie et jouent un rôle clé dans la définition de l'avenir de l'ia.

selon un communiqué de presse du bureau californien, gavin a signé 18 projets de loi genai au cours du mois dernier, mais n'a opposé son veto qu'au sb-1047.

au cours des 30 derniers jours, le gouverneur a signé une série de projets de loi pour lutter contre les contenus deepfakes, protéger les droits à l'image numérique des artistes, etc.

ce projet de loi part de bonnes intentions, mais dans la pratique, il pose de sérieux problèmes.

"je ne pense pas que ce soit le meilleur moyen de protéger le public des menaces réelles posées par l'ia", a-t-il déclaré.

le sb-1047 ne prend pas en compte si le système d'ia est déployé dans un environnement à haut risque, implique des décisions critiques ou utilise des données sensibles. au lieu de cela, le projet de loi applique des normes strictes à la fonction la plus élémentaire du déploiement de systèmes à grande échelle.

dans le processus de rejet du sb-1047, le rôle de la marraine de l'ia, li feifei, ne peut être ignoré.

li feifei, professeur à stanford, a déclaré avec joie qu'elle était profondément honorée de travailler avec stanfordhai pour ouvrir la voie à une gouvernance responsable de l'ia en californie.

le gourou de l'ia andrew ng a également remercié li feifei pour son opposition publique au sb-1047, affirmant que ses efforts peuvent promouvoir des politiques d'ia plus rationnelles pour protéger la recherche et l'innovation.

il y a quelques jours à peine, alors que le projet de loi sb-1047 était sur le point d'être finalisé, ng et lecun réclamaient et lançaient encore anxieusement des votes, craignant qu'une fois adopté, l'ia open source et l'ensemble de l'écosystème de l'ia n'aient un effet dissuasif.

aujourd’hui, les entreprises d’ia de californie poussent enfin un soupir de soulagement.

lettre de veto du gouverneur : non signée

"je renvoie par la présente le projet de loi 1047 du sénat sans ma signature."

dans la lettre, le gouverneur reconnaît que le sb-1047 surestime la menace posée par le déploiement de l’ia.

de plus, en se concentrant uniquement sur les modèles à grande échelle les plus chers, le projet de loi donne en fait au public un « faux sentiment de sécurité ».

il souligne que même les modèles propriétaires plus petits peuvent être tout aussi dangereux.

en bref, la réglementation de l’ia proposée par le projet de loi se fait au détriment de « la restriction de l’innovation qui profite à l’intérêt public ».

le gouverneur a déclaré que le projet de loi applique les normes les plus strictes aux fonctions les plus élémentaires, ce qui n'est pas le meilleur moyen de protéger le public contre les menaces de la technologie de l'ia.

la meilleure solution est un plan qui ne repose pas sur une analyse des trajectoires de développement empiriques des systèmes et des capacités d’ia.

le patron de l'ia déteste ça

cette fin peut être décrite comme une fin très satisfaisante pour la plupart des gens, à l'exception de bengio et hinton.

en ce qui concerne le sb-1047, beaucoup de gros joueurs le détestent.

toute l’histoire est la suivante.

l’année dernière, le gouverneur de californie a signé un décret soulignant que la californie devrait être plus prudente face à genai et rendre l’ia plus éthique, transparente et digne de confiance.

en février de cette année, la californie a directement rédigé un projet de loi appelé « sb-1047 frontier ai large model safety innovation act », qui prévoit des réglementations plus spécifiques pour l'utilisation sûre et transparente des grands modèles.

cependant, il contient de nombreux contenus déraisonnables, qui étouffent simplement certaines entreprises par leur nom.

il faut éviter que les modèles coûtant plus de 100 millions ne causent des « dommages importants »

par exemple, il existe une réglementation qui stipule que si un grand modèle dont les coûts de développement et de formation dépassent 100 millions de dollars américains et dont les opérations en virgule flottante dépassent 10^26 fois est utilisé par quelqu'un pour faire des choses illégales après avoir été open source, le développeur du modèle sera également sévèrement puni.

il faut savoir que le modèle llama 3 de meta, le modèle gemma de google, etc. remplissent tous cette condition.

cette disposition est évidemment extrêmement controversée.

par exemple, si quelqu’un pirate un système de conduite autonome et provoque un accident, l’entreprise qui a développé le système sera-t-elle également tenue responsable ?

selon le projet de loi, les développeurs sont tenus d'évaluer les dérivés de leurs modèles et de prévenir tout dommage qu'ils pourraient causer, y compris si les clients affinent les modèles, les modifient d'une autre manière (jailbreak) ou les combinent avec d'autres logiciels.

cependant, une fois le logiciel open source publié, les utilisateurs peuvent télécharger le modèle directement sur leurs appareils personnels, de sorte que les développeurs n'ont aucun moyen de connaître les opérations spécifiques des autres développeurs ou clients.

de plus, le projet de loi contient de nombreuses définitions vagues.

par exemple, les « blessures critiques » subies par les modèles d’ia sont décrites comme des pertes massives, des pertes dépassant 500 millions de dollars ou d’autres blessures « tout aussi graves ». mais dans quelles conditions les développeurs seront-ils tenus responsables ? quelles sont les responsabilités ?

le projet de loi ne dit rien à ce sujet.

de plus, le projet de loi s'applique aux modèles d'ia qui dépensent plus de 100 millions de dollars pour se former, ou aux développeurs qui dépensent plus de 10 millions de dollars pour affiner les modèles existants, ce qui place de nombreuses petites entreprises technologiques dans le champ d'application de l'attaque.

le sb-1047 contient également des dispositions déraisonnables. par exemple, si une entreprise ouvre son modèle à d'autres pays, elle doit soumettre toutes les informations client, y compris la carte d'identité du client, son numéro de carte de crédit, son numéro de compte, etc.

les développeurs doivent également créer des procédures de test qui répondent aux risques du modèle d'ia et doivent embaucher chaque année des auditeurs tiers pour évaluer leurs pratiques de sécurité en matière d'ia.

pour les produits d'ia construits sur la base de modèles, des protocoles de sécurité correspondants doivent être développés pour éviter les abus, notamment un bouton « d'arrêt d'urgence » qui arrête l'ensemble du modèle d'ia.

bill critiqué pour avoir fermé les yeux sur les risques réels

de plus en plus de critiques estiment que ce projet de loi est trop infondé.

non seulement cela entravera l’innovation en matière d’ia, mais cela ne contribuera pas à la sécurité de l’ia d’aujourd’hui.

ce qui est encore plus ironique, c’est que le projet de loi utilise ce qu’on appelle un « interrupteur d’urgence » pour empêcher la fin du monde, mais ferme les yeux sur les risques de sécurité existants tels que les deepfakes et les fausses informations.

bien que les amendements ultérieurs aient été formulés de manière plus vague, réduisant le pouvoir du gouvernement californien de demander des comptes aux laboratoires d’ia.

mais malgré cela, le sb-1047 aura un impact considérable sur les grands fabricants tels que openai, meta et google.

pour certaines start-up, ce coup dur peut même être dévastateur.

maintenant que la poussière est retombée, les grandes entreprises comme les petites startups peuvent pousser un soupir de soulagement.

le géant de turing se sépare

le sb-1047 a même provoqué la « rupture » des turing big three à cause de cela.

les grands patrons représentés par lecun, li feifei et ng enda se sont publiquement opposés et mécontents à plusieurs reprises.

lecun a même copié le message original qu'il a utilisé lorsqu'il a appelé à un moratoire sur la recherche sur l'ia : veuillez suspendre la législation sur l'ia pendant six mois !

les deux autres des trois grands de turing, yoshua bengio et geoffrey hinton, ont étonnamment fortement soutenu l’adoption de ce projet de loi.

j'ai même l'impression que les conditions actuelles sont un peu trop souples.

en tant que chercheurs principaux en technologies et politiques en intelligence artificielle, nous vous écrivons pour exprimer notre ferme soutien au projet de loi 1047 du sénat de californie.

le sb 1047 décrit les exigences de base pour une réglementation efficace de cette technologie. il ne met pas en œuvre de système de licence, n’exige pas que les entreprises obtiennent l’autorisation des agences gouvernementales avant de former ou de déployer des modèles, s’appuie sur les entreprises pour évaluer elles-mêmes les risques et ne tient pas les entreprises strictement responsables même en cas de catastrophe.

il s’agit d’une législation relativement indulgente par rapport à l’ampleur des risques auxquels nous sommes confrontés.

annuler les mesures fondamentales du projet de loi serait une erreur historique, qui deviendra encore plus évidente dans un an, avec la sortie de la prochaine génération de systèmes d’ia plus puissants.

mais bengio et hinton ne font évidemment pas partie du courant dominant.

en résumé, les positions des différents géants et grands noms de la technologie sont les suivantes.