nouvelles

« Marraine de l'IA » Li Feifei a personnellement écrit : Le projet de loi californien sur la sécurité de l'IA nuira à l'écosystème américain|Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Selon l'actualité de l'application TMTpost du 7 août, "Marraine de l'IA", académicien de la National Academy of Engineering, académicien de la National Academy of Medicine, académicien de l'American Academy of Arts and Sciences, premier professeur de la chaire Sequoia à l'Université de Stanford, Le doyen de l'Institut d'intelligence artificielle centré sur l'homme (HAI) de Stanford, Feifei Li, a écrit ce matin un article dans "Fortune" et a souligné que la mise en œuvre prochaine de la loi sur la sécurité de l'IA en Californie nuirait aux développeurs, au monde universitaire et même à l'ensemble du monde. L’écosystème américain de l’IA, mais cela ne résoudra pas les dommages potentiels de l’IA.

"Aujourd'hui, l'IA est plus avancée que jamais. Cependant, un grand pouvoir s'accompagne de grandes responsabilités. Les décideurs politiques, la société civile et les acteurs industriels recherchent une approche de gouvernance qui minimise les dommages potentiels et façonne une société de l'IA sûre et centrée sur l'humain. Certains de ces efforts, mais je me méfie des autres ; la loi californienne sur l’innovation sûre pour les modèles d’intelligence artificielle frontalière (ci-après dénommée SB-1047) entre dans cette dernière catégorie : « La législation aura des conséquences imprévues importantes, non seulement pour la Californie, mais aussi pour elle. le pays tout entier", a déclaré Li Feifei.

Il est rapporté qu'en juillet de cette année, le Sénat de Californie a approuvé une version du projet de loi SB-1047, qui oblige les développeurs à prouver que leurs modèles d'IA ne seront pas utilisés pour causer des dommages. C'est plus que les plus de 600 projets de loi sur l'IA proposés. par les législateurs des États américains cette année. Trop de restrictions pour attirer l’attention. Cette proposition extrêmement préjudiciable pourrait être promulguée par le gouverneur de Californie, Gavin Newsom, en août de cette année.

Selon la définition du projet de loi, le Meta's Llama-3 est défini comme un « modèle de pointe » dont la formation coûte plus de 100 millions de dollars. Meta sera également sévèrement pénalisé si quelqu'un utilise le modèle à des fins illégales. Dans le même temps, l'article 22603(a)(3)(4) de la loi exige une « exonération de droits limitée » pour soumettre une certification aux agences gouvernementales et arrêter le fonctionnement du modèle s'il y a des erreurs, tandis que l'article 22603(b) exige les développeurs doivent signaler les incidents de sécurité potentiels de l’IA pour n’importe quel modèle. Si un développeur ne peut pas contrôler totalement les différentes versions dérivées basées sur son modèle, si un incident de sécurité survient, la responsabilité appartiendra au premier développeur——Cela équivaut à une responsabilité solidaire

En outre, l'article 22604(a)(b) du projet de loi stipule que lorsque les utilisateurs utilisent leurs « modèles de pointe » et leurs ressources informatiques, les développeurs doivent soumettre toutes les informations client, y compris l'identité du client, son numéro de carte de crédit, son numéro de compte, et identifiant d'identification du client, identifiant de transaction, e-mail, numéro de téléphone. De plus, les informations doivent être soumises une fois par an et le comportement et les intentions de l'utilisateur sont évalués. Toutes les informations des utilisateurs seront sauvegardées pendant 7 ans et seront également enregistrées auprès de l'administration des douanes et des frontières.

La situation géographique de la Californie aux États-Unis est très particulière. Elle abrite des écoles célèbres telles que Stanford, Caltech et l'Université de Californie du Sud, ainsi que Google, Apple,OpenAI Il abrite également le siège de géants de la technologie tels que Meta et Meta. Par conséquent, à cet égard, Yann LeCun, lauréat du prix Turing et scientifique en chef de l'IA de Meta, Li Feifei, Andreessen Horowitz, partenaire fondateur de l'institution d'investissement a16z, département d'informatique et département de génie électrique de l'Université de Stanford, professeur invité Andrew Ng et d'autres. exprimé des objections.

Parmi eux, Yang Likun a averti que "la clause de responsabilité solidaire du projet de loi exposera les plateformes d'IA open source à des risques énormes... Meta ne sera pas affectée, mais les startups d'IA feront faillite si ces modèles sont utilisés". malicieusement par d'autres, le projet de loi oblige les développeurs d'IA à assumer la responsabilité civile, voire pénale, des modèles qu'ils développent.

Horowitz estime que, même si le projet de loi californien anti-IA est bien intentionné, il pourrait affaiblir l’industrie technologique américaine en raison de la désinformation, alors même que l’avenir de la technologie se trouve à un carrefour critique. Les États-Unis ont besoin que les dirigeants reconnaissent que le moment est crucial pour une action réglementaire intelligente et unifiée en matière d’IA.

Andrew Ng a publié un article affirmant que le projet de loi californien SB-1047 étoufferait le développement de grands modèles open source. Il a en outre souligné,Ce sont les applications d’IA qui devraient être réglementées, pas les grands modèles eux-mêmes

Li Feifei estime que les politiques en matière d'IA doivent encourager l'innovation, fixer des restrictions appropriées et atténuer l'impact de ces restrictions. Les politiques qui n’y parviennent pas ne parviendront, au mieux, pas à atteindre leurs objectifs et, au pire, entraîneront de graves conséquences inattendues. Si le SB-1047 est adopté, cela nuira au tout nouveau écosystème américain de l’IA, en particulier aux parties déjà désavantagées par les géants technologiques d’aujourd’hui : le secteur public, le monde universitaire et les « petites technologies ». Le SB-1047 pénaliserait inutilement les développeurs, étoufferait notre communauté open source et entraverait la recherche universitaire en IA tout en ne parvenant pas à résoudre les vrais problèmes pour lesquels il est conçu.

Li Feifei a donné quatre raisons :

Premièrement, le SB-1047 punirait indûment les développeurs et étoufferait l’innovation. Si un modèle d'IA est utilisé à mauvais escient, le SB-1047 tiendra pour responsables les parties responsables et les développeurs originaux du modèle. Il est impossible pour chaque développeur d’IA (en particulier les programmeurs et entrepreneurs en herbe) de prédire toutes les utilisations possibles de leur modèle. Le SB-1047 obligera les développeurs à battre en retraite et à se mettre sur la défensive, exactement ce que nous essayons d'éviter.

Deuxièmement, le SB-1047 restreindra le développement open source. Le SB-1047 exige que tous les modèles dépassant un certain seuil incluent un « kill switch », un mécanisme qui peut arrêter le programme à tout moment. Les développeurs seront encore plus réticents à coder et à collaborer s’ils craignent que les programmes qu’ils téléchargent et créent soient supprimés. Ce kill switch dévasterait la communauté open source, source d’innombrables innovations, non seulement dans le domaine de l’IA mais dans tout, du GPS à l’IRM en passant par Internet lui-même.

Troisièmement, le SB-1047 affaiblira la recherche sur l’IA dans le secteur public et le monde universitaire. Le développement open source est important pour le secteur privé, mais il est également crucial pour le monde universitaire, qui ne peut progresser sans collaboration et sans modèles de données. Prenons, par exemple, les étudiants en informatique travaillant sur des modèles d’IA ouverts. Si nos institutions n’ont pas accès aux modèles et aux données appropriés, comment allons-nous former la prochaine génération de leaders en IA ? Un kill switch nuirait encore davantage aux efforts de ces étudiants et chercheurs, qui sont déjà désavantagés en matière de données et d’informatique par rapport aux grandes entreprises technologiques. Le SB-1047 sonnera le « glas » de l’IA universitaire et du secteur public, qui devrait doubler ses investissements.

Plus inquiétant encore, le projet de loi ne s’attaque pas aux méfaits potentiels du développement de l’IA, notamment les biais et les deepfakes. Au lieu de cela, le SB-1047 fixe un seuil arbitraire, réglementant les modèles qui utilisent une certaine quantité de puissance de calcul ou coûtent 100 millions de dollars à former. Loin d’offrir une protection, cette mesure ne fera que restreindre l’innovation dans divers domaines, notamment universitaire.

Li Feifei a souligné qu'aujourd'hui, les modèles d'IA dans le monde universitaire sont inférieurs à ce seuil, mais que si les États-Unis rééquilibrent les investissements dans l'IA des secteurs privé et public, le monde universitaire sera réglementé par le SB-1047 et l'écosystème américain de l'IA se détériorera en conséquence. . Les États-Unis doivent donc faire le contraire.

« Au cours de plusieurs conversations avec le président Biden au cours de l'année écoulée, j'ai exprimé la nécessité d'adopter une « mentalité lunaire » pour faire progresser l'enseignement, la recherche et le développement de l'IA dans notre pays. Cependant, les restrictions du SB-1047 sont trop arbitraires et ne frapperont pas seulement les citoyens. Californie L'écosystème de l'IA aura également des effets perturbateurs en aval sur l'IA à travers le pays. " Li Feifei a souligné qu'elle n'est pas opposée à la gouvernance de l'IA. La législation est essentielle au développement sûr et efficace de l’IA. Mais la politique en matière d’IA doit promouvoir le développement de l’open source, proposer des règles uniformes et raisonnables et renforcer la confiance des consommateurs. Le SB-1047 ne répond pas à ces normes.

Li Feifei a souligné qu'elle avait proposé une coopération au sénateur Scott Wiener, auteur du projet de loi : Formulons ensemble une législation sur l'IA et construisons véritablement une société future axée sur la technologie et centrée sur l'humain.

« En fait, l'avenir de l'IA en dépend. La Californie – en tant qu'entité pionnière et foyer de l'écosystème d'IA le plus robuste de notre pays – est au cœur du mouvement de l'IA, et les développements en Californie auront un impact sur le reste du pays. ", a déclaré Li Feifei à la fin.