2024-09-30
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
le gouverneur de californie, gavin newsom, a officiellement opposé son veto au projet de loi sb-1047 tôt ce matin !
il convient de mentionner qu'au cours des 30 derniers jours, gavin a signé un total de 17 projets de loi sur la supervision des grands modèles et l'utilisation sûre de l'ia générative, mais n'a opposé son veto qu'à 1047. il semble qu'il ne soit pas une personne confuse.
dans ce processus de rejet actif, le leader de l’industrie de l’ia, ng enda, le lauréat du prix turing, yann lecun, le professeur de stanford, li feifei, etc. ont joué un rôle important. ng, en particulier, a grandement contribué à appeler les professionnels de la technologie à boycotter le projet de loi à de nombreuses occasions publiques.
aujourd’hui est également un jour important pour les développeurs du monde entier. ils peuvent continuer à utiliser de grands modèles open source de grandes sociétés technologiques américaines telles que meta et google.
une brève introduction au projet de loi sb-1047
"aigc open community" a écrit 6 fois au total sur le projet de loi sb-1047, et c'est l'un des médias qui accorde le plus d'attention à cet événement en chine. permettez-moi de présenter brièvement ce projet de loi et pourquoi il suscitera beaucoup de résistance au développement de grands modèles open source et de l’ia générative.
le sb-1047 a été rédigé par la californie le 7 février de cette année. son nom complet est « sb-1047 frontier ai large model security innovation act ». il est principalement utilisé pour améliorer la sécurité, la transparence et les réglementations d'utilisation des grands modèles.
mais il y a beaucoup de contenus déraisonnables. par exemple, il stipule que le coût de développement et de formation des grands modèles dépasse 100 millions de dollars américains, comme la série open source llama-3 de google et une fois qu'elle est open source. l'utilise pour faire des choses illégales, le développeur source sera également sévèrement puni.
en termes de supervision, lorsqu'une grande entreprise ouvre son modèle à des utilisateurs dans d'autres pays, elle doit soumettre toutes les informations client, y compris l'identité du client, le numéro de carte de crédit, le numéro de compte, l'identifiant client, l'identifiant de transaction, l'e-mail et le numéro de téléphone.
parallèlement, les informations doivent être soumises une fois par an et le comportement et les intentions des utilisateurs sont évalués. toutes les informations des utilisateurs seront sauvegardées pendant 7 ans et seront également enregistrées auprès de l'administration des douanes et des frontières.
il existe de nombreuses clauses déraisonnables similaires. les auteurs de ce projet de loi veulent tuer complètement les grands modèles open source et l'exportation de grands modèles. par conséquent, les géants de la technologie tels qu’openai, meta et google deviendront les plus grandes victimes du sb-1047.
de plus, cette région de la californie aux états-unis est très particulière dans le domaine de la science et de la technologie. elle abrite également les sièges sociaux de google, meta, openai, apple, intel et tesla. les meilleures écoles d'informatique du monde telles que stanford, l'université de californie à berkeley, caltech et l'université de californie du sud sont considérées comme l'un des centres mondiaux d'innovation scientifique et technologique.
une fois ce projet de loi mis en œuvre, non seulement les grandes entreprises seront durement touchées, mais même certaines petites entreprises en démarrage seront presque détruites. lorsque le projet de loi a été présenté, de nombreuses personnes ont déclaré que certaines entreprises technologiques se retireraient.
raisons du veto au projet de loi sb-1047
selon les informations de veto publiées sur le site officiel de californie, le gouverneur gavin a déclaré que 32 des 50 plus grandes entreprises mondiales d'ia se trouvent en californie et qu'elles sont cruciales pour le développement et l'innovation de grands modèles d'ia. le sb-1047 a de bonnes intentions, mais sa mise en œuvre pose de sérieux problèmes.
en se concentrant uniquement sur les modèles d'ia à grande échelle les plus coûteux, le sb-1047 établit un cadre réglementaire qui peut donner au public un faux sentiment de sécurité dans le contrôle de cette technologie en évolution rapide. les modèles plus petits et spécialisés peuvent être tout aussi dangereux, voire plus, que les grands modèles ciblés par le sb-1047, entravant l'innovation technologique en matière d'ia.
de plus, le sb-1047 manque de flexibilité et n'offre pas suffisamment de flexibilité pour différents types d'applications d'ia, ce qui pourrait entraîner confusion et incertitude lors de la mise en œuvre.
gavin a souligné que le projet de loi ne tient pas compte du fait que le modèle d'ia soit déployé dans un environnement à haut risque, ce qui est très important car les mêmes mesures réglementaires strictes peuvent ne pas être nécessaires dans un environnement à faible risque. dans le même temps, le projet de loi ne précise pas quels types de décisions sont critiques, ni ne définit ce que sont les données sensibles, ce qui peut entraîner des lacunes en matière de protection de la vie privée et de sécurité des données.
gavin a souligné qu'une approche universelle comme le sb-1047 entraverait l'innovation et le développement de la technologie de l'ia dans certains domaines, et que les dispositions du projet de loi pourraient être difficiles à mettre en œuvre car elles ne fournissent pas d'orientations claires pour différents types. de modèles et d'applications d'ia. la meilleure façon de protéger le public contre les menaces réelles de la technologie de l’ia devrait être plus nuancée et ciblée, plutôt que des solutions universelles.
vous trouverez ci-dessous les nombreuses accusations déraisonnables portées par andrew ng, yann lecun, li fei-fei et d'autres à propos du projet de loi sb-1047. vous pouvez également consulter les interprétations passées du projet de loi par la « communauté ouverte aigc ».