Nachricht

Das kalifornische KI-Gesetz wurde verabschiedet, Li Feifei und andere lehnten es entschieden ab, sechs Schlüsselfragen und Antworten erklären alles

2024-08-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

(Bildquelle: KI-generiertes Bild)

Am 16. August, Pekinger Zeit, bestand der umstrittene kalifornische Frontier AI Model Safety Innovation Act (später bekannt als California AI Safety Act SB 1047) schließlich die Überprüfung durch den Bewilligungsausschuss des kalifornischen Repräsentantenhauses, nachdem er die einschlägigen Bestimmungen erheblich abgeschwächt hatte.

Das Team des kalifornischen Senators Wiener teilte TechCrunch mit, dass der Gesetzentwurf mehrere von der KI-Firma Anthropic und anderen Gegnern vorgeschlagene Änderungen hinzugefügt und schließlich das California Appropriations Committee verabschiedet habe, was einen wichtigen Schritt in Richtung Gesetzeskraft darstelle, der mehrere wichtige Änderungen beinhaltete.

„Wir haben die vorgeschlagenen sehr vernünftigen Änderungen akzeptiert und ich glaube, wir haben die von Anthropic und vielen anderen in der Branche geäußerten Kernbedenken berücksichtigt“, sagte Senator Wiener in einer Erklärung. „Diese Änderungen bauen auf meinen früheren bedeutenden Änderungen an SB 1047 auf, um den besonderen Bedürfnissen der Open-Source-Community gerecht zu werden, die eine wichtige Quelle für Innovationen darstellt.“

SB 1047 zielt weiterhin darauf ab, Cybersicherheitsvorfälle zu verhindern, bei denen große KI-Systeme eine große Anzahl von Menschen töten oder Verluste von mehr als 500 Millionen US-Dollar verursachen, indem Entwickler zur Verantwortung gezogen werden. Allerdings gibt der Gesetzentwurf der kalifornischen Regierung nun weniger Befugnisse, KI-Labore zur Rechenschaft zu ziehen. Im Dilemma der Regulierungsschwierigkeiten auf nationaler Ebene ist dies zu einem wichtigen Schritt bei der Regulierung von KI in den Vereinigten Staaten geworden.

Einige Leute in der KI-Branche wie Li Feifei und Yang Likun glauben jedoch, dass dies letztendlich die führende Position Kaliforniens und sogar der Vereinigten Staaten im KI-Bereich schädigen wird. Hunderte von Unternehmern unterzeichneten ein Einspruchsschreiben des Inkubators YC, und mehr als 100 Akademiker in Kalifornien richteten ebenfalls ein Einspruchsschreiben gegen den Gesetzentwurf. Die Risikokapitalinstitution a16z richtete eine Website ein, die speziell auf die sechs Sünden des Gesetzentwurfs einging. Derzeit werden in den Vereinigten Staaten viele KI-Gesetze diskutiert, aber der kalifornische Frontier Artificial Intelligence Model Safety Innovation Act ist zu einem der umstrittensten geworden.

Für inländische Unternehmen sieht der Gesetzentwurf vor, dass Cloud-Dienstanbieter Kundeninformationen, IP-Adressen, Zahlungsmethoden und andere Informationen sammeln müssen, was die Rückverfolgbarkeitsarbeit der Regulierungsbehörden erleichtert. Wenn die Kontrollen später noch weiter verschärft werden, könnte dies zu einem regulatorischen Risiko für einige chinesische KI-Unternehmen werden, die ausländische Rechenleistung für die Ausbildung nutzen.

Welche Auswirkungen wird das nun verabschiedete kalifornische KI-Gesetz auf die chinesische und amerikanische KI-Branche haben? TitanmedienAGISortieren Sie sechs Fragen und Antworten, um diesen Gesetzentwurf und einige der dahinter stehenden Informationen zu erläutern.

1. Was sind die neuen Einschränkungen des California AI Act? Was ist seine Hauptfunktion?

Der kalifornische KI-Gesetzentwurf SB 1047 soll verhindern, dass große KI-Modelle dazu verwendet werden, Menschen „ernsthaften Schaden“ zuzufügen.

Der Gesetzentwurf listet Beispiele für „schweren Schaden“ auf. Beispielsweise nutzten böswillige Akteure KI-Modelle, um Waffen zu bauen, die große Verluste verursachten, oder wiesen KI-Modelle an, Cyberangriffe zu orchestrieren, die einen Schaden von mehr als 500 Millionen US-Dollar verursachten (im Vergleich zu …).CrowdStrike Schätzungen zufolge kostete die Störung mehr als 5 Milliarden US-Dollar. Der Gesetzentwurf verlangt von Entwicklern (d. h. Unternehmen, die Modelle entwickeln), angemessene Sicherheitsprotokolle zu implementieren, um solche Konsequenzen zu verhindern.

Die Regeln von SB 1047 gelten nur für die größten KI-Modelle der Welt: Modelle, die mindestens 100 Millionen US-Dollar kosten und während des Trainings 10^26 FLOPS verwenden – das ist aber ein riesiger Rechenaufwand OpenAI CEO Sam Altman sagte, dass die Ausbildung von GPT-4 ungefähr so ​​viel kosten würde. Diese Schwellenwerte können bei Bedarf angehoben werden.

Derzeit haben nur wenige Unternehmen öffentliche KI-Produkte entwickelt, die groß genug sind, um diese Anforderungen zu erfüllen, aber Technologiegiganten wie OpenAI, Google und Microsoft könnten dies bald tun. KI-Modelle – im Wesentlichen große statistische Engines, die Muster in Daten identifizieren und vorhersagen – werden im Allgemeinen mit zunehmender Skalierung genauer, und viele gehen davon aus, dass sich dieser Trend fortsetzt. Mark Zuckerberg sagte kürzlich, dass die nächste Generation von Metas Llama zehnmal mehr Rechenleistung erfordern werde, was sie der SB 1047 unterwerfen würde.

Vor allem erlaubt der Gesetzentwurf dem kalifornischen Generalstaatsanwalt nicht mehr, KI-Geheimdienstunternehmen wegen fahrlässiger Sicherheitsmaßnahmen zu verklagen, bevor ein Katastrophenereignis eintritt. Das schlägt Anthropic vor.

Stattdessen kann der kalifornische Generalstaatsanwalt eine einstweilige Verfügung beantragen, indem er von einem Unternehmen verlangt, einen Betrieb einzustellen, den es für gefährlich hält, und könnte dennoch KI-Entwickler verklagen, wenn ein KI-Modell tatsächlich ein katastrophales Ereignis verursacht.

2. Wer wird den Gesetzentwurf umsetzen? Wie wird ausgeführt?

Der neue kalifornische KI-Gesetzentwurf hat angekündigt, dass es keine Agentur des Frontier Model Department (FMD) mehr geben wird. Der Gesetzentwurf richtet jedoch weiterhin die Frontier Model Commission – den Kern der FMD – ein und ordnet sie den bestehenden Regierungsbehörden zu. Tatsächlich ist das Komitee jetzt größer, mit neun statt fünf Personen. Der Frontier Models Council wird weiterhin Rechenschwellenwerte für abgedeckte Modelle festlegen, Sicherheitshinweise herausgeben und Vorschriften für Prüfer erlassen.

Die größte Änderung des überarbeiteten Gesetzentwurfs besteht darin, dass der kalifornische Generalstaatsanwalt nicht länger KI-Unternehmen wegen Vernachlässigung von Sicherheitsfragen verklagen darf, bevor ein katastrophales Ereignis eintritt. Der ursprüngliche Gesetzentwurf sieht vor, dass die Unternehmen strafrechtlich verfolgt werden können, solange Prüfer feststellen, dass KI-Unternehmen im täglichen Betrieb illegale Aktivitäten betreiben. Dies stellt eine Verschiebung des Regulierungsschwerpunkts des Gesetzentwurfs auf den tatsächlichen Schaden dar und wird auch den Compliance-Druck auf Unternehmen verringern.

Schließlich sieht der Gesetzentwurf auch Whistleblower-Schutz für Mitarbeiter eines Modelunternehmens vor, wenn sie versuchen, Informationen über unsichere KI-Modelle an den kalifornischen Generalstaatsanwalt weiterzugeben.

Die meisten US-amerikanischen Technologieunternehmen und KI-Startups sind in Kalifornien tätig und unterliegen dem Gesetzentwurf. Konkret konzentriert sich dieser Gesetzentwurf auf „modernste KI-Modelle“. Nur Entwickler, deren Rechenleistungskosten 100 Millionen US-Dollar für Trainingsmodelle übersteigen, unterliegen regulatorischen Anforderungen. Bestehende Modelle fallen nicht in den Geltungsbereich. Zukünftig könnten Llama 4 und GPT-5 seine wichtigsten Regulierungsziele sein.

3. Wie werden illegale Handlungen bestraft? Bußgelder ab 10 Millionen US-Dollar können zur Schließung oder Löschung des Modells führen

Der Gesetzentwurf zeigt, dass Chief Technology Officers von Modellentwicklungsunternehmen der FMD jährliche Zertifizierungen vorlegen müssen, in denen die potenziellen Risiken ihrer KI-Modelle, die Wirksamkeit ihrer Sicherheitsprotokolle und eine Beschreibung, wie das Unternehmen SB 1047 einhält, bewertet werden. Ähnlich wie bei Benachrichtigungen über Sicherheitsverletzungen müssen Entwickler bei Auftreten eines „KI-Sicherheitsvorfalls“ diesen innerhalb von 72 Stunden nach Bekanntwerden des Vorfalls dem FMD melden.

SB 1047 erlaubt dem kalifornischen Generalstaatsanwalt, Zivilklagen gegen Entwickler zu erheben, wenn diese eine dieser Bestimmungen nicht einhalten. Für ein Modell, dessen Schulung 100 Millionen US-Dollar kostet, könnte die Geldstrafe bei einem ersten Verstoß bis zu 10 Millionen US-Dollar und bei weiteren Verstößen bis zu 30 Millionen US-Dollar betragen. Da KI-Modelle teurer werden, werden die Strafen steigen.

Bei Verstößen können Unternehmen mit Geldstrafen zwischen 10 und 30 Millionen US-Dollar rechnen, wobei dieser Betrag mit steigenden Kosten für die Modellschulung ansteigt.

Darüber hinaus kann das Gericht folgende Strafen verhängen, wenn Modellentwickler und Betreiber von Rechenclustern die oben genannten Vorschriften nicht einhalten und großen Schaden anrichten, sofern festgestellt wird, dass tatsächlich ein rechtswidriges Verhalten vorliegt:

1. Für illegale Handlungen im Jahr 2026 und später werden Unternehmen bestraft, die zum ersten Mal gegen das Gesetz verstoßenCloud-ComputingDie Geldbuße liegt innerhalb von 10 % der durchschnittlichen Kosten des Modells innerhalb des Marktschulungsumfangs. Bei späteren Verstößen darf die Höhe der Geldbuße 30 % dieser Kosten nicht überschreiten (berechnet auf der Grundlage des für das Modell innerhalb des Umfangs festgelegten Schwellenwerts von 100 Millionen US-Dollar). Im Gesetzentwurf beträgt die Geldstrafe für den ersten Verstoß mindestens 10 Millionen US-Dollar.

2. Das Gericht kann auch eine einstweilige Verfügung erlassen, einschließlich, aber nicht beschränkt auf die Änderung, vollständige Schließung oder Löschung aller vom Modell kontrollierten Derivate innerhalb des Anwendungsbereichs und seiner Entwickler.

Die Strafen für das Ändern, Schließen und Löschen eines in den Geltungsbereich fallenden Modells können jedoch nur angewendet werden, wenn dadurch der Tod einer anderen Person, schwere Körperverletzungen, Sachschäden oder eine ernsthafte Gefahr für die öffentliche Sicherheit verursacht werden.

4. Wer ist gegen den Gesetzentwurf? Warum widersprechen?

Der Gesetzentwurf wurde vom kalifornischen Gesetzgeber relativ problemlos verabschiedet, trotz des starken Widerstands von US-Gesetzgebern, prominenten KI-Forschern, großen Technologieunternehmen und Risikokapitalgebern. Die Änderungen könnten Gegner von SB 1047 besänftigen und Gouverneur Newsom einen weniger kontroversen Gesetzentwurf liefern, den er in Kraft setzen kann, ohne die Unterstützung der KI-Industrie zu verlieren.

Heutzutage lehnen immer mehr Technikexperten das kalifornische KI-Gesetz ab.

Anthropic sagte, es prüfe die Änderungen an SB 1047, bevor es eine Entscheidung treffe. Nicht alle bisherigen Revisionsvorschläge des Unternehmens wurden von Senator Wiener übernommen.

Die bekannte Risikokapitalgesellschaft a16z listete auf ihrer offiziellen Website die „6 Sünden“ im kalifornischen AI Safety Act auf:

  1. Dieser Gesetzentwurf wird eine abschreckende Wirkung auf die KI-Investitionen und -Entwicklung in Kalifornien haben.

  2. Der Gesetzentwurf bestraft Entwickler/Entwickler aufgrund unklarer Ergebnisse. Entsprechende Tests existieren noch nicht.

  3. Die vagen Definitionen des Gesetzentwurfs in Verbindung mit der verschuldensunabhängigen Haftung schaffen erhebliche Unsicherheit und wirtschaftliche Risiken für KI-Entwickler und Geschäftsinhaber.

  4. Der Gesetzentwurf könnte die KI-Forschung in den Untergrund drängen und KI-Systeme unbeabsichtigt weniger sicher machen.

  5. Dieser Gesetzentwurf führt zu einem systemischen Nachteil für Open-Source- und Startup-Entwickler, die im Zentrum von Innovationen und kleinen Unternehmen in Kalifornien stehen.

  6. Dieser Gesetzentwurf behindert die KI-Forschung und -Innovation in den Vereinigten Staaten und bietet Ländern wie China die Möglichkeit, die Vereinigten Staaten in Sachen KI zu übertreffen.

Andreessen Horowitz, Gründungspartner von a16z, glaubt, dass das kalifornische KI-Gesetz zwar gut gemeint ist, aber die US-amerikanische Technologiebranche aufgrund von Fehlinformationen schwächen könnte, gerade zu einem Zeitpunkt, an dem die Zukunft der Technologie an einem kritischen Scheideweg steht. Die Vereinigten Staaten brauchen Führungspersönlichkeiten, die erkennen, dass jetzt ein entscheidender Moment für intelligente und einheitliche Regulierungsmaßnahmen im Bereich KI ist.

Li Feifei, Professorin an der Stanford-Universität, hat auf der Website des Fortune-Magazins einen Artikel veröffentlicht, in dem sie die Gründe für ihren Widerstand im Detail erläutert. Sie glaubt, dass die Hauptprobleme dieses Gesetzentwurfs in vier Punkten liegen: Er bestraft Entwickler übermäßig und könnte den „Kill Switch“-Willen unterdrücken schränkt die Open-Source-Entwicklungsarbeit ein; schwächt die KI-Forschung in der Wissenschaft und im öffentlichen Sektor, was möglicherweise dazu führt, dass Akademiker keine weiteren Mittel erhalten, und bekämpft nicht die potenziellen Schäden, die durch KI-Fortschritte verursacht werden;

Darüber hinaus glauben Hunderte von Start-ups, die vom YC-Inkubator unterstützt werden, gemeinsam, dass dieser Gesetzentwurf vier negative Auswirkungen auf die Branche und das Entwickler-Ökosystem haben könnte:

  1. Der Gesetzentwurf sollte Werkzeugmissbraucher bestrafen, nicht Entwickler. Für Entwickler ist es oft schwierig, die möglichen Anwendungen von Modellen vorherzusagen, und Entwickler müssen wegen Meineids unter Umständen ins Gefängnis.

  2. Regulatorische Schwellenwerte können die Dynamik der Technologieentwicklung nicht ausreichend erfassen. Nicht-kalifornische Unternehmen werden in der Lage sein, KI-Technologie freier zu entwickeln, was sich möglicherweise auf die Innovation in Kalifornien auswirkt.

  3. Der „Kill Switch“ (bezieht sich auf die Fähigkeit von Entwicklern, Modelle auszuschalten) kann die Open-Source-KI-Entwicklung verhindern und die Open-Source-Zusammenarbeit und -Transparenz behindern.

  4. Der Wortlaut des Gesetzentwurfs ist vage und kann von Richtern willkürlich ausgelegt werden.

Yann LeCun, Chefwissenschaftler von Meta und Gewinner des Turing Award 2018, lehnte diesen Gesetzentwurf ebenfalls ab. Er befürchtete, dass die gesamtschuldnerischen Haftungsklauseln gezeigt hätten, dass die Open-Source-Lösung nicht korrekt sei Die Plattform muss möglicherweise die Verantwortung tragen.

Andrew Ng, Gastprofessor am Fachbereich Informatik und Elektrotechnik der Stanford University, schrieb, dass der kalifornische Gesetzentwurf SB-1047 die Entwicklung großer Open-Source-Modelle ersticken werde. Der Gesetzentwurf sollte KI-Anwendungen regeln und nicht die großen Modelle selbst.

Er ist immer noch schockiert über den enormen Schaden, den der kalifornische Gesetzentwurf SB 1047 für Open-Source-Großmodelle anrichtet. Dieser Gesetzentwurf macht einen schwerwiegenden und grundlegenden Fehler. Was reguliert werden sollte, sind die durch große Modelle entwickelten generativen KI-Produkte, nicht die großen Open-Source-Modelle selbst.

Ng glaubt außerdem, dass SB 1047 von Entwicklern verlangt, große Open-Source-Modelle vor Missbrauch, Modifikation und der Entwicklung illegaler abgeleiteter KI-Produkte zu schützen. Allerdings ist die Art und Weise, wie Entwickler diese Verhaltensweisen schützen und definieren sollen, noch sehr vage und es gibt keine detaillierte Regelung.

Daher ruft Andrew Ng alle nachdrücklich dazu auf, das SB 1047-Gesetz zu boykottieren. Er glaubt, dass es einen verheerenden Schlag für die Innovation großer Open-Source-Modelle bedeuten wird und Kalifornien gleichzeitig die Motivation dafür verlieren wird KI-Innovation.

5. Wer unterstützt den Gesetzentwurf? Warum unterstützen?

Im Vergleich zur Opposition gibt es derzeit einige Technologieexperten, die das kalifornische KI-Gesetz unterstützen.

Unter anderem hat der Gouverneur von Kalifornien, Newsom, sich zwar nicht öffentlich zu SB 1047 geäußert, aber bereits zuvor sein Engagement für KI-Innovationen in Kalifornien zum Ausdruck gebracht.

Gleichzeitig Turing-Preisträger und „Godfather of AI“ Geoffrey Hinton, Turing-Preisträger Yoshua Bengio, Harvard Law School-Professor Lawrence Lessig und Stuart Russell, Autor des beliebten KI-Lehrbuchs „Artificial Intelligence: A Modern Approach“ und Professor an der University of California, Berkeley, schrieben gemeinsam an die kalifornische Gesetzgebung, um ihre Unterstützung für den California AI Safety Act zum Ausdruck zu bringen.

Die vier Wissenschaftler stellten fest, dass sie über die Risiken der KI zutiefst besorgt sind und dass der kalifornische AI ​​Safety Act die Mindestanforderung für eine wirksame Regulierung der Technologie darstellt. „Der Gesetzentwurf sieht kein Lizenzierungssystem vor und verlangt nicht, dass Unternehmen eine Genehmigung von Regierungsbehörden einholen, bevor sie Modelle ausbilden oder einsetzen. Er basiert auf der Selbsteinschätzung des Risikos durch die Unternehmen und macht Unternehmen auch im Katastrophenfall nicht streng haftbar. Relativ.“ Das Risiko besteht darin, dass dies eine sehr lockere Gesetzgebung ist. Die aktuellen Gesetze zur Regulierung von KI sind nicht so streng wie die Regulierung von Sandwich-Läden. Es wäre ein historischer Fehler, die grundlegenden Maßnahmen des Gesetzentwurfs aufzuheben Die nächste Generation wird strenger sein, wenn leistungsstarke KI-Systeme auf den Markt kommen.

„Vor vierzig Jahren, als ich trainierte ChatGPT Als es um die ersten Versionen der KI-Algorithmen hinter den Tools ging, hätte niemand, auch ich nicht, vorhergesehen, dass die KI so große Fortschritte machen würde. Leistungsstarke KI-Systeme sind vielversprechend, doch die Risiken sind auch sehr real und sollten sehr ernst genommen werden. SB 1047 verfolgt einen sehr intelligenten Ansatz, um diese Bedenken auszugleichen. Das Potenzial der KI, Leben zu retten, indem sie Wissenschaft und Medizin verbessert, ist mir nach wie vor sehr wichtig, aber wir müssen wirklich strenge Gesetze entwickeln, um den Risiken zu begegnen. Kalifornien ist der Ausgangspunkt für diese Technologie, weil sie dort ihren Anfang genommen hat. sagte Hinton.

Die vier Wissenschaftler betonten in dem Brief auch, dass die relevanten Parteien unabhängig davon, ob diese Risiken unbegründet oder real sind, die Verantwortung für die Risikominderung tragen müssen. „Als Expertengruppe, die diese Systeme am besten versteht“, glauben sie, dass diese Risiken möglich und so groß sind, dass Sicherheitstests und vernünftige Vorsichtsmaßnahmen erforderlich sind.

Der kalifornische Senator Scott Wiener, der Verfasser des Gesetzentwurfs, sagte, SB 1047 ziele darauf ab, aus früheren Versäumnissen in den sozialen Medien und Datenschutzrichtlinien zu lernen und die Sicherheit der Bürger zu gewährleisten, bevor es zu spät sei.

„Unsere Haltung gegenüber Technologie besteht darin, darauf zu warten, dass Schaden entsteht, und dann nichts dagegen zu unternehmen“, sagte Wiener. „Wir warten nicht darauf, dass etwas Schlimmes passiert. Wir wollen handeln, bevor es passiert.“

  • Entwickler werden nicht ins Gefängnis kommen, wenn sie es versäumen, Modellrisiken vorherzusagen. Erstens müssen sich Start-up-Entwickler und Akademiker keine Sorgen machen, da der Gesetzentwurf nicht für sie gilt. Zweitens wird die Meineidklausel im Gesetzentwurf nur dann wirksam, wenn der Entwickler „wissentlich“ eine falsche Aussage macht, und eine unbeabsichtigte Fehleinschätzung der Fähigkeiten des Modells löst die Meineidklausel nicht aus (diese Klausel wurde in der heutigen Änderung gestrichen).

  • Der Gesetzentwurf schafft keine völlig neuen Zuständigkeiten. Nach den geltenden Gesetzen können sowohl Modellentwickler als auch einzelne Entwickler verklagt werden, wenn ein Modell Schaden verursacht. Dies gilt für Modelle aller Fähigkeiten und alle verletzten Personen können klagen. Der neue Gesetzentwurf Kaliforniens schränkt nicht nur den Umfang der Regulierung ein, sondern beschränkt auch das Klagerecht auf zwei Stellen, den kalifornischen Generalstaatsanwalt und die Arbeitsbehörde.

  • Der Gesetzentwurf wird die Innovation in Kalifornien nicht behindern. Dieser Gesetzentwurf gilt für alle Unternehmen, die in Kalifornien geschäftlich tätig sind. Auch wenn sie ihren Hauptsitz aus Kalifornien verlegen, sollten sie sich an die entsprechenden Vorschriften halten (Zhixi-Hinweis: Kalifornien ist gemessen am BIP die fünftgrößte Volkswirtschaft der Welt und verfügt über ein vollständiges Technologie-Ökosystem. Technologie Unternehmen Es ist schwer, sich von Kalifornien abzukoppeln). Als Kalifornien Datenschutzgesetze und Umweltschutzgesetze verabschiedete, behaupteten viele, dass dies Innovationen behindern würde, aber Tatsache ist, dass Kalifornien immer noch führend bei Innovationen ist.

  • Kill-Switches und Sicherheitsbewertungsanforderungen werden die Entwicklung von Open-Source-KI nicht behindern. Der Gesetzentwurf wurde nun überarbeitet und stärkt den Schutz von Open-Source-KI. Die im Gesetzentwurf enthaltene Anforderung zur Notabschaltung von Modellen gilt nur für Modelle, die unter der Kontrolle des Entwicklers stehen, mit Ausnahme unkontrollierter Open-Source-Modelle. Mit dem Gesetzentwurf wird außerdem ein neuer Beratungsausschuss eingerichtet, der sich für sichere und zuverlässige Open-Source-KI-Entwicklungsbemühungen einsetzt und diese unterstützt.

Selbst wenn ein Unternehmen ein 100-Millionen-Dollar-Modell in Texas oder Frankreich ausbilden würde, wäre es laut Gesetz durch SB 1047 geschützt, solange es in Kalifornien geschäftlich tätig ist. Wiener sagte, der Kongress habe „in den letzten 25 Jahren fast keine Technologiegesetze erlassen“, weshalb er der Meinung sei, dass Kalifornien hier einen Präzedenzfall schaffen sollte.

Dan Hendrycks, Direktor des Center for Artificial Intelligence Safety, sagte: „Dieser Gesetzentwurf liegt im langfristigen Interesse Kaliforniens und der US-amerikanischen Industrie, da größere Sicherheitsvorfälle möglicherweise das größte Hindernis für die weitere Entwicklung darstellen.“

Auch mehrere ehemalige OpenAI-Mitarbeiter unterstützten den Gesetzentwurf, darunter Daniel Kokotajlo, der freiwillig seine OpenAI-Optionen im Austausch für das Recht auf freie Kritik am Unternehmen aufgab. Er glaubt, dass die Behauptungen der Kritiker des Gesetzentwurfs, dass der KI-Fortschritt ins Stocken geraten werde, wahrscheinlich nicht eintreten werden.

Simon Last, der Gründer von Notion, einem KI-Einhorn im Wert von mehreren zehn Milliarden Dollar, schrieb in einem Artikel, dass er den Gesetzentwurf unterstütze und glaube, dass Kalifornien als Technologiezentrum in der Lage sei, wenn es schwierig sei, KI-Gesetze auf Bundesebene umzusetzen Die Vereinigten Staaten und sogar die Welt tragen große Verantwortung. Er glaubt, dass die Überwachung von Modellen nicht nur deren Sicherheit verbessern, sondern auch KI-Startups erleichtern wird, die Produkte auf Basismodellen aufbauen, was die Belastung kleiner und mittlerer Unternehmen verringern wird.

„Das Ziel von SB 1047 ist – und war schon immer – die KI-Sicherheit zu verbessern und gleichzeitig dem gesamten Ökosystem Innovationen zu ermöglichen“, sagte Nathan Calvin, leitender Politikberater beim Center for AI Safety Action Fund. „Die neuen Änderungen werden dies unterstützen.“ Ziel. "

6. Wie geht es weiter?

SB 1047 wird nun zur endgültigen Abstimmung an die kalifornische Versammlung weitergeleitet. Wenn der Gesetzentwurf von der Versammlung angenommen wird, muss er aufgrund der neuesten Änderungen zur Abstimmung an den kalifornischen Senat zurückgeschickt werden. Wenn der Gesetzentwurf gleichzeitig verabschiedet wird, wird er an den Schreibtisch des kalifornischen Gouverneurs Gavin Newsom geschickt, der bis Ende August eine endgültige Entscheidung über die Unterzeichnung des Gesetzentwurfs treffen wird.

Wiener sagte, er habe nicht mit Newsom über den Gesetzentwurf gesprochen und wisse nicht, wo er stehe.