2024-08-16
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
kluge Dinge
Autor Chen Junda
EditPanken
Zhidongxi berichtete am 16. August, dass gerade Kaliforniens umstrittener „Frontier AI Model Safety Innovation Act“ (später bekannt als California AI Safety Act) angekündigt wurdedeutlich geschwächtSpäter bestand es erfolgreich die Prüfung durch den Bewilligungsausschuss des Repräsentantenhauses von Kalifornien.Regelung rechtlicher Schwierigkeiten auf nationaler EbeneInmitten des Dilemmas ist dies für die Vereinigten Staaten zu einem wichtigen Schritt bei der Regulierung der KI geworden. Einige Leute in der Technologiegemeinschaft glauben jedoch, dass dies der Fall istLetztendlich wird es der führenden Position Kaliforniens und sogar der Vereinigten Staaten auf dem Gebiet der KI schaden.
Die größte Änderung im geänderten Gesetzentwurf ist diesenicht mehr erlaubtDer kalifornische Generalstaatsanwalt verklagte KI-Unternehmen, weil sie Sicherheitsbedenken ignoriert hatten, bevor es zu einem katastrophalen Ereignis kam. Der ursprüngliche Gesetzentwurf sieht vor, dass die Unternehmen strafrechtlich verfolgt werden können, solange Prüfer feststellen, dass KI-Unternehmen im täglichen Betrieb illegale Aktivitäten betreiben. Dies markiert die RechnungDer regulatorische Fokus verlagert sich auf den tatsächlichen Schaden, wird auchReduzieren Sie den Compliance-Druck auf Unternehmen.
Die meisten US-amerikanischen Technologieunternehmen und KI-Startups sind in Kalifornien tätig.unterliegen dem Gesetz.Konkret konzentriert sich dieser Gesetzentwurf hauptsächlich auf „Modernste KI-Modelle„Nur Entwickler, deren Rechenleistungskosten für Trainingsmodelle 100 Millionen US-Dollar übersteigen, werden mit regulatorischen Anforderungen konfrontiert. Bestehende Modelle fallen nicht in den Geltungsbereich der Aufsicht. In Zukunft.“Lama 4 und GPT-5 könnten seine wichtigsten regulatorischen Ziele sein.
Für inländische UnternehmenWenn Sie nur Feinabstimmungs- und andere Vorgänge auf Basis von Open Source durchführen, besteht eine hohe Wahrscheinlichkeit, dass diese nicht in den Aufsichtsbereich einbezogen werden. Allerdings verlangt der Gesetzentwurf von Cloud-Dienstanbietern, Kundeninformationen, IP-Adressen, Zahlungsmethoden und andere Informationen zu sammeln, was die Rückverfolgbarkeitsarbeit der Regulierungsbehörden erleichtert. Wenn die Kontrollen weiter verschärft werden, könnte dies der Fall seinEinige chinesische KI-Unternehmen, die ausländische Rechenleistung für Schulungen nutzen, sind mit regulatorischen Risiken konfrontiert.
Unternehmen im Rahmen der Aufsicht solltenproaktive Maßnahmen ergreifenUm Modellmissbrauch zu vermeiden, müssen Sie dies auch tunNotabschaltmodellFähigkeit. Darüber hinaus müssen sie eine öffentliche Erklärung abgeben, in der sie ihre Sicherheitspraktiken darlegen. Der Gesetzentwurf führt „Jährliche Inspektion”-System müssen Entwickler unabhängige Prüfer beauftragen, die die Einhaltung jährlich überprüfen.
Sobald es zu illegalen Aktivitäten kommt, können Unternehmen damit konfrontiert werdenzwischen 10 und 30 Millionen US-DollarDieser Betrag erhöht sich, wenn die Kosten für das Modelltraining steigen.
Der KI-Kreis spaltete sich in zwei Lager, und es gab heftige Debatten.
Gewinner des Turing-Preises 2018Jeffrey Hinton(Geoffrey Hinton) undJoshua Bengio(Yoshua Bengio) drückte seine Unterstützung aus und glaubte, dass der California AI Safety Act eine wirksame Regulierung der KI-Technologie darstellt.Mindestanforderungen”。
Hunderte Unternehmer haben unterzeichnetInkubator YCMehr als 100 Akademiker in Kalifornien verfassten ebenfalls Einspruchsschreiben.Risikokapitalinstitut a16zErstellen Sie eine Website, die speziell auf die sechs Verbrechen des Gesetzes eingeht, Professor an der Stanford UniversityLi FeifeiSpeziell getwittert, um zu verurteilen, dass dieser Gesetzentwurf Kaliforniens KI-Investitionen und -Entwicklung behindern wird.Erhebliche Schädigung des Open-Source-Ökosystems, befasst sich nicht mit den erheblichen Risiken, die KI mit sich bringt.
Der Senator des US-Bundesstaates Kalifornien, Scott Wiener, der Autor des California AI Regulation Bill, wies jedoch einige Kritikpunkte an dem Gesetzentwurf zurück und sagte, dass a16z und YCdie Tatsachen absichtlich verdrehenDieser Gesetzentwurf stellt eine Optimierung innerhalb des bestehenden Rechtsrahmens dar, verbessert die Relevanz der Aufsicht, wird nicht viele Entwickler ins Gefängnis bringen und Innovation und Open-Source-KI nicht beeinträchtigen.
Zhixixi hat eine große Menge an Informationen zusammengestellt und den spezifischen Inhalt und die damit verbundenen Diskussionen zu diesem Gesetzentwurf in den folgenden fünf Fragen und Antworten zusammengefasst:
1. Was ist der Geltungsbereich? Die meisten vorhandenen Modelle sind nicht anwendbar und Llama 4 und GPT-5 können in den Überwachungsbereich einbezogen werden
Um eine wirksame Aufsicht zu erreichen, sah dieser Gesetzentwurf ursprünglich die Schaffung einer „Frontier Model Department (FMD)“ zur Umsetzung relevanter Vorschriften vor. Mit den heutigen Überarbeitungen verwandelt sich diese Abteilung in eine neunköpfige Kommission innerhalb der kalifornischen Regierungsbehörde, der Vertreter der KI-Industrie, der Open-Source-Community und der Wissenschaft angehören und vom Gouverneur und der kalifornischen Gesetzgebung ernannt werden. Der Frontier Models Council wird weiterhin Rechenschwellenwerte für abgedeckte Modelle festlegen, Sicherheitshinweise herausgeben und Vorschriften für Prüfer erlassen.
Als eines der Zentren der KI-Entwicklung in den Vereinigten Staaten und sogar weltweit hat Kalifornien eine große Anzahl von KI-Unternehmen angezogen. Mehr als 30 der 50 größten KI-Unternehmen im Forbes-Magazin im Jahr 2024 sind in Kalifornien tätig. Diesem Gesetzentwurf zufolge müssen sie alle die einschlägigen Bestimmungen des California AI Safety Act einhalten. Der tatsächliche Anwendungsbereich dieses Gesetzes wird jedoch durch die Leistungsfähigkeit des Modells erheblich eingeschränkt.Möglicherweise werden in den kommenden Jahren nur die führenden Akteure im Großmodellbereich durch diesen Gesetzentwurf reguliert.
▲Screenshot eines Teils des California AI Regulation Bill (Quelle: offizielle Website des kalifornischen Senats)
In diesem Gesetzentwurf wird bewertet, ob ein Modell auf der Grundlage der im Modelltraining verwendeten Rechenleistung und Rechenleistungskosten in den Regulierungsbereich aufgenommen werden sollte, d. h. als „klassifiziert“ werden sollte.Abgedecktes ModellDie relevanten Regelungen lassen sich in die folgenden zwei Punkte zusammenfassen:
1. Verwendung vor dem 1. Januar 202710^26und mehr Ganzzahl- oder Gleitkommaoperationen (100 Millionen US-Dollar basierend auf dem durchschnittlichen Marktpreis der Rechenleistung) oder Nutzung3*10^25Das nach der Feinabstimmung des In-Range-Modells mit der Rechenleistung erhaltene Modell wird als In-Range-Modell aufgeführt.
2. Nach dem 1. Januar 2027 werden die oben genannten Standards von Kalifornien umgesetztModernster ModellreglerMachen Sie eine Einschätzung. Wenn die Abteilung den Schwellenwert für die Rechenleistung ändert, hat der neue Standard Vorrang; entscheidet die Abteilung, dass keine Änderung erforderlich ist, wird weiterhin der ursprüngliche Standard verwendet. Darüber hinaus sollten nach 2026 die 100 Millionen US-Dollar im ursprünglichen Standard anfallenPassen Sie den Betrag entsprechend an, um der Inflation Rechnung zu tragen.
Welche der jetzt erschienenen Modelle werden also in diese Reihe aufgenommen? Es gibt viele Möglichkeiten, die beim Modelltraining verwendete Rechenleistung zu berechnen. OpenAI hat sie einmal in einem Artikel grob geschätzt:
FLOPS = 6ND
(wobei N die Anzahl der Parameter und D die Anzahl der Token ist)
Mithilfe dieser Berechnungsmethode und Open-Source-Modelldaten können wir grob abschätzen, wie hoch die aktuell von den Modellen beanspruchte Rechenleistung ist:
Lama 3 70B
Es verfügt über 70 Milliarden Parameter und verwendet während des Trainings 15T-Token-Trainingsdaten, sodass die verwendete Rechenleistung ungefähr beträgt:
6*70B*15T= 6,3*10^24 FLOPS
Lama 3.1 405B
Es verfügt über 405 Milliarden Parameter und verwendet während des Trainings 15,6T-Token-Trainingsdaten, sodass die verwendete Rechenleistung ungefähr beträgt:
6*405B*15,6T=3,79*10^25 FLOPS
▲Llama 3.1 405B-bezogene Informationen (Quelle: Hugging Face)
Diese Berechnungsmethode ist relativ grob und kann stark von der tatsächlichen Situation abweichen, hat aber dennoch Referenzwert. Nach diesem Ergebnis giltLlama 3.1 405B, der König der Open-Source-Modelle, wird derzeit nicht als Modell im Geltungsbereich des Gesetzentwurfs aufgeführt.wird ein Modell nur dann als In-Range-Modell aufgeführt, wenn es die volle 2,6-fache Rechenleistung von Llama 3.1 405B nutzt.
Diese Daten können auch durch die Aussage in einem offenen Brief als Reaktion auf die Kontroverse über den Gesetzentwurf des kalifornischen Staatssenators William Wilson, dem Autor dieses Gesetzentwurfs, gestützt werden. Er schrieb in dem Brief: „In dem derzeit öffentlich veröffentlichten Modell.Kein Modell hat die Rechenleistungsschwelle von 10^26 FLOPs erreicht”。
Die überwiegende Mehrheit der kleinen und mittleren Modellentwicklungsunternehmen und unabhängigen Entwickler muss sich möglicherweise noch lange Zeit keine Sorgen um die Aufsicht dieses Gesetzentwurfs machen. Gemäß der Rechenleistungsschwelle und der Kapitalschwelle des Gesetzentwurfs sind seine wichtigsten Regulierungsobjekte wie folgtOpenAI, Meta, GoogleSolche großen Akteure im KI-Bereich undFührende Startups, die große Investitionssummen erhalten haben.
Laut der öffentlichen Erklärung von OpenAI-CEO Sam Altman belaufen sich die Schulungskosten für GPT-4 auf etwa 100 Millionen US-Dollar. Es ist unklar, ob in diesen Kosten auch andere Investitionen als die Rechenleistung enthalten sind. Wenn GPT-5 oder andere nachfolgende OpenAI-Modelle veröffentlicht werden, unterliegen sie möglicherweise diesem Gesetz. Mark Zuckerburg, CEO von Meta, hat geschätzt, dass Llama 4 etwa das Zehnfache der Rechenleistung von Llama 3.1 benötigen wirdLlama 4 dürfte eines der wenigen Open-Source-Modelle sein, die künftig als Range-Modell gelistet werden.
2. Welche Verantwortung haben Unternehmen? Entwickler müssen „jährliche Inspektionen“ durchführen, Missbrauch proaktiv verhindern und sie mit „Kill Switches“ ausstatten.
Nach den einschlägigen Bestimmungen dieses GesetzesEntwickler von Range-ModellenHauptverantwortlich für folgende Aufgaben:
1. UmsetzungManagement, Technologie und PhysikDreistufiger Sicherheitsschutz zur Verhinderung von In-Scope-Modellen und Derivaten von In-Scope-Modellen, die von Entwicklern kontrolliert werdenUnbefugter Zugriff, Missbrauch oder Modifikation nach dem Training。
2、Erreichen Sie die Fähigkeit, Modelle rechtzeitig vollständig herunterzufahren.
3. Der ursprüngliche Gesetzentwurf sieht vor, dass Modellentwickler zur Gewährleistung eine unabhängige Sicherheitsvereinbarung unterzeichnen müssenModelle und Derivate, bei denen das Risiko besteht, dass sie ernsthaften Schaden anrichten (z. B. Cyber-Angriffe mit Verlusten von mehr als 500 Millionen US-Dollar, Tod oder schwerer Körperverletzung usw.), werden nicht entwickelt.Sollten in der Vereinbarung falsche Angaben enthalten sein, wird dies mit der Strafe des Meineids geahndet.
geänderter GesetzentwurfDies schwächt die rechtliche Wirksamkeit dieser Vereinbarung erheblich. Derzeit müssen Modellentwickler nur öffentliche Erklärungen abgeben, in denen sie ihre Sicherheitspraktiken darlegen.Mit dieser Bestimmung ist jedoch keine strafrechtliche Haftung mehr verbunden, und relevante Unternehmen werden erst dann strafrechtlich verfolgt, wenn ein katastrophaler Schaden eingetreten ist.
4. Wenn das Modell und seine Derivate innerhalb des Geltungsbereichs schwere Schäden verursachen oder dazu beitragen können, darf der Entwickler es weder für eigene kommerzielle oder öffentliche Zwecke nutzen noch es anderen zur kommerziellen oder öffentlichen Nutzung zur Verfügung stellen.
5. Ab dem 1. Januar 2028 sollten Entwickler von Modellen im Geltungsbereich Folgendes tunBeauftragen Sie jedes Jahr einen externen Prüfer, um eine detaillierte und objektive Bewertung der Einhaltung der Anforderungen des Gesetzes durch den Entwickler durchzuführen, über Verstöße zu berichten und Vorschläge für eine Überarbeitung zu machen.
6、Der überarbeitete Gesetzentwurf fügt Schutzmaßnahmen für die Feinabstimmung des Open-Source-Modells hinzu.Der Gesetzentwurf sieht ausdrücklich vor, dass Entwickler Geld für die Feinabstimmung von Modellen im Anwendungsbereich ausgebenWeniger als 10 Millionen US-Dollar, wird er nicht als Entwickler des verfeinerten Modells anerkannt und die Verantwortung liegt weiterhin beim Entwickler des Originalmodells.
Darüber hinaus sieht dieser Gesetzentwurf vor, dass Cloud-Dienste wie Amazon Cloud Services (AWS) und Microsoft AzurePflichten von Cloud-Dienstanbietern. Wenn sie ihren Kunden ausreichend Rechenleistung zur Verfügung stellen, um Modelle im Umfang zu trainieren, sollten Cloud-Dienstanbieter auf Folgendes vorbereitet sein:
1. Erhalten Sie die grundlegenden Identitätsinformationen und Geschäftszwecke des Kunden, einschließlichKundenidentität, IP-Adresse, Zahlungsmethode und -quelleusw. Relevante Compliance-Vorgänge sollten Spuren hinterlassen und Aufzeichnungen sollten sieben Jahre lang aufbewahrt werden.
2. Bewerten Sie, ob der Kunde tatsächlich plant, die Rechenleistung zum Trainieren des im Umfang enthaltenen Modells zu nutzen.
3、Die Möglichkeit, Rechenressourcen herunterzufahren, die von Benutzern beim Training oder Betrieb von Modellen verwendet werden.
Entwickler und Cloud-Service-Anbieter von In-Scope-Modellen sollten ebenfalls bereitstellenTransparente, einheitliche und öffentliche Preislisteund stellen Sie dies während des Preis- und Zugangsprozesses sicherKeine Diskriminierung oder wettbewerbswidriges Verhalten. AberÖffentliche Einrichtungen, akademische Einrichtungen und nichtkommerzielle ForscherSie können kostenlose oder vergünstigte Nutzungsrechte genießen. Einige Cloud-Dienstleister nutzen Preisnachlässe, um bestimmte KI-Entwicklungsunternehmen anzulocken oder zu unterstützen. Dieses Verhalten wird nach dem offiziellen Inkrafttreten des Gesetzentwurfs möglicherweise nicht mehr ausweichend sein.
Der Gesetzentwurf sieht vor, dass Entwickler, wenn sie erfahren, dass in einem Modell ein Sicherheitsvorfall aufgetreten ist,Relevante Vorfälle sollten innerhalb von 72 Stunden den Aufsichtsbehörden gemeldet werden. Darüber hinaus sollten Entwickler auch sicherstellen, dass ein Modell oder seine Derivate für kommerzielle oder öffentliche Zwecke genutzt werden.Innerhalb von 30 TagenGeben Sie eine Konformitätserklärung für dieses Modell ab. Darüber hinaus diejenigen, die Fehlverhalten melden„Whistleblower“ werden gesetzlich geschützt, darf ein Unternehmen oder eine Organisation Mitarbeiter nicht verhindern oder Vergeltungsmaßnahmen gegen sie ergreifen, wenn sie Fehlverhalten offenlegen.
3. Wie werden illegale Handlungen bestraft? Bußgelder ab 10 Millionen US-Dollar können zur Schließung oder Löschung des Modells führen
Wenn Modellentwickler und Betreiber von Computerclustern die oben genannten Vorschriften nicht einhalten und großen Schaden anrichten, haben der kalifornische Generalstaatsanwalt und die Arbeitskommission die Befugnis, die entsprechenden Unternehmen strafrechtlich zu verfolgen. Wird festgestellt, dass ein rechtswidriges Verhalten vorliegt, kann das Gericht folgende Strafen verhängen:
1. Bei Verstößen im Jahr 2026 und später werden Unternehmen, die zum ersten Mal gegen das Gesetz verstoßen, mit einer Geldstrafe von 10 % der durchschnittlichen Kosten des Modells im Schulungsbereich des Cloud-Computing-Marktes belegt 30 % dieser Kosten überschreiten (basierend auf der Berechnung des im Gesetzentwurf festgelegten Schwellenwerts von 100 Millionen US-Dollar für in den Geltungsbereich fallende Modelle).Die Geldstrafe für ein erstes Vergehen beträgt mindestens 10 Millionen US-Dollar)。
2. Das Gericht kann auch eine einstweilige Verfügung erlassen,Einschließlich, aber nicht beschränkt auf, das Ändern, vollständige Schließen oder Löschen aller Derivate, die vom betroffenen Modell und seinen Entwicklern kontrolliert werden.
Die Strafe für das Ändern, Schließen und Löschen von Modellen im Geltungsbereich fällt jedoch nur dann an, wenn sie dazu führenTod anderer, schwere Körperverletzung, Sachschaden oder ernsthafte Bedrohung der öffentlichen Sicherheitkann nur verwendet werden, wenn.
4. Wer ist gegen den Gesetzentwurf? a16z und YC übernahmen die Führung beim Start einer Werbeoffensive, Li Feifei und Yang Likun twitterten Fragen
Technologiegiganten aus dem Silicon Valley, zahlreiche Startups und Investmentinstitute haben starke Zweifel und Unzufriedenheit mit dem kalifornischen Gesetz zur KI-Sicherheit geäußert.Eine der lautesten Stimmen ist a16z, eine bekannte Risikokapitalgesellschaft im Silicon Valley.a16z verfügt über ein umfangreiches Investitionsportfolio im Bereich KI, darunter etablierte führende KI-Unternehmen wie OpenAI und Mistral AI sowie aufstrebende Stars wie World Labs, die von Li Feifei, Professor an der Stanford University, neu gegründet wurden. Diese Unternehmen haben größere Größenordnungen und Finanzierungsbeträge,Die von ihnen entwickelten und verfeinerten Modelle können in den Zuständigkeitsbereich der Regulierungsbehörde fallen.
▲Einige der Einwände von a16z (Quelle: stopptb1047.com)
a16z hat die Initiative ergriffen, den Aufbau einer Website zu finanzieren und den Besuchern eine Vorlage für Einspruchsschreiben zur Verfügung zu stellen, die durch einfaches Bearbeiten auf der Website direkt versendet werden können. a16z listete auf dieser Website auch die „6 Sünden“ ihrer Sicht auf den California AI Safety Act auf:
1. Dieser Gesetzentwurf wird eine abschreckende Wirkung auf die KI-Investitionen und -Entwicklung in Kalifornien haben.
2. Der Gesetzentwurf bestraft Entwickler/Entwickler aufgrund unklarer Ergebnisse. Entsprechende Tests existieren noch nicht.
3. Die vagen Definitionen und strengen rechtlichen Verantwortlichkeiten des Gesetzentwurfs haben große Unsicherheit und wirtschaftliche Risiken für KI-Entwickler und Geschäftsinhaber mit sich gebracht.
4. Dieser Gesetzentwurf könnte die KI-Forschung in den Untergrund zwingen und unbeabsichtigt die Sicherheit von KI-Systemen verringern.
5. Dieser Gesetzentwurf schafft einen systemischen Nachteil für Open-Source- und Startup-Entwickler, die das Herzstück von Innovationen und kleinen Unternehmen in Kalifornien sind.
6. Dieser Gesetzentwurf behindert die KI-Forschung und -Innovation in den Vereinigten Staaten und bietet Ländern wie China die Möglichkeit, die Vereinigten Staaten in Sachen KI zu übertreffen.
Auch die Gründer vieler a16z-investierter Unternehmen äußerten ihren Widerstand gegen den California AI Safety Act. Li Feifei veröffentlichte einen Artikel auf der Website des Fortune-Magazins, in dem sie die Gründe für ihren Widerstand im Detail erläuterte und glaubte, dass es bei diesem Gesetzentwurf vier Hauptprobleme gibt:
1. Eine übermäßige Bestrafung von Entwicklern kann Innovationen unterdrücken.
2. Der „Kill Switch“ wird die Open-Source-Entwicklungsarbeit einschränken und die Open-Source-Community zerstören.
3. Die KI-Forschung in der Wissenschaft und im öffentlichen Sektor schwächen und möglicherweise auch verhindern, dass Akademiker mehr Mittel erhalten.
4. Der potenzielle Schaden, der durch die Weiterentwicklung der KI verursacht wird, wie etwa Voreingenommenheit oder Deepfakes, wird nicht thematisiert.
▲Li Feifei ist gegen das kalifornische Gesetz zur KI-Sicherheit (Quelle: X Platform)
Viele Internetnutzer im Kommentarbereich glaubten dieser Aussage jedoch nicht. Sie forderten Li Feifei auf, seine Interessenbeziehung zu a16z offenzulegen.
▲Einige Internetnutzer stellten Li Feifeis Neutralität in Frage (Quelle: X Platform)
Als bekanntester und einflussreichster Inkubator in den Vereinigten Staaten ist YC die Wiege vieler KI-Startups.Ihr derzeitiger Hauptbetriebsstandort ist Kalifornien.Von den 260 Startups im YC-Winterpaket 2024 haben mehr als die Hälfte einen Bezug zur KI. YC glaubt auch, dass dieser Gesetzentwurf negative Auswirkungen auf die Branche und das Entwickler-Ökosystem haben könnte:
1、Der Gesetzentwurf sollte Werkzeugmissbraucher bestrafen, nicht Entwickler.Für Entwickler ist es oft schwierig, die möglichen Anwendungen von Modellen vorherzusagen, und Entwickler müssen wegen Meineids ins Gefängnis.
2. Regulatorische Schwellenwerte können die Dynamik der technologischen Entwicklung nicht vollständig erfassen. Nicht-kalifornische Unternehmen werden in der Lage sein, KI-Technologie freier zu entwickeln, was sich möglicherweise auf die Innovation in Kalifornien auswirkt.
3. „Kill Switch (bezieht sich auf die Fähigkeit von Entwicklern, Modelle auszuschalten)“ kann die Entwicklung von Open-Source-KI verhindern und die Open-Source-Zusammenarbeit und -Transparenz behindern.
4. Der Wortlaut des Gesetzentwurfs ist relativ vage.Es ist wahrscheinlich, dass es vom Richter nach Belieben ausgelegt wird.。
Die Erklärung von YC erhielt gemeinsame Unterstützung von Hunderten von Startups. YC veranstaltete auch eine Reihe von Konferenzen zum Thema KI-Regulierung in Kalifornien, um beiden Seiten die Möglichkeit zu geben, miteinander zu kommunizieren.
Auch Yann LeCun, Chefwissenschaftler von Meta und Gewinner des Turing Award 2018, lehnte diesen Gesetzentwurf abGesamtschuldnerische Haftungsklauseln.Er befürchtet, dass Open-Source-Plattformen haftbar gemacht werden könnten, wenn sie die Risiken der betreffenden Modelle nicht genau einschätzen.
Als heute wichtigster Akteur auf dem Gebiet der Open-Source-KI-Modelle schrieb die Meta Corporation in einem Einspruchsschreiben, dass dieser Gesetzentwurf Open-Source-Entwickler dazu zwinge, große rechtliche Risiken zu tragen, wenn Open Source verfügbar sei, da die Anforderungen zur Gewährleistung der Modellsicherheit unrealistisch seien . Sie empfehlen den kalifornischen Gesetzgebern, sich auf relevante Gesetze in anderen Ländern und Regionen zu beziehen.Etwa die Anforderungen an Transparenz und „Red Team Testing“ im EU-KI-Gesetz. Auch Microsoft, Google und OpenAI äußerten sich negativ zum Gesetzentwurf.
Anthropic, ein KI-Startup mit einer einzigartigen „B-Corporation-Struktur“, ist eine der vielen Stimmen, die sich gegen diesen Gesetzentwurf aussprechen. Im Gegensatz zu anderen Unternehmen versuchen sie jedoch nicht, die Verabschiedung des Gesetzentwurfs zu verhindern, sondern beteiligen sich an der Änderung des Gesetzentwurfs , Die Legislatur schrieb einen Brief, in dem sie ihre Verbesserungsvorschläge detailliert darlegte. Insgesamt ist Anthropic davon überzeugtDer Gesetzentwurf sollte von „Durchsetzung vor Schaden“ zu „ergebnisorientierter Abschreckung“ übergehen.. Sie wollen außerdem, dass die Vorschriften strenger sind, sich auf modernste KI-Sicherheit konzentrieren und eine Überschneidung bundesstaatlicher Anforderungen vermeiden.
5. Wer unterstützt den Gesetzentwurf? Hinton Bengio schreibt ein Unterstützungsschreiben, Senator beschuldigt a16z, Gerüchte zu verbreiten
Obwohl das kalifornische Gesetz zur KI-Sicherheit schon bei seiner Vorlage für Kontroversen sorgte, befürworten viele Wissenschaftler und Brancheninsider eine solche Regelung. Am 7. August, gerade als dieser Gesetzentwurf erneut einer Welle der Kritik ausgesetzt war, veröffentlichte der Turing-Preisträger und „Godfather of AI“Jeffrey Hinton(Geoffrey Hinton), bekannter KI-Wissenschaftler, Turing-PreisträgerJoshua Bengio(Yoshua Bengio), Cyberspace-Rechtsexperte, Professor an der Harvard Law SchoolLawrence Lessig(Lawrence Lessig) und Autor des beliebten KI-Lehrbuchs „Artificial Intelligence: A Modern Approach“ und Professor an der University of California, BerkeleyStuart Russell(Stuart Russell) schrieben gemeinsam an die kalifornische Legislative, um ihre „starke Unterstützung“ für den California AI Safety Act zum Ausdruck zu bringen.
▲Vier bekannte Wissenschaftler haben einen Brief geschrieben, in dem sie den California AI Safety Act unterstützen (Quelle: safesecureai)
Die vier Wissenschaftler sagten, sie seien zutiefst besorgt über die Risiken der KI und dass der kalifornische AI Safety Act die Mindestanforderung für eine wirksame Regulierung der Technologie sei, schrieben sie:
Der Gesetzentwurf sieht kein Lizenzsystem vor und verlangt nicht, dass Unternehmen vor der Schulung oder dem Einsatz von Modellen eine Genehmigung von Regierungsbehörden einholen müssen. Es stützt sich auf die Selbsteinschätzung des Risikos durch ein Unternehmen und macht Unternehmen auch im Katastrophenfall nicht strikt haftbar.
Im Verhältnis zu den Risiken, denen wir ausgesetzt sind,Dies ist eine sehr lockere Gesetzgebung. Die aktuellen Gesetze zur KI sind nicht so streng wie die Gesetze zur Regelung von Sandwich-Läden, und die Abschaffung dieser grundlegenden Maßnahme wäre eine Herausforderunghistorischer Fehler——Ein Jahr später, wenn die nächste Generation leistungsstärkerer KI-Systeme auf den Markt kommt, wird dieser Fehler noch offensichtlicher.
Das haben sie auch betontOb diese Risiken unbegründet oder real sind,müssen alle relevanten Parteien die Verantwortung für die Risikominderung tragen. „Als Expertengruppe, die diese Systeme am besten kennt“, glauben sie, dass diese Risiken möglich und bedeutend genug sind, dass wir sie angehen müssen.Sicherheitstests und Vorsichtsmaßnahmen mit gesundem Menschenverstand。
Vier Experten verwiesen auch auf den jüngsten Sicherheitsskandal von Boeing. Sie glauben, dass Flugzeuge, Medizin und andere komplexe Technologien sehr sicher und zuverlässig geworden sind, was das Ergebnis der gemeinsamen Anstrengungen der Industrie und der Regierung ist.Wenn Regulierungsbehörden Regeln lockern und Selbstregulierung zulassenEs entstehen Probleme wie Boeing, die für die Öffentlichkeit und die Branche äußerst beängstigend sind.
Dieses Unterstützungsschreiben wurde von vielen Internetnutzern unterstützt, aber einige Leute glaubten, dass Hinton und Bengio nicht mehr an vorderster Front tätig sind.Daher haben sie in relevanten Fragen kein Mitspracherecht.
Auch mehrere ehemalige OpenAI-Mitarbeiter unterstützten den Gesetzentwurf, darunter Daniel Kokotajlo, der freiwillig seine OpenAI-Optionen im Austausch für das Recht auf freie Kritik am Unternehmen aufgab. Er glaubt, dass die Behauptungen der Kritiker des Gesetzentwurfs, dass der KI-Fortschritt ins Stocken geraten werde, wahrscheinlich nicht eintreten werden.
▲Relevante Bemerkungen von Kokotayolo (Quelle: X Platform)
Simon Last, der Gründer von Notion, einem KI-Produktivitätstool im Wert von mehreren zehn Milliarden Dollar, ist esIndustrieEinige Befürworter des kalifornischen Gesetzes zur KI-Sicherheit. Er schrieb einen Artikel in der Los Angeles Times, einem der einflussreichsten lokalen Medien in Kalifornien, in dem er den Gesetzentwurf unterstützte und sagte, wenn KI-Gesetze auf Bundesebene schwierig umzusetzen seien,Als Technologiezentrum in den Vereinigten Staaten und sogar weltweit trägt Kalifornien wichtige Verantwortung. Er glaubt, dass die Überwachung von Modellen nicht nur deren Sicherheit verbessert, sondern auch KI-Startups erleichtert, die Produkte auf Basis grundlegender Modelle entwickeln.Dadurch wird die Belastung kleiner und mittlerer Unternehmen verringert。
Darüber hinaus hält er es auch für falsch zu betonen, dass „die Regulierung sich auf die schädliche Nutzung von KI und unangemessenes Verhalten der Nutzer konzentrieren sollte und nicht auf die zugrunde liegende Technologie“. Da Ersteres in den Gesetzen auf allen Ebenen als illegal eingestuft wurde, liefert der neue Gesetzentwurf Kaliforniens den ZweckFehlende Aspekte der vorherigen Regulierung: Möglichen Schaden verhindern.
Nachdem YC und a16z eine Werbekampagne gestartet hatten, verfasste der Senator des US-Bundesstaates Kalifornien, Wei Shangao, der Hauptautor des California AI Safety Act, einen langen Brief als Antwort auf die entsprechenden Beschwerden, in dem er feststellte, dass viele der Aussagen dieser beiden Organisationen über Kalifornien Das KI-Sicherheitsgesetz sei ungenau, und einige Behauptungen seien „provokative Verzerrungen der Tatsachen“, etwa würde der Gesetzentwurf Entwickler, die die Modellrisiken nicht genau einschätzen, ins Gefängnis schicken oder Open-Source-Releases verbieten.
▲ Wei Shangaos Antwort auf YC und a16z (Quelle: safesecureai)
Anfang 2023 begann Wei Shangao mit YC Kontakt aufzunehmen, sagte jedoch, dass er noch immer kein detailliertes Feedback von YC zur Verbesserung des Gesetzentwurfs erhalten habe. a16z beteiligte sich spät am Gesetzgebungsprozess und hat bisher keine inhaltlichen Änderungen vorgeschlagen.
In diesem Brief antwortete Wei Shangao auf mehrere Kernanliegen der Gegner des Gesetzentwurfs:
1、Entwickler werden nicht ins Gefängnis kommen, wenn sie es versäumen, Modellrisiken vorherzusagen.Erstens müssen sich Start-up-Entwickler und Akademiker keine Sorgen machen, da der Gesetzentwurf nicht für sie gilt. Zweitens gilt die Meineidklausel im Gesetzentwurf nur für Entwickler"absichtlich"Sie tritt nur dann in Kraft, wenn eine falsche Aussage gemacht wird, und versehentliche Fehleinschätzungen über die Fähigkeiten eines Modells lösen nicht die Meineidklausel aus (die aus den heutigen Änderungen entfernt wurde).
2、Der Gesetzentwurf schafft keine völlig neuen Zuständigkeiten.Nach geltendem Recht können sowohl Modellentwickler als auch einzelne Entwickler verklagt werden, wenn ein Modell Schaden verursacht. Dies gilt für Modelle aller Fähigkeiten und alle verletzten Personen können klagen. Kaliforniens neuer Gesetzentwurf nicht nurBegrenzt den Umfang der Aufsichtund schränkt auch das Klagerecht einGeneralstaatsanwalt von KalifornienUndArbeitsratauf beiden Entitäten.
3、Der Gesetzentwurf wird die Innovation in Kalifornien nicht behindern.Dieser Gesetzentwurf gilt für alle Unternehmen, die in Kalifornien geschäftlich tätig sind. Auch wenn sie ihren Hauptsitz aus Kalifornien verlegen, sollten sie sich an die entsprechenden Vorschriften halten (Zhixi-Hinweis: Kalifornien ist gemessen am BIP die fünftgrößte Volkswirtschaft der Welt und verfügt über ein vollständiges Technologie-Ökosystem. Technologie Unternehmen Es ist schwer, sich von Kalifornien abzukoppeln). Als Kalifornien Datenschutzgesetze und Umweltschutzgesetze verabschiedete, behaupteten viele, dass dies Innovationen behindern würde, aber Tatsache ist, dass Kalifornien immer noch führend bei Innovationen ist.
4、Kill-Switches und Sicherheitsbewertungsanforderungen werden die Entwicklung von Open-Source-KI nicht behindern.Der Gesetzentwurf wurde nun überarbeitet und stärkt den Schutz von Open-Source-KI. Die im Gesetzentwurf enthaltene Anforderung zur Notabschaltung von Modellen gilt nur für Modelle, die unter der Kontrolle des Entwicklers stehen, mit Ausnahme unkontrollierter Open-Source-Modelle. Mit dem Gesetzentwurf wird außerdem ein neuer Beratungsausschuss eingerichtet, der sich für sichere und zuverlässige Open-Source-KI-Entwicklungsbemühungen einsetzt und diese unterstützt.
Wei Shangao hat auch ein „Lazy Package“ für diejenigen bereitgestellt, die über diesen Gesetzentwurf besorgt sind, und fasst sechs Kernpunkte des Gesetzentwurfs zusammen (siehe Bild unten).
▲Wichtige Punkte des Gesetzentwurfs (Quelle: safesecureai)
Fazit: Kalifornien hat einen wichtigen Schritt getan und die Zukunft des Gesetzentwurfs ist unklar
Obwohl das kalifornische KI-Sicherheitsgesetz von vielen Brancheninsidern abgelehnt wird, zeigen die Ergebnisse einiger Meinungsforschungsinstitute, dass die Einwohner Kaliforniens diesem Gesetz im Allgemeinen positiv gegenüberstehen.
Wenn es offiziell erfolgreich ist, könnte es vor Gericht mit entschlossenen Gegnern wie a16z konfrontiert werden. Das würde den Gesetzentwurf auf Eis legen, bis der Oberste Gerichtshof der USA entscheidet.
Kürzlich hat der Oberste Gerichtshof der USA die fast 40 Jahre währende „Chevron-Doktrin“ aufgehoben und die Stimme der Regulierungsbehörden unterstützt. Dieser Grundsatz verlangt von Richtern, sich bei unklaren rechtlichen Bestimmungen auf die Auslegung gesetzlicher Bestimmungen durch staatliche Regulierungsbehörden zu verlassen. Die Abschaffung dieses Grundsatzes spiegelt die insgesamt konservative Haltung des derzeitigen Obersten Gerichtshofs der USA gegenüber der Technologieregulierung wider.