2024-08-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Neuer Weisheitsbericht
Herausgeber: So schläfrig
[Einführung in die neue Weisheit]Kaliforniens „AI Restriction Bill“ wurde zunächst erfolgreich gegen den starken Widerstand von KI-Tycoons, großen Technologieunternehmen, Start-ups und Risikokapitalgebern verabschiedet.
Wie wir alle wissen, hat KI, abgesehen von den Interpretationen in verschiedenen Science-Fiction-Filmen, weder in der realen Welt jemanden getötet noch groß angelegte Cyberangriffe gestartet.
Einige US-Gesetzgeber hoffen jedoch immer noch, dass angemessene Sicherheit umgesetzt werden kann, bevor diese dystopische Zukunft Realität wird.
Erst diese Woche hat der kalifornische Frontier Artificial Intelligence Model Security Innovation Act, SB 1047, erneut einen wichtigen Schritt in Richtung Gesetzeskraft gemacht.
Einfach ausgedrückt wird SB 1047 verhindern, dass KI-Systeme Massenopfer verursachen oder Cybersicherheitsvorfälle auslösen, die mehr als 500 Millionen US-Dollar kosten, indem Entwickler zur Rechenschaft gezogen werden.
Der Widerstand aus Wissenschaft und Industrie war jedoch so groß, dass die kalifornischen Gesetzgeber einen leichten Kompromiss eingingen, indem sie mehrere Änderungen hinzufügten, die vom KI-Startup Anthropic und anderen Gegnern vorgeschlagen wurden.
Im Vergleich zum ursprünglichen Vorschlag reduziert die aktuelle Version die Befugnisse der kalifornischen Regierung, KI-Labore zur Rechenschaft zu ziehen.
Rechnungsadresse: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047
Aber trotzdem mag (fast) niemand SB 1047.
KI-Giganten wie Yann LeCun, Li Feifei und Ng Enda haben wiederholt ihre Unzufriedenheit mit diesem Gesetz zum Ausdruck gebracht, das „Open-Source-KI unterdrückt und KI-Innovationen dazu zwingt, ausgesetzt oder sogar gestoppt zu werden“.
Nacheinander tauchen auch verschiedene gemeinsame Briefe auf:
Mehr als 40 Forscher der University of California, der University of Southern California, der Stanford University und des California Institute of Technology appellierten nicht nur nachdrücklich, diesen Gesetzentwurf nicht zu verabschieden.
Und acht Kongressabgeordnete, die verschiedene Bezirke in Kalifornien vertraten, forderten den Gouverneur ebenfalls auf, ein Veto gegen den Gesetzentwurf einzulegen.
LeCun kopierte sogar die ursprüngliche Botschaft, die er verwendete, als er ein Moratorium für die KI-Forschung forderte – bitte setzen Sie die KI-Gesetzgebung für sechs Monate aus!
Die Frage ist also: Warum wurde im vorherigen Artikel „fast jeder“ verwendet?
Denn neben LeCun unterstützen auch die beiden anderen Turing-Giganten Yoshua Bengio und Geoffrey Hinton die Verabschiedung dieses Gesetzentwurfs nachdrücklich.
Ich habe sogar das Gefühl, dass die aktuellen Bedingungen etwas zu locker sind.
Als leitende Forscher im Bereich künstliche Intelligenz und Politik forschen wir mit diesem Schreiben, um unsere starke Unterstützung für den Gesetzentwurf 1047 des kalifornischen Senats zum Ausdruck zu bringen. SB 1047 beschreibt die Grundvoraussetzungen für eine wirksame Regulierung dieser Technologie. Es implementiert kein Lizenzierungssystem, verlangt nicht, dass Unternehmen eine Genehmigung von Regierungsbehörden einholen, bevor sie Modelle schulen oder einsetzen, verlässt sich darauf, dass Unternehmen Risiken selbst bewerten, und verpflichtet Unternehmen nicht, selbst im Katastrophenfall strikt zur Verantwortung zu ziehen. Im Verhältnis zum Ausmaß der Risiken, denen wir ausgesetzt sind, handelt es sich hierbei um eine relativ milde Gesetzgebung. Die Rücknahme der grundlegenden Maßnahmen des Gesetzentwurfs wäre ein historischer Fehler – einer, der in einem Jahr noch offensichtlicher werden wird, wenn die nächste Generation leistungsstärkerer KI-Systeme auf den Markt kommt.
Heute wurde SB 1047 im kalifornischen Parlament relativ problemlos verabschiedet, trotz des heftigen Widerstands einiger US-Kongressabgeordneter, bekannter KI-Forscher, großer Technologieunternehmen und Risikokapitalgeber.
Als nächstes wird SB 1047 der kalifornischen Versammlung zur endgültigen Abstimmung vorgelegt. Aufgrund der Hinzufügung der neuesten Änderungen muss der Gesetzentwurf nach seiner Verabschiedung zur Abstimmung an den kalifornischen Senat zurückgeschickt werden.
Wenn beide Abstimmungen angenommen werden, wird SB 1047 an den Gouverneur gesendet, um auf ein endgültiges Veto oder die Unterzeichnung des Gesetzes zu warten.
Welche Modelle und Unternehmen werden eingeschränkt?
Gemäß den Anforderungen von SB 1047 müssen Entwickler oder Unternehmen, die Modelle entwickeln, dafür verantwortlich sein, zu verhindern, dass ihre KI-Modelle dazu verwendet werden, „erheblichen Schaden“ zu verursachen.
Zum Beispiel die Entwicklung von Massenvernichtungswaffen oder die Durchführung von Cyberangriffen, die mehr als 500 Millionen US-Dollar kosten. Übrigens verursachte der „Global Windows Blue Screen Incident“ von CrowdStrike einen Schaden von mehr als 5 Milliarden US-Dollar.
Allerdings gelten die Regeln von SB 1047 nur für sehr große KI-Modelle – das heißt, die Trainingskosten betragen mindestens 100 Millionen US-Dollar und die Anzahl der Gleitkommaoperationen übersteigt 10^26. (Grundsätzlich basierend auf den Schulungskosten von GPT-4)
Es heißt, dass sich der Rechenaufwand für Metas nächste Generation Llama 4 um das Zehnfache erhöhen wird und daher auch durch SB 1047 geregelt wird.
Für Open-Source-Modelle und deren verfeinerte Versionen sind die ursprünglichen Entwickler verantwortlich. Es sei denn, die Kosten erreichen das Dreifache des Originalmodells.
Unter diesem Gesichtspunkt ist es kein Wunder, dass LeCuns Reaktion so heftig war.
Darüber hinaus müssen Entwickler Testverfahren erstellen, die die Risiken von KI-Modellen berücksichtigen, und jährlich externe Prüfer beauftragen, ihre KI-Sicherheitspraktiken zu bewerten.
Für auf Modellen basierende KI-Produkte müssen entsprechende Sicherheitsprotokolle entwickelt werden, um Missbrauch zu verhindern, einschließlich eines „Not-Aus“-Knopfes, der das gesamte KI-Modell abschaltet.
usw……
Was ist die aktuelle Funktion von SB 1047?
Heute erlaubt SB 1047 dem kalifornischen Generalstaatsanwalt nicht mehr, KI-Unternehmen wegen fahrlässiger Sicherheitsmaßnahmen zu verklagen, bevor ein katastrophales Ereignis eintritt. (Vorschlag von Anthropic)
Stattdessen könnte der kalifornische Generalstaatsanwalt eine einstweilige Verfügung beantragen, die ein Unternehmen dazu verpflichtet, einen Betrieb einzustellen, den es für gefährlich hält, und könnte dennoch KI-Entwickler verklagen, wenn ihre Modelle tatsächlich zu katastrophalen Ereignissen führen.
Mit SB 1047 wird die ursprünglich im Gesetzentwurf enthaltene neue Regierungsbehörde „Frontier Modeling Division (FMD)“ nicht mehr eingerichtet.
Der Kern von FMD, das Frontier Model Committee, wurde jedoch weiterhin gegründet und innerhalb der bestehenden Government Operations Agency angesiedelt, und seine Größe wurde von zuvor 5 auf 9 Personen erweitert. Der Ausschuss wird weiterhin Rechenschwellenwerte für abgedeckte Modelle festlegen, Sicherheitshinweise herausgeben und Vorschriften für Prüfer erlassen.
SB 1047 enthält auch lockerere Formulierungen, wenn es darum geht, die Sicherheit von KI-Modellen zu gewährleisten.
Jetzt müssen Entwickler nur noch „angemessene Sorgfalt“ leisten, um sicherzustellen, dass KI-Modelle kein erhebliches Katastrophenrisiko darstellen, und nicht die bisher erforderliche „angemessene Sicherheit“.
Darüber hinaus müssen Entwickler lediglich eine öffentliche „Erklärung“ abgeben, in der sie ihre Sicherheitsmaßnahmen darlegen, und müssen bei Strafe des Meineids keine Zertifizierung der Ergebnisse von Sicherheitstests mehr vorlegen.
Es gibt auch einen separaten Schutz für Open-Source-Feinoptimierungsmodelle. Wenn jemand weniger als 10 Millionen US-Dollar für die Feinabstimmung eines Modells ausgibt, gilt er nicht als Entwickler und die Verantwortung verbleibt beim ursprünglichen großen Entwickler des Modells.
Li Feifei hat einmal persönlich einen kritischen Artikel geschrieben
Die Auswirkungen von SB 1047 auf die KI-Branche sind in der Kolumne von „AI Godmother“ Li Feifei im Fortune-Magazin zu sehen:
„Wenn es Gesetz wird, wird SB 1047 dem aufstrebenden KI-Ökosystem Amerikas schaden, insbesondere den Teilen, die bereits benachteiligt sind: Der öffentliche Sektor, die Wissenschaft und kleine Technologieunternehmen werden Entwickler unnötig bestrafen, die Open-Source-Community ersticken und die Wissenschaft einschränken.“ Auch die Forschung löst das eigentliche Problem nicht.“
Erstens würde SB 1047 Entwickler unangemessen bestrafen und Innovationen unterdrücken.
In Fällen, in denen ein KI-Modell missbraucht wird, schiebt SB 1047 die Schuld dem Verantwortlichen und dem ursprünglichen Entwickler des Modells zu. Für jeden KI-Entwickler, insbesondere für angehende Programmierer und Unternehmer, ist es unmöglich, jede mögliche Verwendung seiner Modelle vorherzusagen. SB 1047 wird Entwickler dazu zwingen, Abwehrmaßnahmen zu ergreifen – etwas, das unbedingt vermieden werden sollte.
Zweitens wird SB 1047 die Open-Source-Entwicklung einschränken.
SB 1047 verlangt, dass alle Modelle, die einen bestimmten Schwellenwert überschreiten, über einen „Not-Aus-Knopf“ verfügen, einen Mechanismus, der das Programm jederzeit beenden kann. Wenn Entwickler befürchten, dass die von ihnen heruntergeladenen und erstellten Programme gelöscht werden, werden sie beim Programmieren oder bei der Zusammenarbeit eher zurückhaltend sein. Dieser Not-Aus-Knopf wird schwerwiegende Auswirkungen auf die Open-Source-Community haben – nicht nur in der KI, sondern in unzähligen Innovationsquellen in so unterschiedlichen Bereichen wie GPS, MRT und dem Internet selbst.
Drittens wird SB 1047 die KI-Forschung im öffentlichen Sektor und in der Wissenschaft lahmlegen.
Die Open-Source-Entwicklung ist im privaten Sektor wichtig, aber noch wichtiger ist die akademische Welt, die ohne Zusammenarbeit und Zugriff auf Modelldaten keine Fortschritte erzielen kann. Wie können Forscher die nächste Generation von KI-Führungskräften ausbilden, wenn sie keinen Zugang zu geeigneten Modellen und Daten haben? Ein Not-Aus-Knopf würde die Wissenschaft, die ohnehin schon einen Daten- und Rechennachteil hat, noch weiter schwächen. SB 1047 wird der akademischen KI einen fatalen Schlag versetzen, und das zu einer Zeit, in der wir mehr in die KI des öffentlichen Sektors investieren sollten.
Am besorgniserregendsten ist, dass SB 1047 potenzielle Risiken durch Fortschritte in der KI, einschließlich Voreingenommenheit und Deepfakes, nicht berücksichtigt. Stattdessen wird ein sehr willkürlicher Schwellenwert festgelegt – eine bestimmte Menge an Rechenleistung oder ein Modell, dessen Training 100 Millionen US-Dollar kostet. Diese Maßnahme bietet nicht nur keinen Schutz, sondern wird auch die Innovation in verschiedenen Bereichen, einschließlich der Wissenschaft, einschränken.
Li Feifei sagte, dass sie nicht gegen die KI-Governance sei. Für die sichere und effektive Entwicklung von KI ist die Gesetzgebung von entscheidender Bedeutung. Allerdings muss die KI-Politik die Open-Source-Entwicklung unterstützen, einheitliche und vernünftige Regeln festlegen und das Vertrauen der Verbraucher stärken.
Offensichtlich erfüllt SB 1047 diese Standards nicht.
Referenzen:
https://techcrunch.com/2024/08/15/california-weakens-bill-to-prevent-ai-disasters-before-final-vote-take-advice-from-anthropic/
https://techcrunch.com/2024/08/15/california-ai-bill-sb-1047-aims-to-prevent-ai-disasters-but-silicon-valley-warns-it-will-cause-one/
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/