Nachricht

Laut OpenAI wird der umstrittene KI-Gesetzentwurf Kaliforniens der Innovation schaden

2024-08-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Laut Bloomberg News lehnt OpenAI laut Whip Bull Report vom 22. August einen kalifornischen Gesetzentwurf ab, der Unternehmen im Bereich der künstlichen Intelligenz neue Sicherheitsanforderungen auferlegt, und schließt sich damit Technologieführern und Politikern an, die sich kürzlich gegen dieses umstrittene Gesetz ausgesprochen haben.

Das in San Francisco ansässige Startup sagte, der Gesetzentwurf würde der Innovation in der Branche der künstlichen Intelligenz schaden und argumentierte, dass die Regulierung von der Bundesregierung und nicht von den Bundesstaaten festgelegt werden sollte.

In dem Brief wurden auch Bedenken geäußert, dass der Gesetzentwurf im Falle seiner Verabschiedung weitreichende und erhebliche Auswirkungen auf die Wettbewerbsfähigkeit der USA in den Bereichen künstliche Intelligenz und nationale Sicherheit haben könnte.

Das von Wiener vorgeschlagene SB 1047 zielt darauf ab, das zu schaffen, was sein Büro als vernünftige Sicherheitsstandards für Unternehmen bezeichnet, die große Modelle künstlicher Intelligenz herstellen, die bestimmte Größen- und Kostenschwellenwerte überschreiten.

Der Gesetzentwurf, der im Mai vom Senat des Bundesstaates verabschiedet wurde, verlangt von KI-Unternehmen, Maßnahmen zu ergreifen, um zu verhindern, dass ihre Modelle ernsthaften Schaden anrichten, wie etwa die Förderung der Entwicklung biologischer Waffen, die zu zahlreichen Opfern führen oder einen wirtschaftlichen Schaden von mehr als 500 Millionen US-Dollar verursachen könnten.

Gemäß dem Gesetzentwurf müssen Unternehmen sicherstellen, dass KI-Systeme abgeschaltet werden können, angemessene Sorgfalt walten lassen, um sicherzustellen, dass KI-Modelle keine Katastrophen verursachen, und Compliance-Erklärungen gegenüber dem kalifornischen Generalstaatsanwalt offenlegen. Wenn Unternehmen diesen Anforderungen nicht nachkommen, können sie verklagt werden und mit zivilrechtlichen Sanktionen rechnen.

Der Gesetzentwurf stieß bei vielen großen Technologieunternehmen, Start-ups und Risikokapitalgebern auf heftigen Widerstand, die sagten, er sei zu weit für eine noch in den Kinderschuhen steckende Technologie und könne die technologische Innovation im Staat ersticken.

Einige Kritiker des Gesetzentwurfs befürchten, dass er KI-Unternehmen aus Kalifornien vertreiben könnte.

OpenAI äußerte die gleichen Bedenken in einem Brief an Weiners Büro.

Jason Kwon, Chief Strategy Officer von OpenAI, schrieb in dem Brief: Die Revolution der künstlichen Intelligenz hat gerade erst begonnen, und Kaliforniens einzigartige Position als weltweit führender Anbieter künstlicher Intelligenz treibt die wirtschaftliche Vitalität des Staates voran. SB 1047 würde dieses Wachstum gefährden, das Innovationstempo verlangsamen und dazu führen, dass Kaliforniens Weltklasse-Ingenieure und Unternehmer den Staat verlassen, um anderswo bessere Möglichkeiten zu finden.

Laut einer Person, die mit den Immobilienplänen des Unternehmens vertraut ist,OpenAI habe die Diskussionen über die Erweiterung seines Büros in San Francisco aufgrund von Bedenken hinsichtlich des unsicheren regulatorischen Umfelds in Kalifornien unterbrochen, sagte die Person und bat um Anonymität, um interne Gespräche besprechen zu können.

Wiener verteidigte den Gesetzesvorschlag in einer Erklärung und sagte, dass der Brief von OpenAI keine Bestimmungen des Gesetzentwurfs kritisierte.

Er sagte auch, dass das Argument, dass KI-Talente den Staat verlassen, irrelevant sei, da das Gesetz für jedes Unternehmen gelten würde, das in Kalifornien Geschäfte tätigt, unabhängig davon, wo sich seine Büros befinden.

Ein Vertreter von Wieners Büro stellte fest, dass zwei prominente nationale Sicherheitsexperten den Gesetzentwurf öffentlich unterstützt hätten.

„SB 1047 ist ein sehr vernünftiger Gesetzentwurf, der große Labore für künstliche Intelligenz verpflichtet, das zu tun, was sie versprochen haben, nämlich ihre großen Modelle auf katastrophale Sicherheitsrisiken zu testen“, sagte Wiener. „SB 1047 ist gut auf das abgestimmt, was wir über die vorhersehbaren Risiken künstlicher Intelligenz wissen, und verdient eine Verabschiedung.“

Kritiker argumentierten, dass der Gesetzentwurf, der Unternehmen verpflichten würde, detaillierte Informationen über ihre Modelle an den Staat zu übermitteln, Innovationen behindern und kleine Open-Source-Entwickler aus Angst vor einer Klage daran hindern würde, Startups zu gründen.

Um einige Widerstände auszuräumen, überarbeitete Wiener letzte Woche den Gesetzesvorschlag, um die strafrechtliche Haftung für nicht konforme Technologieunternehmen zu beseitigen, Schutzmaßnahmen für kleine Open-Source-Modellentwickler hinzuzufügen und die neu vorgeschlagene Frontier Model Unit zu eliminieren.

Bisher konnten Entwickler wegen Meineids bestraft werden, wenn sie der Regierung wissentlich falsche Informationen über ihre Sicherheitspläne übermittelten. Der OpenAI-Konkurrent Anthropic, der dafür bekannt ist, stärker auf Sicherheit zu achten als seine Konkurrenten, hat zuvor erklärt, dass er einige der Änderungen des Gesetzentwurfs unterstützen würde. Aber selbst nachdem die Änderungen eingeführt wurden, stieß der Gesetzentwurf weiterhin auf Widerstand, unter anderem von der ehemaligen Sprecherin des Repräsentantenhauses, Nancy Pelosi, die eine Erklärung herausgab, in der sie den Gesetzentwurf als schlecht informiert bezeichnete.

Auch eine Gruppe demokratischer Kongressabgeordneter sprach sich gegen den Gesetzentwurf aus.

Laut staatlichen Dokumenten haben OpenAI und andere Unternehmen der Technologiebranche Lobbyisten angeheuert, die an dem Gesetzentwurf gearbeitet haben.

OpenAI sagte in dem Brief, dass es seit mehreren Monaten mit Wieners Büro bezüglich des Gesetzentwurfs in Kontakt stehe, ihn aber letztlich nicht unterstütze.

„Wir müssen Amerikas KI-Vorteile durch eine Reihe von Bundesrichtlinien schützen, nicht durch Landesrichtlinien, die den KI-Laboren und Entwicklern Klarheit und Sicherheit bieten und gleichzeitig die öffentliche Sicherheit schützen“, heißt es in dem Brief.

OpenAI ist davon überzeugt, dass Bundesbehörden wie das Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses, das Handelsministerium und der Nationale Sicherheitsrat besser geeignet sind, kritische KI-Risiken zu bewältigen, als staatliche Behörden in Kalifornien.

Das Unternehmen sagte, es unterstütze mehrere vorgeschlagene Bundesgesetze, beispielsweise den Future of Artificial Intelligence Innovation Act, der die Unterstützung des Kongresses für ein neues US-Institut für KI-Sicherheit vorsieht.

„Wie ich wiederholt gesagt habe, stimme ich zu, dass sich der Kongress im Idealfall mit diesem Thema befassen würde“, sagte Wiener in einer Erklärung. „Der Kongress hat dies jedoch nicht getan, und wir bezweifeln, dass der Kongress dies tun wird. Laut der Argumentation von OpenAI wird Kalifornien sein Datenschutzgesetz niemals verabschieden, und angesichts der mangelnden Maßnahmen des Kongresses werden die Kalifornier nichts für ihren Datenschutz bekommen.“

SB 1047 wird irgendwann in diesem Monat im kalifornischen Parlament zur Abstimmung stehen.

Im Falle einer Verabschiedung würde es schließlich an den Schreibtisch des kalifornischen Gouverneurs Gavin Newsom wandern.Obwohl Newsom nicht gesagt hat, ob er gegen den Gesetzentwurf ein Veto einlegen wird, hat er sich für die Notwendigkeit ausgesprochen, KI-Innovationen in Kalifornien zu fördern und gleichzeitig Risiken zu reduzieren.