Nachricht

Altman wirft Unehrlichkeit in Bezug auf die OpenAI-Sicherheitsarbeit vor

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Whip Bull Report, 3. August, ausländischen Berichten zufolge steht OpenAI zunehmend unter Druck, nachdem ein Whistleblower gegenüber der US-Börsenaufsicht SEC (Securities and Exchange Commission) behauptet hatte, dass die Vertraulichkeitsvereinbarung des Unternehmens für künstliche Intelligenz OpenAI Mitarbeiter illegal daran gehindert habe, wichtige Sicherheitsprobleme gegenüber dem Gesetzgeber offenzulegen. Der Druck wird größer werden, zu beweisen, dass die Risiken der künstlichen Intelligenz nicht verborgen bleiben.

In einem Brief an OpenAI forderte Senator Chuck Grassley (R-Iowa) gestern Beweise dafür, dass die Tatsache, dass OpenAI keine Unterschriften mehr verlangt, seine Mitarbeiter daran hindern könnte, Anträge an die Offenlegungsvereinbarung der Regierung zu stellen.

Insbesondere forderte Grassley OpenAI auf, aktuelle Beschäftigungs-, Abfindungs-, Nichtverunglimpfungs- und Vertraulichkeitsvereinbarungen vorzulegen, um dem Kongress zu gewährleisten, dass Verträge die Offenlegung nicht behindern.

Grassley sagte, dies sei von entscheidender Bedeutung, damit wir uns darauf verlassen können, dass Whistleblower, die aufkommende Bedrohungen aufdecken, bei der Entwicklung wirksamer KI-Richtlinien helfen, die vor bestehenden KI-Risiken aufgrund technologischer Fortschritte schützen.

In Grassleys Brief hieß es, er habe OpenAI offenbar zweimal nach diesen Aufzeichnungen gefragt, aber keine Antwort erhalten.

Die Sprecherin von Grassley, Clare Slattery, sagte gegenüber der Washington Post, dass OpenAI bisher nicht auf die jüngste Anfrage nach Dokumenten geantwortet habe.

„Es reicht nicht zu sagen, dass Sie ein Update vorgenommen haben“, sagte Grassley in einer Erklärung gegenüber Ars. „Fakten sagen mehr als Worte. Altman muss Aufzeichnungen vorlegen und auf meine Aufsichtsanfrage reagieren, damit der Kongress genau beurteilen kann, ob OpenAI seine Mitarbeiter und Benutzer angemessen schützt.“

Grassley forderte OpenAI nicht nur vor kurzem auf, seine Mitarbeitervereinbarung zu aktualisieren, sondern forderte OpenAI auch dazu auf, seit 2023 transparenter über die Gesamtzahl der Mitarbeiteranträge auf bundesstaatliche Offenlegungen zu sein.

Die Senatoren wollten wissen, welche Informationen die Mitarbeiter den Beamten preisgeben wollten und ob OpenAI ihren Anträgen tatsächlich zustimmte.

Ebenso bat Grassley OpenAI, zu bestätigen, wie viele SEC-Untersuchungen es seit 2023 eingeleitet hat.

Zusammengenommen werden die Dokumente zeigen, ob es OpenAI-Mitarbeitern immer noch verboten ist, bundesstaatliche Offenlegungen zu machen, welche Arten von Offenlegungen OpenAI bestreitet und inwieweit die SEC OpenAI auf das Verbergen von Sicherheitsrisiken überwacht.

Grassley schrieb in dem Brief: OpenAI muss sicherstellen, dass seine Mitarbeiter geschützte Offenlegungen ohne rechtswidrige Einschränkungen bereitstellen können.

Er hat OpenAI gebeten, bis zum 15. August zu antworten, damit der Kongress eine objektive und unabhängige Überwachung der Sicherheitsprotokolle und Vertraulichkeitsvereinbarungen von OpenAI durchführen kann.

OpenAI reagierte nicht sofort auf die Bitte von Ars um einen Kommentar.

An .

Er bestätigte auch, dass OpenAI möchte, dass aktuelle und ehemalige Mitarbeiter sich wohl fühlen, wenn sie Bedenken äußern.

„Dies ist für jedes Unternehmen von entscheidender Bedeutung, insbesondere aber für uns, wo es ein wichtiger Teil unseres Sicherheitsprogramms ist“, schrieb Altman. Im Mai haben wir eine Nichtverunglimpfungsklausel für aktuelle und ehemalige Mitarbeiter sowie eine Klausel abgeschafft, die OpenAI das Recht einräumte, unverfallbares Eigenkapital zu annullieren (auch wenn es nie genutzt wurde). Wir haben hart daran gearbeitet, dies zu korrigieren.

Im Juli teilte der Whistleblower der Securities and Exchange Commission mit, dass OpenAI verpflichtet sein sollte, nicht nur aktuelle Mitarbeiterverträge, sondern alle Verträge bereitzustellen, die Vertraulichkeitsvereinbarungen enthalten, um sicherzustellen, dass OpenAI historische oder aktuelle Praktiken zur Verschleierung von KI-Sicherheitsrisiken nicht vertuscht hat. Sie wollen, dass alle aktuellen und ehemaligen Mitarbeiter über alle Verträge informiert werden, die illegale Vertraulichkeitsvereinbarungen enthalten, und dass OpenAI für jeden illegalen Vertrag eine Geldstrafe verhängt.

Sam Altman wird vorgeworfen, Fragen der KI-Sicherheit geringzuschätzen

Doch Forderungen nach mehr Transparenz durch OpenAI beschränken sich nicht nur auf den Gesetzgeber. Am Tag vor Grassleys offenem Brief veröffentlichte Sam Altman, CEO von OpenAI, eine Erklärung zu: Die Aussage war irreführend und löste einen öffentlichen Aufschrei aus.

Altman schrieb: Wie wir letzten Juli sagten, haben wir uns verpflichtet, mindestens 20 % unserer Rechenressourcen für Sicherheitsbemühungen im gesamten Unternehmen bereitzustellen, was in der Community Bedenken hervorrief, die viele voreingenommene X-Leser für mehr Kontext hielten.

In der Community-Notiz heißt es, dass Altman sich auf einen Juli-Blog bezog, der ausdrücklich bestätigte, dass OpenAI 20 % der Rechenressourcen seinem Super Alignment-Team zuweist. Da das Team nun aufgelöst wurde und der für Hyper-Alignment zuständige Chefwissenschaftler das Unternehmen verlässt, sagen X-Kommentatoren, dass Altmans Behauptungen die Öffentlichkeit darüber in die Irre geführt haben, welche Rechenressourcen OpenAI tatsächlich für seine nun vage definierten Sicherheitsbemühungen bereitstellt.

Einige X-Kommentatoren forderten weitere Details zu den aktuellen Sicherheitsbemühungen von OpenAI. In einem Brief vom 31. Juli als Antwort an fünf andere Senatoren zu Fragen der KI-Sicherheit erläuterte OpenAI seine Sicherheitsbemühungen ausführlicher. Das Unternehmen präzisierte auch Altmans Aussage, dass

OpenAI sagte in einem Brief an die Senatoren: „Um unsere Sicherheitsforschungsagenda weiter voranzutreiben, haben wir uns im vergangenen Juli dazu verpflichtet, über einen Zeitraum von mehreren Jahren mindestens 20 % der Rechenressourcen für die KI-Sicherheit bereitzustellen.“ Dieses Engagement gilt immer für Sicherheitsbemühungen im gesamten Unternehmen und nicht nur für ein bestimmtes Team.

Das verwirrt einige Leute, denn im Blog von OpenAI heißt es eindeutig, dass OpenAI in den nächsten vier Jahren 20 % der bisher erworbenen Rechenressourcen für die Lösung des Superintelligenz-Koordinierungsproblems aufwenden wird. Damals sagte OpenAI, seine wichtigste Basisforschungswette sei sein ehemaliges superorganisiertes Team, das „Rechnerressourcen benötigt, weil es für die Erreichung unserer Mission von entscheidender Bedeutung ist, es gut zu machen.“

Eins

OpenAI hat noch nicht auf den Meme-Account geantwortet, aber bereits zuvor gesagt, dass hochkonzentrierte Teams für die KI-Sicherheit von entscheidender Bedeutung sind, da die Gesellschaft wissenschaftliche und technologische Durchbrüche benötigt, um KI-Systeme zu steuern und zu kontrollieren, die intelligenter sind als wir.

OpenAI beschreibt Sicherheitsinitiativen

In dem Brief von OpenAI an die Senatoren erklärte Chief Strategy Officer Jason Kwon den Gesetzgebern, dass OpenAI vor Risiken schützt, indem es mit externen Experten zusammenarbeitet, um unsere Modelle zu bewerten und einem Red-Team zu unterziehen. Dazu gehörte die Beratung mit mehr als 100 externen Experten, die bei der Bewertung der mit unserem neuesten Modell, GPT-4o, verbundenen Risiken halfen.

Kwon schreibt: Die Ergebnisse und Sicherheitsminderungen aus Red-Team-Tests sind in den Systemkarten, die unseren Modellen beiliegen, öffentlich verfügbar, und OpenAI hat ein Papier zum Thema „Messung chemischer, biologischer, radiologischer und nuklearer (CBRN) Risiken im Zusammenhang mit künstlichen Intelligenzsystemen“ veröffentlicht „Forschung, die abschätzt, inwieweit verschiedene Berufe und Branchen von Sprachmodellen betroffen sein können, die Auswirkungen von Sprachmodellen auf die Beeinflussung von Abläufen bewertet und die Interpretierbarkeit von Systementscheidungen künstlicher Intelligenz erklärt.

Um die Sicherheit der KI weiter zu gewährleisten, sagte Kwon, dass OpenAI eine iterative Bereitstellung durchführen wird, indem neue Funktionen wie das Sora-Videomodell oder die Sprach-Engine zunächst für eine begrenzte Gruppe freigegeben werden und sie dann allgemein der Öffentlichkeit zugänglich gemacht werden.

Kwon schrieb: Diese Strategie ermöglicht es uns, Feedback von Leuten außerhalb von OpenAI einzuholen, unsere Sicherheitsleitplanken nach Bedarf zu aktualisieren und die Öffentlichkeit über kommende KI-Funktionen zu informieren, bevor wir unser Modell vollständig öffnen.

Für Mitarbeiter, die neue Funktionen oder Modelle entwickeln und immer noch Vergeltungsmaßnahmen fürchten, weil sie Sicherheitsbedenken geäußert haben, hat OpenAI laut Kwon im März eine Integritätshotline eingerichtet. Über diesen Kanal können Mitarbeiter anonym Probleme melden, wenn es ihnen unangenehm ist, Probleme über andere bestehende Kanäle anzusprechen.

Während OpenAI sagt, dass es den Mitarbeitern freisteht, über alle Bedenken zu sprechen, ist es klar, dass bestimmte Informationen, wenn OpenAI sie als Sicherheitsrisiko ansieht, trotzdem nicht weitergegeben werden dürfen.

Kwon schreibt: OpenAI unterscheidet weiterhin zwischen der Äußerung von Bedenken und der Preisgabe von Geschäftsgeheimnissen des Unternehmens. Letzteres (geschütztes Offenlegungsrecht) bleibt durch Geheimhaltungsvereinbarungen mit aktuellen und ehemaligen Mitarbeitern untersagt. Wir glauben, dass dieses Verbot angesichts der Auswirkungen unserer Technologie auf die nationale Sicherheit der USA besonders wichtig ist.

Angesichts der Tatsache, dass diese Ausnahme es OpenAI ermöglicht, einige bundesstaatliche Offenlegungen zu verweigern, wollte Grassley wahrscheinlich herausfinden, ob OpenAI Offenlegungen auf der Grundlage des Schutzes von Geschäftsgeheimnissen möglicherweise zu Unrecht verweigert hat.

Grassleys Brief machte deutlich, dass die Senatoren über die Risiken für die Selbstüberwachungssicherheit der Unternehmen besorgt waren.