Nachricht

Ehemaliger OpenAI-Forscher warnt „alten Arbeitgeber“: Unregulierte KI wird katastrophalen Schaden anrichten

2024-08-24

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Laut einem Bericht von Business Insider vom 24. August meldeten sich zwei ehemalige OpenAI-Forscher öffentlich zu Wort, nachdem OpenAI öffentlich seinen Widerstand gegen den kalifornischen SB 1047-Gesetzentwurf (AI Safety Act) zum Ausdruck gebracht hatte Club“ und geben Sie eine Warnung aus.

Der California AI Safety Act verpflichtet KI-Unternehmen dazu, Maßnahmen zu ergreifen, um zu verhindern, dass ihre Modelle „ernsthaften Schaden“ anrichten, etwa durch die Entwicklung biologischer Waffen, die große Verluste verursachen oder mehr als 500 Millionen US-Dollar verursachen können (IT Home Note: derzeit etwa 3,566 Milliarden US-Dollar). Yuan) wirtschaftliche Verluste.

Die ehemaligen Mitarbeiter schrieben an den Gouverneur von Kalifornien, Gavin Newsom, und andere Gesetzgeber, dass der Widerstand von OpenAI gegen den Gesetzentwurf enttäuschend, aber nicht überraschend sei.

Zwei Forscher, William Saunders und Daniel Cocotailo, schrieben in dem Brief: „Wir haben uns (früher) für den Beitritt zu OpenAI entschieden, weil wir sicherstellen wollten, dass das Unternehmen ‚unglaublich leistungsstarke KI-Systeme‘ entwickelt.“Aber wir haben uns entschieden zu gehen, weil dadurch unser Vertrauen in die sichere, ehrliche und verantwortungsvolle Entwicklung von KI-Systemen verloren gegangen ist.

In dem Brief wurde auch erwähnt, dass OpenAI-CEO Altman die Regulierung von KI viele Male öffentlich unterstützt hatte, aber als tatsächliche Regulierungsmaßnahmen zur Einführung vorbereitet wurden, äußerten sie Widerstand. „Die Entwicklung modernster KI-Modelle ohne ausreichende Sicherheitsvorkehrungen birgt das vorhersehbare Risiko katastrophaler Schäden für die Öffentlichkeit.“