Nachricht

„KI-Patin“ Li Feifei schrieb persönlich: Kaliforniens KI-Sicherheitsgesetz wird dem US-Ökosystem schaden|Titanium Media AGI

2024-08-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Laut TMTpost App News vom 7. August ist „Godmother of AI“, Akademikerin der National Academy of Engineering, Akademikerin der National Academy of Medicine, Akademikerin der American Academy of Arts and Sciences, die erste Sequoia Chair Professorin an der Stanford University, Dekan Feifei Li vom Stanford Human-Centered Artificial Intelligence Institute (HAI) hat heute Morgen einen Artikel in „Fortune“ geschrieben und darauf hingewiesen, dass die bevorstehende Umsetzung des AI Safety Act in Kalifornien Entwicklern, der Wissenschaft und sogar der gesamten Gesellschaft schaden wird Das US-amerikanische KI-Ökosystem wird jedoch den potenziellen Schaden der KI nicht beseitigen.

„Heutzutage ist KI fortschrittlicher denn je. Mit großer Macht geht jedoch auch große Verantwortung einher. Ich begrüße sie Einige dieser Bemühungen sind jedoch misstrauisch; der kalifornische Safe Innovation for Frontier Artificial Intelligence Models Act (im Folgenden als SB-1047 bezeichnet) fällt in diese letztere Kategorie: „Die Gesetzgebung wird erhebliche unbeabsichtigte Folgen haben, nicht nur für Kalifornien, sondern für das ganze Land", sagte Li Feifei.

Berichten zufolge hat der kalifornische Senat im Juli dieses Jahres eine Version des SB-1047-Gesetzes verabschiedet, die von Entwicklern den Nachweis verlangt, dass ihre KI-Modelle nicht dazu verwendet werden, Schaden anzurichten. Dies ist mehr als die mehr als 600 vorgeschlagenen KI-Gesetze durch die Gesetzgeber der US-Bundesstaaten in diesem Jahr. Zu viele Einschränkungen, um Aufmerksamkeit zu erregen. Dieser äußerst schädliche Vorschlag könnte im August dieses Jahres vom kalifornischen Gouverneur Gavin Newsom in Kraft treten.

Gemäß der Definition des Gesetzentwurfs wird Metas Llama-3 als „modernstes Modell“ definiert, dessen Ausbildung mehr als 100 Millionen US-Dollar kostet. Meta wird auch hart bestraft, wenn jemand das Modell für illegale Zwecke nutzt. Gleichzeitig verlangt Abschnitt 22603(a)(3)(4) des Gesetzes, dass „Limited Duty Exemption“ die Zertifizierung bei Regierungsbehörden vorlegen und den Betrieb des Modells stoppen muss, wenn Fehler auftreten, während Abschnitt 22603(b) dies vorschreibt Entwickler können potenzielle KI-Sicherheitsvorfälle für jedes Modell melden. Wenn ein Entwickler die verschiedenen abgeleiteten Versionen basierend auf seinem Modell nicht vollständig kontrollieren kann und es zu einem Sicherheitsvorfall kommt, liegt die Verantwortung beim ersten Entwickler.Dies kommt einer gesamtschuldnerischen Haftung gleich

Darüber hinaus sieht Abschnitt 22604(a)(b) des Gesetzentwurfs vor, dass Entwickler bei der Nutzung ihrer „modernsten Modelle“ und Rechenressourcen alle Kundeninformationen übermitteln müssen, einschließlich der Identität des Kunden, der Kreditkartennummer, der Kontonummer usw. und Kundenidentifikations-ID, Transaktions-ID, E-Mail, Telefonnummer. Darüber hinaus müssen einmal im Jahr Informationen übermittelt und das Verhalten und die Absichten des Nutzers ausgewertet werden. Alle Benutzerinformationen werden 7 Jahre lang gesichert und auch bei der Zoll- und Grenzverwaltung archiviert.

Die geografische Lage Kaliforniens in den Vereinigten Staaten ist etwas ganz Besonderes. Es ist die Heimat berühmter Schulen wie Stanford, Caltech und der University of Southern California sowie Google, Apple.OpenAI Es ist auch der Sitz von Technologiegiganten wie Meta und Meta. Daher in diesem Zusammenhang Yann LeCun, Turing-Preisträger und leitender KI-Wissenschaftler von Meta, Li Feifei, Andreessen Horowitz, Gründungspartner der Investmentinstitution a16z, Fakultät für Informatik und Fakultät für Elektrotechnik an der Stanford University, Gastprofessor Andrew Ng und andere Einwände geäußert.

Unter anderem warnte Yang Likun, dass die „gesamtschuldnerische Haftungsklausel“ des Gesetzentwurfs „Open-Source-KI-Plattformen enormen Risiken aussetzen wird … Meta wird davon nicht betroffen sein, aber KI-Startups werden Berichten zufolge bankrott gehen.“ böswillig von anderen, Der Gesetzentwurf verlangt, dass KI-Entwickler zivil- und sogar strafrechtlich für die von ihnen entwickelten Modelle haftbar gemacht werden.

Horowitz glaubt, dass das kalifornische Anti-KI-Gesetz zwar gut gemeint ist, aber die US-Technologieindustrie aufgrund von Fehlinformationen schwächen könnte, gerade zu einem Zeitpunkt, an dem die Zukunft der Technologie an einem kritischen Scheideweg steht. Die Vereinigten Staaten brauchen Führungspersönlichkeiten, die erkennen, dass jetzt ein entscheidender Moment für intelligente und einheitliche Regulierungsmaßnahmen im Bereich KI ist.

Andrew Ng veröffentlichte einen Artikel, in dem es heißt, dass der kalifornische Gesetzentwurf SB-1047 die Entwicklung großer Open-Source-Modelle ersticken wird. Er wies weiter darauf hin,Es sind KI-Anwendungen, die reguliert werden sollten, nicht die großen Modelle selbst

Li Feifei ist davon überzeugt, dass KI-Richtlinien Innovationen fördern, entsprechende Beschränkungen festlegen und die Auswirkungen dieser Beschränkungen abmildern müssen. Maßnahmen, die dies nicht tun, werden im besten Fall ihre Ziele nicht erreichen und im schlimmsten Fall zu unbeabsichtigten und schwerwiegenden Folgen führen. Wenn SB-1047 in Kraft tritt, wird es Amerikas jungem KI-Ökosystem schaden, insbesondere den Teilen, die von den heutigen Technologiegiganten bereits benachteiligt werden: dem öffentlichen Sektor, der Wissenschaft und „kleinen Technologieunternehmen“. SB-1047 würde Entwickler unnötig bestrafen, unsere Open-Source-Community ersticken und die akademische KI-Forschung behindern, während es gleichzeitig nicht gelingt, die eigentlichen Probleme zu lösen, die es lösen soll.

Li Feifei nannte vier Gründe:

Erstens würde SB-1047 Entwickler unangemessen bestrafen und Innovationen unterdrücken. Wenn ein KI-Modell missbraucht wird, zieht SB-1047 die verantwortlichen Parteien und die ursprünglichen Entwickler des Modells zur Rechenschaft. Es ist für jeden KI-Entwickler (insbesondere für angehende Programmierer und Unternehmer) unmöglich, jede mögliche Verwendung seines Modells vorherzusagen. SB-1047 wird Entwickler dazu zwingen, sich zurückzuziehen und in die Defensive zu gehen – genau das, was wir zu vermeiden versuchen.

Zweitens wird SB-1047 die Open-Source-Entwicklung einschränken. SB-1047 verlangt, dass alle Modelle, die einen bestimmten Schwellenwert überschreiten, über einen „Kill-Schalter“ verfügen, einen Mechanismus, der das Programm jederzeit beenden kann. Entwickler werden beim Codieren und bei der Zusammenarbeit noch zurückhaltender sein, wenn sie befürchten, dass die Programme, die sie herunterladen und erstellen, gelöscht werden. Dieser Kill-Switch würde die Open-Source-Community zerstören – die Quelle unzähliger Innovationen, nicht nur in der KI, sondern in allen Bereichen, von GPS über MRT bis hin zum Internet selbst.

Drittens wird SB-1047 die KI-Forschung im öffentlichen Sektor und in der Wissenschaft schwächen. Die Open-Source-Entwicklung ist für den privaten Sektor wichtig, aber auch für die Wissenschaft von entscheidender Bedeutung, die ohne Zusammenarbeit und Modelldaten nicht vorankommen kann. Nehmen wir zum Beispiel Informatikstudenten, die an offenen KI-Modellen arbeiten. Wenn unsere Institutionen keinen Zugang zu geeigneten Modellen und Daten haben, wie können wir dann die nächste Generation von KI-Führungskräften ausbilden? Ein Kill-Switch würde die Bemühungen dieser Studenten und Forscher weiter untergraben, die im Vergleich zu großen Technologieunternehmen bereits im Daten- und Computerbereich im Nachteil sind. SB-1047 wird den „Todesstoß“ für die Wissenschaft und die KI im öffentlichen Sektor einläuten, was zu einer Verdoppelung der Investitionen führen dürfte.

Am besorgniserregendsten ist, dass der Gesetzentwurf die potenziellen Schäden der KI-Entwicklung, einschließlich Voreingenommenheit und Deepfakes, nicht berücksichtigt. Stattdessen legt SB-1047 einen willkürlichen Schwellenwert fest und regelt Modelle, die eine bestimmte Menge an Rechenleistung verbrauchen oder deren Training 100 Millionen US-Dollar kostet. Diese Maßnahme bietet keinen Schutz, sondern wird lediglich die Innovation in verschiedenen Bereichen, einschließlich der Wissenschaft, einschränken.

Li Feifei wies darauf hin, dass KI-Modelle im akademischen Bereich heute unter diesem Schwellenwert liegen, aber wenn die Vereinigten Staaten ihre Investitionen in private und öffentliche KI neu ausgleichen, wird der akademische Bereich durch SB-1047 reguliert und das US-amerikanische KI-Ökosystem wird sich dadurch verschlechtern . . Deshalb müssen die Vereinigten Staaten das Gegenteil tun.

„In mehreren Gesprächen mit Präsident Biden im vergangenen Jahr habe ich die Notwendigkeit einer ‚Moonshot-Mentalität‘ zum Ausdruck gebracht, um die KI-Ausbildung, -Forschung und -Entwicklung in unserem Land voranzutreiben. Allerdings sind die Beschränkungen von SB-1047 zu willkürlich und werden nicht nur Auswirkungen haben.“ Kalifornien Das KI-Ökosystem wird auch beunruhigende nachgelagerte Auswirkungen auf die KI im ganzen Land haben.“ Li Feifei wies darauf hin, dass sie nicht gegen die KI-Governance sei. Für die sichere und effektive Entwicklung von KI ist die Gesetzgebung von entscheidender Bedeutung. Aber die KI-Politik muss die Open-Source-Entwicklung fördern, einheitliche und vernünftige Regeln vorschlagen und das Vertrauen der Verbraucher stärken. SB-1047 erfüllt diese Standards nicht.

Li Feifei betonte, dass sie Senator Scott Wiener, dem Verfasser des Gesetzentwurfs, eine Zusammenarbeit vorgeschlagen habe: Lassen Sie uns gemeinsam KI-Gesetze formulieren und wirklich eine technologiegesteuerte, menschenzentrierte zukünftige Gesellschaft aufbauen.

„Tatsächlich hängt die Zukunft der KI davon ab. Als Pionierstaat und Heimat des robustesten KI-Ökosystems unseres Landes liegt es im Herzen der KI-Bewegung, und die Entwicklungen in Kalifornien werden Auswirkungen auf den Rest des Landes haben.“ .“, sagte Li Feifei am Ende.