nachricht

openai entgeht dem tod? das kalifornische ki-gesetz wurde gerade verabschiedet, lecun, li feifei, ng enda ist begeistert

2024-09-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

herausgeber: redaktion hyz

[einführung in die neue weisheit]frohes fest! gerade hat der gouverneur von kalifornien angekündigt, dass er sein veto gegen das kalifornische gesetz zur beschränkung der künstlichen intelligenz einlegen werde. lecun, li feifei und ng enda beeilten sich, es einander aufgeregt zu erzählen und feierten es mit stirn und händen. bengio und hinton, die den gesetzentwurf nachdrücklich unterstützen, haben geschwiegen. openai, google und meta sind alle einer katastrophe entgangen.

schwer!

heute früh hat der gouverneur von kalifornien, gavin newsom, offiziell angekündigt, dass er sein veto gegen den sb-1047-gesetzentwurf einlegen wird!

für entwickler auf der ganzen welt bedeutet die aufhebung des sb-1047-gesetzes, dass die open-source-modelle großer hersteller wie meta und google weiterhin verfügbar sein werden.

man kann sagen, dass diese entscheidung allgemein erwartet wird. große namen im ki-kreis beeilten sich aufgeregt, einander zu erzählen, und ng enda, lecun und li feifei, die eine starke rolle in der opposition spielten, waren besonders glücklich.

was bedeutet das veto des kalifornischen gouverneurs?

der sb-1047-gesetzentwurf ist wirklich das ende.

der „berüchtigte“ sb-1047 legt fest, dass sb 1047 verhindern wird, dass ki-systeme massenopfer verursachen oder cybersicherheitsvorfälle auslösen, die mehr als 500 millionen us-dollar kosten, indem entwickler zur rechenschaft gezogen werden.

sobald die nachricht bekannt wurde, löste sie großen widerstand in wissenschaft und industrie aus.

wissen sie, 32 der 50 weltweit führenden genai-unternehmen haben ihren sitz in kalifornien und spielen eine schlüsselrolle bei der gestaltung der zukunft der ki.

laut einer pressemitteilung des kalifornischen büros hat gavin im vergangenen monat 18 genai-gesetze unterzeichnet, aber nur gegen sb-1047 sein veto eingelegt.

in den letzten 30 tagen hat der gouverneur eine reihe von gesetzentwürfen unterzeichnet, um deepfake-inhalte zu bekämpfen, die digitalen bildrechte der künstler zu schützen und vieles mehr

dieser gesetzentwurf hat gute absichten, aber in der praxis birgt er einige ernsthafte probleme.

„ich glaube nicht, dass dies der beste weg ist, die öffentlichkeit vor den tatsächlichen bedrohungen durch ki zu schützen“, sagte er.

sb-1047 berücksichtigt nicht, ob das ki-system in einer umgebung mit hohem risiko eingesetzt wird, kritische entscheidungen beinhaltet oder sensible daten verwendet. stattdessen wendet der gesetzentwurf strenge standards für die grundlegendste funktion des einsatzes großer modellsysteme an.

im prozess der ablehnung von sb-1047 darf die rolle der ki-patin li feifei nicht außer acht gelassen werden.

stanford-professorin li feifei sagte erfreut, dass es ihr eine große ehre sei, mit stanfordhai zusammenzuarbeiten, um den weg für eine verantwortungsvolle ki-governance in kalifornien zu ebnen.

ki-guru andrew ng dankte li feifei auch für ihren öffentlichen widerstand gegen sb-1047 und sagte, dass ihre bemühungen rationalere ki-richtlinien zum schutz von forschung und innovation fördern können.

noch vor wenigen tagen, als der sb-1047-gesetzentwurf fertiggestellt werden sollte, riefen ng und lecun noch eifrig dazu auf, abstimmungen durchzuführen, da sie befürchteten, dass open-source-ki und das gesamte ki-ökosystem nach ihrer verabschiedung eine abschreckende wirkung haben würden.

heute atmen ki-unternehmen in ganz kalifornien endlich auf.

vetoschreiben des gouverneurs: nicht unterzeichnet

„hiermit gebe ich den gesetzentwurf 1047 des senats ohne meine unterschrift zurück.“

in dem brief räumte der gouverneur ein, dass sb-1047 die bedrohung durch den ki-einsatz überbewertet.

indem der gesetzentwurf sich nur auf die teuersten großserienmodelle konzentriert, vermittelt er der öffentlichkeit zudem ein „falsches gefühl der sicherheit“.

er weist darauf hin, dass auch kleinere proprietäre modelle genauso gefährlich sein können.

kurz gesagt, die regulierung der ki durch den gesetzentwurf geht zu lasten der „einschränkung von innovationen, die dem öffentlichen interesse zugute kommen“.

der gouverneur sagte, dass der gesetzentwurf die strengsten standards für die grundlegendsten funktionen anwendet, was nicht der beste weg sei, die öffentlichkeit vor den bedrohungen der ki-technologie zu schützen.

die beste lösung ist ein plan, der nicht auf der analyse empirischer entwicklungsverläufe von ki-systemen und -fähigkeiten basiert.

der ki-chef hasst es

dieses ende kann für die meisten menschen außer bengio und hinton als ein sehr zufriedenstellendes ende beschrieben werden.

wenn es um sb-1047 geht, hassen es viele große leute.

die ganze geschichte ist diese.

letztes jahr unterzeichnete der gouverneur von kalifornien eine durchführungsverordnung, in der er betonte, dass kalifornien gegenüber genai vorsichtiger sein und ki ethischer, transparenter und vertrauenswürdiger machen sollte.

im februar dieses jahres hat kalifornien direkt einen gesetzentwurf namens „sb-1047 frontier ai large model safety innovation act“ ausgearbeitet, der spezifischere vorschriften für die sichere und transparente verwendung großer modelle vorsieht.

allerdings sind darin viele unangemessene inhalte enthalten, die bestimmte unternehmen einfach namentlich ersticken.

modelle, die mehr als 100 millionen kosten, müssen verhindert werden, dass sie „erheblichen schaden“ anrichten

beispielsweise gibt es eine regelung, die vorschreibt, dass, wenn ein großes modell, dessen entwicklungs- und schulungskosten 100 millionen us-dollar übersteigen und dessen gleitkommaoperationen das 10^26-fache überschreiten, von jemandem verwendet wird, um illegale dinge zu tun, nachdem es open source ist, der modellentwickler wird ebenfalls hart bestraft.

sie sollten wissen, dass das llama 3-modell von meta, das gemma-modell von google usw. alle diese bedingung erfüllen.

diese bestimmung ist offensichtlich äußerst umstritten.

wenn sich beispielsweise jemand in ein autonomes fahrsystem hackt und einen unfall verursacht, wird dann auch das unternehmen, das das system entwickelt hat, zur verantwortung gezogen?

dem gesetzentwurf zufolge sind entwickler verpflichtet, derivate ihrer modelle zu bewerten und jeglichen schaden zu verhindern, den sie verursachen könnten, auch wenn kunden die modelle verfeinern, die modelle anderweitig modifizieren (jailbreak) oder sie mit anderer software kombinieren.

sobald jedoch open-source-software veröffentlicht wird, können benutzer das modell direkt auf ihre persönlichen geräte herunterladen, sodass entwickler keine möglichkeit haben, die spezifischen vorgänge anderer entwickler oder kunden zu kennen.

darüber hinaus enthält der gesetzentwurf viele vage definitionen.

als „kritische schäden“ an ki-modellen werden beispielsweise massive verluste, verluste von mehr als 500 millionen us-dollar oder andere „ebenso schwere“ verletzungen beschrieben. aber unter welchen bedingungen werden entwickler zur verantwortung gezogen? welche verantwortlichkeiten gibt es?

hierzu schweigt sich der gesetzentwurf aus.

darüber hinaus gilt der gesetzentwurf für ki-modelle, die mehr als 100 millionen us-dollar für das training ausgeben, oder für entwickler, die mehr als 10 millionen us-dollar für die feinabstimmung bestehender modelle ausgeben, wodurch viele kleine technologieunternehmen in den wirkungsbereich des angriffs geraten.

sb-1047 enthält auch einige unangemessene bestimmungen. wenn ein unternehmen beispielsweise sein modell für andere länder öffnet, muss es alle kundeninformationen übermitteln, einschließlich des personalausweises, der kreditkartennummer, der kontonummer usw.

entwickler müssen außerdem testverfahren erstellen, die die risiken von ki-modellen berücksichtigen, und jährlich externe prüfer beauftragen, ihre ki-sicherheitspraktiken zu bewerten.

für auf modellen basierende ki-produkte müssen entsprechende sicherheitsprotokolle entwickelt werden, um missbrauch zu verhindern, einschließlich eines „not-aus“-knopfes, der das gesamte ki-modell abschaltet.

bill kritisierte, dass er die augen vor echten risiken verschließe

immer mehr kritiker halten diesen gesetzentwurf für zu unbegründet.

dies behindert nicht nur die ki-innovation, sondern trägt auch nicht zur sicherheit der heutigen ki bei.

noch ironischer ist, dass der gesetzentwurf einen sogenannten „notschalter“ nutzt, um den weltuntergang zu verhindern, dabei aber die augen vor bestehenden sicherheitsrisiken wie deepfakes und falschinformationen verschließt.

obwohl spätere änderungen lockerer formuliert waren, verringerten sie die befugnisse der kalifornischen regierung, ki-labore zur rechenschaft zu ziehen.

dennoch wird sb-1047 erhebliche auswirkungen auf große hersteller wie openai, meta und google haben.

für einige start-ups kann dieser schlag sogar verheerend sein.

nachdem sich der staub gelegt hat, können sowohl große unternehmen als auch kleine startups aufatmen.

der turing-gigant zerfällt

sb-1047 sorgte darüber sogar für eine „zerschlagung“ der turing big three.

die großen chefs, vertreten durch lecun, li feifei und ng enda, haben sich oft öffentlich dagegen ausgesprochen und waren unzufrieden.

lecun kopierte sogar die ursprüngliche botschaft, die er verwendete, als er ein moratorium für die ki-forschung forderte – bitte setzen sie die ki-gesetzgebung für sechs monate aus!

die anderen beiden der turing big three, yoshua bengio und geoffrey hinton, unterstützten überraschend stark die verabschiedung dieses gesetzentwurfs.

ich habe sogar das gefühl, dass die aktuellen bedingungen etwas zu locker sind.

als leitende forscher im bereich künstliche intelligenz und politik forschen wir mit diesem schreiben, um unsere starke unterstützung für den gesetzentwurf 1047 des kalifornischen senats zum ausdruck zu bringen.

sb 1047 beschreibt die grundvoraussetzungen für eine wirksame regulierung dieser technologie. es implementiert kein lizenzierungssystem, verlangt nicht, dass unternehmen eine genehmigung von regierungsbehörden einholen, bevor sie modelle schulen oder einsetzen, verlässt sich darauf, dass unternehmen risiken selbst bewerten, und verpflichtet unternehmen nicht, selbst im katastrophenfall strikt zur verantwortung zu ziehen.

im verhältnis zum ausmaß der risiken, denen wir ausgesetzt sind, handelt es sich um eine relativ milde gesetzgebung.

die rücknahme der grundlegenden maßnahmen des gesetzentwurfs wäre ein historischer fehler – einer, der in einem jahr noch offensichtlicher werden wird, wenn die nächste generation leistungsstärkerer ki-systeme auf den markt kommt.

aber bengio und hinton gehören offensichtlich nicht zum mainstream.

zusammenfassend sind die positionen verschiedener technologiegiganten und big shots wie folgt.