2024-10-01
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
maschinenherzbericht
herausgeber: zhang qian
die ursprüngliche absicht ist gut, aber der ansatz ist noch fraglich.
gerade erst ist der seit mehr als einem halben jahr diskutierte sb 1047 endlich zu ende: der gouverneur von kalifornien, gavin newsom, legte sein veto gegen den gesetzentwurf ein.
der vollständige name von sb 1047 lautet „safe and secure innovation for frontier artificial intelligence act“, der darauf abzielt, klare sicherheitsstandards für hochrisiko-ki-modelle festzulegen, um zu verhindern, dass sie missbraucht werden oder dadurch eine katastrophe verursachen.
der gesetzentwurf zielt insbesondere darauf ab, künstliche intelligenz auf modellebene zu regulieren und gilt für modelle, die oberhalb bestimmter rechen- und kostenschwellen trainiert werden. bei einer strengen berechnung nach den vorgegebenen berechnungs- und kostenschwellenwerten werden jedoch alle gängigen großserienmodelle auf dem markt als „potenziell gefährlich“ eingestuft. darüber hinaus verlangt der gesetzentwurf, dass das entwicklungsunternehmen, das hinter dem modell steht, die rechtliche verantwortung für die nachgelagerte nutzung oder änderung seines modells trägt, was vermutlich eine „abschreckende wirkung“ auf die veröffentlichung von open-source-modellen hat.
link zum gesetzentwurf: https://leginfo.legislature.ca.gov/faces/billtextclient.xhtml?bill_id=202320240sb1047
der gesetzentwurf wurde im februar dieses jahres verabschiedetsenatwurde vorgeschlagen und ist seitdem umstritten. li feifei, yann lecun,andrew ngalle sind dagegen. vor einiger zeit hat li feifei persönlich einen artikel geschrieben, in dem er die vielen negativen auswirkungen erläutert, die der gesetzentwurf mit sich bringen könnte. dutzende lehrer und studenten der university of california unterzeichneten ebenfalls einen gemeinsamen brief, um sich gegen diesen gesetzentwurf auszusprechen (siehe „li feifei hat persönlich einen artikel geschrieben, und dutzende wissenschaftler haben einen gemeinsamen brief unterzeichnet, um sich gegen den kalifornischen gesetzentwurf zur ki-beschränkung zu widersetzen“). allerdings gibt es auch viele menschen, die den gesetzentwurf unterstützen, wie zum beispiel musk, hinton und bengio. bevor der gesetzentwurf dem gouverneur von kalifornien vorgelegt wurde, gab es viele hitzige debatten zwischen beiden seiten.
jetzt hat sich alles geklärt. in seiner veto-erklärung nannte gouverneur newsom mehrere faktoren, die seine entscheidung beeinflussten, darunter auch die auswirkungen, die der gesetzentwurf haben würdekidie belastung für unternehmen, die führungsrolle kaliforniens auf diesem gebiet und die kritik, dass der gesetzentwurf möglicherweise zu weit gefasst sei.
nach der veröffentlichung der nachricht bedankte sich yann lecun im namen der open-source-community beim gouverneur von kalifornien.
ng bestätigte yann lecuns bemühungen, der öffentlichkeit die mängel des gesetzentwurfs zu erklären.
einige menschen sind jedoch zufrieden, andere sind besorgt – der kalifornische senator scott wiener, der sponsor des gesetzentwurfs, sagte, er sei von den ergebnissen sehr enttäuscht. in einem beitrag schrieb er, dass das veto „ein rückschlag für jeden ist, der an die aufsicht über große unternehmen glaubt, die kritische entscheidungen treffen, die sich auf die öffentliche sicherheit und das wohlergehen sowie auf die ‚zukunft unseres planeten‘ auswirken.“
es sei darauf hingewiesen, dass die ablehnung von sb 1047 nicht bedeutet, dass kalifornien bei fragen der ki-sicherheit die augen verschließt, wie gouverneur newsom in seiner erklärung erwähnte. gleichzeitig kündigte er auch an, dass li feifei und andere dazu beitragen werden, kalifornien dazu zu bringen, verantwortungsvolle schutzmaßnahmen für den einsatz generativer künstlicher intelligenz zu formulieren.
gouverneur von kalifornien: sb 1047 hat viele probleme
in bezug auf sb 1047 hat der gouverneur von kalifornien, newsom, das letzte wort. warum sollte er sein veto gegen den gesetzentwurf einlegen? eine stellungnahme lieferte die antwort.
link zur erklärung: https://www.gov.ca.gov/wp-content/uploads/2024/09/sb-1047-veto-message.pdf
ein auszug aus der stellungnahme lautet wie folgt:
kalifornien ist die heimat von 32 der 50 weltweit führenden al-unternehmen, pioniere wichtiger technologischer fortschritte in der modernen geschichte. aufgrund unserer forschungs- und bildungseinrichtungen, unserer vielfältigen und motivierten belegschaft und unserer freigeistigen pflege freier ideen sind wir auf diesem gebiet führend. als zukünftiger manager und innovator nehme ich meine verantwortung, diese branche zu regulieren, ernst.
sb 1047 übertreibt die diskussion über die möglichen bedrohungen durch den einsatz von al. im mittelpunkt der debatte steht die frage, ob der schwellenwert für die regulierung auf den kosten und der anzahl der für die entwicklung eines ai-modells erforderlichen berechnungen basieren sollte oder ob das tatsächliche risiko des systems ohne berücksichtigung dieser faktoren bewertet werden sollte. diese weltweite diskussion findet statt, da die fähigkeiten von al weiterhin in einem alarmierenden tempo wachsen. gleichzeitig entwickeln sich strategien und lösungen zur bewältigung des risikos katastrophaler gefahren rasch weiter.
durch die ausschließliche konzentration auf die teuersten und größten modelle schafft sb 1047 einen regulierungsrahmen, der der öffentlichkeit ein falsches gefühl der sicherheit bei der kontrolle dieser sich schnell entwickelnden technologie vermitteln könnte. kleinere, spezialisierte modelle können genauso gefährlich oder sogar gefährlicher sein als die von sb 1047 ins visier genommenen modelle.
anpassungsfähigkeit ist von entscheidender bedeutung, wenn wir gegen die zeit antreten, um eine technologie zu regulieren, die noch in den kinderschuhen steckt. dies erfordert ein empfindliches gleichgewicht. obwohl sb 1047 gute absichten verfolgt, berücksichtigt es nicht, ob ki-systeme in umgebungen mit hohem risiko eingesetzt werden, kritische entscheidungen erfordern oder sensible daten verwenden. stattdessen schreibt der gesetzentwurf selbst den grundlegendsten funktionen strenge standards vor – sofern sie in großen systemen eingesetzt werden. ich glaube nicht, dass dies der beste weg ist, die öffentlichkeit vor den tatsächlichen bedrohungen dieser technologie zu schützen.
ich stimme mit dem autor überein, dass wir nicht warten können, bis eine größere katastrophe eintritt, um maßnahmen zum schutz der öffentlichkeit zu ergreifen. kalifornien wird sich seiner verantwortung nicht entziehen. sicherheitsprotokolle müssen übernommen werden. es sollten proaktive schutzmaßnahmen umgesetzt werden und es müssen klare und durchsetzbare konsequenzen für böswillige akteure bestehen. womit ich jedoch nicht einverstanden bin, ist, dass wir uns zur gewährleistung der sicherheit der öffentlichkeit mit einer lösung ohne empirische verlaufsanalyse von ki-systemen und -fähigkeiten zufrieden geben müssen. letztendlich muss jeder rahmen, der ki effektiv reguliert, mit der technologie selbst schritt halten.
denjenigen, die sagen, dass wir das problem nicht lösen oder dass kalifornien keine rolle bei der regulierung der potenziellen auswirkungen dieser technologie auf die nationale sicherheit spielt, widerspreche ich. es mag sinnvoll sein, diesen ansatz nur in kalifornien zu verfolgen, insbesondere ohne bundesstaatliche maßnahmen des kongresses, er muss jedoch auf empirischen beweisen und wissenschaftlichen erkenntnissen basieren.
das us ai safety institute, teil des national institute of science and technology, entwickelt nationale leitlinien zu sicherheitsrisiken auf der grundlage evidenzbasierter methoden zum schutz vor eindeutigen risiken für die öffentliche sicherheit.
gemäß einer von mir im september 2023 erlassenen durchführungsverordnung führen behörden in meiner gesamten verwaltung risikoanalysen potenzieller bedrohungen und schwachstellen beim einsatz von ki in der kritischen infrastruktur kaliforniens durch.
dies sind nur einige beispiele für die arbeit, die wir unter der leitung von experten leisten, um politischen entscheidungsträgern ki-risikomanagementpraktiken vorzustellen, die auf wissenschaft und fakten basieren.
durch diese bemühungen habe ich in den letzten 30 tagen mehr als ein dutzend gesetzesentwürfe zur regulierung spezifischer und bekannter risiken durch ki unterzeichnet.
mehr als ein dutzend gesetzesentwürfe wurden innerhalb von 30 tagen unterzeichnet, kaliforniens intensive ki-sicherheitsinitiative
in der erklärung erwähnte newsom, dass er innerhalb von 30 tagen mehr als ein dutzend gesetzesentwürfe unterzeichnet habe. diese gesetzesentwürfe decken ein breites themenspektrum ab, darunter das vorgehen gegen explizite deepfake-inhalte, das erfordernis des hinzufügens von wasserzeichen zu ki-generierten inhalten, den schutz digitaler porträts von künstlern, das urheberrecht an stimmen oder abbildungen verstorbener figuren, die privatsphäre der verbraucher und die erforschung der auswirkungen der einbeziehung künstlicher intelligenz in den unterricht und viele andere aspekte.
link zur gesetzentwurfsliste: https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/
als reaktion auf den mangel an wissenschaftlicher analyse in der bewertung der ki-risiken durch sb 1047 gab der gouverneur bekannt, dass er die weltweit führenden experten für generative ki gebeten habe, kalifornien bei der entwicklung praktikabler leitplanken für den einsatz generativer ki zu unterstützen.
neben li feifei, tino cuéllar, mitglied des national academy of sciences committee on the social and ethical impact of computing research, und jennifer tour chayes, dekanin der school of computing, data science and society an der university of california, berkeley sind ebenfalls mitglieder des programms.
der schwerpunkt ihrer arbeit liegt auf der empirischen, wissenschaftsbasierten verlaufsanalyse modernster modelle und deren fähigkeiten und damit verbundenen risiken. diese arbeit hat noch einen langen weg vor sich.
weitere informationen: https://www.gov.ca.gov/2024/09/29/governor-newsom-announces-new-initiatives-to-advance-safe-and-responsible-ai-protect-californians/