nachricht

openai und anthropic vereinbaren, die sicherheit der us-regierung vor der einführung eines neuen modells bewerten zu lassen

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house berichtete am 30. august, dass die unternehmen für künstliche intelligenz openai und anthropic vereinbart haben, der us-regierung den zugriff auf wichtige neue modelle für künstliche intelligenz zu gestatten, bevor diese unternehmen diese modelle veröffentlichen, um zur verbesserung ihrer sicherheit beizutragen.


bildquelle pexels

das gab das us-amerikanische ai ​​safety institute am donnerstag bekanntdie beiden unternehmen haben mit dem institut eine absichtserklärung unterzeichnet, in der sie sich verpflichten, vor und nach der veröffentlichung des modells zugang zu gewähren. die us-regierung sagte, dieser schritt werde ihnen helfen, gemeinsam sicherheitsrisiken einzuschätzen und potenzielle probleme zu mindern. die agentur sagte, sie werde mit ihrem britischen amtskollegen zusammenarbeiten, um feedback zu sicherheitsverbesserungen zu geben.

jason kwon, chief strategy officer von openai, drückte seine unterstützung für die zusammenarbeit aus:

„wir unterstützen nachdrücklich die mission des american ai safety institute und freuen uns auf die zusammenarbeit, um best practices und standards für die sicherheit von ki-modellen zu entwickeln. wir glauben, dass das institut eine schlüsselrolle dabei spielt, die führungsrolle der usa bei der verantwortungsvollen entwicklung von ki sicherzustellen.“ „wir hoffen, dass wir durch die zusammenarbeit mit dem institut einen rahmen bieten können, von dem die welt lernen kann.“

anthropic erklärte außerdem, dass es sehr wichtig sei, die fähigkeit zu etablieren, ki-modelle effektiv zu testen. jack clark, mitbegründer und leiter der politik des unternehmens, sagte:

„die sicherstellung, dass ki sicher und zuverlässig ist, ist von entscheidender bedeutung, damit sich diese technologie positiv auswirken kann. durch solche tests und kooperationen können durch ki verursachte risiken besser erkannt und verringert sowie eine verantwortungsvolle ki-entwicklung gefördert werden. wir setzen uns dafür ein wir sind stolz, teil dieser wichtigen arbeit zu sein und hoffen, neue maßstäbe für die sicherheit und vertrauenswürdigkeit von ki zu setzen.“

der gemeinsame zugang zu modellen der künstlichen intelligenz ist ein wichtiger schritt, da bundes- und landesgesetzgeber darüber nachdenken, wie sie der technologie grenzen setzen können, ohne innovationen zu ersticken. das it-haus stellte fest, dass die kalifornischen gesetzgeber am mittwoch den frontier artificial intelligence model security innovation act (sb 1047) verabschiedet haben, der von unternehmen der künstlichen intelligenz in kalifornien verlangt, spezifische sicherheitsmaßnahmen zu ergreifen, bevor sie fortgeschrittene basismodelle trainieren. dies stieß auf widerstand von unternehmen der künstlichen intelligenz, darunter openai und anthropic, die davor warnten, dass es kleineren open-source-entwicklern schaden könnte, obwohl der gesetzentwurf inzwischen überarbeitet wurde und noch auf die zustimmung des kalifornischen gouverneurs gavin newsom wartet.

unterdessen versucht das weiße haus, von großen unternehmen freiwillige zusagen zu ki-sicherheitsmaßnahmen zu erhalten. mehrere führende ki-unternehmen haben unverbindliche zusagen gemacht, in die cybersicherheits- und diskriminierungsforschung zu investieren und an der wasserzeichenmarkierung von ki-generierten inhalten zu arbeiten.

elizabeth kelly, direktorin des national institute for artificial intelligence safety, sagte in einer erklärung, dass diese neuen vereinbarungen nur „der anfang, aber ein wichtiger meilenstein in unseren bemühungen sind, die zukunft der künstlichen intelligenz verantwortungsvoll zu gestalten“.