nachricht

openai und anthropic vereinbaren, neue modelle vor der markteinführung der us-regierung zur sicherheitsbewertung vorzulegen

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

am donnerstag, 29. august, eastern time, haben medienberichten zufolge die führenden ki-anbieter openai und anthropic vereinbart, dass das ki-sicherheitsforschungsinstitut der us-regierung die fähigkeiten und möglichen vorteile neuer ki-modelle bewerten und gemeinsam risiken erforschen soll um potenzielle sicherheitsrisiken zu mindern und sicherzustellen, dass diese ki-technologien keine negativen auswirkungen auf die gesellschaft haben.

das american ai security institute wurde 2023 im rahmen einer durchführungsverordnung zur ki der biden-harris-regierung gegründet. die aufgabe des instituts besteht darin, tests, bewertungen und richtlinien zu entwickeln, um sicherzustellen, dass ki-technologien verantwortungsvoll innovativ sein können. darüber hinaus wird die us-regierung im rahmen einer am donnerstag vom national institute of standards and technology (nist) des us-handelsministeriums bekannt gegebenen vereinbarung eng mit dem britischen ai security institute zusammenarbeiten, um diesen ki-unternehmen feedback zu geben, um ihnen bei der verbesserung der sicherheit zu helfen maßnahmen.

elizabeth kelley, direktorin des american ai security research institute, sagte:

„sicherheit ist von entscheidender bedeutung, um bahnbrechende technologische innovationen voranzutreiben. diese vereinbarungen sind nur der anfang, aber sie sind wichtig, da wir die zukünftige entwicklung der künstlichen intelligenz verantwortungsvoll vorantreiben.“

jason kwon, chief strategy officer von openai, drückte seine unterstützung für die zusammenarbeit aus:

„wir unterstützen nachdrücklich die mission des american ai safety institute und freuen uns auf die zusammenarbeit, um best practices und standards für die sicherheit von ki-modellen zu entwickeln. wir glauben, dass das institut eine schlüsselrolle dabei spielt, die führungsrolle der usa bei der verantwortungsvollen entwicklung der ki-rolle sicherzustellen.“ wir hoffen, dass wir durch die zusammenarbeit mit dem institut einen rahmen bieten können, von dem die welt lernen kann.“

anthropic erklärte außerdem, dass es wichtig sei, die fähigkeit zu etablieren, ki-modelle effektiv zu testen. jack clark, mitbegründer und leiter der politik des unternehmens, sagte:

„die sicherstellung, dass ki sicher und zuverlässig ist, ist von entscheidender bedeutung, damit sich diese technologie positiv auswirken kann. durch solche tests und kooperationen können die von ki mit sich gebrachten risiken besser erkannt und verringert sowie eine verantwortungsvolle ki-entwicklung gefördert werden. wir setzen uns dafür ein.“ wir sind stolz, teil dieser wichtigen arbeit zu sein und hoffen, neue maßstäbe für die sicherheit und vertrauenswürdigkeit von ki zu setzen.“

darüber hinaus ist es erwähnenswert, dass openai, ein von microsoft unterstütztes unternehmen, eine neue finanzierungsrunde vorbereitet, die darauf abzielt, mindestens 1 milliarde us-dollar aufzubringen, wodurch das unternehmen einen wert von mehr als 100 milliarden us-dollar haben wird. microsoft hat seit 2019 13 milliarden us-dollar in openai investiert und besitzt nun einen anteil von 49 % am gewinn des unternehmens.

die nachricht über die neue finanzierungsrunde kam etwa einen monat, nachdem openai bekannt gab, dass sie eine neue funktion namens searchgpt testen. diese neue funktion kombiniert ki-technologie und echtzeit-suchdaten. möglicherweise beantwortet chatgpt in zukunft nicht nur fragen, sondern hilft ihnen auch, antworten online zu finden.