nachricht

openai und anthropic unterstützen die us-regierung bei der präventiven bewertung der risiken neuer modelle

2024-08-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

als führende unternehmen im ki-bereich sind sich openai und anthropic ihrer verantwortung bei der förderung des technologischen fortschritts bewusst. um sicherzustellen, dass das neue ki-modell keine sozialen risiken mit sich bringt, beschlossen die beiden unternehmen, es vor der einführung des neuen modells dem ai security research institute der us-regierung zur bewertung vorzulegen. ziel dieser zusammenarbeit ist es, sicherzustellen, dass technologische fortschritte den langfristigen interessen der gesellschaft dienen und gleichzeitig mögliche negative auswirkungen vermeiden.

das ai safety institute wurde 2023 als produkt einer durchführungsverordnung der biden-harris-regierung gegründet, um verantwortungsvolle ki-innovationen zu fördern. das institut wird eine umfassende sicherheitsbewertung der neuen ki-modelle von openai und anthropic durchführen, einschließlich der fähigkeiten des modells, möglicher risiken und strategien zur minderung dieser risiken. durch diesen prozess wird sichergestellt, dass die entwicklung der ki-technologie den erwartungen und bedürfnissen der gesellschaft gerecht werden kann.

führungskräfte von openai und anthropic brachten ihre feste unterstützung für diese zusammenarbeit zum ausdruck und betonten die bedeutung der sicherheit bei der entwicklung von ki. sie glauben, dass sie durch die zusammenarbeit mit regierungen die auswirkungen des technologischen fortschritts auf die gesellschaft besser verstehen und gemeinsam nach möglichkeiten suchen können, potenzielle sicherheitsrisiken zu mindern.