nachricht

openai räumt ein, dass das o1-inferenzmodell das risiko der herstellung biologischer waffen erhöhen wird

2024-09-14

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

ki-inferenzmodell o1

ifeng.com technology news am 14. september, pekinger zeit, gab openai zu, dass sein neuestes ki-inferenzmodell o1 das risiko, dass ki zur herstellung biologischer waffen missbraucht wird, „erheblich“ erhöht.

die systemkarte von openai ist ein tool, das erklärt, wie ki funktioniert. dem tool zufolge stelle das neue modell ein „moderates“ risiko für probleme im zusammenhang mit chemischen, biologischen, radiologischen und nuklearen waffen (cbrn) dar.dies ist das höchste risiko, das openai jemals gegeben hat.laut openai bedeutet dies, dass das modell die fähigkeit von experten, biowaffen herzustellen, „erheblich verbessert“.

experten sagen, wenn ki-software mit fortgeschritteneren funktionen in die hände gefährlicher akteure gerät, birgt dies ein höheres missbrauchsrisiko. das o1-modell verfügt beispielsweise über schrittweise argumentationsfunktionen.

mira murati, chief technology officer von openai, sagte der financial times, dass das unternehmen bei der einführung des o1-modells aufgrund seiner fortschrittlichen fähigkeiten besonders „vorsichtig“ sei. sie fügte hinzu, dass das modell von sogenannten „roten teams“ getestet wurde – experten in verschiedenen wissenschaftlichen bereichen. mulati sagte, dass das o1-modell bei den allgemeinen sicherheitsindikatoren weitaus besser abschneide als die vorgängermodelle. (autor/xiao yu)

für weitere neuigkeiten aus erster hand laden sie bitte den phoenix news-client herunter und abonnieren sie phoenix technology. wenn sie ausführliche berichte sehen möchten, suchen sie bitte auf wechat nach „ifeng.com technology“.