nachricht

ultraman verlässt das openai-sicherheitskomitee: er kann entscheiden, ob große modelle veröffentlicht werden

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

whips berichtete, dass openai-ceo sam altman laut ausländischen berichten am 17. september das im mai von openai eingerichtete interne komitee verlassen wird, das für die überwachung wichtiger sicherheitsentscheidungen im zusammenhang mit den projekten und dem betrieb des unternehmens verantwortlich ist.

openai teilte heute in einem blogbeitrag mit, dass das safety and security committee zu einer unabhängigen aufsichtsgruppe des vorstands unter dem vorsitz von zico kolter, professor an der carnegie mellon university, werden wird. zu den mitgliedern gehören adam d'angelo, ceo von quora, der pensionierte us-armeegeneral paul nakasone und der ehemalige stellvertretende geschäftsführer von sony präsidentin nicole seligman.

sie alle sind aktuelle mitglieder des vorstands von openai.

openai wies in dem beitrag darauf hin, dass das komitee eine sicherheitsüberprüfung des neuesten ki-modells o1 von openai durchgeführt hat – obwohl altman immer noch beteiligt ist.das unternehmen sagte, die gruppe werde weiterhin regelmäßige briefings vom openai-sicherheitsteam erhalten und behalte sich das recht vor, die veröffentlichung zu verschieben, bis sicherheitsbedenken ausgeräumt seien.

openai schrieb in dem beitrag: im rahmen seiner arbeit wird das safety board weiterhin regelmäßig technische bewertungsberichte zu aktuellen und zukünftigen modellen sowie fortlaufende überwachungsberichte nach der veröffentlichung erhalten. wir bauen ein umfassendes sicherheits-framework auf, das auf unseren model-release-prozessen und -praktiken basiert, um erfolgskriterien für model-releases klar zu definieren.

altmans ausscheiden aus dem sicherheitsausschuss erfolgt, nachdem fünf us-senatoren diesen sommer in einem brief an altman fragen zu den richtlinien von openai gestellt hatten.

fast die hälfte der openai-mitarbeiter, die sich einst auf die langfristigen risiken künstlicher intelligenz konzentrierten, haben das unternehmen verlassen, und ehemalige openai-forscher haben altman vorgeworfen, er sei gegen eine echte ki-regulierung und befürworte richtlinien, die die unternehmensziele von openai voranbringen.

wie sie sagen, hat openai seine ausgaben für bundeslobbying deutlich erhöht, mit einem budget von 800.000 us-dollar für die ersten sechs monate des jahres 2024, verglichen mit 260.000 us-dollar im gesamten letzten jahr.

anfang dieses frühjahrs trat altman außerdem dem artificial intelligence safety and security council des us-heimatschutzministeriums bei, der bei der entwicklung und dem einsatz künstlicher intelligenz in kritischen infrastrukturen der usa berät.

selbst wenn altman abgesetzt wird, gibt es kaum anzeichen dafür, dass der sicherheitsausschuss schwierige entscheidungen treffen wird, die ernsthafte auswirkungen auf die kommerzielle roadmap von openai haben.

insbesondere sagte openai im mai, dass es versuchen werde, berechtigte kritik an seiner arbeit durch ein komitee anzusprechen – berechtigte kritik hängt natürlich von der wahrnehmung des betrachters ab.

im mai sagten die ehemaligen vorstandsmitglieder von openai, helen toner und tasha mccauley, in einem kommentar in the economist, dass openai ihrer meinung nach nicht vertrauenswürdig sei und keine verantwortung übernehmen könne.

sie schreiben: aufgrund unserer erfahrung glauben wir, dass autonomie dem druck von gewinnanreizen nicht zuverlässig standhalten kann.

und die gewinnanreize von openai nehmen immer noch zu.

es wird gemunkelt, dass das unternehmen mehr als 6,5 milliarden us-dollar an finanzmitteln aufbringt, wodurch openai einen wert von über 150 milliarden us-dollar haben würde. um den deal zu erreichen, wird openai wahrscheinlich seine hybride gemeinnützige unternehmensstruktur aufgeben, die darauf ausgelegt ist, die erträge der anleger zu begrenzen, teilweise um sicherzustellen, dass openai seiner gründungsmission treu bleibt: der entwicklung allgemeiner künstlicher intelligenz, die der gesamten menschheit zugute kommt.