notizia

ultraman esce dal comitato sicurezza di openai: può decidere se rilasciare modelli di grandi dimensioni

2024-09-17

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

whips ha riferito che il 17 settembre, secondo rapporti esteri, il ceo di openai sam altman lascerà il comitato interno istituito da openai a maggio, responsabile della supervisione delle decisioni chiave sulla sicurezza relative ai progetti e alle operazioni dell'azienda.

openai ha affermato oggi in un post sul blog che il comitato per la sicurezza e la protezione diventerà un gruppo indipendente di supervisione del consiglio di amministrazione presieduto dal professore della carnegie mellon university zico kolter, con membri tra cui il ceo di quora adam d'angelo, il generale in pensione dell'esercito americano paul nakasone e l'ex vice esecutivo di sony. presidente nicole seligman.

sono tutti attuali membri del consiglio di amministrazione di openai.

openai ha sottolineato nel post che il comitato ha condotto una revisione della sicurezza dell'ultimo modello di intelligenza artificiale o1 di openai, sebbene altman sia ancora coinvolto.la società ha affermato che il gruppo continuerà a ricevere briefing regolari dal team di sicurezza di openai e si riserva il diritto di ritardare il rilascio finché i problemi di sicurezza non saranno risolti.

openai ha scritto nel post: come parte del suo lavoro, il safety board continuerà a ricevere regolari rapporti di valutazione tecnica sui modelli attuali e futuri, nonché rapporti di monitoraggio post-rilascio in corso. stiamo costruendo un quadro di sicurezza completo basato sui nostri processi e pratiche di rilascio dei modelli per definire chiaramente i criteri di successo per i rilasci dei modelli.

la partenza di altman dal comitato per la sicurezza e la protezione arriva dopo che cinque senatori statunitensi hanno sollevato domande sulle politiche di openai in una lettera ad altman quest'estate.

quasi la metà dei dipendenti di openai che una volta si concentravano sui rischi a lungo termine dell’intelligenza artificiale se ne sono andati, e gli ex ricercatori di openai hanno accusato altman di opporsi alla vera regolamentazione dell’ia a favore di politiche che promuovano gli obiettivi aziendali di openai.

come si dice, openai ha aumentato significativamente la propria spesa per il lobbying federale, con un budget di 800.000 dollari per i primi sei mesi del 2024, rispetto ai 260.000 dollari per l’intero anno scorso.

all’inizio di questa primavera, altman è anche entrato a far parte dell’artificial intelligence safety council and security council del dipartimento per la sicurezza interna degli stati uniti, che fornisce consulenza sullo sviluppo e l’implementazione dell’intelligenza artificiale nelle infrastrutture critiche degli stati uniti.

anche se altman venisse rimosso, ci sono pochi segnali che il comitato per la sicurezza prenderà decisioni difficili che avranno un serio impatto sulla roadmap commerciale di openai.

in particolare, openai ha dichiarato a maggio che cercherà di affrontare le critiche valide al suo lavoro attraverso un comitato: le critiche valide, ovviamente, dipendono dalla percezione di chi guarda.

a maggio, gli ex membri del consiglio di openai helen toner e tasha mccauley hanno dichiarato in un editoriale su the economist che credevano che openai non fosse affidabile e non potesse assumersi la responsabilità.

scrivono: sulla base della nostra esperienza, riteniamo che l'autonomia non possa resistere in modo affidabile alla pressione degli incentivi al profitto.

e gli incentivi al profitto di openai sono ancora in crescita.

si dice che la società stia raccogliendo finanziamenti per oltre 6,5 miliardi di dollari, per un valore di openai superiore a 150 miliardi di dollari. per raggiungere l’accordo, openai probabilmente abbandonerà la sua struttura aziendale ibrida senza scopo di lucro, progettata per limitare i rendimenti degli investitori, in parte per garantire che openai rimanga coerente con la sua missione fondatrice: sviluppare un’intelligenza artificiale generale a beneficio di tutta l’umanità.