notizia

conversazione esclusiva con ilya sutskever su otto domande dell'anima, tutto sulla ssi

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autore|xuushan, editore|manmanzhou

con una persona che ha una valutazione di 5 miliardi, che tipo di agi vuole costruire ilya?

il 5 settembre, secondo reuters, safe superintelligence (ssi) è stata fondata da ilya sutskever, ex capo scienziato di openai.raccolti 1 miliardo di dollari in contanti. lo hanno rivelato persone a conoscenza della vicendadopo il finanziamento, la valutazione dell'azienda ha raggiunto i 5 miliardi di dollari.la società prevede di utilizzare i fondi per acquistare potenza di calcolo e assumere i migliori talenti per contribuire a sviluppare sistemi di intelligenza artificiale sicuri che superano di gran lunga le capacità umane. anche i funzionari della ssi hanno confermato che la notizia è vera.

ssi è stata fondata nel giugno 2024. il team fondatore è composto da ilya sutskever, daniel levy e daniel gross. attualmente, ilya sutskever ricopre il ruolo di capo scienziato, daniel levy ricopre il ruolo di scienziato principale e daniel gross ricopre il ruolo di ceo, responsabile della potenza di calcolo e della raccolta fondi. ssi conta attualmente 10 dipendenti e opera secondo una struttura convenzionale a scopo di lucro.

ssi non ha lanciato alcun prodotto ed è riuscita ad ottenere finanziamenti elevati e valutazioni elevate quando è stata fondata meno di quattro mesi fa. è proprio grazie al forte background industriale di queste tre persone. gli investitori sono disposti a fare scommesse enormi su talenti eccezionali focalizzati sulla ricerca di base sull’intelligenza artificiale.

ilya sutskever è uno degli esperti tecnici più influenti nel campo dell'intelligenza artificiale. ha studiato con geoffrey hinton, noto come il "padrino dell'intelligenza artificiale", ed è stato uno dei primi sostenitori dell'ipotesi estesa. questa ipotesi sostiene che le prestazioni dell’intelligenza artificiale migliorano con l’aumento di grandi quantità di potenza di calcolo, il che getta anche le basi per l’esplosione dell’intelligenza artificiale generativa.

daniel gross era il capo della tecnologia ai di apple ed ex partner di y combinator, mentre daniel levy è un ex dipendente di openai.

per ora, ssi si concentrerà sulla creazione di un piccolo team di ricercatori e ingegneri con sede a palo alto, california, e tel aviv, israele.

tra gli investitori figurano le principali società di venture capital andreessen horowitz, sequoia capital, dst global e sv angel. è coinvolta anche nfdg, una partnership di investimento gestita da nat friedman e dal ceo di ssi daniel gross.

gross ha dichiarato in un'intervista: "per noi è importante avere investitori che comprendano, rispettino e sostengano la nostra missione, che è quella di passare direttamente alla superintelligenza sicura, soprattutto intrascorriamo diversi anni in ricerca e sviluppo prima di immettere un prodotto sul mercato。”

dopo la pubblicazione delle informazioni sul finanziamento ssi, reuters ha avuto immediatamente uno scambio approfondito con ilya sutskever. ilya ha anche risposto a una serie di domande sul fatto che ssi sia open source e sul suo sviluppo futuro. dall'intervista si vede che attribuisce grande importanza alla sicurezza della super agi.

quanto segue è stato compilato da silicon rabbit senza alterare il testo originale, buon divertimento!

01

d: ragioni per istituire l'ssi

ilya: "abbiamo trovato una montagna che è un po' diversa da quella su cui ho lavorato prima... una volta che sali in cima a questa montagna, il paradigma cambia... ciò che sappiamo sull'intelligenza artificiale cambierà di nuovo. a quel punto punto, ciò che conta di più sarà la sicurezza super-intelligente”.

"il nostro primo prodotto riguarderà la sicurezza della superintelligenza."

02

d: inventerai un'intelligenza artificiale intelligente quanto quella umana prima della superintelligenza?

ilya: "penso che la domanda sia: è sicuro? è uno dei più grandi al mondosii gentileil potere di? penso che il mondo sarà così diverso quando lo faremo che sarà difficile darti un piano chiaro.

posso dirti che il mondo sarà molto diverso. il mondo guarderà ciò che sta accadendo nell’intelligenza artificiale in modo molto diverso e sarà difficile capirlo.questa sarà una conversazione più intensa. potrebbe non dipendere solo dalle decisioni che prendiamo noi stessi. "

03

d: in che modo la ssi determina cos'è l'intelligenza artificiale sicura?

ilya: "per poter rispondere pienamente alla tua domanda, dobbiamo fare alcune ricerche importanti. soprattutto se la pensi come noi, le cose cambieranno molto... molte grandi idee si stanno risvegliando.

molte persone pensano,man mano che l’intelligenza artificiale diventa più potente, quali passi dobbiamo compiere e quali test dobbiamo condurre?questo è un po' complicato. c’è ancora molta ricerca da fare. non voglio dire che ora ci sia una risposta chiara. ma questa è una delle cose che dobbiamo capire. "

04

d: riguardo ai presupposti estesi e alla sicurezza dell’intelligenza artificiale

ilya: "tutti dicono semplicemente 'ipotesi estesa'. tutti trascurano di chiederecosa stiamo ridimensionando esattamente?le principali scoperte nel campo del deep learning negli ultimi dieci anni si sono basate su una formulazione speciale dell’ipotesi estesa. ma cambierà... e man mano che cambia, le capacità del sistema aumenteranno. i problemi di sicurezza diventeranno più gravi ed è quello che dobbiamo affrontare. "

05

d: ricerca sull'ssi open source

ilya:"attualmente,non tutte le aziende di intelligenza artificiale renderanno open source il proprio lavoro, anche noi. ma penso che, a causa di alcuni fattori, (noi) avremo molte opportunità di svolgere lavori di sicurezza di super-intelligence legati all'open source. forse non tutti, ma sicuramente alcuni. "

06

d: riguardo al lavoro di ricerca sulla sicurezza di altre società di intelligenza artificiale

ilya: "in realtà ho un'alta stima di questo settore. penso che man mano che le persone vanno avanti, tutte le diverse aziende se ne renderanno conto, forse in momenti leggermente diversi, in base alla natura delle sfide che devono affrontare. quindi, non lo faremo diciamo non pensiamo che nessuno possa farlo, ma pensiamo di poter contribuire.

07

d: che tipo di dipendenti assumere?

ilya: "alcune persone possono lavorare per molte ore, ma si rimettono presto in carreggiata. questo non si adatta perfettamente al nostro stile. ma se sei bravo a farlofare qualcosa di diverso, allora hai il potenziale per fare qualcosa di speciale (con noi). "

"ciò che ci entusiasma è quando scopri che questo dipendente è interessato al nostro lavoro, non alle tendenze o ad alcuni contenuti pubblicitari."

"passeremo ore a valutare i candidati in base al 'buon carattere' e cercheremo persone con capacità eccezionali, invece di enfatizzare eccessivamente le qualifiche e l'esperienza sul campo."

08

d: riguardo allo sviluppo futuro della ssi

ilya"ridimensioneremo in modo diverso rispetto a openai."

la società prevede di collaborare con fornitori di servizi cloud e società di chip per finanziare le proprie esigenze di potenza di calcolo, ma non ha ancora deciso con quali aziende collaborare.

link di riferimento:

ilya sutskever su come cambierà l'intelligenza artificiale e la sua nuova startup safe superintelligence (reuters)