notizia

ilya avverte ancora: il paradigma dell’intelligenza artificiale cambierà e la sicurezza super intelligente diventerà la più critica

2024-09-07

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

pesci e pecore provengono dal tempio di aofei

qubit |. account pubblico qbitai

l’azienda ha solo 10 persone e ha raccolto finanziamenti iniziali.1 miliardo di dollari

questo genere di cose sbalorditive può solo accadereilya sutskeversul corpo sembra leggermente "normale".

ilya, in un momento in cui i grandi modelli stanno conquistando il mondo, il suo contributo è riconosciuto come raggiuntocambiare il mondolivello:

è uno dei tre autori di alexnet dopo essere stato portato su google con il suo mentore hinton, è stato profondamente coinvolto nel progetto alphago che ha scioccato il mondo.

nel 2015 ha partecipato alla fondazione di openai ed è stato capo scienziato. chatgpt cambia ancora una volta il mondo e lui è considerato una delle figure chiave dietro di esso.

dal novembre dello scorso anno, ogni mossa di ilya è stata messa in primo piano e ha attirato l’attenzione del circolo tecnologico globale:

le lotte intestine da lui avviate nel consiglio di amministrazione di openai hanno rivelato una disputa sul percorso di sviluppo di modelli di grandi dimensioni. dopo che nel maggio di quest'anno si è separato completamente da openai, tutti aspettano la sua prossima mossa imprenditoriale.

ora la polvere si sta depositando. lo stesso ilya, che è sempre stato di basso profilo, ha anche condiviso maggiori informazioni sulla sua azienda ssi e il suo pensiero sull'agi in questo momento.

in uno scambio con reuters, ilya ha risposto a sei domande chiave. di seguito è riportato il testo originale:

perché è stata creata la ssi?

abbiamo scoperto una "grande montagna" un po' diversa dai miei lavori precedenti...una volta raggiunta la cima di questa montagna, il paradigma cambia…tutto ciò che sappiamo sull’intelligenza artificiale sta per cambiare di nuovo.

a quel punto, gli sforzi di sicurezza super-intelligenti diventeranno fondamentali.

il nostro primo prodotto sarà una super intelligenza sicura.

prima della superintelligenza, verrà rilasciata un’intelligenza artificiale intelligente quanto gli esseri umani?

penso che la chiave sia: è sicuro? è una forza positiva nel mondo? penso che quando lo faremo, il mondo cambierà molto. quindi è piuttosto difficile fornire un piano chiaro di “cosa faremo” in questo momento.

quello che posso dirti è che il mondo sarà un posto molto diverso. la percezione del mondo esterno su ciò che sta accadendo nell’intelligenza artificiale cambierà radicalmente e sarà difficile da comprendere. questa sarà una conversazione più intensa. potrebbe non dipendere solo dalla nostra decisione.

in che modo l’ssi determina cos’è l’intelligenza artificiale sicura?

per rispondere a questa domanda, dobbiamo condurre alcune importanti ricerche. soprattutto se sei come noi e pensi che le cose stiano per cambiare molto... stanno scoprendo molte grandi idee.

molte persone stanno pensando a quali test è necessario eseguire per l'intelligenza artificiale man mano che diventa più potente? è un po' complicato e c'è molta ricerca da fare.

non voglio dire che ora ci sia una risposta chiara. ma questa è una delle cose che dobbiamo capire.

informazioni sulle ipotesi di scala e sulla sicurezza dell'intelligenza artificiale

tutti parlano dell'"ipotesi di ridimensionamento", ma tutti ignorano una domanda: cosa stiamo ridimensionando?

l’enorme passo avanti nel deep learning negli ultimi dieci anni è stata una formulazione specifica dell’ipotesi di scala. ma cambierà... e man mano che cambia, le capacità del sistema aumenteranno e i problemi di sicurezza diventeranno più urgenti, ed è quello che dobbiamo affrontare.

ssi sarà open source?

attualmente, tutte le aziende di intelligenza artificiale non rendono open source il loro lavoro principale, e nemmeno noi lo facciamo. ma penso che, a seconda di alcuni fattori, ci saranno molte opportunità per un lavoro di sicurezza superintelligente open source. forse non tutti, ma sicuramente alcuni.

pensieri sugli sforzi di ricerca sulla sicurezza di altre società di intelligenza artificiale

in effetti, ho un’opinione molto alta del settore. penso che man mano che le persone continuano a fare progressi, tutte le aziende si renderanno conto, probabilmente in momenti diversi, della natura delle sfide che devono affrontare. quindi non è che pensiamo che nessun altro possa farlo, è che pensiamo di poter contribuire.

a cosa serve un miliardo di dollari?

infine, aggiungi alcune informazioni di base al di fuori delle parole di ilya.

la notizia di ssi è stata pubblicata per la prima volta nel giugno di quest'anno. l'obiettivo è molto chiaro: fare ciò che ilya non è riuscito a fare a openai: costruire una super intelligenza sicura.

attualmente, ssi ha solo 10 dipendenti. dopo aver raccolto fondi, prevede di utilizzare i fondi per acquistare potenza di calcolo e assumere i migliori talenti.

coloro che sono d’accordo con le proprie idee e sono mentalmente preparati al fatto che un giorno l’intelligenza artificiale supererà l’intelligenza umana.

il co-fondatore daniel gross ha anche rivelato che non prestano troppa attenzione alle qualifiche e all'esperienza, ma passano ore a verificare se i candidati hanno "un buon carattere".

in termini di potenza di calcolo, ssi prevede di collaborare con produttori di cloud e aziende di chip. non è ancora chiaro con quali aziende collaborare e come collaborare.

oltre allo stesso ilya, i cofondatori di ssi includono daniel gross e daniel levy.

△sinistra: daniel gross; destra: daniel levy

daniel gross si è laureato al dipartimento di informatica dell'università di harvard ed è stato in precedenza uno dei partner di y combinator. ha anche fondato o partecipato alla fondazione di molte società, tra cui citrus lane, writelatex (in seguito ribattezzata overleaf), ecc.

è stato indicato come una delle "persone più influenti nel campo dell'intelligenza artificiale" dalla rivista time 100.

daniel levy si è laureato presso il dipartimento di informatica di stanford e in precedenza è stato a capo del team di ottimizzazione di openai.