le mie informazioni di contatto
posta[email protected]
2024-10-06
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
fonte immagine: stanford university
hai dubbi sull'intelligenza generale artificiale (agi)? questo è ciò che openai è ossessionato dal creare in definitiva in un modo che "vantaggi tutta l'umanità". potresti prenderli sul serio perché hanno appena raccolto 6,6 miliardi di dollari per avvicinarsi a quell’obiettivo.
ma se ti stai ancora chiedendo cosa sia esattamente l'agi, non sei il solo.
al summit sulla leadership responsabile dell'intelligenza artificiale credo ai di giovedì, li feifei, una ricercatrice di fama mondiale spesso chiamata la "madrina dell'intelligenza artificiale", ha detto che anche lei non sapeva cosa fosse l'agi.in altri momenti, fei-fei li parla del suo ruolo nella nascita dell’intelligenza artificiale moderna, di come la società dovrebbe proteggersi dai modelli avanzati di intelligenza artificiale e del perché pensa che la sua nuova startup di unicorni, world labs, cambierà tutto.
ma quando le è stato chiesto cosa pensasse della "singolarità dell'intelligenza artificiale", lee era confusa come tutti noi.
"vengo dal mondo accademico nel campo dell'intelligenza artificiale e sono stato educato con approcci più rigorosi e basati sull'evidenza, quindi non sapevo davvero cosa significassero quelle parole", ha detto lee in una stanza gremita di san francisco accanto a una porta che si affaccia sul golden gate. le grandi finestre del ponte."francamente, non so nemmeno cosa significhi agi. la gente dice che lo capisci quando lo vedi, e immagino di non averlo fatto. in effetti, non passo molto tempo a pensare alle parole perché penso c'è ancora ci sono molte cose più importanti da fare..."
se qualcuno sa cos'è l'agi, probabilmente è li feifei. nel 2006, ha creato imagenet, il primo set di dati di riferimento e formazione sull'intelligenza artificiale su larga scala al mondo, che è stato fondamentale nel catalizzare l'attuale boom dell'intelligenza artificiale. dal 2017 al 2018 ha ricoperto il ruolo di chief scientist di ai/ml presso google cloud. oggi, fei-fei li dirige lo human center for ai institute (hai) di stanford e la sua startup world labs sta costruendo “modelli mondiali su larga scala”. (se me lo chiedi, questo termine crea confusione quasi quanto agi.)
il ceo di openai altman ha provato a definire l'agi in un'intervista al new yorker l'anno scorso.altman descrive l'agi come "l'equivalente umano di medio livello di un collega che puoi assumere".(l'equivalente di un essere umano medio che potresti assumere come collega.)
nel frattempo, la carta di openai definisce l’agi come “sistemi altamente autonomi che superano gli esseri umani nel lavoro economicamente più prezioso”.
chiaramente, queste definizioni non sono sufficienti per un’azienda da 157 miliardi di dollari. perciò,openai ha creato cinque livelli per la valutazione interna dei suoi progressi verso l'agi. il primo livello è quello dei chatbot (come chatgpt), poi i ragionatori (a quanto pare, openai o1 è questo livello), gli agenti (che presumibilmente è il prossimo), gli innovatori (ai che possono aiutare a inventare cose) e l'ultimo livello è il livello organizzativo (ai che può completare il lavoro dell’intera organizzazione).
ancora confuso? anch'io, e anche li. inoltre, sembra molto più di quanto possa fare un collega umano medio.
li ha menzionato in precedenza nella conversazione che è stata incuriosita dal concetto di intelligenza fin da quando era bambina. ciò l’ha portata a iniziare la ricerca sull’intelligenza artificiale prima che fosse redditizia. all’inizio degli anni 2000, lee disse che lei e molti altri stavano tranquillamente gettando le basi per il campo.
“nel 2012 ho combinato imagenet con alexnet e le gpu: ciò che molti chiamano la nascita della moderna intelligenza artificiale.è guidato da tre fattori chiave: big data, reti neurali e moderno gpu computing.una volta arrivato quel momento, penso che l’intero campo dell’intelligenza artificiale e il nostro mondo non saranno più gli stessi. "
quando gli è stato chiesto del controverso disegno di legge sull'intelligenza artificiale della california, sb 1047, lee ha parlato con attenzione per evitare di rivisitare la controversia che il governatore newsom aveva appena messo a tacere ponendo il veto al disegno di legge la scorsa settimana. (abbiamo recentemente parlato con l'autore di sb 1047, che ha preferito riaprire il dibattito con lee.)
"alcuni di voi potrebbero sapere che ho espresso le mie preoccupazioni riguardo a questo disegno di legge posto il veto [sb 1047], ma ora ci sto riflettendo profondamente e guardo al futuro con anticipazione", ha detto lee. "sono molto lusingato, o onorato, che il governatore newsom mi abbia chiesto di prendere parte ai prossimi passi dopo l'sb 1047."
il governatore della california ha recentemente invitato lee e altri esperti di intelligenza artificiale a formare un gruppo di lavoro per aiutare lo stato a sviluppare misure di salvaguardia per l’implementazione dell’intelligenza artificiale. lee ha affermato che utilizzerà un approccio basato sull’evidenza nel ruolo e farà del suo meglio per sostenere la ricerca e i finanziamenti accademici. tuttavia, vuole anche assicurarsi che la california non penalizzi i lavoratori del settore tecnologico.
“dobbiamo concentrarci davvero sui potenziali impatti sulle persone e sulle nostre comunità piuttosto che incolpare la tecnologia stessa…puniamo gli ingegneri automobilistici se un’auto viene utilizzata in modo improprio, intenzionalmente o meno, e ferisce una persona, ad es.guadoo general motors - non ha senso. la semplice punizione degli ingegneri automobilistici non renderà le automobili più sicure. ciò che dobbiamo fare è continuare a innovare verso misure più sicure migliorando al contempo i quadri normativi – che si tratti di cinture di sicurezza o limiti di velocità – e lo stesso vale per l’intelligenza artificiale. "
questo è uno degli argomenti migliori che ho sentito a favore dell'sb 1047, un disegno di legge che punirebbe le aziende tecnologiche colpite da pericolosi modelli di intelligenza artificiale.
mentre lee fornisce consulenza allo stato della california sulla regolamentazione dell'intelligenza artificiale, gestisce anche la sua startup world labs a san francisco. questa è la prima volta che li lancia una startup ed è una delle poche donne alla guida di un laboratorio di intelligenza artificiale all'avanguardia.
"siamo ancora lontani da un ecosistema ai molto diversificato", ha detto li. "credo davvero che un'intelligenza umana diversificata porterà a un'intelligenza artificiale diversificata e porterà a una tecnologia migliore per noi."
nei prossimi anni, è entusiasta di portare l’”intelligenza spaziale” più vicino alla realtà. il linguaggio umano, la base degli odierni modelli linguistici su larga scala, potrebbe aver impiegato milioni di anni per svilupparsi, mentre la visione e la percezione potrebbero aver impiegato 540 milioni di anni, ha detto li. ciò significa che creare modelli mondiali di grandi dimensioni è un compito più complesso.
"non si tratta solo di permettere al computer di vedere, ma di permettere davvero al computer di comprendere l'intero mondo tridimensionale, che io chiamo intelligenza spaziale", ha detto li."non vediamo solo per nominare le cose... vediamo davvero per fare le cose, navigare nel mondo, interagire tra loro e colmare il divario tra vedere e fare richiede conoscenza spaziale. come tecnologo, sono davvero entusiasta riguardo a questo”
compilato da: chatgpt