notizia

il testo completo dell'intervento di shun xiangyang al forum young scientists 50²: 10 pensieri sui grandi modelli

2024-09-28

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

il 28 settembre si è tenuto il 4° "young scientists 50² forum" presso la southern university of science and technology. shen xiangyang, un accademico straniero dell'accademia nazionale di ingegneria, ha tenuto un discorso programmatico su "come dovremmo pensare ai modelli di grandi dimensioni nel mondo". nell'era dell'intelligenza artificiale generale" e ha espresso i suoi 10 pensieri sui modelli di grandi dimensioni.

di seguito sono riportati i contenuti specifici dei suoi 10 pensieri:

1. la potenza di calcolo è la soglia: i requisiti di potenza di calcolo dei modelli di grandi dimensioni sono stati enormi negli ultimi 10 anni. oggi realizzeremo un grande modello di intelligenza artificiale, affermando che il blocco ferisce i sentimenti e la mancanza di blocco significa assenza di sentimenti.

2. dati sui dati: se esce gpt-5, il volume dei dati potrebbe raggiungere 200t. ma non ci sono molti dati validi su internet. dopo la pulizia, 20t potrebbero essere quasi il massimo. pertanto, in futuro, oltre ai dati esistenti, costruiremo più dati multimodali e persino dati sintetizzati artificialmente. sarà necessario.

3. il prossimo capitolo del grande modello: c'è molto lavoro di ricerca scientifica multimodale da svolgere. credo che una direzione molto importante sia l'unificazione della comprensione e della generazione multimodale.

4. cambio di paradigma dell'intelligenza artificiale: dopo l'uscita di o1, l'idea originale di pre-formazione gpt è cambiata nell'odierno percorso di apprendimento indipendente, che è un processo di rafforzamento dell'apprendimento nella fase di inferenza e di autoapprendimento continuo. l’intero processo è molto simile al modo in cui gli esseri umani pensano e analizzano i problemi e richiede anche molta potenza di calcolo.

5. i modelli di grandi dimensioni attraversano migliaia di settori: nell’onda della costruzione di modelli di grandi dimensioni in cina, sempre più modelli di grandi dimensioni vengono utilizzati nelle industrie. questa tendenza è decisamente questa e in futuro la percentuale di modelli generali di grandi dimensioni diventerà sempre più piccola.

6. ai agent, dalla visione all'implementazione: la super applicazione è presente fin dall'inizio questa super applicazione è un super assistente e un super agente.

7. open source vs closed source: penso che meta's llama non sia l'open source tradizionale: apre semplicemente un modello e non fornisce il codice e i dati originali. pertanto, quando utilizziamo sistemi open source, dobbiamo anche inventare il nostro menti per comprendere veramente il quadro generale del lavoro del sistema modello closed source.

8. prestare attenzione alla governance dell’intelligenza artificiale: l’intelligenza artificiale ha un impatto enorme su migliaia di industrie e sull’intera società, e tutti devono affrontarlo insieme.

9. ripensare il rapporto uomo-computer: solo comprendendo veramente l’interazione uomo-computer possiamo diventare un leader realmente valido dal punto di vista commerciale per ogni generazione di imprese high-tech. parla adessoopenail'aggiunta di microsoft significa che questa era è ancora troppo presto. sono avanti, ma c'è ancora molto spazio per l'immaginazione nel futuro.

10. la natura dell’intelligenza: sebbene i grandi modelli abbiano scioccato tutti, non abbiamo una teoria sui grandi modelli e sul deep learning. diaidell'emergere del problema si è solo parlato ma non spiegato chiaramente.

"young scientists 50² forum" è l'incontro accademico annuale della new cornerstone science foundation, organizzato dauniversità meridionale della scienza e della tecnologia, tencent sustainable social value division e new cornerstone science foundation organizzate congiuntamente. la new cornerstone science foundation è stata fondata e gestita in modo indipendente da tencent con un investimento di 10 miliardi di yuan in 10 anni. attualmente è una delle più grandi fondazioni scientifiche per il benessere pubblico in cina. la sua fondazione e il suo funzionamento rappresentano l'investimento a lungo termine di tencent nella tecnologia buone. azioni concrete per il finanziamento della scienza.

"young scientists 50² forum" è una piattaforma di scambio accademico interdisciplinare per i vincitori del "scientific exploration award". il "scientific exploration award" è stato istituito nel 2018. è un premio di welfare pubblico finanziato dalla new cornerstone science foundation e guidato da scienziati. attualmente è uno dei più grandi progetti di finanziamento per giovani talenti scientifici e tecnologici in cina. ogni vincitore condividerà la sua grande idea e le ultime esplorazioni sul forum almeno una volta durante i cinque anni di finanziamento. "50²" significa che i 50 giovani scienziati selezionati ogni anno dal "scientific exploration award" avranno un impatto significativo sulle scoperte scientifiche e tecnologiche nei prossimi 50 anni.

i seguenti sonoshen xiangyangil testo completo dell'intervento in questo forum:

sono molto felice di avere oggi l'opportunità di condividere con voi alcuni recenti apprendimenti ed esperienze nel campo dell'intelligenza artificiale a shenzhen.

continueròyao qizhiriguardo al tema dell'intelligenza artificiale di cui ha parlato il signor sir, lasciate che vi parli di alcune delle cose che stiamo facendo ora nell'era dei modelli di grandi dimensioni, soprattutto guardando questo problema dal punto di vista dell'integrazione tecnologica e della transizione industriale.

in realtà, non si tratta solo dell’importanza dello sviluppo tecnologico nell’era dell’intelligenza artificiale. l’intera storia dello sviluppo umano è una storia di sviluppo tecnologico, senza la tecnologia non ci sarà crescita del pil. non guarderemo indietro a cose come perforare il legno per accendere il fuoco o inventare la ruota: esamineremo solo le numerose e straordinarie scoperte della fisica negli ultimi 100 anni e le scoperte dell'intelligenza artificiale e dell'informatica negli ultimi 70 anni. possiamo vedere che ci sono stati molti sviluppi.

l’argomento di cui parliamo oggi è l’intelligenza artificiale e i grandi modelli. negli ultimi anni tutti devono essere rimasti scioccati dalla nuova esperienza dell'intelligenza artificiale passo dopo passo. anche se ho lavorato nell'intelligenza artificiale per tutta la vita, sarebbe difficile immaginare la situazione oggi qualche anno fa.

voglio parlare di tre esempi: il primo è generare testo da testo, il secondo è generare immagini da testo e il terzo è generare video da testo. poco fa abbiamo parlato di un sistema di intelligenza artificiale come chatgpt, disponibile non solo a livello internazionale ma anche nazionale. ad esempio, prima di venire qui per tenere un discorso oggi, ho chiesto a chatgpt che avrei partecipato al forum young scientists 50² di tencent e avrei tenuto un discorso di che tipo di argomenti avrei dovuto parlare dato il mio background? potresti pensare che sia un po' divertente, ma in realtà, dopo averlo usato, pensi che sia molto buono.

tutti conoscono chatgpt due anni fa, openai ha lanciato un sistema che genera grafici. dai un paragrafo e questo genera un grafico. sette mesi fa, ha rilasciato sora. gli dai un messaggio e genera per te un video ad alta definizione di 60 secondi, come questo video di camminare per le strade di tokyo. è molto scioccante. (non mostrerò il video per motivi di tempo.)

lasciate che vi faccia un esempio di questo diagramma vincenziano. mi specializzo in computer grafica e penso di avere una buona idea di se una foto è buona o cattiva. due anni fa è uscita questa foto. è stata la prima foto generata dall'intelligenza artificiale nella storia dell'umanità, ed è apparsa sulla copertina di una rivista di moda americana ("cosmopolitan"). un artista digitale di san francisco ha utilizzato il sistema openai e ha posto una domanda, che ha prodotto questo risultato. questo passaggio è: nel vasto cielo stellato, un'astronauta si pavoneggiava su marte e camminava verso un obiettivo grandangolare. non ho molto talento artistico, ma sono rimasto molto scioccato quando ho visto questa immagine. penso che sarai d'accordo con me. quando l'intelligenza artificiale disegna un'immagine del genere, sembra davvero un membro dell'astronauta. quindi questa intelligenza artificiale ha raggiunto un livello molto intelligente.

oggi disponiamo di tecnologie straordinarie e persino di prodotti straordinari. stiamo lavorando molto duramente anche a casa e costruendo modelli su larga scala. dalla tecnologia ai modelli fino alle applicazioni successive, stiamo lavorando su tutti gli aspetti. proprio ora, anche l'accademico yao ha parlato di molti degli ultimi lavori dell'università tsinghua. quindi voglio condividere con voi come dovremmo pensare ai modelli di grandi dimensioni nell'era dell'intelligenza artificiale generale. vorrei condividere alcune delle mie opinioni.

il primo pensiero è che la potenza di calcolo è la soglia.

l’aspetto più importante dell’intelligenza artificiale generale di oggi, dei modelli di grandi dimensioni e del deep learning è la crescita complessiva della potenza di calcolo dell’intelligenza artificiale negli ultimi anni.

negli ultimi 10 anni, la potenza di calcolo utilizzata dai modelli di grandi dimensioni è aumentata, inizialmente da sei a sette volte all’anno, e successivamente di più di quattro volte all’anno. adesso ti faccio una domanda: se qualcosa aumenta quattro volte all'anno, quante volte aumenterà in 10 anni? pensaci prima, tornerò su questo argomento più tardi.

tutti sanno che l’azienda che trae maggiori benefici da questa ondata di sviluppo dell’intelligenza artificiale ènvidia, le spedizioni di nvidia aumentano di anno in anno, la sua potenza di calcolo aumenta gradualmente e il valore di mercato dell'intera azienda è diventato una delle tre società al mondo (microsoft, apple, nvidia) con un valore di mercato di 3 trilioni di dollari. la cosa più importante è la domanda di potenza di calcolo da parte di tutti ogni anno. il numero di chip nvidia acquistati nel 2024 è ancora in rapida crescita. ad esempio, elon musk sta costruendo un cluster di 100.000 schede h100. è molto difficile costruire un sistema da 10.000 schede i requisiti di rete sono molto elevati.

oggi parliamo di potenza di calcolo e modelli di grandi dimensioni la cosa più importante sono le leggi di scalabilità (potenza di calcolo e dati). maggiore è la potenza di calcolo, più l'intelligenza cresce. sfortunatamente, quando l’intera quantità di dati aumenta, la crescita della potenza di calcolo non è una crescita lineare, ma è più simile a una crescita quadrata.

perché quando il modello diventa più grande, la quantità di dati deve essere aumentata per addestrare il modello, quindi, relativamente parlando, è più simile a una crescita quadrata. pertanto, negli ultimi 10 anni, il fabbisogno di potenza di calcolo è stato enorme. quindi dirò solo una cosa: oggi realizzerò un grande modello di intelligenza artificiale. se è bloccato, ferisce i tuoi sentimenti. se non è bloccato, non avrai sentimenti.

ti ho appena fatto una domanda: se aumenta 4 volte all'anno, quante volte aumenterà tra 10 anni? quelli di noi che studiano i computer sanno che esiste una cosa chiamata "legge di moore", il che significa che la potenza di calcolo raddoppia ogni 18 mesi circa. questo è il modo in cui intel si è sviluppata nel corso degli anni. perché nvidia ha ormai superato intel? una ragione molto importante è che il suo tasso di crescita è diverso. se raddoppia in 18 mesi, probabilmente aumenterà di 100 volte in 10 anni, il che è altrettanto notevole; se aumenta di 4 volte ogni anno, sarà di 1 milione di volte in 10 anni. questa crescita è davvero sorprendente. se la pensi in questo modo, è comprensibile che il valore di mercato di nvidia sia cresciuto così velocemente negli ultimi 10 anni.

il secondo pensiero riguarda i dati.

potenza di calcolo, algoritmi e dati sono tre fattori importanti per l’intelligenza artificiale. ho detto prima che abbiamo bisogno di molti dati per addestrare l’intelligenza artificiale generale. quando è uscito chatgpt3, era ancora nella fase di pubblicazione dei documenti e si diceva che avesse bisogno di 2 trilioni di dati token; quando è uscito gpt-4, sarebbero circa 12t gpt-4 è in costante allenamento; oggi si stima che abbia una quantità superiore a 20t. chiunque abbia a cuore l'intelligenza artificiale sa che tutti aspettano l'uscita di gpt5 da così tanto tempo, ma non è mai uscito, il mio giudizio personale potrebbe essere che la quantità di dati raggiungerà le 200t . guardando indietro, non ci sono molti dati validi su internet. dopo averlo ripulito, 20t potrebbe essere quasi il massimo, quindi in futuro, se vuoi creare gpt-5, oltre ai dati esistenti, ti serviranno più dati multimodali, anche dati sintetizzati artificialmente.

una cosa molto interessante è che negli ultimi trenta o quaranta anni tutti hanno condiviso le proprie informazioni online. in passato pensavamo di lavorare per i motori di ricerca. ciò che è ancora più notevole ora è il nostro accumulo negli ultimi trenta o quaranta anni è per un momento come chatgpt, ha integrato tutto e ha imparato un modello di intelligenza artificiale attraverso una potente potenza di calcolo. questo è quello che è successo.

terzo pensiero, il prossimo capitolo del grande modello.

hai lavorato fino ad oggi, cosa dovresti fare dopo? il primo è il modello linguistico. rappresentato da chatgpt, la sua tecnologia di base è l'elaborazione del linguaggio naturale. ciò su cui tutti stanno lavorando oggi è un modello multimodale, rappresentato da gpt-4, e molte delle tecnologie in esso contenute sono di visione artificiale. andando avanti, dobbiamo sviluppare l’intelligenza incarnata. qual è lo scopo dell’intelligenza incarnata? in effetti, dobbiamo costruire un modello mondiale, anche se multimodale, non esiste un modello fisico sottostante, quindi dobbiamo costruire un modello mondiale del genere. il modello mondiale significa che non solo devi leggere migliaia di libri, ma anche viaggiare migliaia di chilometri per restituire al tuo cervello più conoscenza del mondo. quindi dovremmo creare robot. penso che shenzhen dovrebbe decidersi a costruire robot e intelligenza incarnata. nei robot esiste un percorso speciale chiamato guida autonoma. la guida autonoma è un robot speciale, ma percorre un determinato percorso.

cosa fare? c’è molto lavoro di ricerca scientifica multimodale da svolgere e credo che una direzione molto importante sia l’unificazione della comprensione e della generazione multimodale. anche se sora verrà costruito, sarà separato. la generazione di multi-moduli e la comprensione dei multi-moduli non sono unificate. c’è molto lavoro di ricerca scientifica che possiamo svolgere in questo settore.

per fare un esempio, molti dei miei studenti hanno creato una grande azienda modello, step stars, e la loro comprensione multimodale era molto buona. se mostri un'immagine a un'intelligenza artificiale, perché il comportamento nell'immagine è chiamato "abilità non valida", l'intelligenza artificiale ti spiegherà che l'immagine sembra un bambino che rotola a terra, ma sua madre è indifferente, e lei guarda i telefoni cellulari e beve bevande, quindi questa abilità dei bambini è chiamata abilità non valida. l’intelligenza artificiale ora sta migliorando sempre di più nella comprensione dei grafici.

il quarto pensiero è il cambio di paradigma dell’intelligenza artificiale.

due settimane fa, openai ha rilasciato il suo ultimo modello, o1. ho menzionato prima che gpt si è sviluppato dopo gpt4, gpt5 non è stato rilasciato tutti pensano, se si tratta solo di un aumento dei parametri dei modelli di grandi dimensioni, ha raggiunto il suo apice? nessuno lo sa, non è ancora stato rilasciato e non abbiamo realizzato un modello più grande in cina.

ma ora è emersa una nuova dimensione, che non consiste nel fare la precedente formazione preliminare (espansione), ma nel fare l'espansione quando si fa l'inferenza. si è passati dall'idea originale del gpt al percorso di apprendimento indipendente di oggi, che è un processo di rafforzamento dell'apprendimento nella fase di ragionamento e di autoapprendimento continuo.

in passato, facevamo un pre-addestramento, prevedendo sostanzialmente quale sarà la parola successiva e quale sarà il prossimo token. ora la nuova idea è fare una bozza e provare a vedere se questo percorso è giusto e quell'altro. proprio come il cervello umano. nel pensare, c'è un sistema veloce e un sistema lento proprio come quando facciamo i problemi di matematica, facciamo prima una bozza per vedere in che modo funzionerà. c'è una catena di pensiero, e poi guardiamo alle opportunità nel processo di ottimizzazione della catena di pensiero. finora solo openai ha rilasciato un sistema del genere e incoraggio tutti a dare un'occhiata ad alcuni esempi qui.

la cosa più importante è che l’intero processo è molto simile al modo in cui gli esseri umani pensano e analizzano i problemi, elaborano, verificano, correggono gli errori e ricominciano da capo. fare ciò richiede anche molta potenza di calcolo.

il quinto pensiero è che i grandi modelli si stanno diffondendo in migliaia di settori.

tutte le aziende devono affrontare le opportunità offerte dai modelli di grandi dimensioni, ma ogni azienda non ha bisogno di realizzare un modello di grandi dimensioni universale. se non si hanno nemmeno 10.000 carte, non c'è alcuna possibilità di realizzare un modello di grandi dimensioni universale modello grande il modello deve avere almeno 10.000 carte.

ad esempio, quando è uscito gpt4, il suo volume di allenamento totale era di 2×10^25 flops. con una quantità così grande di formazione, ci vorrà un anno per gestire 10.000 carte a100 per raggiungere questo importo. se questo importo non può essere raggiunto, non ci sarà un vero modello universale di grandi dimensioni. con il modello generale di grandi dimensioni, possiamo costruire i nostri modelli di grandi dimensioni per il nostro settore su questa base, come quello finanziario e assicurativo. forse le chilocalorie possono andare molto bene e possiamo perfezionarle. per un'azienda, disponi di dati personali, inclusi dati interni e dati dei clienti. se estrai questi dati e utilizzi dozzine o centinaia di carte, puoi creare un ottimo modello per la tua azienda. quindi è costruito strato dopo strato.

naturalmente c’è un’altra dimensione molto importante che mi piace molto, ovvero il modello personale del futuro. oggi abbiamo gradualmente utilizzato pc e telefoni cellulari (i dati si sono accumulati in una certa misura) e ci comprendiamo sempre di più. in futuro, credo che ci sarà un'intelligenza artificiale così super intelligente che ti aiuterà dopo aver raccolto informazioni rilevanti dati, può costruire un tuo modello personale. questo è nella parte terminale (personale), e i telefoni cellulari sono una cosa naturale. in termini di pc, anche aziende produttrici di pc come microsoft e lenovo stanno promuovendo il concetto di pc ai, quindi ci sono anche queste opportunità.

nell'ondata della costruzione di modelli di grandi dimensioni in cina, vengono inclusi sempre più modelli di grandi dimensioni del settore. ecco un esempio. poiché i modelli di grandi dimensioni cinesi devono essere approvati dall'amministrazione cinese del cyberspazio prima di essere messi online, alla fine di luglio di quest'anno, un totale di 197 modelli in cina erano stati approvati dall'amministrazione cinese del cyberspazio. di cui il 70% erano modelli di grandi dimensioni del settore e il 30% erano modelli di grandi dimensioni generali. questa tendenza è decisamente questa e in futuro la percentuale di modelli generali di grandi dimensioni diventerà sempre più piccola. ad esempio, possiamo creare un modello finanziario su un modello generale di grandi dimensioni. questo è un modello di grandi dimensioni realizzato da un'azienda di shanghai per i suoi clienti finanziari. ad esempio, quando esce il rapporto finanziario di nvidia, puoi immediatamente riassumerne i punti salienti e i problemi.

il sesto pensiero è ai agent, dalla visione all'implementazione.

oggi vediamo quali sono le più grandi super applicazioni dei grandi modelli e dove si trovano le maggiori opportunità. molte persone stanno ancora cercando di trovare una super app. in effetti, la super applicazione è presente fin dall'inizio. questa super applicazione è un super assistente, un super agente.

gates e io abbiamo lavorato insieme in microsoft per molti anni ed entrambi pensavamo a questo problema. cosa c'è di così difficile? la difficoltà sta nel comprendere un flusso di lavoro quando si desidera effettivamente svolgere un lavoro utile. se si pone una domanda, è possibile suddividerla passo dopo passo. quello che posso fare oggi è qualcosa che ha un certo grado di influenza, come essere un servizio clienti o un assistente personale. ma molti lavori non possono essere fatti. perché non può essere fatto? devi essere un cervello digitale. il modello grande riportato di seguito è solo il primo passo. la capacità del modello grande non è abbastanza potente per aiutarti a eseguire tutto il lavoro sopra descritto passo dopo passo. poiché vuoi davvero creare un agente di questo tipo, in modo che possa fare cose, deve capire quali sono i seguenti problemi e ogni parte ha le competenze corrispondenti.

abbiamo già fatto molti buoni esempi utilizzando il modello di oggi. ad esempio, puoi essere un consulente sanitario dell'intelligenza artificiale, parlare della tua comprensione dei cosmetici e consigliare cosmetici. successivamente, vedrai molte applicazioni in quest'area.

il settimo pensiero è open source e closed source.

nello sviluppo della scienza e della tecnologia mondiale negli ultimi decenni, in particolare nello sviluppo della scienza e della tecnologia cinese, due cose sono molto importanti.

il primo è l'emergere di internet. con internet è possibile trovare tutti i documenti e i materiali online.

il secondo è l'open source l'open source consente di ridurre drasticamente il divario con i leader durante la presentazione delle candidature. ma l’open source non è la stessa cosa dell’open source per modelli e database di grandi dimensioni, sebbene le capacità dell’open source siano ora vicine a quelle del closed source. ci sono anche molte aziende in cina che stanno realizzando cose open source. il miglior strumento open source oggi è llama 3.1 di meta, che afferma di essere vicino a openai. non la penso così, penso che non sia un open source tradizionale, ma apre semplicemente un modello e non fornisce il codice e i dati originali. pertanto, quando utilizziamo sistemi open source, dobbiamo anche decidere di farlo comprendere veramente la chiusura del sistema di modelli di grandi dimensioni.

l’ottavo pensiero è prestare attenzione alla governance dell’ia.

poiché l’intelligenza artificiale si sta sviluppando così rapidamente, il mondo attribuisce grande importanza alla sicurezza dell’intelligenza artificiale. perché l’impatto di questa questione è così grande. l’intelligenza artificiale ha un impatto enorme su migliaia di industrie e sull’intera società. lo sviluppo del mondo intero richiede effettivamente che tutti lo affrontino insieme.

il nono pensiero è ripensare il rapporto uomo-macchina.

ho appena presentato il testo di vincent, le immagini di vincent e il video di vincent: quanto è dovuto all'intelligenza della macchina e quanto allo shock che ci provoca l'interazione uomo-computer?

circa 10 anni fa, l'editorialista del "new york times" john markoff scrisse un libro che mi piace molto, "machine of loving grace", che riassumeva le due linee di sviluppo passato della tecnologia: una è l'intelligenza artificiale, l'altra è l'ia (; intelligent augmentation), è il potenziamento dell’intelligenza, ovvero l’interazione uomo-computer. quando i computer divennero disponibili, aiutarono le persone a fare molte cose e giocare a scacchi ne è un esempio.

infatti, solo comprendendo veramente l’interazione uomo-computer potremo diventare leader con un reale valore commerciale per ogni generazione di imprese high-tech. l’interfaccia dell’intelligenza artificiale di oggi è diventata molto chiara, ovvero il processo di dialogo. il rappresentante di oggi è chatgpt. ma parlare di openai più microsoft significa che questa era è ancora troppo presto. sono avanti, ma c’è ancora molto spazio per l’immaginazione in futuro.

il decimo pensiero è la natura dell'intelligenza.

sebbene oggi i modelli di grandi dimensioni abbiano scioccato tutti, non abbiamo una teoria sui modelli di grandi dimensioni e sul deep learning. oggi ci piacerebbe avere qualsiasi teoria che ci faccia sentire bene. a differenza della fisica, da un punto di vista fisico tutto, dal vasto cielo stellato al più piccolo quanto, è descritto da alcune bellissime leggi fisiche. oggi non esiste una teoria simile per l’intelligenza artificiale, che non ha né spiegabilità né robustezza. l’attuale quadro di deep learning non può raggiungere la vera intelligenza artificiale generale.

per quanto riguarda l’emergere dell’intelligenza artificiale, tutti ne hanno solo parlato ma non lo hanno spiegato chiaramente. perché l’intelligenza emerge quando il modello è abbastanza grande? perché il modello 70b può emergere con intelligenza? non esiste una tale verità. quindi stiamo lavorando molto duramente anche su questo tema. l'estate scorsa ho anche organizzato un seminario presso l'università della scienza e della tecnologia di hong kong sul tema "teoria matematica per l'intelligenza emergente". quando si parla di intelligenza emergente, alcuni principi scientifici e matematici devono essere spiegati chiaramente e a più persone disposte a farlo esplorare la necessità di partecipare, soprattutto con l'emergere dei progetti “science exploration award” e “new cornerstone researcher” di tencent, si sono uniti più giovani scienziati, che hanno più fiducia e convinzione di approfondire il difficile compito di creare. scoperte per il futuro sviluppo dell’intelligenza artificiale tra le domande.

ancora congratulazioni a tutti i vincitori e ai giovani scienziati. lo sviluppo della scienza e della tecnologia deve essere portato avanti dai giovani di generazione in generazione, in particolare dell’intelligenza artificiale. grazie ancora a tutti.