notizia

la previsione di huang renxun è diventata realtà. google dimostra il modello ai di generazione di giochi in tempo reale gamengen

2024-08-29

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

① attraverso l'apprendimento automatico, i ricercatori hanno permesso al modello gamengen di generare con successo il gioco sparatutto in prima persona "doom" negli anni '90 in tempo reale. ② sebbene il prodotto finito sia ancora grezzo, questa ricerca mostra ulteriormente le prospettive per i futuri giochi generati dall'intelligenza artificiale ③ il ceo di nvidia, jensen huang, una volta aveva previsto che potremmo vedere i giochi completamente generati dall'intelligenza artificiale in circa 5-10 anni.

financial associated press, 29 agosto (a cura di shi zhengcheng)l'era della generazione di giochi in tempo reale tramite modelli di intelligenza artificiale è arrivata silenziosamente a noi.

questa settimana i ricercatori di google e dell'università di tel aviv hanno pubblicato un articolo intitolato "il modello di diffusione è un motore di gioco in tempo reale"l'articolo presenta gamengen, il primo motore di gioco nella storia dei computer completamente supportato da modelli di rete neurale.

(fonte: github)

i ricercatori hanno scritto nel documento: "oggi, i videogiochi sono programmati da esseri umani e gamengen è parte della prova di concetto di un nuovo paradigma nei motori di gioco, in cui i giochi diventeranno pesi di modelli neurali anziché linee di codice.。”

per dirla in un modo più comprensibile, tutti i videogiochi attuali sono pre-progettati. gli sviluppatori devono scrivere il codice, preparare il testo del gioco e i modelli di texture, quindi posizionarli sulla mappa di gioco: dipendono dal rendering e dagli aggiornamenti di stato della schermata di gioco. attivo per le regole modificate manualmente. ma il modello gamengen apre un’idea completamente diversa:utilizza modelli di generazione ia per calcolare e generare immagini di gioco in tempo reale in base alle azioni e reazioni del giocatore.

nella dimostrazione, i ricercatori hanno utilizzato l'apprendimento automatico per generare con successo in tempo reale il gioco sparatutto in prima persona "doom" negli anni '90 utilizzando il modello gamengen. il video mostra che nel gioco generato dall'intelligenza artificiale, i giocatori possono girare e sparare con le armi nella scena e, allo stesso tempo, può riflettere accuratamente il numero di proiettili rimanenti, il volume di sangue rimanente dopo essere stati attaccati e se le condizioni richieste per aprire il livello successivo sono soddisfatti.

(fonte: video dimostrativo)

va notato che le serie di immagini viste sopra sono interamente immagini generate dall'intelligenza artificiale in tempo reale.gli ultimi progressi mostrano anche che, dopo aver generato con successo testo, immagini, audio e brevi video, i modelli di intelligenza artificiale potrebbero essere in grado di generare scene di gioco, il che richiede logica, coerenza e interazione in tempo reale significativamente più elevate.

come hanno fatto?

secondo il gruppo di ricerca, per addestrare questa ia in grado di generare giochi in tempo reale, è necessario prima addestrare un agente di apprendimento per rinforzo (rl) a giocare, quindi utilizzare le clip registrate per addestrare il modello di diffusione generativa a prevedere in base alle scene passate e alle azioni del giocatore la schermata successiva, motivo per cui i giochi generati dall'intelligenza artificiale possono mostrare cambiamenti nella salute e nelle munizioni, nonché animazioni dei nemici attaccati.

la sfida più grande è mantenere le immagini generate dall’intelligenza artificiale temporalmente e logicamente coerenti. per mitigare la deriva autoregressiva durante l’inferenza, i ricercatori hanno distrutto i frame di contesto aggiungendo rumore gaussiano ai frame codificati durante l’addestramento, consentendo all’ia di correggere le informazioni campionate nei frame precedenti, mantenendo così la stabilità della generazione dell’immagine nel tempo.

(fonte: documento di ricerca)

lo hanno rivelato i ricercatoril'esecuzione di questo modello richiede solo un singolo tpu (il processore ai sviluppato internamente da google), che può raggiungere una velocità di generazione di 20 fotogrammi al secondo.

naturalmente, i paragrafi precedenti mostrano anche i limiti di gamengen: questa ia deve fare affidamento sull'inserimento di giochi esistenti (o testo, immagini e altri materiali) per generare giochi.

il dottor jim fan, responsabile della ricerca senior e capo dell'embody intelligence group di nvidia, ha commentato sui social media:gamengen è più simile a un campo di radiazione neurale (nerf) che a un modello di generazione video. il campo di radiazione neurale genera una rappresentazione 3d della scena scattando immagini della scena da diverse angolazioni. ma questo significa anche che il modello non ha capacità di generalizzazione e non può “immaginare” nuovi scenari. questa è anche la differenza tra gamengen e sora: non può generare nuove scene o meccanismi di interazione.

(fonte: x)

i ricercatori ne hanno parlato anche nel documento, spiegando che con l’aiuto di questa tecnologia,gli sviluppatori di giochi del futuro saranno in grado di creare nuovi giochi con "descrizioni testuali e immagini campione", rendendo possibile trasformare un set raffinato di immagini in un nuovo livello o personaggio giocabile per un gioco esistente basandosi esclusivamente su esempi piuttosto che su abilità di programmazione. .

jen-hsun huang: tra 5-10 anni ci saranno giochi completamente generati dall'intelligenza artificiale

il gioco in tempo reale basato sul rendering ai non è un'idea nuova. quando l'ultima generazione di chip con architettura blackwell è stata rilasciata nel marzo di quest'anno, il ceo di nvidia jensen huang aveva previsto che,tra circa 5-10 anni potremo vedere giochi completamente generati dall’intelligenza artificiale.

infatti non è solo il team di google a muoversi in questa direzione;quando openai ha rilasciato per la prima volta la demo di sora quest'anno, ha anche dimostrato la sua capacità di simulare il gioco pixel "minecraft"

(fonte: openai)

l'ultimo sviluppo coincide anche con cai haoyu, l'ex presidente di mihoyo, che ha recentemente scatenato accese discussioni su come "convincerlo a smettere".

cai haoyu ha dichiarato pubblicamente questa settimana,l’aigc ha rivoluzionato lo sviluppo dei giochi, ora ci vuole solo tempo perché questo fenomeno si dispieghi pienamente. crede che in futuro solo due tipi di sviluppatori di giochi avranno senso continuare a lavorare nel settore: lo 0,0001% dei migliori geni e il 99% degli appassionati di business che creano giochi che soddisfano le proprie esigenze. per quanto riguarda i restanti sviluppatori di giochi che sono "da ordinari a professionisti", tutti dovrebbero cambiare carriera il prima possibile.

(fonte: internet)