notizia

gli occhiali ar olografici sono qui! zuckerberg ha aperto la scatola sul posto, jen-hsun huang è stato tra i primi a sperimentarla ed è stato rilasciato il modello grande llama 3.2

2024-09-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autore | cheng qianzer0

modifica | xin yuan

zhidongxi ha riferito il 26 settembre che oggi all'1:15 ora di pechino è iniziata ufficialmente la conferenza annuale meta connect 2024 "mr circle spring festival gala".

il ceo di meta mark zuckerberg è salito sul palco indossando una maglietta nera e ha diffuso la notizia in pieno svolgimentomissione 3svisualizzazione della testa,lama 3.2modello grande,occhiali intelligenti ray-banocchiali ar olograficiin attesa di nuovi prodotti.

il primo nuovo prodotto hardware presentato da zuckerberg è statomissione 3s, prezzo scioccante$ 299,99(equivalente a circa rmb 2.110).

sebbene le sue prestazioni siano leggermente inferiori a quelle della prima macchina mr all-in-one di livello consumer di meta, quest 3, il prezzo di partenza$ 200 di sconto, approssimativamente uguale a apple vision pro1/11, una macchina davvero conveniente! ! !

anche i modelli grandi sono stati recentemente rilasciati! modello metamultimodalelama 3.2rilasciato, inclusi i parametri 90b e 11bmodello linguistico visivo di grandi dimensioni, nonché i parametri 1b e 3bmodello di testo semplice leggero

con lama 3.2,meta-ialanciata una nuova funzione multimodale che supporta l'interazione vocale e dispone di una varietà di opzioni audio (comprese le voci di alcune celebrità). zuckerberg ha dimostrato la chat vocale dal vivo con meta ai, che è stata molto fluida.

ci sono anche gli occhiali ar che meta definisce i più avanzati di sempre——occhiali ar olografici“orione”

il fondatore e ceo di nvidia jensen huang lo ha già provato.

01.

quest 3s: versione economica e conveniente, al prezzo di us $ 300.

le prestazioni sono quasi le stesse di quest 3

prima di tutto, è arrivata la versione conveniente del dispositivo quest!

meta direttamentemissione 3sil prezzo è ridotto di 200 dollari (equivalenti a circa 1.406 rmb) e le prestazioni sono quasi le stesse di quest 3.

il prezzo della versione meta quest 3s da 128 gb è di$ 299,99(equivalente a circa 2.110 rmb), il prezzo della versione da 256 gb$ 399,99(equivalente a circa rmb 2.813). il quest 3 da 512 gb lo è$ 499,99(equivalente a circa 3.516 rmb).

entrambi gli auricolari utilizzano lo stesso processorechip qualcomm snapdragon xr2 gen 2. la chiave del significativo calo dei prezzi è che quest 3s ha sostituito l'obiettivo pancake conlente infinita

a giudicare dalla dimostrazione dal vivo, il quest 3s con display 4k ha uno schermo molto chiaro e supporta anche il surround dolby atmos.

metasistema operativo horizon ricostruitoper ottenere l'elaborazione spaziale, può supportare meglio gli utenti nell'utilizzo di applicazioni 2d di base come youtube, facebook e instagram.

aggiunse metaaudio spaziale, e miglioratopassanteil contrasto e il colore rendono la presentazione dell'immagine più realistica e coinvolgente.

zuckerberg annuncia che meta sta collaborandomicrosoftcooperare, utilizzarepc windows 11per ottenere un'esperienza desktop virtuale senza interruzioni.

meta offre già il supporto multischermo e la possibilità di interagire direttamente con ciò che accade sul display. ad esempio, gli utenti possono trascinare direttamente l'interfaccia del notebook sul dispositivo quest.

per creare un ambiente metaverse più realistico, è stato lanciato metaiperpaesaggio, gli utenti devono solo scansionare la stanza in cui si trovano con il cellulare e poi indossare le cuffie per "riprodurre" la stanza in qualsiasi momento.

questo dispositivo di visualizzazione montato sulla testa ti consente di sederti in prima fila per guardare concerti, sederti nell'home theater per guardare film di successo ad alta definizione, fare esercizio e altro ancora.

inoltre, quest 3s è compatibile con le migliaia di app e la libreria completa di giochi di meta, nonché con i prossimi giochi esclusivi quest 3 e 3s come batman: arkham shadow.

per coloro che sono nuovi a xr o stavano aspettando un calo di prezzo sui dispositivi quest e quest 2, quest 3s potrebbe essere una scelta migliore.

02.

llama 3.2: il modello visivo raggiunge gpt-4o mini,il modello end-side 1b è paragonabile a gemma

in termini di intelligenza artificiale open source, meta ha rilasciato un nuovo modello multimodale di grandi dimensionilama 3.2

llama 3.2 dispone di due modelli linguistici visivi di grandi dimensioni con specifiche dei parametri 90b e 11b, nonché modelli di testo semplice leggero 1b e 3b che possono essere eseguiti localmente sul dispositivo, comprese le versioni di pre-addestramento e adattate alle istruzioni.

indirizzo di download:https://www.llama.com/

supporto per modelli 1b e 3b128k tokencontesto, si adatta all'hardware qualcomm e mediatek e ai targetprocessore del braccioottimizzato.

modello 3bsupera i modelli gemma 2 2.6b e phi 3.5-mini in attività quali seguire istruzioni, riepilogare, riscrivere velocemente e utilizzare strumenti.modello 1bla performance è paragonabile a gemma.

modelli visivi 90b e 11bè un sostituto diretto del modello di testo corrispondente e le sue prestazioni nelle attività di comprensione delle immagini sono migliori di quelle dei modelli chiusi, come claude 3 haiku e gpt-4o mini.

se, ad esempio, chiedi ad un'azienda quale mese ha registrato le vendite più elevate l'anno scorso, llama 3.2 può ragionare in base ai grafici disponibili e fornire rapidamente una risposta.

può anche utilizzare le mappe per ragionare e aiutare a rispondere a domande, come la distanza di un percorso specifico segnato sulla mappa.

i modelli visivi possono anche aiutare a raccontare una storia estraendo dettagli da un'immagine, comprendendo la scena e quindi producendo una o due frasi come didascalia per l'immagine.

a differenza di altri modelli multimodali aperti, sia i modelli pre-addestrati che quelli allineati possono essere ottimizzati per applicazioni personalizzate utilizzando torchtune e distribuiti localmente utilizzando torchchat.

sono richiesti modelli multimodali con parametri 11b e 90bnuova architettura del modello che supporta l'inferenza delle immagini

il processo di addestramento di meta è costituito da più fasi, a partire da un modello di testo llama 3.1 preaddestrato, aggiungendo prima adattatori e codificatori di immagini, quindi pre-addestrando i dati con rumore su larga scala e quindi pre-addestrando su media scala di alta qualità domini e formazione sui dati potenziati dalla conoscenza.

nella fase successiva alla formazione, meta utilizza metodi simili ai modelli di testo, eseguendo più cicli di allineamento in termini di messa a punto supervisionata, campionamento del rifiuto e ottimizzazione delle preferenze dirette. il risultato è un insieme di modelli in grado di ricevere spunti sia di immagini che di testo e di comprendere e ragionare profondamente sulla combinazione dei due.

per i modelli leggeri con parametri 1b e 3b, meta utilizza un potente modello insegnante per creare piccoli modelli con prestazioni migliori, rendendolo uno dei primi modelli llama leggeri ad alte prestazioni in grado di adattarsi in modo efficiente ai dispositivi.

meta sfrutta l'uso una tantum della potatura strutturata da llama 3.1 8b riducendo le dimensioni dei modelli esistenti di llama e ripristinando quanta più conoscenza e prestazioni possibili.

nella fase successiva alla formazione, i ricercatori hanno utilizzato un approccio simile a llama 3.1 per generare il modello di chat finale eseguendo diversi cicli di allineamento sulla base del modello pre-addestrato.

meta condivide la prima versione ufficiale di llama stack, che semplificherà notevolmente il modo in cui gli sviluppatori utilizzano i modelli llama in diversi ambienti come nodo singolo, locale, cloud e lato dispositivo, consentendo il recupero avanzato di generazione (rag) e strumenti di sicurezza integrati che supportano la distribuzione chiavi in ​​mano delle applicazioni.

03.

meta ai: scegli tra una varietà di voci di celebrità,

le immagini p e la traduzione in tempo reale sono più convenienti

con lama 3.2,la meta ai ha una voce

ora usa la tua voce per parlare con meta ai e lascia che risponda alle tue domande o ti racconti barzellette per farti ridere. meta aggiunge alla voce anche molte voci ai familiari. come le voci dell'attrice britannica judi dench.