2024-09-26
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
auteur | cheng qianzer0
modifier | xin yuan
zhidongxi a rapporté le 26 septembre qu'aujourd'hui à 1 h 15, heure de pékin, la conférence annuelle meta connect 2024 « mr circle spring festival gala » a officiellement débuté.
le pdg de meta, mark zuckerberg, est monté sur scène vêtu d'un t-shirt noir et a annoncé la nouvelle en plein essor.quête 3saffichage de la tête,lama 3.2grand modèle,lunettes intelligentes ray-ban、lunettes ar holographiquesen attente de nouveaux produits.
le premier nouveau produit matériel dévoilé par zuckerberg étaitquête 3s, prix choquant299,99 $(équivalent à environ 2 110 rmb).
bien que ses performances soient légèrement inférieures à celles du premier appareil irm grand public tout-en-un de meta, quest 3, le prix de départ200 $ de rabais, approximativement égal à apple vision pro1/11, une machine vraiment rentable ! ! !
les grands modèles sont également nouvellement sortis ! modèle méta multimodallama 3.2publié, y compris les paramètres 90b et 11bgrand modèle de langage visuel, ainsi que les paramètres 1b et 3bmodèle de texte brut léger。
avec lama 3.2,méta ialancement d'une nouvelle fonction multimodale qui prend en charge l'interaction vocale et propose une variété d'options sonores (y compris les voix de certaines célébrités). zuckerberg a fait la démonstration d'un chat vocal en direct avec meta ai, qui s'est déroulé de manière très fluide.
il existe également des lunettes ar que meta appelle les plus avancées jamais créées——lunettes ar holographiques« orion »。
le fondateur et pdg de nvidia, jensen huang, l'a déjà essayé.
01.
quest 3s : version abordable et abordable, au prix de 300 $ us.
les performances sont presque les mêmes que celles du quest 3
tout d’abord, la version abordable de l’appareil quest est là !
méta directementquête 3sle prix est réduit de 200 $ us (équivalent à environ 1 406 rmb) et les performances sont presque les mêmes que celles du quest 3.
la version meta quest 3s 128 go est au prix de299,99 $(équivalent à environ 2 110 rmb), la version 256 go est au prix de399,99 $(équivalent à environ 2 813 rmb). le quest 3 de 512 go est499,99 $(équivalent à environ 3 516 rmb).
les deux casques utilisent le même processeur, les deuxpuce qualcomm snapdragon xr2 gen 2. la clé de la baisse significative des prix est que le quest 3s a remplacé l'objectif pancake parobjectif infini。
à en juger par la démonstration en direct, le quest 3s avec écran 4k a un affichage très clair et prend également en charge le surround dolby atmos.
métahorizon os reconstruitpour réaliser l’informatique spatiale, il peut mieux aider les utilisateurs à utiliser des applications 2d de base telles que youtube, facebook et instagram.
méta ajoutéeaudio spatial, et améliorépassagele contraste et la couleur rendent la présentation de l'image plus réaliste et immersive.
zuckerberg annonce que meta travaille avecmicrosoftcoopérer, utiliserordinateur windows 11pour obtenir une expérience de bureau virtuel transparente.
meta offre déjà une prise en charge multi-écrans et la possibilité d'interagir directement avec ce qui se passe à l'écran. par exemple, les utilisateurs peuvent directement faire glisser l'interface du bloc-notes vers l'appareil quest.
pour créer un environnement metaverse plus réaliste, meta a lancéhyperscape, il suffit aux utilisateurs de scanner la pièce dans laquelle ils se trouvent avec leur téléphone portable, puis de mettre le casque pour « reproduire » la pièce à tout moment.
ce visiocasque vous permet de vous asseoir au premier rang pour regarder des concerts, de vous asseoir dans le cinéma maison pour regarder des superproductions haute définition, de faire de l'exercice et bien plus encore.
de plus, quest 3s est compatible avec les milliers d’applications et la bibliothèque de jeux complète de meta, ainsi qu’avec les prochains jeux exclusifs quest 3 et 3s comme batman : arkham shadow.
pour ceux qui sont nouveaux sur xr ou qui attendent une baisse de prix sur les appareils quest et quest 2, le quest 3s peut être un meilleur choix.
02.
llama 3.2 : le modèle visuel rattrape gpt-4o mini,le modèle final 1b est comparable à gemma
en termes d'ia open source, meta a publié un nouveau grand modèle multimodallama 3.2。
llama 3.2 dispose de deux modèles visuels de grand langage avec des spécifications de paramètres 90b et 11b, ainsi que des modèles de texte brut légers 1b et 3b qui peuvent s'exécuter localement sur l'appareil, y compris des versions de pré-formation et ajustées aux instructions.
adresse de téléchargement :https://www.llama.com/
prise en charge des modèles 1b et 3b128 000 jetonscontexte, s'adapte au matériel qualcomm et mediatek, et cibleprocesseur de brasoptimisé.
modèle 3bil surpasse les modèles gemma 2 2.6b et phi 3.5-mini dans des tâches telles que le suivi d'instructions, la synthèse, la réécriture rapide et l'utilisation d'outils.modèle 1bles performances sont comparables à celles de gemma.
modèles visuels 90b et 11bil remplace directement son modèle de texte correspondant, et ses performances sur les tâches de compréhension d'images sont meilleures que celles des modèles fermés, tels que claude 3 haiku et gpt-4o mini.
par exemple, si vous demandez à une entreprise quel mois a enregistré les ventes les plus élevées l'année dernière, llama 3.2 peut raisonner sur la base des graphiques disponibles et fournir rapidement une réponse.
il peut également utiliser des cartes pour raisonner et aider à répondre à des questions, telles que la distance d'un chemin spécifique indiqué sur la carte.
les modèles visuels peuvent également aider à raconter une histoire en extrayant les détails d’une image, en comprenant la scène, puis en produisant une ou deux phrases comme légende de l’image.
contrairement à d'autres modèles multimodaux ouverts, les modèles pré-entraînés et alignés peuvent être ajustés pour des applications personnalisées à l'aide de torchtune et déployés localement à l'aide de torchchat.
des modèles multimodaux avec les paramètres 11b et 90b sont requisnouvelle architecture de modèle prenant en charge l'inférence d'image。
le processus de formation de meta comprend plusieurs étapes, en commençant par un modèle de texte llama 3.1 pré-entraîné, en ajoutant d'abord des adaptateurs d'image et des encodeurs, puis en pré-entraînant les données avec du bruit à grande échelle, puis en pré-entraînant sur des données de haute qualité à moyenne échelle. domaines et se former sur les données augmentées par les connaissances.
en post-formation, meta utilise des méthodes similaires à celles des modèles de texte, effectuant plusieurs cycles d'alignement en termes de réglage fin supervisé, d'échantillonnage de rejet et d'optimisation directe des préférences. le résultat est un ensemble de modèles capables de recevoir à la fois des images et des signaux textuels, de comprendre et de raisonner en profondeur sur la combinaison des deux.
pour les modèles légers avec les paramètres 1b et 3b, meta utilise un modèle d'enseignant puissant pour créer de petits modèles avec de meilleures performances, ce qui en fait l'un des premiers modèles llama légers hautes performances capables de s'adapter efficacement aux appareils.
meta exploite l'utilisation unique de l'élagage structuré de llama 3.1 8b en réduisant la taille des modèles existants de llama tout en restaurant autant de connaissances et de performances que possible.
en post-formation, les chercheurs ont utilisé une approche similaire à llama 3.1 pour générer le modèle de discussion final en effectuant plusieurs cycles d'alignement sur la base du modèle pré-entraîné.
meta partage la première version officielle de llama stack, qui simplifiera considérablement la façon dont les développeurs utilisent les modèles llama dans différents environnements tels que le côté nœud unique, local, cloud et appareil, permettant la génération améliorée de récupération (rag) et la sécurité intégrée. les outils prennent en charge le déploiement clé en main. de candidatures.
03.
meta ai : choisissez parmi une variété de voix de célébrités,
les images p et la traduction en temps réel sont plus pratiques
avec lama 3.2,meta ai a une voix。
maintenant, utilisez votre voix pour parler à meta ai et laissez-la répondre à vos questions ou vous raconter des blagues pour vous faire rire. meta ajoute également de nombreuses voix ia familières à la voix. comme les voix de l’actrice britannique judi dench.