liang zhihui : 360 a été le pionnier de l'architecture technologique coe et le modèle d'appel automatique a été lancé deux mois avant openai
2024-09-27
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
le 25 septembre, lors de la conférence ai large model ecology and computing power, liang zhihui, vice-président du groupe 360 (ci-après dénommé « 360 »), a annoncé que le modèle original de collaboration d'experts coe (collaboration-of-experts) de 360 l'architecture technique a de nombreuses capacités de collaboration de modèles qui peuvent atteindre le niveau openai o1 en termes d'effet, et elle est actuellement entièrement connectée à la recherche 360ai et au navigateur 360ai. de plus, le modèle récemment lancé d'openai appelle automatiquement le mode « auto », et 360 a déjà implémenté l'architecture coe deux mois avant le lancement, fin juillet.
il est entendu que l'architecture originale de collaboration d'experts coe de 360 a été connectée à 16 des modèles à grande échelle les plus puissants de chine, dont 360 zhi nao, wen xin yi yan, tong yi qian wen, doubao, kimi, etc. sur la base des données de recherche et du comportement des utilisateurs accumulés par 360 dans le passé, 360 intelligent brain a établi un puissant modèle de reconnaissance d'intention pour deviner avec précision l'intention et le but des questions des utilisateurs. après la reconnaissance d'intention, il utilise le modèle de routage de décomposition des tâches pour effectuer automatiquement. l'analyse automatique sur de nombreux modèles experts. les appels et la planification intelligente permettent de « laisser le modèle le plus puissant résoudre les problèmes les plus difficiles ». son intelligence, sa flexibilité et sa haute efficacité dépassent de loin les capacités d'un seul grand modèle.
les analystes ont souligné que l'architecture technique du coe coïncide avec le concept technique du dernier modèle o1 d'openai. le modèle o1 est basé sur l'apprentissage par renforcement et la technologie de « chaîne de réflexion », ce qui améliore la capacité des grands modèles à résoudre des problèmes complexes. le modèle o1 publié par 360 fin juillet. les concepts d'architecture technique coe des deux sociétés sont similaires, les méthodes sont similaires et les effets pratiques sont relativement proches.
lors de la conférence isc.ai2024 fin juillet, zhou hongyi, fondateur du groupe 360, a annoncé que « l'utilisation d'un cadre basé sur des agents pour créer un système de réflexion lente améliorera les capacités de réflexion lente des grands modèles ». l'architecture technologique originale de collaboration experte coe de 360 permet aux principaux modèles de collaborer et de réaliser une « réflexion lente » des grands modèles. grâce à la collaboration multimodèle, il peut obtenir des fonctionnalités que le grand modèle unique auquel il accède n'a pas. ceci est similaire à la façon dont le modèle opena o1 simule le principe de fonctionnement du cerveau humain sur la base de l'apprentissage par renforcement et de la technologie de la « chaîne de réflexion », qui peuvent être considérées comme des approches différentes vers le même objectif.
à l'heure actuelle, l'architecture coe a été entièrement intégrée aux produits de recherche 360ai et de navigateur 360ai. l'assistant ia du navigateur 360ai prend également en charge les modèles d'appel définis par l'utilisateur, offrant aux utilisateurs des fonctions telles que le mode arène, le pk d'équipe et le multi-modèle. collaboration, qui constituent des capacités pratiques de grand modèle permettant aux utilisateurs de découvrir différents scénarios.
la liste indépendante de produits d'ia « ai product list » montre que les visites d'utilisateurs de recherche 360ai connectées à l'architecture coe se sont classées deuxième dans la liste nationale et troisième dans la liste mondiale des moteurs de recherche en août. en combinaison avec les données publiques de similarweb, en août 2024, les visites des utilisateurs de la recherche 360ai ont dépassé les 200 millions, soit plus de trois fois celles de perplexity ai, et sont restées le plus grand moteur de recherche natif d'ia au monde, les visites uniques mensuelles (uv) ont dépassé les 80 millions ; dépassant un certain nombre de produits d'ia nationaux ; et avec un taux de croissance mensuel de 113 %, il est devenu le moteur de recherche d'ia à la croissance la plus rapide au monde.
correspondant xiaohan
relecture par sheng yuanyuan