2024-08-18
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Tencent Technology News Le 18 août, Zhiyuan Robot a organisé la conférence de lancement du nouveau produit « Zhiyuan Expedition Commercial Launch » 2024, Peng Zhihui, co-fondateur de Zhiyuan, a organisé et publié le « .expédition"et"Lingxi"Un total de cinq nouveaux produits de robots humanoïdes commerciaux dans la série -Yuanzheng A2, Yuanzheng A2-W, Yuanzheng A2-Max, Lingxi X1etLingxi X1-W, et démontré sur le robotPouvoir, perception, communication, contrôleDes résultats de R&D dans quatre domaines, ainsi que l’intelligence incorporéeFeuille de route technologique G1 à G5etAIDEASystèmes de données intelligents incorporés.
Lors de cette conférence, Zhiyuan Robot a annoncé des projets open source, notamment : un cadre de communication haute performance pour les robots intelligentsAimRTSera open source fin septembre et incubé par X-LabLingxi X1La pile complète sera open source en septembre, et la version basée sur AIDEADes millions de machines réelles et des dizaines de millions d'ensembles de données simulésIl sera open source au quatrième trimestre de cette année.
Parmi eux, le robot de la série Yuanzheng A2 mesure environ 1,7 m de haut. Jiang Qingsong, partenaire et vice-président des services marketing de Zhiyuan Robot, a déclaré : « Ce type de robot humanoïde est vendu sur le marché pour environ 600 000 à 700 000 yuans. le coût est d'environ 200 000 à 300 000 yuans. » Zhiyuan a décidé de « ne pas s'engager dans une guerre des prix » sur les robots de la série Lingxi, qui mesurent environ 1,3 m de haut, et a utilisé les dessins de conception des robots open source full-stack.
Le volume estimé des expéditions de Zhiyuan Robot en 2024 atteindra environ 300 unités, dont environ 200 unités bipèdes et environ 100 unités à roues, qui seront toutes expédiées en octobre.
Lors de la conférence de presse de l'année dernière, Zhiyuan a lancé le robot humanoïde « Expedition A1 ». Cette année, Peng Zhihui a annoncé deux séries, « Expedition » et « Lingxi », avec un total de 5 robots, à roues et à pieds, couvrant des scénarios d'application tels que. services interactifs, fabrication intelligente flexible, opérations spéciales, recherche et éducation scientifiques, et collecte de données.
Plus précisément, la série « Yuanzheng » comprend trois robots, à savoir Yuanzheng A2, Yuanzheng A2-W et Yuanzheng A2-Max ; la série « Lingxi » comprend deux robots, à savoir Lingxi X1 et Lingxi X1-W, parmi lesquels Yuanzheng A2-W. un robot à roues. Jiang Qingsong estime que les robots bipèdes sont l'avenir, mais « à roues + bras mécanique » est le type de robot le plus largement utilisé dans les scénarios d'application industrielle actuels.
Spécifiquement:
•Expédition A2 : Un robot de service interactif avec une configuration anthropomorphique et une conception de facteurs humains, une interaction multimodale et une expérience intelligente, et peut se déplacer et marcher de manière autonome. Lors de la conférence de presse, Yuanzheng A2 est apparu en tant qu'hôte pour se présenter.
•Expédition A2-W : un robot intelligent et flexible doté de la capacité de collaborer avec les deux bras. Dans le mélodrame de la conférence de presse, A2-W a démontré une organisation dynamique des tâches, une exécution de tâches complexe et des capacités de fonctionnement collaboratif à deux bras.
•Expedition A2-Max : un robot spécial robuste, capable lors de la conférence de presse de déplacer une boîte de vol de 40 kg. Il est actuellement en phase de développement de produit.
•Lingxi X1 : un robot open source full-stack, utilisant un bras de configuration hybride série-parallèle et une conception d'articulation d'épaule d'entraînement différentiel, adapté à l'interaction homme-machine et aux scénarios de services légers, et permettant d'obtenir une open source full-stack.
•Lingxi X1-W : un robot d'exploration de données professionnel capable de réduire les coûts d'acquisition de données et d'effectuer une collecte de données à grande échelle.
Les capacités clés des robots humanoïdes se reflètent dans les deux aspects des opérations « cerveau » et « mouvement ». Le « cerveau » peut aider le robot à comprendre le monde et à organiser des tâches, tandis que le « mouvement » implique la capacité du robot à accomplir des tâches réelles. impliquant des logiciels et du matériel.
Lors de la conférence de presse de l'année dernière, Peng Zhihui a montré que le cerveau et les logiciels de « l'Expédition A1 » utilisaient le cerveau intelligent incarné EI-Brain, le cadre logiciel unifié AgiROS et le modèle de tâches linguistiques WorkGPT, et avaient auto-développé des composants et des technologies de base sur le matériel. Par exemple, le moteur à articulation centrale PowerFlow, la main adroite SkillHand, etc.
Cette année, Peng Zhihui a démontré lors de la conférence de presse que la série « Expedition » avait été améliorée en termes de logiciel et de matériel, mais a divisé les moteurs articulaires de base, les mains adroites et les systèmes logiciels en « quatre domaines » pour décrire les mises à jour et les changements. par rapport au passé, respectivement pour : domaine de pouvoir, domaine de perception, domaine de communication, domaine de contrôle :
Dans le module du domaine de puissance, les paires ZhiyuanModule commun PowerFlowDes mises à niveau itératives ont été effectuées pour atteindre une production de masse. Par rapport au couple maximal PowerFlow de 350 Nm de l'année dernière, les joints de la série 15022 de cette année ont un couple maximal allant jusqu'à 512 Nm.
Degrés de liberté des mains adroitesIl est passé à 19. Le robot Yuanzheng A1 sorti il y a un an possède 17 degrés de liberté, dont 12 degrés de liberté actifs et 5 degrés de liberté passifs. La main adroite du robot de cette année a 19 degrés de liberté, dont les degrés de liberté actifs. la liberté a doublé à 12 et introduit une technologie de détection tactile et de détection visuelle-tactile basée sur les principes MEMS ; contrôle de force de haute précision des deux bras avec 7 degrés de liberté, qui peut effectuer avec précision diverses tâches de contrôle de force telles que le contrôle d'impédance, contrôle d'admission, contrôle de mélange force-position, etc. Il prend également en charge le mode d'enseignement de la traînée des deux bras et le réglage visuel.
Dans le domaine de la perception, des capteurs tels que des caméras RGBD, lidar et caméras panoramiques sont intégrés pour introduireConduite autonomeLa solution de détection d'occupation améliore encore les capacités de compréhension de l'environnement grâce à l'algorithme SLAM.
Dans le domaine de la communication, nous avons des natifs incarnés auto-développésCadre de communication AimRT. Par rapport aux middlewares tiers tels que ROS utilisés l'année dernière, il a amélioré les performances, la stabilité, l'efficacité et la flexibilité du déploiement du système, et est entièrement compatible avec l'écosystème ROS/ROS2 existant. AimRT sera open source fin septembre.
Dans le domaine du contrôle, des algorithmes basés sur des modèles et des algorithmes basés sur l'apprentissage sont combinés pour améliorer le contrôle des mouvements et l'adaptabilité du robot ; AgentOS, qui est piloté par des ensembles d'instructions en langage naturel et peut s'adapter à différentes ontologies de robots, a été pré-développé.
Zhiyuan Robot a construit une plateforme logicielle ouverte orientée écosystème AIMA (AI Machine Architecture), couvrant les machines embarquées, les cloud et les clients.
Semblable aux niveaux d'évolution de la conduite autonome « L1-L5 », Zhiyuan Robot tente également de définir la voie d'évolution de la technologie de l'intelligence incarnée de « G1 à G5 ».
Peng Zhihui a expliqué lors de la conférence de presse que G1 est conçu sur mesure pour des scénarios spécifiques, mais ne peut pas effectuer une migration rapide et peu coûteuse vers différents scénarios ; G2 donne un aperçu d'un grand nombre de tâches de scénario, réalise une migration rapide dans une certaine mesure et ; peut être orchestré avec un grand cadre de modèle de langage. , les robots à ce niveau ont certaines capacités de généralisation ; G3 emprunte un itinéraire de bout en bout, et les capacités algorithmiques de G3 et G2 sont similaires dans l'architecture globale, mais la méthode de conduite change. du niveau piloté par l'algorithme au niveau piloté par les données ; G4 met en œuvre un grand modèle d'opération général, introduit des données de simulation et le modèle mondial améliore encore les performances des robots sur des tâches complexes ; le niveau G5 est un objectif de traction à long terme et peut atteindre de bout en bout ; -terminer les opérations depuis la perception jusqu'à l'exécution.
Peng Zhihui a déclaré : « Au cours de l'année écoulée, Zhiyuan Robot a fait une percée progressive dans la voie G2, réalisant une série de compétences atomiques générales de tir et de quelques tirs. Le modèle de capacité atomique du stade G2 est orienté vers. des scénarios flexibles de fabrication intelligente et de services interactifs et a été appliqué commercialement dans de nombreux scénarios pratiques.
"Sur la route G3, Agibot a formé une solution complète de données incorporées AIDEA (Agibot Integrated Data-system for Embodied AI, Agibot Embodied Intelligent Data System)."
« L'ontologie d'acquisition de données fournit plusieurs types de robots fiables et stables, tels que des robots à roues et à pattes. Elle est équipée d'un ensemble d'équipements de commande à distance qui prennent en charge la cartographie du corps entier, la collaboration bras-main et le fonctionnement en temps réel de haute précision. Il comprend également « collecte de données-annotation de données – une plate-forme de données à lien complet comprenant la gestion des données - la formation de modèles - l'évaluation de modèles - le déploiement de modèles - le transport de données, prenant en charge les services SaaS et le déploiement privatisé. Des millions de machines réelles et des dizaines de millions de données de simulation. des ensembles basés sur AIDEA seront lancés cette année en open source au quatrième trimestre.
À la fin de la conférence de presse, Peng Zhihui a annoncé que Zhiyuan Robot avait créé X-Lab (Peng Zhihui Laboratory), qui a incubé deux nouveaux produits, le robot open source full-stack Lingxi X1 et le robot d'exploration de données X1-W.