2024-08-19
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Une fois par an, le robot humanoïde de deuxième génération de Zhihui Jun est là.
Les petites mains agiles dominent la table de mahjong :
Non, non, regardons d'abord le tempérament global :
Ensuite, il y a les travaux ménagers de routine, qui peuvent être considérés comme très exigeants :
En 2024, alors que les grands modèles font fureur, s’il y a quelque chose de chaud dans le domaine de l’IA, la direction de « l’intelligence incarnée » doit en faire partie.
En ce qui concerne la Chine, la société de renseignement personnel « Zhiyuan Robot » a attiré beaucoup d'attention. Depuis sa création en février 2023, « Zhiyuan Robot » a réalisé 6 tours de financement non-stop et est rapidement devenu l'un des « projets phares » dans le cercle entrepreneurial de la robotique.
Six mois après le démarrage de l'entreprise, Zhihui Jun et son équipe ont lancé leur premier produit « Expedition A1 ». Lors de ses débuts, la capacité de marche et l'interaction homme-machine de l'« Expédition A1 » étaient à la pointe de l'industrie. Cependant, après les débuts de "l'Expédition A1", il semble que nous n'ayons jamais entendu parler de sa prochaine étape, et nous n'avons même pas publié de vidéo en direct.
Mais après la conférence de presse d'aujourd'hui, nous savons que Zhiyuan Robot « fait de grandes choses tranquillement ».
Lors de cette conférence de presse, Zhihuijun a lancé trois produits robotiques de la série Expédition : le robot de service interactif « Expedition A2 », le robot de fabrication intelligent et flexible « Expedition A2-W » et le robot spécial robuste « Expedition A2-Max ». Lors de la dernière session One more thing, les produits de la série de robots modulaires « Lingxi X1 » et « Lingxi X1-W » incubés par Zhiyuan X-Lab ont également été officiellement dévoilés sous le nom d'« œufs de Pâques ».
Par rapport à la génération précédente, les cinq robots adoptent un langage de conception de style familial et présentent une série de régularisations dans l'apparence du robot, combinant des formes à roues et à pieds, couvrant les services interactifs, la fabrication intelligente flexible, les opérations spéciales, la recherche scientifique et l'éducation, et Collecte de données et autres scénarios d'application.
Concernant les progrès de la production de masse, Zhiyuan Robot a également révélé les dernières nouvelles : le volume d'expédition estimé en 2024 atteindra environ 300 unités, dont environ 200 unités bipèdes et environ 100 unités à roues.
Expédition nouvelle génération A2
Depuis « l'Expédition A1 », l'orientation de Zhiyuan en matière de produits robotiques a été claire : « Travailler dans les usines ». L’« Expédition A2 » de cette année est mieux préparée au « travail par lots dans les usines ».
Jetons un coup d'œil aux membres de cette famille :
"Expedition A2" est un robot de service interactif doté de plus de 40 degrés de liberté d'articulations actifs et de mains adroites semblables à celles d'un humain, capable de simuler un travail humain riche et complexe. Il possède un cerveau capable d’apprendre en continu, alimenté par un grand modèle de langage. De plus, il dispose également d'un système de perception et de saisie multimodal qui peut percevoir les émotions de l'interacteur à travers la vision.
"Expedition A2-Max" est un robot spécial robuste à la fois puissant et adroit. Dans la scène d'ouverture, il a facilement déplacé une boîte à air de 40 kg. Actuellement, "Expedition A2-Max" est toujours en phase de développement de produit.
"Expedition A2-W" est un robot intelligent et flexible dont les deux bras peuvent fonctionner indépendamment ou travailler ensemble. Il utilise un châssis à roues, combiné au lidar RGBD, à une caméra panoramique, à des capteurs configurés pour la sécurité globale et à d'autres composants sur le fuselage, lui permettant de se déplacer rapidement et en douceur dans divers environnements.
Avant la conférence de presse, la performance de "Expedition A2-W" était comme si "Jarvis" d'Iron Man devenait réalité. Après avoir compris les instructions de M. Zhihui, il a ouvert la bouteille de Coca de manière complètement autonome, a mis les raisins dans le presse-agrumes, a pressé le presse-agrumes et a versé la boisson du presse-agrumes dans la tasse sans en renverser une goutte. Un verre de « Grape Cola » a été servi. M. Zhihui.
En plus d'une apparence améliorée, la série de robots "Expedition A2" est également améliorée à la fois en interne et en externe. Concernant les composants centraux du robot, « Zhiyuan Robot » divise de manière innovante le système robot en un domaine de puissance, un domaine de perception, un domaine de communication et un domaine de contrôle. Évidemment, « Zhiyuan Robot » s'adresse à l'écosystème full-stack.
Dans le domaine de l'énergie, « Zhiyuan Robot » a mis en œuvre une mise à niveau itérative du module commun PowerFlow pour la production de masse. Du point de vue des paramètres, le module commun PowerFlow a été considérablement amélioré. En termes de stabilité et de fiabilité, « Zhiyuan Robot » a également effectué des tests et optimisations approfondis sur ses performances maximales, sa vitesse de vieillissement et d'autres aspects.
Quant aux mains adroites qui sont importantes pour « travailler », cette fois le « Robot Zhiyuan » a également été amélioré : le nombre de degrés de liberté est passé à 19, les degrés de liberté actifs ont doublé à 12 et plus de capacités de perception ont également été introduits. Des technologies multimodales, telles que la détection tactile et la technologie de détection visuo-tactile basée sur les principes MEMS.
En outre, "Zhiyuan Robot" a également lancé des bras de haute précision à 7 degrés de liberté contrôlés par la force, qui peuvent effectuer avec précision une variété de tâches de contrôle de la force telles que le contrôle de l'impédance, le contrôle de l'admission et le contrôle du mélange force-position. prend également en charge le mode d'enseignement bras-glissé et le conditionnement visuel.
En termes de domaine de perception, la nouvelle génération de robots d'expédition intègre des caméras RGBD, des lidar, des caméras panoramiques et d'autres capteurs, introduit la solution de perception de pointe de l'occupation de la conduite autonome et améliore encore les capacités de compréhension de l'environnement grâce aux algorithmes SLAM.
Dans le domaine de la communication, « Zhiyuan Robot » a auto-développé un cadre de communication robot intelligent natif, léger et hautes performances, AimRT. Par rapport aux middlewares tiers tels que ROS, il améliore les performances, la stabilité, l'efficacité et la flexibilité du déploiement du système, et est entièrement compatible avec l'écosystème ROS/ROS2 existant. AimRT sera open source fin septembre.
Pour le domaine du contrôle, « Zhiyuan Robot » combine deux algorithmes, basés sur un modèle et basés sur l'apprentissage, pour améliorer encore le contrôle des mouvements et l'adaptabilité du robot. Pour les modèles basés sur le "Zhiyuan Robot", la robustesse du système a encore été améliorée. Par conséquent, la démonstration effectuée par le robot lors de la conférence de presse était si fluide et soyeuse. En ce qui concerne les algorithmes basés sur l'apprentissage, "Zhiyuan Robot" s'est concentré ici, dans l'espoir de promouvoir la transformation des méthodes de formation des robots d'une méthode d'entraînement basée sur des algorithmes à une méthode basée sur les données.
Sur la base de l'algorithme de contrôle des opérations, « Zhiyuan Robot » a pré-développé AgentOS, qui est piloté par un jeu d'instructions en langage naturel et peut être adapté à différentes ontologies de robots. Sur la base de l'apprentissage par renforcement, il permet une orchestration précise et une exécution efficace des tâches. compétences robotiques.
Proposer pour la première fois la voie d'évolution de la technologie du renseignement incarné G1-G5
Lors de cette conférence, Zhiyuan Robot a également proposé pour la première fois un parcours d'évolution technologique dans le domaine de l'intelligence embarquée, comprenant cinq étapes de G1 à G5 :
G1 fait référence à l'étape d'automatisation de base, qui est basée sur des fonctionnalités conçues à la main et combinée à une vision industrielle simple pour fournir un retour d'information. Le déploiement à ce stade est adapté à des scénarios spécifiques. Bien qu'il puisse résoudre les problèmes d'exécution des tâches dans certains scénarios, il ne peut pas effectuer une migration rapide et peu coûteuse dans d'autres scénarios.
G2 est l'étape des « compétences atomiques générales », qui affine certaines capacités atomiques réutilisables en fonction d'un grand nombre de tâches de scénario différentes et des exigences des tâches de diverses opérations. En bref, il s'agit d'un moyen relativement général de réaliser une migration rapide de tâches de scène similaires, puis de coopérer avec le grand cadre de modèles de langage pour effectuer l'orchestration des tâches, de sorte que le robot ait une certaine capacité de généralisation.
G3 signifie que l'architecture globale de l'intelligence incarnée commence à s'adapter à l'itinéraire « de bout en bout ». Bien que l'architecture algorithmique de cette étape puisse être similaire à celle de l'étape G2, la manière dont diverses « capacités atomiques » se forment. cette fois, après une grande quantité de collecte de données, d'un algorithme conçu à la main à un système basé sur les données.
Contrairement aux trois premières étapes, un modèle opérationnel général de bout en bout apparaîtra dans l’étape G4. À ce stade, une grande quantité de données réelles et de données de simulation dans tous les scénarios peuvent être introduites, ainsi qu'un modèle mondial pour aider l'IA à comprendre les principes physiques derrière le monde réel et les similitudes dans la logique sous-jacente aux différentes tâches. Par exemple, pour les deux tâches « dévisser la bouteille » et « dévisser la poignée de porte », il n’est pas nécessaire de collecter deux données distinctes pour obtenir deux compétences distinctes. Menant enfin à l’étape G5 d’approche infinie de l’AGI.
Au cours de l'année écoulée, Zhiyuan Robot a réalisé des percées progressives dans la voie G2, réalisant une série de tirs nuls et quelques-uns tels que le modèle d'estimation de pose universelle UniPose, le modèle de préhension universel UniGrasp et le modèle de plug-in universel à contrôle de force. La compétence atomique universelle d'UniPlug.-shot. Le modèle de capacité atomique au stade G2 est orienté vers des scénarios flexibles de fabrication intelligente et de services interactifs, et a été appliqué commercialement dans de nombreux scénarios pratiques.
Sur la route G3, Agibot a également formé une solution complète de données incorporées AIDEA (Agibot Integrated Data-system for Embodied AI, Agibot Embodied Intelligent Data System).
Mais nous savons tous que pour élaborer une telle solution, nous devons d’abord investir des coûts importants dans la collecte de données, ce pour quoi toutes les équipes de robots ne sont pas qualifiées.
Zhiyuan Robot l'a fait et se prépare à l'ouvrir en source ouverte au quatrième trimestre de cette année.
Zhihui Jun a déclaré que la collecte de données est le point sensible de l'ensemble du processus. Au cours de la dernière année, ils ont effectué de nombreux travaux d'infrastructure pour les données et ont formé une solution complète et complète de collecte de données et d'application AIDEA.
En plus de fournir des solutions d'ontologie matérielle, AIDEA fournira également l'intégralité de la plateforme de données cloud full-link, ainsi que la plateforme d'apprentissage automatique AIDEA ML pour la formation de modèles et l'évaluation d'algorithmes, et la plateforme de simulation AIDEA Sim.
Zhihui Jun a déclaré qu'il s'attend à ce que Zhiyuan dispose de plus d'une centaine de robots librement déployables dédiés à la collecte de données de bout en bout. Ils ouvriront également des millions de machines réelles et des dizaines de millions de données de simulation basées sur AIDEA au quatrième trimestre. . Collectez pour construire activement un écosystème ouvert.
Encore une chose par Zhihuijun
Peut-être parce qu'il estimait que tenir une conférence de presse seulement une fois par an était trop long, Zhihui Jun a également annoncé une dernière chose à la fin de la conférence de presse : deux nouveaux produits : le robot open source full-stack Lingxi X1 et le data mining professionnel. robot Lingxi X1-W.
Ces deux robots proviennent de X-Lab (Zhihui Jun Laboratory). Ce sont des produits fabriqués par 10 personnes en moins de 3 mois. Ils contiennent de nombreux détails innovants. Par exemple, nous avons développé deux nouveaux joints PowerFlow, PF86 et PF52, qui intègrent un concept de conception modulaire et peuvent être facilement démontés et assemblés à l'aide d'un simple cerceau.
Sur la base de la quête d'innovation ultime de X-Lab, Zhihui Jun a déclaré que les dessins de conception d'ontologie, le cadre logiciel, le code source du middleware et l'algorithme de contrôle des opérations de base de Lingxi X1 seront open source.
De plus, en termes d'actionneurs, X-Lab a développé indépendamment une pince universelle adaptative à très faible coût avec contrôle de force anticipé, et a également lancé un capteur de force tridimensionnel d'un coût de 100 yuans pour répondre aux besoins de la scène. .
À propos, Lingxi vend à zéro yuan, la plupart des données de conception et du code open source, mais vend des pièces.
Zhihui Jun a exprimé l'espoir que cela puisse favoriser l'arrivée de l'ère des « robots humanoïdes artificiels ».
Comment l'aimez-vous?