Nachricht

Einmal im Jahr zeigen! Der humanoide Roboter von Zhihui Jun ist neu und es gibt auch Open-Source- und kostenlose Easter Eggs

2024-08-19

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Einmal im Jahr ist Zhihui Juns humanoider Roboter der zweiten Generation hier.

Die flinken kleinen Hände dominieren den Mahjong-Tisch:



Nein, nein, schauen wir uns zunächst das allgemeine Temperament an:



Hinzu kommen die alltäglichen Hausarbeiten, die sich als sehr fachmännisch erweisen:









Im Jahr 2024, wenn große Modelle in aller Munde sind, muss die Richtung „verkörperte Intelligenz“ dabei sein, wenn es im KI-Bereich etwas Heißes gibt.

Wenn wir unsere Aufmerksamkeit auf China richten, hat das Personal-Intelligence-Unternehmen „Zhiyuan Robot“ große Aufmerksamkeit erregt. Seit seiner Gründung im Februar 2023 hat „Zhiyuan Robot“ sechs Finanzierungsrunden ununterbrochen abgeschlossen und sich schnell zu einem „Top-Projekt“ im Robotik-Unternehmerkreis entwickelt.

Ein halbes Jahr nach der Unternehmensgründung brachten Zhihui Jun und sein Team ihr erstes Produkt „Expedition A1“ auf den Markt. Bei seinem Debüt waren die Gehfähigkeit und die Mensch-Maschine-Interaktion des „Expedition A1“ branchenführend. Nach dem Debüt der „Expedition A1“ scheinen wir jedoch noch nie von ihrem nächsten Schritt gehört zu haben, und wir haben noch nicht einmal ein Live-Video veröffentlicht.

Aber nach der heutigen Pressekonferenz wissen wir, dass Zhiyuan Robot „im Stillen Großes leistet“.



In dieser Pressekonferenz stellte Zhihui Jun gleich drei Roboterprodukte der Expeditionsserie vor: den interaktiven Serviceroboter „Expedition A2“, den flexiblen intelligenten Fertigungsroboter „Expedition A2-W“ und den Hochleistungs-Spezialroboter „Expedition A2-Max“. " . In der abschließenden One more thing-Sitzung wurden auch die von Zhiyuan X-Lab entwickelten modularen Roboterserienprodukte „Lingxi X1“ und „Lingxi X1-W“ offiziell als „Ostereier“ vorgestellt.

Im Vergleich zur Vorgängergeneration übernehmen die fünf Roboter eine Designsprache im Familienstil und weisen eine Reihe von Regularisierungen im Erscheinungsbild des Roboters auf, indem sie Rollen- und Fußformen kombinieren und interaktive Dienste, flexible intelligente Fertigung, Spezialoperationen, wissenschaftliche Forschung und Bildung usw. abdecken Datenerfassung und andere Anwendungsszenarien.

In Bezug auf den Fortschritt der Massenproduktion gab Zhiyuan Robot auch die neuesten Nachrichten bekannt: Das geschätzte Liefervolumen im Jahr 2024 wird etwa 300 Einheiten erreichen, darunter etwa 200 Zweibeiner-Einheiten und etwa 100 Radeinheiten.

Expedition der neuen Generation A2

Seit der „Expedition A1“ ist Zhiyuans Richtung bei Roboterprodukten klar: „Arbeit in Fabriken.“ Die diesjährige „Expedition A2“ ist besser auf die Batch-„Arbeit in Fabriken“ vorbereitet.

Werfen wir einen Blick auf die Mitglieder dieser Familie:



„Expedition A2“ ist ein interaktiver Serviceroboter mit mehr als 40 aktiven Freiheitsgraden der Gelenke und menschenähnlichen, geschickten Händen, der in der Lage ist, umfangreiche und komplexe menschliche Arbeit zu simulieren. Es verfügt über ein Gehirn, das kontinuierlich lernen kann und auf einem großen Sprachmodell basiert. Darüber hinaus verfügt es über ein multimodales Wahrnehmungs- und Eingabesystem, das die Emotionen des Interaktors durch Sehen wahrnehmen kann.

„Expedition A2-Max“ ist ein robuster Spezialroboter, der sowohl leistungsstark als auch geschickt ist. In der Eröffnungsszene bewegte er problemlos eine 40 kg schwere Luftbox. Derzeit befindet sich „Expedition A2-Max“ noch in der Produktentwicklungsphase.

„Expedition A2-W“ ist ein flexibler intelligenter Roboter, dessen zwei Arme unabhängig voneinander arbeiten oder zusammenarbeiten können. Es verwendet ein Fahrgestell mit Rädern, kombiniert mit dem RGBD-Lidar, einer Panoramakamera, für globale Sicherheit konfigurierten Sensoren und anderen Komponenten am Rumpf, sodass es sich in verschiedenen Umgebungen schnell und reibungslos bewegen kann.

Vor der Pressekonferenz war die Aufführung von „Expedition A2-W“ so, als würde Iron Mans „Jarvis“ Wirklichkeit werden. Nachdem er die Anweisungen von Herrn Zhihui verstanden hatte, öffnete er völlig selbstständig die Cola-Flasche, gab Weintrauben in den Entsafter, drückte den Entsafter und schüttete das Getränk aus dem Entsafter in den Becher, ohne einen Tropfen zu verschütten. Dazu wurde ein Glas „Grape Cola“ serviert Herr Zhihui.

Neben einem verbesserten Erscheinungsbild wurden die Roboter der „Expedition A2“-Serie auch intern und äußerlich verbessert. In Bezug auf die Kernkomponenten des Roboters unterteilt „Zhiyuan Robot“ das Robotersystem auf innovative Weise in einen Leistungsbereich, einen Wahrnehmungsbereich, einen Kommunikationsbereich und einen Kontrollbereich. Offensichtlich zielt „Zhiyuan Robot“ auf das Full-Stack-Ökosystem ab.



Im Energiebereich hat „Zhiyuan Robot“ ein iteratives Upgrade des PowerFlow-Gelenkmoduls für die Massenproduktion implementiert. Aus Parametersicht wurde das PowerFlow-Gelenkmodul erheblich verbessert. Im Hinblick auf Stabilität und Zuverlässigkeit hat „Zhiyuan Robot“ außerdem umfangreiche Tests und Optimierungen hinsichtlich seiner Spitzenleistung, Alterungsgeschwindigkeit und anderen Aspekten durchgeführt.



Für die geschickten Hände, die zum „Arbeiten“ wichtig sind, wurde dieses Mal auch der „Zhiyuan-Roboter“ aufgewertet: Die Anzahl der Freiheitsgrade ist auf 19 gestiegen, die aktiven Freiheitsgrade haben sich auf 12 verdoppelt und die Wahrnehmungsfähigkeiten sind gestiegen Es wurden auch multimodale Technologien wie taktile Sensorik und visuell-taktile Sensortechnologie eingeführt, die auf MEMS-Prinzipien basieren.



Darüber hinaus hat „Zhiyuan Robot“ auch hochpräzise kraftgesteuerte Arme mit 7 Freiheitsgraden auf den Markt gebracht, die eine Vielzahl von Kraftkontrollaufgaben wie Impedanzkontrolle, Admittanzkontrolle und Kraft-Positions-Mischungskontrolle genau ausführen können Unterstützt auch den Arm-Drag-Lehrmodus und die visuelle Konditionierung.



Im Hinblick auf den Wahrnehmungsbereich integriert die neue Generation der Expeditionsroboterserie RGBD-Kameras, Lidar, Panoramakameras und andere Sensoren, führt die hochmoderne Wahrnehmungslösung für die Belegung beim autonomen Fahren ein und verbessert die Fähigkeiten zum Umweltverständnis durch SLAM-Algorithmen weiter.



Im Kommunikationsbereich hat „Zhiyuan Robot“ selbst ein verkörpertes natives, leichtes und leistungsstarkes intelligentes Roboterkommunikations-Framework AimRT entwickelt. Im Vergleich zu Middleware von Drittanbietern wie ROS verbessert es Leistung, Stabilität, Systembereitstellungseffizienz und Flexibilität und ist vollständig kompatibel mit dem bestehenden ROS/ROS2-Ökosystem. AimRT wird Ende September Open Source sein.



Für den Steuerungsbereich kombiniert „Zhiyuan Robot“ zwei Algorithmen, modellbasiert und lernbasiert, um die Bewegungssteuerung und Anpassungsfähigkeit des Roboters weiter zu verbessern. Modellbasiert hat „Zhiyuan Robot“ die Robustheit des Systems weiter verbessert. Daher verlief die Demonstration des Roboters auf der Pressekonferenz so reibungslos. In Bezug auf lernbasierte Algorithmen hat „Zhiyuan Robot“ hier einen Schwerpunkt gesetzt, in der Hoffnung, die Transformation von Robotertrainingsmethoden von algorithmisch zu datengesteuert voranzutreiben.



Auf der Grundlage des Betriebssteuerungsalgorithmus hat „Zhiyuan Robot“ das AgentOS vorentwickelt, das durch Befehlssätze in natürlicher Sprache gesteuert wird und an verschiedene Roboterontologien angepasst werden kann. Auf der Grundlage von Verstärkungslernen wird eine präzise Orchestrierung und effiziente Ausführung des Roboters erreicht Fähigkeiten.



Erstmaliger Vorschlag der G1-G5-Evolutionsroute der verkörperten Intelligenztechnologie

Auf dieser Konferenz schlug Zhiyuan Robot auch zum ersten Mal einen Weg der technologischen Evolution im Bereich der verkörperten Intelligenz vor, der fünf Stufen von G1 bis G5 umfasst:



G1 bezieht sich auf die grundlegende Automatisierungsstufe, die auf von Hand entworfenen Funktionen basiert und mit einfacher maschineller Bildverarbeitung kombiniert wird, um Feedback zu geben. Die Bereitstellung in dieser Phase ist auf bestimmte Szenarien zugeschnitten. Obwohl sie in bestimmten Szenarien Probleme bei der Aufgabenausführung lösen kann, kann sie in anderen Szenarien keine kostengünstige und schnelle Migration durchführen.

G2 ist die Stufe „Allgemeine Atomfähigkeiten“, in der einige wiederverwendbare Atomfähigkeiten basierend auf einer großen Anzahl verschiedener Szenarioaufgaben und den Aufgabenanforderungen verschiedener Operationen verfeinert werden. Kurz gesagt, es handelt sich um eine relativ allgemeine Methode, um eine schnelle Migration ähnlicher Szenenaufgaben zu erreichen und dann mit dem großen Sprachmodell-Framework zusammenzuarbeiten, um die Aufgabenorchestrierung durchzuführen, sodass der Roboter über eine gewisse Generalisierungsfähigkeit verfügt.

G3 bedeutet, dass die Gesamtarchitektur der verkörperten Intelligenz beginnt, sich an den „Ende-zu-Ende“-Weg anzupassen. Obwohl die Algorithmusarchitektur dieser Stufe der G2-Stufe ähneln kann, ist die Art und Weise, wie verschiedene „atomare Fähigkeiten“ gebildet werden Dieses Mal hat es sich nach einer großen Menge an Datenerfassung vom handentworfenen algorithmusgesteuerten zum datengesteuerten Verfahren entwickelt.

Anders als in den ersten drei Phasen wird in der G4-Phase ein allgemeines End-to-End-Betriebsmodell erscheinen. In dieser Phase kann eine große Menge realer Daten und Simulationsdaten über mehrere Szenarien hinweg eingeführt werden, und es kann ein Weltmodell eingeführt werden, um der KI zu helfen, die physikalischen Prinzipien hinter der realen Welt und die Ähnlichkeiten in der zugrunde liegenden Logik hinter verschiedenen Aufgaben zu verstehen. Beispielsweise müssen für die beiden Aufgaben „Flasche abschrauben“ und „Türgriff abschrauben“ nicht zwei separate Daten erfasst werden, um zwei separate Fähigkeiten zu erwerben. Dies führt schließlich zur G5-Stufe der unendlichen Annäherung an AGI.

Im vergangenen Jahr hat Zhiyuan Robot schrittweise Durchbrüche auf dem G2-Weg erzielt und eine Reihe von Zero-Shot- und wenigen Modellen wie das universelle Posenschätzungsmodell UniPose, das universelle Greifmodell UniGrasp und das universelle kraftgesteuerte Plug-in-Modell realisiert Die universelle Atomfähigkeit von UniPlug. Das atomare Fähigkeitsmodell in der G2-Stufe ist auf flexible intelligente Fertigungs- und interaktive Serviceszenarien ausgerichtet und wurde in mehreren praktischen Szenarien kommerziell angewendet.

Auf der G3-Route hat Agibot auch eine vollständige Vollprozess-Embodied-Data-Lösung AIDEA (Agibot Integrated Data-system for Embodied AI, Agibot Embodied Intelligent Data System) entwickelt.



Aber wir alle wissen, dass wir, um eine solche Lösung zu entwickeln, zunächst eine Menge Datenerfassungskosten investieren müssen, und nicht jedes Roboterteam ist dafür qualifiziert.

Zhiyuan Robot hat es geschafft und bereitet die Open-Source-Veröffentlichung im vierten Quartal dieses Jahres vor.

Zhihui Jun sagte, dass die Datenerfassung der Schwachpunkt des gesamten Prozesses sei. Im vergangenen Jahr haben sie viele Infrastrukturarbeiten für Daten durchgeführt und eine vollständige und prozessübergreifende Datenerfassungs- und Anwendungslösung AIDEA entwickelt.

Neben der Bereitstellung von Hardware-Ontologielösungen wird AIDEA auch die gesamte Cloud-Full-Link-Datenplattform sowie die AIDEA ML-Plattform für maschinelles Lernen für Modelltraining und Algorithmenbewertung sowie die AIDEA Sim-Simulationsplattform bereitstellen.



Zhihui Jun sagte, er gehe davon aus, dass Zhiyuan im vierten Quartal über mehr als hundert frei einsetzbare Roboter verfügen werde, die sich der End-to-End-Datenerfassung widmen würden. Darüber hinaus werde er im vierten Quartal Millionen realer Maschinen und Dutzende Millionen Simulationsdaten als Open-Source-Lösung bereitstellen . Sammeln Sie, um aktiv ein offenes Ökosystem aufzubauen.

Noch etwas von Zhihuijun

Vielleicht weil er der Meinung war, dass es zu langwierig sei, nur einmal im Jahr eine Pressekonferenz abzuhalten, kündigte Zhihui Jun am Ende der Pressekonferenz noch etwas an: zwei neue Produkte: den Full-Stack-Open-Source-Roboter Lingxi X1 und das professionelle Data Mining Roboter Lingxi X1-W.



Diese beiden Roboter stammen von X-Lab (Zhihui Jun Laboratory). Sie sind Produkte, die von 10 Personen in weniger als 3 Monaten hergestellt wurden. Sie enthalten viele innovative Details. Beispielsweise haben wir zwei neue PowerFlow-Verbindungen entwickelt, PF86 und PF52, die ein modulares Designkonzept beinhalten und durch einen einfachen Bügel leicht zerlegt und zusammengebaut werden können.

Basierend auf dem Streben von X-Lab nach ultimativer Innovation sagte Zhihui Jun, dass die Ontologie-Designzeichnungen, das Software-Framework, der Middleware-Quellcode und der grundlegende Betriebssteuerungsalgorithmus von Lingxi X1 Open Source sein werden.

Darüber hinaus hat X-Lab in Bezug auf Aktuatoren unabhängig einen äußerst kostengünstigen adaptiven Universalgreifer mit Feedforward-Kraftregelung entwickelt und außerdem einen sechsdimensionalen Kraftsensor zum Preis von 100 Yuan auf den Markt gebracht, um den Anforderungen der Szene gerecht zu werden .

Übrigens verkauft Lingxi für null Yuan, die meisten Designdaten und Codes sind Open Source, es werden jedoch Teile verkauft.

Zhihui Jun äußerte die Hoffnung, dass dies den Beginn der Ära der „künstlichen humanoiden Roboter“ vorantreiben könne.

Wie gefällt es Ihnen?