Le mie informazioni di contatto
Posta[email protected]
2024-08-19
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Una volta all’anno, il robot umanoide di seconda generazione di Zhihui Jun è qui.
Le piccole mani agili dominano il tavolo del mahjong:
No, no, diamo prima un'occhiata al temperamento generale:
Poi ci sono i lavori domestici di routine, che possono essere considerati molto abili:
Nel 2024, quando i modelli di grandi dimensioni sono di gran moda, se c’è qualcosa di interessante nel campo dell’intelligenza artificiale, la direzione dell’“intelligenza incarnata” deve essere tra questi.
Rivolgendo la nostra attenzione alla Cina, la società di intelligence personale "Zhiyuan Robot" ha attirato molta attenzione. Dalla sua fondazione nel febbraio 2023, "Zhiyuan Robot" ha completato 6 round di finanziamento ininterrottamente ed è rapidamente diventato un "progetto di punta" nel circolo imprenditoriale della robotica.
Sei mesi dopo l'avvio dell'attività, Zhihui Jun e il suo team hanno lanciato il loro primo prodotto "Expedition A1". Quando ha debuttato, la capacità di camminare e l'interazione uomo-macchina della "Expedition A1" erano leader del settore. Tuttavia, dopo il debutto della "Expedition A1", sembra che non abbiamo mai sentito parlare del suo prossimo passo e non abbiamo nemmeno pubblicato alcun video dal vivo.
Ma dopo la conferenza stampa di oggi, sappiamo che Zhiyuan Robot sta "facendo grandi cose in silenzio".
In questa conferenza stampa, Zhihui Jun ha lanciato tre prodotti robot della serie Expedition in una volta sola: il robot di servizio interattivo "Expedition A2", il robot di produzione intelligente e flessibile "Expedition A2-W" e il robot speciale per carichi pesanti "Expedition A2-Max ". Nella sessione finale di One more thing, anche i prodotti della serie di robot modulari "Lingxi X1" e "Lingxi X1-W" incubati da Zhiyuan X-Lab sono stati ufficialmente svelati come "uova di Pasqua".
Rispetto alla generazione precedente, i cinque robot adottano un linguaggio di progettazione in stile familiare e presentano una serie di regolarizzazioni nell'aspetto del robot, combinando forme con ruote e piedi, coprendo servizi interattivi, produzione intelligente flessibile, operazioni speciali, ricerca scientifica e istruzione, e Raccolta dati e altri scenari applicativi.
Per quanto riguarda l'avanzamento della produzione di massa, Zhiyuan Robot ha rivelato anche le ultime novità: il volume stimato delle spedizioni nel 2024 raggiungerà circa 300 unità, di cui circa 200 unità bipedi e circa 100 unità su ruote.
Spedizione di nuova generazione A2
A partire dalla "Spedizione A1", la direzione di Zhiyuan nei prodotti robotici è stata chiara: "Lavorare nelle fabbriche". La “Spedizione A2” di quest’anno è più pienamente preparata per il “lavoro in serie nelle fabbriche”.
Diamo un’occhiata ai membri di questa famiglia:
"Expedition A2" è un robot di servizio interattivo con più di 40 gradi di libertà attivi delle articolazioni e mani abili simili a quelle umane, in grado di simulare un lavoro umano ricco e complesso. Ha un cervello in grado di apprendere continuamente, alimentato da un ampio modello linguistico. Inoltre, dispone anche di un sistema di percezione e input multimodale in grado di percepire le emozioni dell'interattore attraverso la visione.
"Expedition A2-Max" è un robot speciale per carichi pesanti, potente e abile. Nella scena iniziale, ha spostato facilmente un air box da 40 kg. Attualmente, "Expedition A2-Max" è ancora in fase di sviluppo del prodotto.
"Expedition A2-W" è un robot flessibile e intelligente i cui due bracci possono funzionare in modo indipendente o lavorare insieme. Utilizza un telaio con ruote, combinato con il lidar RGBD, una telecamera panoramica, sensori configurati per la sicurezza globale e altri componenti sulla fusoliera, che gli consentono di muoversi rapidamente e senza intoppi in vari ambienti.
Prima della conferenza stampa, la performance di "Expedition A2-W" era come se "Jarvis" di Iron Man diventasse realtà. Dopo aver compreso le istruzioni del signor Zhihui, ha aperto la bottiglia di Coca-Cola in modo completamente autonomo, ha messo l'uva nello spremitore, ha pressato lo spremitore e ha versato la bevanda dallo spremitore nella tazza senza versare una goccia. È stato servito un bicchiere di "Grape Cola". Signor Zhihui.
Oltre all'aspetto migliorato, anche i robot della serie "Expedition A2" sono stati migliorati sia internamente che esternamente. Per quanto riguarda i componenti principali del robot, "Zhiyuan Robot" divide in modo innovativo il sistema robotico in un dominio di potere, un dominio di percezione, un dominio di comunicazione e un dominio di controllo. Ovviamente, "Zhiyuan Robot" è rivolto all'ecosistema full-stack.
Nel campo dell'energia, "Zhiyuan Robot" ha implementato un aggiornamento iterativo del modulo congiunto PowerFlow per la produzione di massa. Dal punto di vista dei parametri, il modulo congiunto PowerFlow è stato notevolmente migliorato. In termini di stabilità e affidabilità, "Zhiyuan Robot" ha anche condotto test approfonditi e ottimizzazioni sulle prestazioni di punta, sulla velocità di invecchiamento e su altri aspetti.
Per le mani abili, importanti per "lavorare", questa volta si è potenziato anche il "Robot Zhiyuan": il numero dei gradi di libertà è balzato a 19, i gradi di libertà attivi sono raddoppiati a 12, e sono aumentate le capacità percettive. sono state introdotte anche tecnologie multimodali, come la rilevazione tattile e la rilevazione visivo-tattile basate sui principi MEMS.
Inoltre, "Zhiyuan Robot" ha anche lanciato bracci a 7 gradi di libertà controllati dalla forza ad alta precisione, che possono eseguire con precisione una varietà di compiti di controllo della forza come il controllo dell'impedenza, il controllo dell'ammettenza e il controllo della miscelazione forza-posizione supporta anche la modalità di insegnamento del trascinamento del braccio e il condizionamento visivo.
In termini di dominio della percezione, la nuova generazione di serie di robot da spedizione integra telecamere RGBD, lidar, telecamere panoramiche e altri sensori, introduce la soluzione di percezione all'avanguardia dell'occupazione di guida autonoma e migliora ulteriormente le capacità di comprensione ambientale attraverso algoritmi SLAM.
Nel dominio della comunicazione, "Zhiyuan Robot" ha sviluppato autonomamente un framework di comunicazione robotica intelligente nativo, leggero e ad alte prestazioni AimRT. Rispetto al middleware di terze parti come ROS, migliora le prestazioni, la stabilità, l'efficienza e la flessibilità di implementazione del sistema ed è completamente compatibile con l'ecosistema ROS/ROS2 esistente. AimRT sarà open source alla fine di settembre.
Per il dominio di controllo, "Zhiyuan Robot" combina due algoritmi, basato su modello e basato sull'apprendimento, per migliorare ulteriormente il controllo del movimento e l'adattabilità del robot. Per quanto riguarda il modello basato, "Zhiyuan Robot" ha ulteriormente migliorato la robustezza del sistema. Pertanto, la dimostrazione eseguita dal robot alla conferenza stampa è stata fluida e fluida. Per quanto riguarda gli algoritmi basati sull'apprendimento, "Zhiyuan Robot" si è concentrato su questo aspetto, sperando di promuovere la trasformazione dei metodi di addestramento dei robot da basati su algoritmi a basati sui dati.
Sulla base dell'algoritmo di controllo delle operazioni, "Zhiyuan Robot" ha AgentOS pre-sviluppato, che è guidato da set di istruzioni in linguaggio naturale e può essere adattato a diverse ontologie robot. Basandosi sull'apprendimento per rinforzo, raggiunge un'orchestrazione precisa e un'esecuzione efficiente del robot competenze.
Proporre per la prima volta il percorso di evoluzione della tecnologia di intelligenza incorporata G1-G5
In questa conferenza, Zhiyuan Robot ha anche proposto per la prima volta un percorso di evoluzione tecnologica nel campo dell'intelligenza incarnata, comprendente cinque fasi da G1 a G5:
G1 si riferisce alla fase di automazione di base, che si basa su funzionalità progettate manualmente e combinate con una semplice visione artificiale per fornire feedback. La distribuzione in questa fase è personalizzata per scenari specifici Sebbene possa risolvere problemi di esecuzione delle attività in determinati scenari, non può eseguire una migrazione rapida e a basso costo in scenari diversi.
G2 è la fase delle "abilità atomiche generali", che affina alcune abilità atomiche riutilizzabili sulla base di un gran numero di compiti di scenario diversi e dei requisiti di attività di varie operazioni. In breve, si tratta di un modo relativamente generale per ottenere una rapida migrazione di compiti di scena simili e quindi cooperare con la struttura del modello linguistico di grandi dimensioni per eseguire l'orchestrazione dei compiti, in modo che il robot abbia una certa capacità di generalizzazione.
G3 significa che l'architettura complessiva dell'intelligenza incarnata inizia ad adattarsi al percorso "end-to-end", sebbene l'architettura dell'algoritmo di questa fase possa essere simile alla fase G2, il modo in cui si formano le varie "capacità atomiche". questa volta è passato da una progettazione manuale guidata da algoritmi a una guida basata sui dati dopo una grande quantità di raccolta di dati.
Diversamente dalle prime tre fasi, nella fase G4 apparirà un modello operativo end-to-end generale. In questa fase, è possibile introdurre una grande quantità di dati reali e dati di simulazione in tutti gli scenari, nonché introdurre un modello mondiale per aiutare l’intelligenza artificiale a comprendere i principi fisici alla base del mondo reale e le somiglianze nella logica sottostante dietro diversi compiti. Ad esempio, per i due compiti di "svitare la bottiglia" e "svitare la maniglia della porta", non è necessario raccogliere due dati separati per ottenere due competenze separate. Portando infine alla fase G5 di avvicinamento infinito all’AGI.
Nell'ultimo anno, Zhiyuan Robot ha compiuto progressi graduali nel percorso G2, realizzando una serie di zero-shot e pochi come il modello universale di stima della posa UniPose, il modello di presa universale UniGrasp e il modello plug-in universale con controllo della forza L'abilità atomica universale di UniPlug. Il modello di capacità atomica nella fase G2 è orientato a scenari di produzione intelligente e flessibile e di servizi interattivi ed è stato applicato commercialmente in molteplici scenari pratici.
Sul percorso G3, Agibot ha anche formato una soluzione completa di dati incorporati a processo completo AIDEA (Agibot Integrated Data-system for Emfilled AI, Agibot Emfilled Intelligent Data System).
Ma sappiamo tutti che per realizzare una soluzione del genere dobbiamo prima investire molti costi nella raccolta dei dati, e non tutti i team di robot sono qualificati per farlo.
Zhiyuan Robot lo ha fatto e si sta preparando a renderlo open source nel quarto trimestre di quest'anno.
Zhihui Jun ha affermato che la raccolta dei dati è il punto dolente dell'intero processo. Nell'ultimo anno, hanno svolto molto lavoro sull'infrastruttura per i dati e hanno creato una soluzione completa e completa per la raccolta dati e l'applicazione AIDEA.
Oltre a fornire soluzioni di ontologia hardware, AIDEA fornirà anche l'intera piattaforma dati cloud full-link, nonché la piattaforma di apprendimento automatico AIDEA ML per l'addestramento dei modelli e la valutazione degli algoritmi e la piattaforma di simulazione AIDEA Sim.
Zhihui Jun ha affermato che si aspetta che Zhiyuan disporrà di più di un centinaio di robot liberamente schierabili dedicati alla raccolta dati end-to-end. Inoltre, nel quarto trimestre, saranno resi disponibili come open source milioni di macchine reali e decine di milioni di dati di simulazione basati su AIDEA Raccogliere per costruire attivamente un ecosistema aperto.
Ancora una cosa di Zhihuijun
Forse perché riteneva che tenere una conferenza stampa solo una volta all'anno fosse troppo lungo, Zhihui Jun ha annunciato anche un'altra cosa alla fine della conferenza stampa: due nuovi prodotti: il robot open source full-stack Lingxi X1 e il data mining professionale robot Lingxi X1-W.
Questi due robot provengono da X-Lab (Zhihui Jun Laboratory). Sono prodotti realizzati da 10 persone in meno di 3 mesi. Contengono molti dettagli innovativi. Ad esempio, abbiamo sviluppato due nuovi giunti PowerFlow, PF86 e PF52, che incorporano un concetto di design modulare e possono essere facilmente smontati e assemblati tramite un semplice telaio.
Basandosi sulla ricerca dell'innovazione definitiva da parte di X-Lab, Zhihui Jun ha affermato che i disegni di progettazione dell'ontologia, la struttura del software, il codice sorgente del middleware e l'algoritmo di controllo delle operazioni di base di Lingxi X1 saranno open source.
Inoltre, in termini di attuatori, X-Lab ha sviluppato in modo indipendente una pinza universale adattiva a bassissimo costo con controllo anticipato della forza e ha anche lanciato un sensore di forza a sei dimensioni con un costo di 100 yuan per soddisfare le esigenze della scena .
A proposito, Lingxi vende a zero yuan, open source la maggior parte dei dati di progettazione e del codice, ma vende parti.
Zhihui Jun ha espresso la speranza che ciò possa favorire l'arrivo dell'era dei “robot umanoidi artificiali”.
Le piace?