Biarkan robot humanoid memiliki "otak yang lebih kuat", tim inovasi Chengdu telah mencapai terobosan nasional
2024-08-12
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Pada tanggal 12 Agustus, wartawan mengetahui dari Pusat Inovasi Robot Humanoid Chengdu yang baru-baru ini dibangun oleh pusat tersebutMerilis hasil penelitian dan pengembangan terbaru: model multimodal robot pertama Tiongkok RRMM (Raydiculous Robot Multimodal Model) dan sistem kolaborasi dua lengan RTACS (Raydiculous Two-Arm Cooperation System). Menurut laporan, model multi-modal (RRMM) dapat memungkinkan robot untuk memahami dan mempertimbangkan instruksi semantik abstrak dan menjadwalkan sistem kolaborasi dua lengan (RTACS) untuk melakukan tugas. Saat ini, hanya perusahaan asing terkemuka seperti OpenAI yang telah merilis hal serupa hasil, yang memungkinkan robot humanoid mengucapkan selamat tinggal pada tugas-tugas sederhana. "Operasi kendali jarak jauh", dengan "otak yang lebih kuat" dan kemampuan eksekusi otonom.
Penalaran kolaboratif data multimodal (beberapa modalitas heterogen) dapat mengintegrasikan dua atau lebih sumber persepsi yang berbeda untuk melakukan penalaran komprehensif dan menyelesaikan tugas-tugas kompleks. Menurut penanggung jawab Pusat Inovasi Robot Humanoid Chengdu, misalnya, ketika ChatGPT4o terbaru mendemonstrasikan fungsinya yang canggih, penguji tidak menggunakan keyboard tradisional untuk memasukkan instruksi pertanyaan, tetapi menulis persamaan yang akan diselesaikan dengan tangan pada selembar kertas. kertas dan menggambar gambar geometris dengan tangan. Perintah suara memerlukan GPT4o untuk menyelesaikan masalah. GPT4o dengan cepat memberikan jawaban yang akurat melalui pengenalan gambar, pengenalan ucapan, pemahaman semantik, dan penalaran. Multimodalitas diterapkan di bidang robot humanoid, memungkinkan robot humanoid mengintegrasikan berbagai faktor seperti gambar, semantik, persepsi kekuatan, dan persepsi lingkungan untuk menilai, menghasilkan tugas, dan melaksanakan tugas secara komprehensif. Ini adalah teknologi inti utama untuk robot humanoid. untuk memiliki kemampuan berpikir mandiri, ” kata penanggung jawab pusat inovasi tersebut.
Saat ini, model robot multi-modal pertama Tiongkok yang dirilis oleh Pusat Inovasi Robot Humanoid Chengdu dapat secara relatif jelas membedakan dan menyortir buah-buahan dan non-buah, minuman dan non-minuman, dan juga dapat mengklasifikasikan benda-benda berbentuk silinder dan berbentuk kubus secara relatif abstrak. dan mampu membedakan dan mengurutkan barang-barang yang dapat dimakan dan tidak dapat dimakan dengan cara yang relatif abstrak. Menurut laporan, untuk menyelesaikan tugas di atas, robot perlu mengekstrak dan meringkas semua item secara mandiri melalui model multi-modal. Khusus untuk beberapa objek dengan bentuk botol yang serupa, perlu ditentukan lebih lanjut secara komprehensif apakah item tersebut merupakan produk melalui teks, gambar dan elemen lain pada kemasan botol. Hanya botol yang dapat dimakan, bukan botol yang tidak dapat dimakan seperti kosmetik dan deterjen, yang dapat menyelesaikan tugas ini, yang menunjukkan bahwa Pusat Inovasi Robot Humanoid Chengdu telah membuat terobosan teknologi lebih lanjut.
Diketahui bahwa pada 12 April tahun ini, Chengdu Humanoid Robot Innovation Center Co., Ltd. memperoleh izin usaha, menandai peluncuran resmi lembaga penelitian dan pengembangan baru pertama untuk robot humanoid di wilayah tengah dan barat. Pusat inovasi ini berfokus pada penelitian teknologi inti, transformasi pencapaian, dan industrialisasi industri robot humanoid, serta mempromosikan pengembangan industri robot humanoid Tiongkok yang berkualitas tinggi.
Gambar dan video reporter Red Star News Wang Junfeng menurut Pusat Inovasi Robot Humanoid Chengdu
Editor Li Yuyi
(Unduh Red Star News dan kirimkan laporan Anda untuk memenangkan hadiah!)