noticias

Dejemos que los robots humanoides tengan "cerebros más fuertes", el equipo de innovación de Chengdu ha logrado avances nacionales

2024-08-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

El 12 de agosto, los periodistas se enteraron por el Centro de Innovación de Robots Humanoides de Chengdu que el centro habíaSe publicaron los últimos resultados de investigación y desarrollo: el primer modelo de robot multimodal RRMM (Raydiculous Robot Multimodal Model) de China y el sistema de colaboración de dos brazos RTACS (Raydiculous Two-Arm Recommendation System). Según los informes, el modelo multimodal (RRMM) puede permitir a los robots comprender y razonar sobre instrucciones semánticas abstractas y programar el sistema de colaboración de doble brazo (RTACS) para realizar tareas. Actualmente, sólo empresas extranjeras líderes como OpenAI han lanzado similares. resultados, que pueden permitir a los robots humanoides despedirse de tareas simples "Operación por control remoto", con "cerebro más fuerte" y capacidades de ejecución autónoma.
El razonamiento colaborativo de datos multimodal (múltiples modalidades heterogéneas) puede integrar dos o más fuentes de percepción diferentes para realizar un razonamiento integral y completar tareas complejas. Según la persona a cargo del Centro de Innovación de Robots Humanoides de Chengdu, por ejemplo, cuando el último ChatGPT4o demuestra sus poderosas funciones, el evaluador no usa el teclado tradicional para ingresar instrucciones de preguntas, sino que escribe a mano una ecuación para resolver en un pedazo de papel y dibuja a mano una figura geométrica. Los comandos de voz requieren GPT4o para resolver problemas. GPT4o brinda rápidamente respuestas precisas a través del reconocimiento de imágenes, reconocimiento de voz, comprensión semántica y razonamiento. "La multimodalidad se aplica en el campo de los robots humanoides, lo que permite a los robots humanoides integrar múltiples factores como imágenes, semántica, percepción de fuerza y ​​percepción del entorno para juzgar, generar y ejecutar tareas de manera integral. Esta es la tecnología central clave para los robots humanoides. tener la capacidad de pensar de forma independiente”, dijo el responsable del centro de innovación.
Actualmente, el primer modelo de robot multimodal de China lanzado por el Centro de Innovación de Robots Humanoides de Chengdu puede distinguir y clasificar con relativa claridad frutas y no frutas, bebidas y no bebidas, y también puede clasificar de manera relativamente abstracta objetos cilíndricos y cuboides. y ser capaz de distinguir y clasificar artículos comestibles y no comestibles de una manera relativamente abstracta. Según los informes, para completar las tareas anteriores, el robot necesita extraer y resumir de forma independiente todos los artículos a través de modelos multimodales. Especialmente para múltiples objetos con formas de botellas similares, es necesario determinar de manera más exhaustiva si son productos a través de texto e imágenes. y otros elementos en el empaque de la botella, solo se pueden completar botellas comestibles, en lugar de no comestibles, como cosméticos y detergentes, lo que demuestra que el Centro de Innovación de Robots Humanoides de Chengdu ha logrado mayores avances tecnológicos.
Se entiende que el 12 de abril de este año, Chengdu Humanoid Robot Innovation Center Co., Ltd. obtuvo una licencia comercial, lo que marcó el lanzamiento oficial de la primera nueva institución de investigación y desarrollo de robots humanoides en las regiones central y occidental. El centro de innovación se centra en la investigación tecnológica central, la transformación de logros y la industrialización de la industria de robots humanoides, y promueve el desarrollo de alta calidad de la industria de robots humanoides de China.
Imágenes y videos del reportero de Red Star News, Wang Junfeng, según el Centro de Innovación de Robots Humanoides de Chengdu
Editor Li Yuyi
(¡Descarga Red Star News y envía tus informes para ganar premios!)
Informe/Comentarios