noticias

una mirada directa al estado actual de los chips de ia nacionales: producción de sangre de gpu, incursiones de tpu, chiplets que se convierten en tendencia y cuellos de botella en la red

2024-09-06

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

autor |

xinxi informó el 6 de septiembre que hoy se inauguró en beijing la cumbre mundial anual de chips de ia (gacs 2024). el lugar estaba lleno de asientos y el número de espectadores de la transmisión en vivo en la nube alcanzó los 1,2 millones.

▲había grandes multitudes de personas dentro y fuera del lugar.

la conferencia fue patrocinada por core east west y intelligent orangutan de zhiyi technology. con el tema "construyendo juntos caminos centrales en la era de la informática inteligente", la conferencia invitó a más de 50 invitados de los campos de chips de ia, chiplets, risc-v e inteligencia. clústeres de computación, ai infra y otros campos. los invitados compartirán información útil en la reunión.

es el quinto aniversario de la fundación del unicornio gpgpu nacional biren technology. en la conferencia, biren technology anunció que había logrado un gran avance en la tecnología central de capacitación mixta de múltiples núcleos y creó una solución de capacitación colaborativa de gpu heterogénea hgct. en la industria, puede admitir 3 o más tipos heterogéneos de gpu para entrenar el mismo modelo grande.

▲biren technology lanza la solución nacional de capacitación colaborativa de gpu heterogénea hgct

gong lunchang, cofundador y director ejecutivo de zhiyi technology, pronunció un discurso como organizador. este año es el séptimo año que se celebra la cumbre mundial de chips de ia. la cumbre se ha convertido en la conferencia industrial más influyente en este campo en china. es un buen lugar para comprender el desarrollo de chips de ia en el país y en el extranjero.

▲gong lunchang, cofundador y director ejecutivo de zhiyi technology

la cumbre mundial de chips de ia tiene una duración de dos días. el lugar principal incluye la ceremonia de apertura y tres sesiones principales (arquitectura de chips de ia, chips de ia de centros de datos, chips de ia de borde). las sedes secundarias incluyen el foro de tecnología chiplet y el foro de tecnología del clúster de computación inteligente. y foro de innovación risc-v.

en la ceremonia de apertura, yin shouyi, profesor de la universidad de tsinghua y vicedecano de la escuela de circuitos integrados, pronunció un discurso de apertura titulado "discusión sobre el camino de desarrollo de chips de alta potencia informática: de la arquitectura informática a la arquitectura integrada", revisando sistemáticamente chips de alta potencia informática, los desafíos técnicos existentes y analizar exhaustivamente cinco caminos tecnológicos innovadores: chips de flujo de datos, chips informáticos y de almacenamiento integrados, chips reconfigurables, chips integrados tridimensionales y chips de nivel de oblea.

hoy participarán 21 expertos, empresarios y ejecutivos de las mejores universidades, institutos de investigación y empresas de chips de ia. entre ellos, la sesión de diálogo de alto nivel invitó a representantes de tres nuevas empresas de chips de ia a debatir apasionadamente, a saber, biren technology, un unicornio de chips de alta potencia nacional, aixin yuanzhi, un unicornio de chips de ia del lado del dispositivo y del borde, y una empresa. eso solo lingchuan technology, una joven startup de chips de ia fundada hace medio año. se centraron en discutir el estado actual, las últimas prácticas y las direcciones avanzadas de la industria de los chips de ia.

1. resolver los desafíos de la oferta y la demanda de la potencia informática de los modelos a gran escala y la arquitectura innovadora para superar los cuellos de botella en el rendimiento.

yin shouyi, profesor de la universidad de tsinghua y vicedecano de la escuela de circuitos integrados, explicó las dificultades entre la oferta y la demanda de potencia informática en la era de los grandes modelos: la tecnología de chips se enfrenta a límites de reducción, lo que hace que el aumento de la potencia informática provocado por los dividendos del proceso son insostenibles; el sistema enfrenta un cuello de botella, un ancho de banda de comunicación insuficiente conduce a una pérdida de rendimiento del sistema.

la oportunidad de resolver estos dos problemas principales radica en la innovación conjunta de la arquitectura informática del chip informático y la arquitectura integrada: la innovación en la arquitectura informática permite que cada transistor se utilice por completo y ejerza una mayor potencia informática. la innovación en la arquitectura integrada permite que la escala del chip se abra paso; los límites.

actualmente existen cinco nuevas vías tecnológicas para el desarrollo de chips de alta potencia informática: chips de flujo de datos, chips reconfigurables, chips informáticos y de almacenamiento integrados, chips integrados tridimensionales y chips a nivel de oblea. ninguno de estos caminos depende completamente de los procesos de fabricación más avanzados, lo que ayudará a abrir un nuevo espacio para que la industria nacional de chips mejore la potencia informática.

▲yin shouyi, profesor de la universidad de tsinghua y vicedecano de la escuela de circuitos integrados

amd ha creado una línea integral de productos en el campo de la infraestructura de ia de extremo a extremo, que abarca desde servidores de centros de datos, pc con ia hasta dispositivos inteligentes integrados y de borde, y proporciona software líder de código abierto de ia y un ecosistema abierto. gigantes como microsoft han adoptado la plataforma de procesador de cpu de amd diseñada en base a la arquitectura avanzada zen4 y los aceleradores de la serie mi basados ​​en la arquitectura cdna3 para el razonamiento y entrenamiento de ia.

según wang hongqiang, director senior de la división de inteligencia artificial de amd, amd también está promoviendo una infraestructura de red de alto rendimiento (ualink, ultra ethernet) en los centros de datos, que es crucial para que las estructuras de red de ia admitan una conmutación rápida y una latencia extremadamente baja, y para ampliar el rendimiento del centro de datos de ia es importante.

amd está a punto de lanzar la próxima generación de pc con ia de alto rendimiento. su npu ryzen ai basada en la arquitectura xdna de segunda generación puede proporcionar una potencia informática de 50 tops y aumentar la tasa de eficiencia energética a 35 veces la de la arquitectura de uso general. impulsados ​​por el impulso de las pc con ia por la privacidad, la seguridad y la autonomía de los datos, se están comenzando a implementar importantes cargas de trabajo de ia en las pc. como uno de los principales proveedores de infraestructura de ia del mundo, amd está dispuesta a trabajar con clientes y desarrolladores para construir un futuro transformador.

▲wang hongqiang, director senior de la división de inteligencia artificial de amd

desde 2015, qualcomm ha estado innovando continuamente en el diseño de hardware npu basándose en cambios en los casos de uso de aplicaciones de ia. representado por el snapdragon 8 de tercera generación, qualcomm ai engine adopta una arquitectura informática heterogénea que integra múltiples procesadores como cpu, gpu y npu. entre ellos, qualcomm hexagon npu optimiza el rendimiento y la eficiencia energética a través de memoria a gran escala, fuente de alimentación dedicada para aceleradores, actualizaciones de microarquitectura y otros diseños. la ia tiene muchos casos de uso y diferentes requisitos de potencia informática. por lo tanto, la demanda de integración de procesadores e informática heterogénea existirá durante mucho tiempo, lo que también traerá una serie de mejoras en el rendimiento máximo, la eficiencia energética, el costo, etc.

la línea de productos de qualcomm cubre una amplia gama de escenarios de aplicaciones de vanguardia, como teléfonos móviles, pc, xr, automóviles e iot. puede ayudar a los desarrolladores a utilizar las soluciones de software y hardware de inteligencia artificial de qualcomm para la aceleración de algoritmos en diferentes formas de productos, aportando una gran riqueza. de beneficios para los consumidores. experiencia de ia en el dispositivo y casos de uso. finalmente, wan weixing, director de tecnología de productos de ia de qualcomm en china, también anunció que la plataforma móvil snapdragon de próxima generación equipada con la última cpu qualcomm oryon se lanzará en la cumbre snapdragon que se celebrará del 21 al 23 de octubre de este año.

▲wan weixing, director de tecnología de productos de ia de qualcomm en china

yang yue, cofundador y director ejecutivo de pingxin technology, analizó el proceso de avance de la tecnología informática y de almacenamiento integrado. la aparición y el crecimiento de los chips convencionales en la industria están estrechamente relacionados con las características de las necesidades informáticas actuales. alrededor de 2015, los cuellos de botella informáticos en la arquitectura informática migraron del lado del procesador al lado del almacenamiento, especialmente la aparición de redes neuronales, lo que se aceleró. la eficiencia informática de los chips de ia con el ritmo de mejora, la tecnología informática y de almacenamiento ha atraído la atención.

yang yue cree que en la era de los modelos grandes, la oportunidad para la tecnología informática y de almacenamiento integrado es agregar informática dondequiera que haya almacenamiento de datos. con el desarrollo continuo del software, los chips finales basados ​​​​en almacenamiento e informática han madurado gradualmente este año. en el futuro, resolver los cuellos de botella del ancho de banda de datos en la nube puede convertirse en la próxima aplicación asesina para los chips informáticos y de almacenamiento.

▲ yang yue, cofundador y director ejecutivo de pingxin technology

tan zhanhong, cto de arctic xiongxin, dijo que en el campo de la informática de alto rendimiento, existen dos paradigmas diferentes en el diseño de servidores: la forma de servidor estándar y la arquitectura de servidor personalizada. en forma de servidores estándar, arctic xiongxin se enfoca en lograr un mayor rendimiento de costos a través de soluciones apropiadas de división y empaquetado de chips dentro del área restringida estándar; en forma de servidores no estándar, brinda oportunidades para la integración a nivel de oblea, centrándose en la integración; de diseño de chips y sistemas, y codiseño de servidores y chips, con el objetivo de lograr el objetivo de "servidor como chip".

en particular, tan zhanhong enfatizó que los diferentes diseños de chips tienen diferentes requisitos de ancho de banda, por ejemplo, en procesos por encima de 7 nm, combinados con la optimización de la comunicación de implementación, a menudo no se requiere una alta densidad de ancho de banda de interconexión, por lo que no es necesario un paquete avanzado. puede cumplir con los requisitos de rendimiento y lograr una solución rentable. pb-link ip de arctic xiongxin basado en el "estándar de interfaz de interconexión de chip central" ha logrado oficialmente una interconexión de bajo costo de empaque y ahora ha comenzado a autorizar a partes externas.

▲tan zhanhong, director tecnológico de arctic xiongxin

2. diálogo de alto nivel: los chips de ia nacionales han mejorado las capacidades hematopoyéticas y los productos de la nueva empresa más joven se han lanzado en kuaishou.

zhang guoren, cofundador y editor en jefe de zhiyi technology, y ding yunfan, vicepresidente y arquitecto jefe de software de ia de biren technology, liu li, cofundador y vicepresidente de lingchuan technology, y liu jianwei, co -fundador y vicepresidente de aixin yuanzhi, inició la discusión una mesa redonda con el tema "consenso, cocreación y beneficio mutuo para la implementación de chips de ia nacionales".

zhang guoren dijo al comienzo de la mesa redonda que la sexta sexta cumbre de chips de ia, iniciada por zhidongxi, coredongxi y zhiangzhi, es la conferencia profesional de mayor duración en este campo en china y ha sido testigo del auge. el desarrollo de chips de ia y modelos grandes también ha sido testigo del surgimiento de una serie de "nuevas fuerzas" nacionales de fabricación de núcleos.

▲zhang guoren, cofundador y editor en jefe de zhiyi technology

ding yunfan dijo que los chips de gran potencia informática son una industria intensiva en tecnología, talento y capital. como el unicornio de chips con la mayor financiación pública del mercado, biren technology cuenta con los mejores talentos. sus productos de primera generación se han producido en masa y se han lanzado múltiples grupos nacionales de kilotarjetas gpu, que pueden generar sangre de forma independiente. sin embargo, la situación general de la industria nacional de chips todavía no es fácil y todavía existe una brecha entre los aspectos ecológicos y los de los países extranjeros.

muchos chips de ia nacionales han comenzado a implementarse en centros de datos y centros de computación inteligentes. en opinión de ding yunfan, los productos nacionales de nvidia no son muy rentables mientras los chips nacionales puedan ofrecer un alto rendimiento y rentabilidad, habrá mercado. en la actualidad, hay cada vez más noticias sobre el lanzamiento de la industria nacional de chips y la mejora de las capacidades hematopoyéticas. la brecha con nvidia se reducirá gradualmente.

▲ding yunfan, vicepresidente de biren technology y arquitecto jefe de software de inteligencia artificial

liu jianwei cree que el bajo costo es una parte muy importante y que las empresas eventualmente tendrán que ajustar cuentas y recuperar su inversión en infraestructura. liu li cree que en el futuro, en sectores segmentados como la inteligencia incorporada y el vídeo inteligente, la entrada de más empresas aportará un valor mayor que los productos generales, lo que comprimirá los ingresos y beneficios de nvidia.

lingchuan technology es una de las empresas emergentes nacionales de chips de ia más jóvenes. se estableció en marzo de este año y completó una ronda de financiamiento. los chips de procesamiento de video inteligentes actualmente a la venta se lanzaron en kuaishou y representan el 99% del uso en kuaishou. campo de procesamiento de video. se espera que el chip de inferencia de potencia informática esté disponible a principios del próximo año.

en opinión de liu li, la ventana del mercado de chips de ia aún está lejos de cerrarse. frente a las ventajas de los gigantes en recursos, fondos y ecología, las nuevas empresas deben hacer esfuerzos en campos verticales y segmentados. lingchuan technology combina el procesamiento de vídeo inteligente y la potencia informática de inferencia de ia, con el objetivo de reducir su coste de inferencia por token al 10 % del de nvidia h800.

▲liu li, cofundador y vicepresidente de lingchuan technology

aixin yuanzhi, que apunta tanto al extremo como al borde, ha logrado resultados notables en participación de mercado. liu jianwei cree que estos dos campos realizarán un circuito cerrado comercial más rápidamente. añadió que fabricar chips de ia eventualmente generará dinero, pero el cronograma de ganancias real se verá afectado por factores como los costos de implementación de la ia, y las empresas deberían lograr la autogeneración y el ciclo cerrado lo antes posible. en el futuro, aixin yuanzhi explorará los escenarios de implementación de modelos grandes en el extremo y el borde.

los envíos de productos de aixin yuanzhi en el campo automotriz son muy impresionantes, liu jianwei dijo que esto se debe a que la tecnología de chip subyacente de las ciudades inteligentes y los automóviles es similar. aixin yuanzhi ha acumulado tecnologías maduras en las ciudades inteligentes y luego ingresará a la conducción inteligente. logrado pronto. al mismo tiempo, la guerra de precios en el sector del automóvil promoverá la división industrial del trabajo, que es un período de oportunidades.

▲liu jianwei, cofundador y vicepresidente de aixin yuanzhi

en cuanto a cómo los chips de ia nacionales pueden encontrar rápidamente un nicho ecológico, liu jianwei tomó como ejemplo la escena de desarrollo profundo de aixin yuanzhi. básicamente no hay empresas extranjeras en el campo de la conducción inteligente. 1, y del 1 al 100, la etapa que más atención presta a los costes es la de oportunidades de negocio. ding yunfan mencionó cuatro elementos: garantía de suministro estable y confiable, rentabilidad, servicios de soporte eficientes basados ​​en las necesidades del cliente y eficiencia y facilidad de uso. liu li cree que deberíamos profundizar en los campos verticales y crear soluciones más eficientes y optimizadas que los chips de uso general.

mirando hacia el futuro, liu jianwei predice que en los próximos 4 a 5 años, habrá grandes oportunidades de desarrollo tanto en el lado de los dispositivos como en el lado de la nube. una vez que se reduzca el costo de implementación en la industria, los datos podrán obtener un mayor valor. . liu li cree que a medida que las aplicaciones de ia marquen el comienzo de un período explosivo, habrá una gran demanda de razonamiento en el lado de la nube. ding yunfan dijo que la potencia informática de alta gama todavía es escasa en china, pero la colaboración de la cadena industrial puede lograr un desarrollo constante.

3. la construcción de centros informáticos inteligentes va en aumento: nuevos avances en gpu, tpu nacional y chiplet están ganando

en la sesión sobre chips de inteligencia artificial para centros de datos celebrada por la tarde, yu mingyang, director de habana china, dijo que en los últimos tres años, se han construido alrededor de 50 centros de computación inteligente dirigidos por el gobierno y más de 60 están en planificación y construcción. la construcción de centros de computación inteligentes ha aumentado gradualmente desde las ciudades de primer nivel hasta las ciudades de segundo y tercer nivel, y desde las dirigidas por el gobierno a las lideradas por empresas, los requisitos para la reducción de costos y el ciclo de retorno de la inversión también están aumentando gradualmente.

según su observación, el desarrollo de modelos grandes se está volviendo cada vez más maduro y la demanda de inferencia continúa creciendo. la tasa de crecimiento de los chips de inferencia desarrollados por los principales csp aumentará. en el futuro, es posible que se cultiven múltiples empresas de chips heterogéneos. el lado de la inferencia.

la demanda de formación de modelos a gran escala en el extranjero seguirá siendo fuerte, y la demanda de potencia informática para la formación de modelos nacionales está básicamente saturada, principalmente debido a los negocios de ajuste. para respaldar el futuro desarrollo de la ia, la integración de chiplets, memorias de alta velocidad y gran capacidad y tecnologías de interconexión de alta velocidad privadas/generales desempeñarán un papel clave.

▲ yu mingyang, jefe de habana china

para solucionar el problema de los silos de potencia informática heterogénea para modelos grandes, ding yunfan, vicepresidente de biren technology y arquitecto jefe de software de inteligencia artificial, anunció el lanzamiento de la solución de capacitación colaborativa de gpu heterogénea original de biren, hgct. esta es la primera vez en la industria que admite tres o más gpu heterogéneas para entrenar de forma colaborativa el mismo modelo grande, es decir, admite entrenamiento mixto con "nvidia + biren + gpu de otras marcas. la eficiencia de la comunicación es superior al 98%". y la eficiencia de la capacitación de un extremo a otro alcanza el 90 ~ 95%.

bi ren está trabajando con clientes y socios para promover conjuntamente el heterogéneo ecosistema de capacitación colaborativa de gpu, incluidos china telecom, zte, sensetime, state grid intelligence research institute, shanghai intelligent computing technology co., ltd., shanghai artificial intelligence laboratory, china institute of tecnologías de la información y las comunicaciones, etc.

sus productos se han implementado comercialmente en múltiples grupos de gpu de kilotarjetas. biren ha desarrollado una solución global de modelo grande que integra software y hardware, optimización de pila completa, colaboración heterogénea y código abierto. por primera vez, biren ha realizado la expansión y contracción elástica automática de tareas paralelas 3d de modelos grandes, manteniendo la tasa de utilización del clúster en casi el 100%. ha logrado la recuperación automática de 100 mil millones de modelos de parámetros en clústeres de 1000 tarjetas en 10 minutos. , sin fallos durante 4 días y sin interrupciones durante 15 días.

▲ding yunfan, vicepresidente de biren technology y arquitecto jefe de software de inteligencia artificial

zheng hanxun, cofundador y director de tecnología de zhonghao xinying, dijo que los grandes modelos de ia actuales superan con creces la complejidad computacional y los requisitos de potencia de cálculo en cualquier momento de la historia de la informática, y requieren chips especializados que sean mejores en los cálculos de ia. en comparación con la gpu, que se diseñó originalmente para procesamiento de imágenes y renderizado en tiempo real, tpu está diseñado principalmente para aprendizaje automático, modelos de aprendizaje profundo y cálculos de redes neuronales. está altamente optimizado para operaciones tensoriales y el rendimiento de una arquitectura de matriz sistólica única. la eficiencia del procesamiento ha mejorado enormemente en comparación con la gpu.

el chip "snap" de desarrollo propio de zhonghao xinying es el primer chip de ia con arquitectura tpu de alto rendimiento producido en masa en china. después de un cálculo exhaustivo del rendimiento informático, el costo y el consumo de energía, el costo unitario de computación es solo el 50% del de las gpu líderes en el extranjero. . zheng hanxun cree que en las últimas etapas del desarrollo de modelos a gran escala, la mejor relación costo-efectividad de los clústeres de kilo y 10.000 ka será crucial. la interconexión directa de alta velocidad entre hasta 1.024 chips en los chips setsana será un factor decisivo. factor crítico en la construcción de clústeres informáticos a gran escala. el rendimiento puede superar con creces el de la gpu tradicional.

▲zheng hanxun, cofundador y director de tecnología de zhonghao xinying

según stephen feng, jefe de productos de computación abierta acelerada de inspur information, a medida que aumenta la escala de parámetros de los modelos grandes, el desarrollo de la ia generativa enfrenta cuatro desafíos principales: escalabilidad insuficiente del clúster, alto consumo de energía del chip, difícil implementación del clúster y baja capacidad del sistema. confiabilidad. gran desafío. inspur information siempre ha estado orientada a aplicaciones y centrada en sistemas, estimulando la vitalidad de la innovación generativa de ia a través del sistema abierto de kaiyuan.

en términos de apertura de hardware, hemos establecido especificaciones oam (open acceleration module) para acelerar la implementación en línea de potencia informática avanzada y admitir la aceleración iterativa de grandes modelos y aplicaciones de ia. en términos de apertura de software, a través de la gran plataforma de desarrollo de modelos epai "yuannao qizhi", creamos una plataforma de soporte de desarrollo de aplicaciones de proceso completo para empresas. a través de soluciones de extremo a extremo, resolvemos los problemas de ilusión existentes en el campo básico. modelos grandes y resolver problemas de desarrollo de aplicaciones, como procesos complejos, umbrales altos, dificultad para adaptar múltiples modelos y altos costos, acelerarán la innovación y la implementación de aplicaciones de modelos grandes empresariales.

▲stephen feng, director de productos de computación acelerada abierta de inspur information

qingcheng jizhi se fundó en 2023 y se centró en la pista de infraestructura de inteligencia artificial. el equipo se incubó en el departamento de ciencias de la computación de la universidad de tsinghua y ha acumulado más de diez años de experiencia en optimización de la potencia informática inteligente.

shi tianhui, cofundador de qingcheng jizhi, compartió que los sistemas informáticos nacionales de alto rendimiento enfrentan desafíos como dificultades en la recuperación de fallas y un rendimiento deficiente. requieren la cooperación de 10 sistemas de software básicos centrales, y qingcheng jizhi ya se encuentra entre ellos. más de la mitad de los campos tienen productos de desarrollo propio.

en la actualidad, qingcheng jizhi ha dominado la acumulación de tecnología de pila completa desde el compilador de nivel inferior hasta el sistema informático paralelo de nivel superior, ha logrado una cobertura completa de la ecología de la industria de modelos grandes y ha completado múltiples optimizaciones de inferencia de alto rendimiento de chips domésticos y modelos convencionales a gran escala se trasplantan y optimizan rápidamente, y el efecto de cálculo mejora significativamente. entre ellos, el sistema de entrenamiento de modelos grandes "bagua furnace" desarrollado para grupos de potencia informática doméstica de gran escala se puede ampliar a la escala de 100.000 servidores y se utiliza para entrenar modelos con 174 billones de parámetros.

▲shi tianhui, cofundador de qingcheng jizhi

huang xiaobo, director de marketing de tecnología de xinhe semiconductor, dijo que la demanda de potencia informática se ha multiplicado por 60.000 en los últimos 20 años y puede llegar a 100.000 veces en los próximos 10 años. el almacenamiento y el ancho de banda de interconexión se han convertido en importantes cuellos de botella para el desarrollo. los sistemas integrados de chiplets se han convertido en una dirección importante para los avances en las limitaciones de procesos avanzados y las mejoras en la potencia informática de alto rendimiento en la era posterior a moore. se han utilizado ampliamente en chips de gran potencia informática de ia y en chips de conmutación de redes de clústeres de potencia informática de ia.

en este sentido, xinhe semiconductor proporciona una plataforma eda de simulación multifísica integral para el diseño y desarrollo de sistemas integrados chiplet. la plataforma admite el modelado paramétrico de estructuras de interconexión en diseños de procesos convencionales. sus capacidades de simulación son 10 veces más rápidas que otras plataformas. solo ocupa 1/20 de la memoria. también tiene análisis de protocolo hbm/ucie integrado para mejorar la eficiencia de la simulación. ha ganado muchos premios de líderes nacionales y extranjeros. los fabricantes de diseño de chips de potencia informática de ia lo utilizan para ayudar a acelerar la implementación de productos de sistemas integrados chiplet de gran potencia informática.

▲huang xiaobo, director de marketing tecnológico de xinhe semiconductor

durante el entrenamiento de modelos grandes, la infraestructura de red representa el 30% del costo, lo que resalta la importancia del rendimiento de la red. según zhu jundong, cofundador de qimo y vicepresidente de productos y soluciones, la red se ha convertido en el cuello de botella del rendimiento informático inteligente. la construcción de una red de ia requiere la integración de tres redes, a saber, la interconexión entre redes de clúster, la interconexión dentro de gabinetes y la interconexión dentro de los gabinetes. e interconexión dentro de chips.

los grandes clústeres de computación inteligente requieren una interconexión de alto rendimiento, y modernize rdma y chiplets se han convertido en tecnologías clave. para optimizar rdma, la serie central de aceleración de red ndsa de qimo se basa en una arquitectura de transmisión programable de muchos núcleos y utiliza un motor de datos de alto rendimiento para lograr un flujo de datos de alto rendimiento y una aceleración de datos flexible. el chiplet gpu link "ndsa-g2g", del que ge fue pionero, se basa en una infraestructura ethernet y, a través de un motor de datos de alto rendimiento y tecnología de interfaz d2d, puede lograr un alto ancho de banda de nivel de terabytes de la red scale-up, y su rendimiento es comparable al referente de la tecnología de interconexión global.

▲zhu jundong, cofundador de qimo y vicepresidente de productos y soluciones

alphawave es una empresa que ofrece soluciones de diseño ip, chiplet y asic para hpc, ia y aplicaciones de redes de alta velocidad. guo dawei, su director comercial senior en la región de asia y el pacífico, compartió que en respuesta a los problemas que enfrentan durante la transmisión de datos, los productos alphawave ip tienen una tasa de error de bits que es 2 órdenes de magnitud menor que los productos de la competencia. integración y verificación, y están profundamente integrados con el ecosistema arm. también pueden proporcionar soporte de ciclo de vida completo para los soc de los clientes.

en términos de chiplets, alphawave ayuda a los clientes a acortar el ciclo, reducir costos y mejorar el rendimiento y la velocidad de iteración. ahora ha creado el primer chiplet de conexión io multiprotocolo de la industria, que se lanzó este año. en términos de chips personalizados, alphawave se centra principalmente en procesos por debajo de 7 nm y puede completar todo el proceso, desde las especificaciones hasta la grabación según las necesidades del cliente. actualmente, ha logrado más de 375 grabaciones exitosas, con un dppm inferior a. 25.

▲guo dawei, director comercial senior de la región alphawave asia pacífico

conclusión: la inteligencia downstream está aumentando y los chips de ia enfrentan oportunidades históricas

en el camino hacia el tema fundamental de la inteligencia artificial general, la forma de los algoritmos de ia continúa cambiando y los chips de ia siguen su ejemplo. cuando la grava antigua se encuentra con la inteligencia de las máquinas del futuro, la tecnología y la sabiduría de la ingeniería se fusionan y chocan. los chips de ia con un diseño exquisito ingresan a los grupos informáticos y entran en miles de hogares, apoyando la evolución de la vida basada en el silicio.

desde centros de computación inteligentes y conducción inteligente hasta pc con ia, teléfonos móviles con ia y nuevo hardware de ia, la tendencia de la inteligencia posterior ha traído una nueva ola de oportunidades históricas para los chips de ia que anclan diferentes escenarios. los algoritmos y aplicaciones de ia generativa en rápido desarrollo continúan desbloqueando nuevos desafíos en materia de potencia informática. la innovación tecnológica y la demanda del mercado están promoviendo doblemente la expansión del mercado de chips de ia y diversificando el panorama competitivo de los chips de ia.

el 7 de septiembre, la cumbre mundial de chips de ia de 2024 seguirá brindando información intensiva: en el lugar principal se llevará a cabo una sesión especial sobre innovación en la arquitectura de chips de ia y una sesión especial sobre chips de ia de borde/extremo, y el "2024 china's "las 20 principales empresas de soluciones de clústeres de computación inteligente" y "2024 hay dos listas de las" 10 principales empresas de chips de ia emergentes de china ": el foro de tecnología de clústeres de computación inteligente y el foro de innovación de chips de computación risc-v de china se llevarán a cabo en la sub-sede; .