mi información de contacto
correo[email protected]
2024-09-29
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
recientemente, google deepmind anunció oficialmente su último algoritmo de diseño de chips alphachip en nature. este método está dedicado a acelerar y optimizar el desarrollo de chips de computadora. ha sido probado por múltiples productos de tpu y puede completar las tareas requeridas por expertos humanos en solo unos pocos. horas semanas o incluso meses de diseño del diseño del chip.
en 2020, google publicó un artículo preimpreso histórico, "colocación de chips con aprendizaje por refuerzo profundo", que muestra al mundo por primera vez el diseño de su chip diseñado utilizando un nuevo método de aprendizaje por refuerzo.esta innovación permite a google introducir ia en el diseño de chips de tpu, logrando un diseño de chip que supera a los diseñadores humanos.
para 2022, google abrió aún más el código del algoritmo descrito en el artículo, lo que permitirá a investigadores de todo el mundo utilizar este recurso para entrenar previamente bloques de chips.
hoy en día, este método de aprendizaje impulsado por ia ha pasado por la prueba de múltiples generaciones de productos como tpu v5e, tpu v5p y trillium, y ha logrado resultados notables dentro de google. lo que es aún más notable es que el equipo de google deepmind publicó recientemente un apéndice de este método en nature, detallando con más detalle su impacto de gran alcance en el campo del diseño de chips. al mismo tiempo,google también abrió un punto de control basado en el entrenamiento previo de 20 módulos tpu, pesos de modelo compartidos y lo llamó alphachip.
la llegada de alphachip no sólo presagia que la ia se utilizará más ampliamente en el campo del diseño de chips, sino que también marca que estamos entrando en una nueva era de "diseño basado en chips".
alphachip: cómo google deepmind utiliza la ia para revolucionar el diseño de chips
como pináculo de deepmind de google, alphachip está captando la atención de la comunidad tecnológica global con su revolucionario progreso en el diseño de chips.
el diseño de chips es un campo en la cúspide de la tecnología moderna. su complejidad radica en la ingeniosa conexión de innumerables componentes de precisión a través de cables extremadamente finos. como una de las primeras técnicas de aprendizaje por refuerzo aplicadas para resolver problemas de ingeniería del mundo real, alphachip es capaz de completar diseños de diseño de chips comparables o mejores que los humanos en solo unas pocas horas, en lugar de semanas o meses de trabajo manual. este desarrollo trascendental ha abierto la puerta a nuestra imaginación más allá de los límites tradicionales.
entonces, ¿cómo logra exactamente alphachip esta hazaña?
el secreto de alphachip es su enfoque de aprendizaje por refuerzo, que trata el diseño del diseño de chips como un juego. comenzando con una cuadrícula en blanco, alphachip coloca gradualmente cada componente del circuito hasta que todo esté en su lugar. posteriormente, en función de la calidad del diseño, el sistema otorgará las recompensas correspondientes.
más importante aún, google propuso de manera innovadora una red neuronal de gráficos "basada en el borde".esto permite a alphachip aprender las relaciones mutuas entre los componentes del chip y aplicarlas al diseño de todo el chip, logrando así la autotrascendencia en cada diseño. al igual que alphago, alphachip puede aprender a través de "juegos" y dominar el arte de diseñar excelentes diseños de chips.
en el proceso específico de diseño del diseño de tpu, alphachip primero realizará un entrenamiento previo en varios módulos de generaciones anteriores de chips, incluidos módulos de red en chip y entre chips, controladores de memoria y buffers de transmisión de datos. esta fase previa a la formación proporciona a alphachip una gran experiencia. luego, google utilizó alphachip para generar diseños de alta calidad para los módulos tpu actuales.
a diferencia de los métodos tradicionales, alphachip se optimiza continuamente resolviendo más tareas de diseño de chips, del mismo modo que los expertos humanos continúan mejorando sus habilidades a través de la práctica. como dijo el cofundador y director ejecutivo de deepmind, demis hassabis,google ha creado un poderoso circuito de retroalimentación en torno a alphachip:
* primero, entrene un modelo de diseño de chip avanzado (alphachip)
* en segundo lugar, utilice alphachip para diseñar mejores chips de ia
* luego, usa estos chips de ia para entrenar mejores modelos.
* finalmente, use estos modelos para diseñar mejores chips.
en repetidas ocasiones, el modelo y el chip ai se actualizan simultáneamente. demis hassabis dijo: "esto es parte de la razón por la cual la pila tpu de google funciona tan bien".
alphachip no sólo coloca más módulos que los expertos humanos, sino que también tiene una longitud de cableado significativamente menor.con la introducción de cada nueva generación de tpu, alphachip diseña mejores diseños de chips y proporciona un plano general más completo, acortando así el ciclo de diseño y mejorando el rendimiento del chip.
la cantidad de bloques de chips de diseño alphachip y la reducción promedio de la longitud de línea de las tres generaciones de tpu de google (v5e, tpu v5p)
el viaje de 10 años de google tpu: de la persistencia en asic a la innovación en el diseño de ia
como explorador y pionero en el campo de tpu, al observar la historia de desarrollo de google en esta línea de tecnología, no solo se basa en su perspicacia, sino que también demuestra su extraordinario coraje.
como todos sabemos, en la década de 1980,asic (circuito integrado de aplicación específica) se caracteriza por su alta rentabilidad, gran potencia de procesamiento y alta velocidad.se ha ganado un amplio favor del mercado. sin embargo, la funcionalidad asic está determinada por herramientas de máscara personalizadas, lo que significa que los clientes deben pagar costosos costos iniciales de ingeniería no recurrentes (nre).
en este momento,fpga (field programmable gate array) tiene las ventajas de reducir los costos iniciales y reducir el riesgo de la lógica digital personalizada.al salir al ojo público, aunque no es del todo superior en rendimiento, es único en el mercado.
en ese momento, la industria generalmente predijo que la ley de moore impulsaría el rendimiento de fpga más allá de las necesidades de los asic. pero resulta que fpga, como "chip universal" programable, funciona bien en productos exploratorios y de bajo volumen y puede alcanzar mejores indicadores de velocidad, consumo de energía o costos que la gpu, pero aún no puede deshacerse de la "universalidad". la optimización no se puede lograr al mismo tiempo." una vez que los fpga allanaron el camino para una arquitectura especializada, dieron paso a asic más especializados.
después de entrar en el siglo xxi, la locura por la tecnología de ia se ha vuelto cada vez mayor. el aprendizaje automático y los algoritmos de aprendizaje profundo continúan iterando. la demanda de la industria de cpu, gpu, etc. dedicadas de alto rendimiento y bajo consumo de energía. . se han vuelto cada vez más ineficaces en muchas tareas complejas. en este contexto, google tomó una decisión audaz en 2013,elija asic para construir infraestructura de tpu y desarrollarla en torno a tensorflow y jax.
vale la pena señalar que la investigación y el desarrollo independientes de asic es un proceso con un ciclo largo, una gran inversión, un umbral alto y un gran riesgo. una vez que se elige la dirección equivocada, se pueden producir enormes pérdidas económicas. sin embargo, para explorar soluciones de aprendizaje automático más rentables y que ahorren energía, después de que google lograra grandes avances en el reconocimiento de imágenes a través del aprendizaje profundo en 2012, inmediatamente comenzó a desarrollar tpuv1 en 2013 y anunció la primera generación en 2015. el chip (tpu v1) está en línea internamente,esto marca el nacimiento del primer acelerador del mundo diseñado específicamente para ia.
afortunadamente, tpu pronto marcó el comienzo de una oportunidad de demostración de alto perfil: en marzo de 2016, alphago lee derrotó con éxito al campeón mundial de go lee sedol. como versión de segunda generación de la serie alphago, se ejecuta en google cloud para su cálculo. .
sin embargo, el tpu no logró de inmediato una aplicación exitosa a gran escala en la industria. no fue hasta que se propuso el método de diseño del chip alphachip que el tpu realmente entró en una nueva etapa de desarrollo.
historial de desarrollo de google tpu
en 2020, google demostró las capacidades de alphachip en un artículo preimpreso "colocación de chips con aprendizaje por refuerzo profundo".es capaz de aprender de experiencias pasadas y mejorar continuamente, y puede generar incorporaciones ricas de funciones para listas de red de entrada mediante el diseño de una arquitectura neuronal de recompensa que puede predecir con precisión varias listas de red y sus diseños.
alphachip considera las condiciones de optimización del rendimiento como las condiciones de victoria del juego, adopta métodos de aprendizaje por refuerzo y optimiza continuamente la capacidad de diseño del chip entrenando a un agente con el objetivo de maximizar las recompensas acumulativas. comenzaron 10.000 juegos, lo que permitió a la ia practicar el diseño y el enrutamiento en 10.000 chips y recopilar datos, mientras aprenden y optimizan continuamente.
en última instancia, descubrieron que la ia superaba o igualaba el diseño manual en términos de área, potencia y longitud de cable en comparación con los ingenieros humanos, y tomaba mucho menos tiempo para cumplir con los estándares de diseño. los resultados muestran quealphachip puede generar diseños que rivalizan o superan los esfuerzos manuales en las listas de red de aceleradores modernos en menos de 6 horas.en las mismas condiciones, los expertos humanos existentes pueden tardar varias semanas en completar el mismo trabajo.
con la ayuda de alphachip, google confía cada vez más en tpu.diciembre 2023google ha lanzado 3 versiones diferentes de gemini, un modelo grande general multimodal. el entrenamiento de este modelo utiliza ampliamente el chip cloud tpu v5p.mayo de 2024,google ha lanzado el chip tpu trillium de sexta generación, que se puede expandir a un grupo de hasta 256 tpu en un único pod de baja latencia y alto ancho de banda. en comparación con generaciones anteriores de productos, trillium tiene mayores capacidades para adaptar el entrenamiento de modelos. .
al mismo tiempo, los chips de tpu han ido saliendo gradualmente de google y ganando un mayor reconocimiento en el mercado.30 de julio de 2024en un artículo de investigación que publicó, apple afirmó que seleccionó dos grupos de nubes de unidades de procesamiento tensorial (tpu) de google al entrenar el modelo de inteligencia artificial afm en el ecosistema de apple intelligence. otros datos muestran que más del 60% de las nuevas empresas de ia generativa y casi el 90% de los unicornios de ia generativa utilizan la infraestructura de ia de google cloud y los servicios cloud tpu.
hay varios signos de que después de que google ha estado afilando su espada durante diez años, tpu ha salido del período de cultivo y ha comenzado a retroalimentar a google en la era de la ia con su excelente rendimiento de hardware.la ruta del "chip de diseño de ia" contenida en alphachip también abre nuevos horizontes en el campo del diseño de chips.
la ia revoluciona el diseño de chips: de google alphachip a la exploración de la automatización de procesos completos
aunque alphachip es único en el campo de los chips diseñados por ia, no está solo.el alcance de la tecnología de ia se ha extendido ampliamente a muchos eslabones clave, como la verificación y prueba de chips.
la tarea principal del diseño de chips es optimizar el consumo de energía (power), el rendimiento (performance) y el área (area) del chip. estos tres indicadores clave se denominan colectivamente ppa. este desafío también se denomina exploración espacial de diseño. tradicionalmente, esta tarea la completan las herramientas eda, pero para lograr un rendimiento óptimo, los ingenieros de chips deben realizar ajustes manuales constantemente y luego entregarlos a las herramientas eda para su optimización nuevamente, y así sucesivamente. este proceso es como ordenar los muebles en casa, tratando constantemente de maximizar la utilización del espacio y optimizar la circulación, pero cada ajuste equivale a sacar los muebles y reorganizarlos, lo que requiere mucho tiempo y mano de obra.
para resolver este problema,synopsys lanzó dso.ai en 2020.esta es la primera solución de diseño de chips de la industria que integra ia y eda. dso.ai utiliza tecnología de aprendizaje por refuerzo para buscar automáticamente el espacio de diseño a través de ia para encontrar el mejor punto de equilibrio sin intervención manual. esta herramienta ha sido utilizada por muchos gigantes de los chips.
por ejemplo, después de usar dso.ai, microsoft redujo el consumo de energía de los módulos de chip entre un 10% y un 15% mientras mantenía el mismo rendimiento; stmicroelectronics aumentó la eficiencia de exploración de ppa en más de 3 veces el área del chip del gigante de chips de memoria sk hynix; en un 5%. los datos de synopsys muestran que dso.ai ha ayudado con éxito a más de 300 grabaciones comerciales, lo que marca el importante papel que desempeña la ia en el diseño y la producción de chips reales.
en términos de verificación de chips asistida por ia, un informe técnico publicado por synopsys también señaló que el proceso de verificación ocupa hasta el 70% de todo el ciclo de desarrollo del chip. el coste de la cinta de un chip puede llegar a cientos de millones de dólares, y la complejidad de los chips modernos sigue aumentando, lo que dificulta la verificación. para tal fin,synopsys lanza la herramienta vso.ai,utilice ia para optimizar el espacio de verificación y acelerar la convergencia de la cobertura.
vso.ai puede inferir diferentes tipos de cobertura, complementando la cobertura de código tradicional. la ia también puede aprender de la experiencia de verificación para optimizar continuamente los objetivos de cobertura. además, synopsys también lanzó la herramienta tso.ai, que puede ayudar a los desarrolladores de chips a detectar chips defectuosos fabricados por fundiciones.
la profunda implicación de la ia en el campo del diseño de chips ha desencadenado una idea audaz: ¿podemos utilizar la ia para diseñar un chip completo? de hecho, nvidia ya lo ha probado en este ámbito. diseñar circuitos a través de agentes de aprendizaje por refuerzo profundo.casi 13.000 circuitos del h100 de nvidia fueron diseñados por ia. el instituto de tecnología informática de la academia de ciencias de china también utilizó ia para generar un chip procesador risc-v llamado "qiu meng no. 1" en 5 horas.con 4 millones de puertas lógicas, su rendimiento es comparable al intel 80486.
en general, la capacidad de la ia para diseñar chips completos aún es limitada, pero esta es sin duda una oportunidad importante para el desarrollo futuro de chips. con el avance continuo de la tecnología, el potencial de la ia en el campo del diseño de chips seguramente se explorará y utilizará más a fondo y, en última instancia, cambiará todo el proceso de diseño de chips.
autor: tian xiaoyao