notícias

o google revelou sua arma secreta tpu, alphachip apareceu na nature, e deu uma explicação detalhada do processo de desenvolvimento de chips de design de ia

2024-09-29

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

recentemente, o google deepmind anunciou oficialmente seu mais recente algoritmo de design de chip, alphachip on nature. este método é dedicado a acelerar e otimizar o desenvolvimento de chips de computador. ele foi testado por vários produtos tpu e pode completar as tarefas exigidas por especialistas humanos em apenas alguns. horas semanas ou até meses de design de layout de chip.

em 2020, o google publicou um artigo pré-impresso histórico "chip placement with deep reinforcement learning", mostrando ao mundo pela primeira vez o layout de seu chip projetado usando um novo método de aprendizagem por reforço.esta inovação permite que o google introduza ia no design de chips tpu, alcançando um layout de chip que supera os designers humanos.

em 2022, o google abrirá ainda mais o código do algoritmo descrito no artigo, permitindo que pesquisadores de todo o mundo usem esse recurso para pré-treinar blocos de chips.

hoje, esse método de aprendizagem baseado em ia passou pelo teste de várias gerações de produtos, como tpu v5e, tpu v5p e trillium, e alcançou resultados notáveis ​​no google. o que é ainda mais notável é que a equipe do google deepmind publicou recentemente um apêndice deste método na nature, elaborando com mais detalhes seu impacto de longo alcance no campo do design de chips. ao mesmo tempo,o google também abriu um ponto de verificação baseado no pré-treinamento de 20 módulos tpu, pesos de modelo compartilhados e nomeou-o alphachip.

o advento do alphachip não apenas anuncia que a ia se tornará mais amplamente utilizada no campo do design de chips, mas também marca que estamos entrando em uma nova era de “design baseado em chips”.

alphachip: como o google deepmind usa ia para revolucionar o design de chips

como o auge do deepmind do google, o alphachip está atraindo a atenção da comunidade tecnológica global com seu progresso revolucionário no design de chips.

o design de chips é um campo no auge da tecnologia moderna. sua complexidade reside na conexão engenhosa de inúmeros componentes de precisão por meio de fios extremamente finos. como uma das primeiras técnicas de aprendizagem por reforço aplicadas para resolver problemas de engenharia do mundo real, o alphachip é capaz de concluir projetos de layout de chips comparáveis ​​ou melhores que os humanos em apenas algumas horas, em vez de semanas ou meses de trabalho manual. este desenvolvimento que marcou época abriu a porta à nossa imaginação para além dos limites tradicionais.

então, como exatamente o alphachip consegue esse feito?

o segredo do alphachip é sua abordagem de aprendizagem por reforço, que trata o design do layout do chip como um jogo. começando com uma grade em branco, o alphachip posiciona gradualmente cada componente do circuito até que tudo esteja no lugar. posteriormente, com base na qualidade do layout, o sistema dará as recompensas correspondentes.

mais importante ainda, o google propôs de forma inovadora uma rede neural gráfica "baseada em bordas".isso permite que o alphachip aprenda as relações mútuas entre os componentes do chip e as aplique ao design de todo o chip, alcançando assim a autotranscendência em cada design. semelhante ao alphago, o alphachip pode aprender por meio de “jogos” e dominar a arte de projetar layouts de chips excelentes.

no processo específico de design do layout da tpu, a alphachip primeiro conduzirá um pré-treinamento em vários módulos de gerações anteriores de chips, incluindo módulos de rede dentro e entre chips, controladores de memória e buffers de transmissão de dados. esta fase de pré-treinamento fornece à alphachip uma vasta experiência. o google então usou o alphachip para gerar layouts de alta qualidade para os módulos tpu atuais.

ao contrário dos métodos tradicionais, o alphachip otimiza-se continuamente resolvendo mais tarefas de layout de chips, assim como os especialistas humanos continuam a melhorar suas habilidades através da prática. como disse o cofundador e ceo da deepmind, demis hassabis:o google construiu um poderoso ciclo de feedback em torno do alphachip:

* primeiro, treine um modelo avançado de design de chip (alphachip)

* segundo, use alphachip para projetar chips de ia melhores

* em seguida, use esses chips de ia para treinar modelos melhores

* finalmente, use esses modelos para projetar chips melhores

repetidamente, o modelo e o chip ai são atualizados simultaneamente, demis hassabis disse: “isso é parte da razão pela qual a pilha de tpu do google tem um desempenho tão bom”.

alphachip não apenas coloca mais módulos do que especialistas humanos, mas também possui comprimento de fiação significativamente menor.com a introdução de cada nova geração de tpu, a alphachip projeta melhores layouts de chips e fornece uma planta geral mais completa, encurtando assim o ciclo de design e melhorando o desempenho do chip.

o número de blocos de chips de design alphachip e a redução média do comprimento da linha das três gerações de tpu do google (v5e, tpu v5p)

a jornada de 10 anos do google tpu: da persistência em asic à inovação em design de ia

como explorador e pioneiro no campo da tpu, olhando para a história de desenvolvimento do google nesta linha de tecnologia, não só confia na sua perspicácia, mas também demonstra a sua extraordinária coragem.

como todos sabemos, na década de 1980,asic (circuito integrado específico de aplicação) é caracterizado por alta relação custo-benefício, forte poder de processamento e alta velocidade.ganhou grande popularidade do mercado. no entanto, a funcionalidade do asic é determinada por ferramentas de máscara personalizadas, o que significa que os clientes precisam pagar custos iniciais de engenharia não recorrentes (nre).

neste momento,fpga (field programmable gate array) tem as vantagens de reduzir custos iniciais e reduzir o risco de lógica digital personalizada.chegando aos olhos do público, embora não seja totalmente superior em desempenho, é único no mercado.

naquela época, a indústria geralmente previa que a lei de moore levaria o desempenho do fpga além das necessidades dos asics. mas acontece que o fpga, como um "chip universal" programável, tem um bom desempenho em produtos exploratórios e de baixo volume e pode atingir melhores indicadores de velocidade, consumo de energia ou custo do que a gpu, mas ainda não consegue se livrar da "universalidade" e. a otimização não pode ser alcançada ao mesmo tempo." depois que os fpgas abriram caminho para uma arquitetura especializada, eles deram lugar a asics mais especializados.

depois de entrar no século 21, a mania da tecnologia de ia tornou-se cada vez maior. o aprendizado de máquina e os algoritmos de aprendizado profundo continuam a iterar. a demanda da indústria por chips de computação de ia dedicados de alto desempenho e baixo consumo de energia aumentou. . tornaram-se cada vez mais ineficazes em muitas tarefas complexas. neste contexto, o google tomou uma decisão ousada em 2013,escolha asic para criar infraestrutura de tpu e desenvolver em torno de tensorflow e jax.

vale a pena notar que a pesquisa e desenvolvimento independente de asic é um processo com ciclo longo, grande investimento, alto limiar e grande risco. uma vez escolhida a direcção errada, isso pode levar a enormes perdas económicas. no entanto, a fim de explorar soluções de aprendizado de máquina mais econômicas e com economia de energia, depois que o google fez um progresso revolucionário no reconhecimento de imagem por meio de aprendizado profundo em 2012, ele imediatamente começou a desenvolver o tpuv1 em 2013 e anunciou a primeira geração em 2015. o tpu chip (tpu v1) está online internamente,isto marca o nascimento do primeiro acelerador do mundo projetado especificamente para ia.

felizmente, a tpu logo deu início a uma oportunidade de demonstração de alto nível - em março de 2016, alphago lee derrotou com sucesso o campeão mundial de go, lee sedol. como a versão de segunda geração da série alphago, ela consome 50 tpus para cálculo. .

no entanto, o tpu não alcançou imediatamente uma aplicação bem-sucedida em larga escala na indústria. somente quando o método de layout do chip alphachip foi proposto é que o tpu realmente entrou em um novo estágio de desenvolvimento.

histórico de desenvolvimento da tpu do google

em 2020, o google demonstrou as capacidades do alphachip em um artigo pré-impresso "chip placement with deep reinforcement learning".ele é capaz de aprender com experiências anteriores e melhorar continuamente, e pode gerar incorporações de recursos ricos para netlists de entrada, projetando uma arquitetura neural de recompensa que pode prever com precisão várias netlists e seus layouts.

alphachip considera as condições de otimização de desempenho como as condições de vitória do jogo, adota métodos de aprendizagem por reforço e otimiza continuamente a capacidade de layout do chip treinando um agente com o objetivo de maximizar recompensas cumulativas. eles iniciaram 10.000 jogos, permitindo que a ia praticasse layout e roteamento em 10.000 chips e coletasse dados, enquanto aprendia e otimizava continuamente.

no final das contas, eles descobriram que a ia superou ou igualou o layout manual em termos de área, potência e comprimento do fio em comparação com os engenheiros humanos, ao mesmo tempo que levou significativamente menos tempo para atender aos padrões de projeto. os resultados mostram quealphachip pode gerar layouts que rivalizam ou excedem os esforços manuais em netlists de aceleradores modernos em menos de 6 horas.nas mesmas condições, os especialistas humanos existentes podem levar várias semanas para concluir o mesmo trabalho.

com a ajuda do alphachip, o google depende cada vez mais da tpu.dezembro de 2023o google lançou 3 versões diferentes do gemini, um grande modelo geral multimodal. o treinamento deste modelo usa extensivamente o chip cloud tpu v5p.maio de 2024,o google lançou o chip tpu trillium de sexta geração, que pode ser expandido em um cluster de até 256 tpus em um único pod de alta largura de banda e baixa latência. em comparação com as gerações anteriores de produtos, o trillium tem capacidades mais fortes na adaptação do treinamento de modelo. .

ao mesmo tempo, os chips tpu foram gradualmente além do google e ganharam maior reconhecimento no mercado.30 de julho de 2024em um artigo de pesquisa divulgado, a apple afirmou que selecionou dois clusters de nuvem de unidade de processamento de tensor (tpu) do google ao treinar o modelo de inteligência artificial afm no ecossistema apple intelligence. outros dados mostram que mais de 60% das startups de ia generativa e quase 90% dos unicórnios de ia generativa estão usando a infraestrutura de ia do google cloud e os serviços cloud tpu.

há vários sinais de que, depois de o google ter afiado sua espada por dez anos, o tpu saiu do período de cultivo e começou a alimentar o google na era da ia ​​com seu excelente desempenho de hardware.o caminho "ai design ai chip" contido no alphachip também abre novos horizontes no campo do design de chips.

a ia revoluciona o design de chips: do google alphachip à exploração da automação de processos completos

embora o alphachip seja único no campo dos chips projetados para ia, ele não está sozinho.o alcance da tecnologia de ia foi amplamente estendido a muitos elos importantes, como verificação e teste de chips.

a principal tarefa do design do chip é otimizar o consumo de energia (power), o desempenho (desempenho) e a área (área) do chip. esses três indicadores principais são chamados coletivamente de ppa. este desafio também é chamado de exploração do espaço de design. tradicionalmente, esta tarefa é realizada por ferramentas eda, mas para alcançar o desempenho ideal, os engenheiros de chips devem fazer ajustes manuais constantemente e depois entregá-los novamente às ferramentas eda para otimização, e assim por diante. esse processo é como arrumar os móveis de uma casa, tentando constantemente maximizar o aproveitamento do espaço e otimizar a circulação, mas cada ajuste equivale a retirar os móveis e reorganizá-los, o que é extremamente demorado e trabalhoso.

para resolver este problema,a synopsys lançou dso.ai em 2020.esta é a primeira solução de design de chip do setor que integra ia e eda. dso.ai usa tecnologia de aprendizagem por reforço para pesquisar automaticamente o espaço de design por meio de ia para encontrar o melhor ponto de equilíbrio sem intervenção manual. esta ferramenta tem sido usada por muitos gigantes de chips.

por exemplo, depois de usar dso.ai, a microsoft reduziu o consumo de energia dos módulos de chip em 10% -15%, mantendo o mesmo desempenho, a stmicroelectronics aumentou a eficiência de exploração do ppa em mais de 3 vezes; em 5%. os dados da synopsys mostram que dso.ai auxiliou com sucesso mais de 300 fitas comerciais, marcando o importante papel que a ia desempenha no design e produção de chips reais.

em termos de verificação de chips assistida por ia, um relatório técnico divulgado pela synopsys também apontou que o processo de verificação ocupa até 70% de todo o ciclo de desenvolvimento do chip. o custo de uma fita de chip chega a centenas de milhões de dólares, e a complexidade dos chips modernos continua a aumentar, dificultando a verificação. para este fim,synopsys lança ferramenta vso.ai,use ia para otimizar o espaço de verificação e acelerar a convergência de cobertura.

vso.ai pode inferir diferentes tipos de cobertura, complementando a cobertura de código tradicional. a ia também pode aprender com a experiência de verificação para otimizar continuamente as metas de cobertura. além disso, a synopsys também lançou a ferramenta tso.ai, que pode ajudar os desenvolvedores de chips a detectar chips defeituosos fabricados por fundições.

o profundo envolvimento da ia ​​no campo do design de chips desencadeou uma ideia ousada: podemos usar a ia para projetar um chip completo? na verdade, a nvidia já tentou nesta área. projetar circuitos por meio de agentes de aprendizagem por reforço profundo,quase 13.000 circuitos no h100 da nvidia foram projetados por ia. o instituto de tecnologia de computação da academia chinesa de ciências também usou ia para gerar um chip processador risc-v chamado "qiu meng no. 1" em 5 horas.com 4 milhões de portas lógicas, seu desempenho é comparável ao intel 80486.

no geral, a capacidade da ia ​​de projetar chips completos ainda é limitada, mas esta é sem dúvida uma oportunidade importante para o desenvolvimento futuro de chips. com o avanço contínuo da tecnologia, o potencial da ia ​​no campo do design de chips certamente será mais explorado e utilizado e, em última análise, mudará todo o processo de design de chips.

autor: tian xiaoyao