notícias

Amazon adquire empresa de chips

2024-08-23

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

A Amazon chegou a um acordo para adquirir a fabricante de chips e empresa de compressão de modelos de IA Perceive, uma subsidiária da Xperi, de capital aberto, com sede em San Jose, Califórnia, por US$ 80 milhões em dinheiro. A Perceive é uma empresa que desenvolve soluções inovadoras de inferência de redes neurais, com foco em tecnologia que fornece modelos de inteligência artificial em larga escala em dispositivos de ponta.

A Amazon não revelou suas ideias específicas sobre a tecnologia. “Estamos satisfeitos por ter assinado um acordo para adquirir a Perceive e trazer sua talentosa equipe para se juntar aos nossos esforços para trazer grandes modelos de linguagem e experiências multimodais para dispositivos capazes de rodar no limite”, disse um porta-voz da Amazon.

A Xperi está em busca de um comprador para a Perceive desde o início deste ano. Assim que o negócio for fechado, espera-se que a maioria dos 44 funcionários da Perceive ingresse na Amazon. A Amazon disse que não espera que o acordo exija aprovação regulatória, chamando-o de aquisição de rotina.

Introdução do chip da Perceive

As informações mostram que a Perceive é liderada pelos co-CEOs Murali Dharan e Steve Teig. A empresa tem funcionários em todo o mundo. A empresa irá operar um laboratório em Idaho. Teig conduziu a criação do Perceive durante sua gestão como diretor de tecnologia da Xperi, onde supervisionou o desenvolvimento de tecnologia, incluindo inovações básicas de áudio e imagem, ao mesmo tempo que liderou a equipe de aprendizado de máquina da empresa. Dharan, que anteriormente era responsável pela direção estratégica, gestão e crescimento dos negócios de licenciamento da Xperi, é agora responsável por liderar as operações comerciais da Perceive, incluindo vendas, marketing, sucesso do cliente e operações.

A Perceive fornece produtos que atendem grandes modelos de IA em dispositivos de ponta. Seu principal produto é o processador Ergo AI, que pode executar redes neurais em nível de data center em uma variedade de ambientes, mesmo quando a energia é limitada.

Segundo relatos, este é um processador de IA que traz desempenho inovador e eficiência energética para dispositivos de ponta. Capaz de executar grandes redes neurais com taxa de quadros máxima e oferecer suporte a uma variedade de arquiteturas e tipos de rede, incluindo CNN padrão, RNN, LSTM e muito mais. Ergo é flexível e poderoso o suficiente para lidar com uma ampla gama de tarefas de aprendizado de máquina, desde classificação e detecção de objetos até segmentação e pose de imagens, até processamento de sinal de áudio e linguagem. Você pode até solicitar multitarefa, pois o Ergo pode executar várias redes ao mesmo tempo.

Apesar do poder de processamento do Ergo, ele não requer DRAM externa e seu pequeno formato de 7 mm x 7 mm o torna ideal para uso em dispositivos compactos, como câmeras, laptops ou óculos AR/VR.

Perceive disse que o Ergo é 20 a 100 vezes mais eficiente em termos de energia do que outros produtos, exigindo apenas 9 mW de poder de computação para realizar inferência em vídeo de 30 fps. Isso significa que seu dispositivo pode oferecer bateria com duração incomparável e gerar menos calor, permitindo um pacote menor e mais versátil.

No início de 2023, a Perceive lançou o novo processador Ergo 2 AI. Segundo relatos, o chip pode fornecer o desempenho necessário para casos de uso mais complexos, incluindo aqueles que exigem modelos de transformadores, redes neurais maiores, múltiplas redes funcionando simultaneamente e entradas multimodais, mantendo ao mesmo tempo a eficiência energética líder do setor.

Falando sobre a oportunidade de mercado para os chips Ergo mais recentes, o fundador e CEO da Perceive, Steve Teig, disse: “Com os novos processadores Ergo 2, expandimos os recursos que oferecemos aos fabricantes de dispositivos para construir seus melhores chips. a produtos ambiciosos, “incluindo modelos de transformação para processamento de linguagem ou visão, processamento de vídeo com taxa de quadros mais alta e até mesmo combinação de múltiplas redes neurais grandes em um único aplicativo”.

O Ergo 2 funciona quatro vezes mais rápido que o chip Ergo de primeira geração da Perceive e tem muito mais poder de processamento do que os chips típicos projetados para micro-ML. Os desenvolvedores de produtos agora podem aproveitar redes neurais avançadas, como YOLOv5, RoBERTa, GAN e U-Nets, para fornecer resultados precisos rapidamente. Todo o processamento do Ergo 2 é feito no chip e não requer memória externa, melhorando a eficiência energética, a privacidade e a segurança. O chip Ergo 2 permite:

1.106 inferências por segundo executando MobileNet V2

979 inferências por segundo ao executar o ResNet-50

A execução do YoloV5-S realiza 115 inferências por segundo

Para fornecer as melhorias de desempenho necessárias para operar essas grandes redes, o chip Ergo 2 utiliza uma arquitetura de pipeline e um design de memória unificado, o que aumenta sua flexibilidade e eficiência operacional geral. Como resultado, o Ergo 2 pode suportar sensores de resolução mais alta e uma gama mais ampla de aplicações, incluindo:

Aplicativos de processamento de linguagem, como conversão de fala em texto e conclusão de frases

Aplicações de áudio, como cancelamento de eco acústico e detecção de eventos de áudio mais rica

Tarefas exigentes de processamento de vídeo, como super-resolução de vídeo e detecção de pose.

O processador Ergo 2 mede 7 mm x 7 mm, é fabricado pela GlobalFoundries usando a plataforma 22FDX e não requer DRAM externa para funcionar. Seu baixo consumo de energia também significa que não requer refrigeração. O chip pode executar múltiplas redes heterogêneas simultaneamente, fornecendo recursos inteligentes de vídeo e áudio para dispositivos como câmeras de nível empresarial usadas para segurança, controle de acesso, imagens térmicas ou análise de vídeo de varejo adequadas para casos de uso industrial, incluindo inspeção visual ou integradas; produtos de consumo, como laptops, tablets e wearables avançados.

História do chip autodesenvolvido pela AWS

A AWS vem construindo seu próprio silício personalizado interno para cargas de trabalho de IA e otimização de nuvem há anos, em grande parte graças à aquisição do Annapurna Labs pela empresa, há mais de uma década. Isso levou a AWS a construir seus próprios processadores Graviton, chips Inferentia e processadores de aprendizado de máquina Trainium nos últimos anos para treinar modelos de IA na nuvem.

Este ano, a Amazon deu um grande passo no avanço da tecnologia de inteligência artificial (IA).

Em sua conferência anual AWS re:Invent, a AWS anunciou dois novos chips personalizados: AWS Trainium2 e Graviton4. Os dois chips representam um esforço ousado da Amazon Web Services (AWS) para atender à crescente demanda por recursos de IA, especialmente porque o mercado enfrenta uma grave escassez de unidades de processamento gráfico (GPUs) de alto desempenho, produzidas principalmente pela Nvidia.

A necessidade de maior poder computacional decorre da crescente popularidade da inteligência artificial generativa, que requer infraestrutura poderosa para treinar e implantar modelos. As GPUs da Nvidia estão supostamente esgotadas até 2024, e fontes da indústria, incluindo o CEO da TSMC, prevêem que esta crise de fornecimento pode continuar em 2025. Com isso em mente, os novos chips da Amazon visam diminuir a dependência da Nvidia, fornecendo uma alternativa especificamente adaptada para cargas de trabalho de IA.

O chip Trainium2 foi projetado para treinar modelos de IA em larga escala, com desempenho quatro vezes maior que a geração anterior de chips e duas vezes mais eficiente em termos energéticos que a geração anterior de chips. Segundo a Amazon, o chip pode lidar com 65 exaflops quando usado em um cluster de nuvem de até 100.000 unidades. Esse recurso reduz o tempo de treinamento de modelos complexos, como aqueles com centenas de bilhões de parâmetros, de meses para semanas. Esses avanços tornam o Trainium2 líder em infraestrutura de treinamento de IA.

Reconhecido por seu potencial, o chip Trainium2 já atraiu o interesse de diversos players do setor, incluindo a Anthropic, empresa focada na construção de modelos amigáveis ​​de IA.O cofundador Tom Brown enfatizou que o Trainium2 permitirá escalar rapidamente e processar até quatro vezes mais rápido que o modelo anterior. As parcerias entre a AWS e empresas como a Anthropic ilustram a tendência crescente de aproveitar a tecnologia de nuvem proprietária para agilizar as operações de IA.

O chip Graviton4, por outro lado, é o processador mais poderoso e eficiente da Amazon, adaptado para uma variedade de cargas de trabalho em nuvem. Comparado com a geração anterior Graviton3, espera-se que este chip de quarta geração melhore o desempenho em 30%, aumente o número de núcleos em 50% e aumente a largura de banda da memória em 75%. Essas melhorias permitem que os usuários reduzam os custos operacionais e aumentem as velocidades de processamento de dados, tornando-o ideal para empresas que executam bancos de dados de alto desempenho e aplicações analíticas intensivas.

Os primeiros a adotar o Graviton4 incluem empresas como Datadog, Epic Games e SAP. Por exemplo, Roman Visintine, engenheiro-chefe de nuvem da Epic, destacou que o chip tem um bom desempenho em cargas de trabalho sensíveis à latência e é particularmente benéfico para experiências de jogos online. Num ambiente altamente competitivo onde o acesso e processamento rápido de dados são críticos para o sucesso, esta tendência de otimização de serviços em nuvem é crucial.

O anúncio da Amazon também destaca uma tendência maior na indústria de tecnologia, na qual as empresas investem cada vez mais em soluções de chips personalizados para atender a necessidades específicas de computação, especialmente tarefas de inteligência artificial e aprendizado de máquina. Ao desenvolver hardware proprietário, a Amazon espera diferenciar-se e reduzir a sua dependência de fabricantes de chips estabelecidos, como Nvidia e AMD.

À medida que a tecnologia de IA continua a crescer e a tornar-se mais predominante em vários campos, desde a saúde ao entretenimento, a necessidade de chips eficientes e de alto desempenho só aumentará. Os analistas de tecnologia esperam que o lançamento desses novos chips da Amazon não apenas atenda imediatamente às necessidades atuais, mas também estabeleça as bases para o desenvolvimento futuro da inteligência artificial.

Surpreendentemente, o lançamento desses chips ocorre em um momento estratégico, já que a Microsoft também anunciou o desenvolvimento de seu próprio chip para inteligência artificial e serviços em nuvem. Isto desencadeou uma concorrência acirrada no campo do hardware de IA, levando as empresas a inovar rapidamente e a ultrapassar limites.

Espera-se que os chips AWS Trainium2 e Graviton4 estejam disponíveis para os clientes em um futuro próximo, com o Trainium2 sendo lançado no próximo ano e o Graviton4 já em pré-visualização. À medida que a indústria tecnológica continua a migrar para a computação em nuvem e soluções baseadas em inteligência artificial, a Amazon está preparada para desempenhar um papel importante nesta transformação digital.

Chips de IA têm grande potencial

A AWS desenvolve chips com frequência. Além de atender às necessidades de negócios da empresa, também prova mais uma vez que os chips de IA têm um grande potencial, que se reflete não apenas na nuvem, mas também no lado dos dispositivos.

De acordo com a Futurum Intelligence, até 2023, a Nvidia responderá por 92% do mercado de GPUs de IA e 75% de todo o mercado de semicondutores de IA de data centers. Este domínio continuará num mercado já enorme, que deverá crescer quase metade até 2024.

A empresa de análise estima que o valor total de mercado de processadores e aceleradores para aplicações de inteligência artificial de data centers atingirá US$ 56,3 bilhões, um aumento de 49,3% em relação ao valor de mercado anual de US$ 37,7 bilhões em 2023. Os analistas de mercado prevêem que o mercado crescerá a uma taxa composta de crescimento anual de 29,7% nos próximos cinco anos, elevando o tamanho do mercado para 98,4 mil milhões de dólares em 2026 e 138,3 mil milhões de dólares em 2028.

A Futurum divide o mercado de processadores de data center de IA em quatro categorias: CPUs, GPUs, aceleradores especializados (chamados XPUs) e aceleradores de nuvem proprietários produzidos por empresas como Google, AWS e Microsoft.

Em 2023, as CPUs representarão 20,5% do mercado, as GPUs representarão 73,5% do mercado e XPU e produtos específicos para nuvem representarão 3% cada.

1. Em 2023, as CPUs representarão 20% do processamento de IA nos data centers e continuarão a desempenhar um papel importante. A Futurum estima que crescerão a uma taxa composta de crescimento anual de 28% em cinco anos, de US$ 7,7 bilhões em 2023 para US$ 26 bilhões em 2028. A Futurum estima que a Nvidia terá uma participação de mercado de 37% em 2023, seguida pela Intel com 23%.

2. Até 2023, as GPUs representarão 74% dos chipsets usados ​​em aplicações de IA de data centers e experimentarão uma taxa composta de crescimento anual de 30% em cinco anos, passando de US$ 28 bilhões em 2023 para US$ 102 bilhões em 2028. A Futurum estima que a Nvidia detém 92% do mercado de GPUs AI.

3. A XPU experimentará uma taxa composta de crescimento anual de 31% em cinco anos, passando de mil milhões de dólares em 2023 para 3,7 mil milhões de dólares em 2028.

4. Os aceleradores de IA em nuvem pública terão uma taxa composta de crescimento anual de 35% em cinco anos, passando de US$ 1,3 bilhão em 2023 para US$ 6 bilhões em 2028.

A Futurum exclui processadores e aceleradores de IA deste estudo se não estiverem disponíveis para uso público em data centers, excluindo assim os chipsets de IA projetados e usados ​​pela Meta, Tesla e Apple.

Do ponto de vista geográfico, a América do Norte domina o mercado e será responsável por 55% da quota de mercado até 2023. A Europa, o Médio Oriente e a África (EMEA) e a Ásia-Pacífico (APAC) seguem-se como mercados importantes, enquanto a América Latina (LATAM) representa uma região em desenvolvimento com um enorme potencial de crescimento.

A análise visual e de áudio são os maiores casos de uso em 2023. A Futurum prevê que os três principais casos de uso em 2028 serão análise visual e de áudio, simulação e modelagem e geração, análise e resumo de texto.

Específico para IA de ponta, uma nova pesquisa da Omdia prevê que o mercado de processadores de IA de ponta gerará US$ 60,2 bilhões em receitas até 2028, com uma taxa composta de crescimento anual de 11%.

A última previsão do processador edge da Omdia observa que o crescimento da receita será impulsionado pelo aumento da demanda por hardware à medida que vários setores e dispositivos adotam inteligência artificial. Uma das áreas que impulsionam o crescimento do mercado é o segmento de PCs, com ofertas crescentes de produtos de grandes fornecedores como Intel, AMD e Apple. Os fornecedores de PC estão supostamente tentando comercializar a inclusão de processadores de IA em seus dispositivos como um “ponto de venda exclusivo”.

Além do setor de computadores pessoais, o relatório destaca também a rápida aplicação de processadores de inteligência artificial em áreas como automóveis, drones, câmeras de segurança e robôs.

A partir disso podemos ver as intenções por trás da aquisição da AWS.