notícias

Apple admite: modelo de IA é treinado usando chip personalizado do Google

2024-07-30

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Notícias de 30 de julho, segunda-feira, horário dos EUA,maçãA empresa afirmou que seuIAO modelo central do sistema está emGoogle Conclua o pré-treinamento no processador projetado.É um sinal de que as grandes empresas de tecnologia estão explorando opções além do treinamento de inteligência artificial de ponta.NvidiaGPUalternativas.

A Apple admitiu em seu último artigo técnico que usa a Unidade de Processamento Tensor (TPU) do Google para treinar seu modelo de inteligência artificial. Separadamente, a Apple lançou uma versão prévia do Apple Intelligence para alguns usuários na segunda-feira.

Por muito tempo, as GPUs de alto desempenho da NVIDIA dominaram o mercado de treinamento de modelos de inteligência artificial de ponta. Muitas empresas de tecnologia, incluindo OpenAI, Microsoft e Anthropic, adotaram suas GPUs para acelerar o treinamento de modelos. No entanto, nos últimos anos, as GPUs Nvidia têm sido escassas. Por esta razão, empresas como Google, Meta, Oracle e Tesla desenvolveram seus próprios chips para atender às necessidades de seus respectivos sistemas de inteligência artificial e desenvolvimento de produtos. .

O CEO da Meta, Mark Zuckerberg, e o CEO da Alphabet, Sundar Pichai, ofereceram insights na semana passada sugerindo possíveis avanços na infraestrutura de inteligência artificial entre suas empresas e outras do setor. Há um fenômeno de excesso de investimento, mas também é enfatizado que o fracasso em fazê-lo. levaria a riscos comerciais extremamente elevados. Zuckerberg salientou especificamente que, se ficarmos para trás neste aspecto, poderemos perder a nossa vantagem competitiva em áreas tecnológicas chave nos próximos 10 a 15 anos.

No artigo técnico de 47 páginas, embora a Apple não mencione diretamente o Google ou a NVIDIA, ele afirma claramente que seu modelo de máquinas de fatoração atencional (AFM) e servidor AFM são treinados em um ambiente de "cluster TPU em nuvem", o que indica indiretamente que os recursos da Apple fornecidos por provedores de serviços em nuvem são usados ​​para executar tarefas de computação.

No artigo, a Apple enfatizou: “A aplicação deste sistema nos permite treinar modelos AFM de forma eficiente e escalonável, cobrindo desde AFM do lado do dispositivo até AFM do lado do servidor, e até modelos de maior escala”.

Até agora, os representantes oficiais da Apple e do Google não responderam aos pedidos de comentários.

Em comparação com muitos pares, a Apple revelou seu plano estratégico de inteligência artificial mais tarde. Depois que a OpenAI lançou o ChatGPT no final de 2022, outras empresas lançaram rapidamente uma busca entusiástica por tecnologia de inteligência artificial generativa. Na segunda-feira, a Apple lançou oficialmente o Apple Smart, que estreou com uma série de recursos inovadores, como o novo design de interface do Siri, recursos de processamento de linguagem natural significativamente aprimorados e resumo automático de inteligência artificial em campos de texto.

No próximo ano, a Apple planeja lançar mais recursos baseados em inteligência artificial generativa, incluindo geração automática de imagens e expressões, e uma versão aprimorada do Siri que será capaz de usar informações personalizadas dos usuários para ter melhor desempenho em diversos aplicativos complexos e. tarefas personalizadas.

Em um artigo técnico divulgado na segunda-feira, a Apple revelou os detalhes específicos do treinamento do modelo AFM em seus dispositivos, ou seja, que o modelo é concluído em uma “fatia” separada contendo 2.048 dos mais recentes chips TPU v5p. TPU v5p é atualmente a unidade de processamento de tensores mais avançada e foi lançada pela primeira vez em dezembro do ano passado. O treinamento do servidor AFM é ainda maior. Ele usa chips 8192 TPU v4. Esses chips são cuidadosamente configurados em oito fatias e trabalham juntos no data center por meio da rede para suportar em conjunto as poderosas necessidades de computação do servidor.

De acordo com informações oficiais do Google, sua TPU mais recente custa menos de US$ 2 por hora para operar, mas os clientes precisam reservá-la com três anos de antecedência para garantir o uso. Desde a sua introdução em 2015, projetado especificamente para cargas de trabalho internas e o Google abrindo-o ao público em 2017, o TPU se tornou um dos chips personalizados mais maduros e avançados em inteligência artificial.

Vale ressaltar que apesar de ter uma TPU autodesenvolvida, o Google ainda mantém seu status de principal cliente da Nvidia, usando GPUs da Nvidia e sua própria TPU para treinar sistemas de inteligência artificial e fornecendo acesso à tecnologia Nvidia em sua plataforma de nuvem.

A Apple já havia dito que o processo de inferência (usando modelos de inteligência artificial pré-treinados para geração ou previsão de conteúdo) será parcialmente realizado em chips em seus próprios data centers.

Este é o segundo artigo técnico que a Apple lança recentemente sobre seu sistema de inteligência artificial, após uma versão mais ampla em junho, confirmando ainda mais o uso de TPUs pela empresa em seu processo de desenvolvimento. (pequeno)