notícias

musk persegue trilhões em openai

2024-09-12

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

openai é muito forte. se você quiser colocar um número nessa força, esse número pode ser de 150 bilhões de dólares americanos.

em 11 de setembro, hora local, a bloomberg informou que a openai estava financiando uma avaliação de us$ 150 bilhões, levantando us$ 6,5 bilhões de investidores, e também estava negociando um empréstimo de us$ 5 bilhões de bancos na forma de um empréstimo rotativo.

a notícia de que a openai iria arrecadar fundos começou a se espalhar no final de agosto. naquela época, a mídia revelou que estava "avaliada em mais de 100 bilhões de dólares americanos e iria arrecadar vários bilhões de dólares americanos". mundo. afinal, a openai foi avaliada em us$ 86 bilhões no final do ano passado, quando os funcionários venderam suas ações existentes.

de acordo com notícias anteriores, além da microsoft, os gigantes que participam da atual rodada de financiamento da openai incluem apple e nvidia. o aumento da valorização e as apostas feitas pelos gigantes mostram o apelo da openai.

o outro lado da história é a surpreendente taxa de queima de dinheiro da openai e sua situação de problemas internos e externos.

o último financiamento importante da openai ocorreu em janeiro de 2023, quando a microsoft investiu aproximadamente us$ 10 bilhões. em outras palavras, a openai queimou dezenas de bilhões de dólares em menos de dois anos. a informação já havia relatado que as perdas da openai este ano poderiam chegar a us$ 5 bilhões. naquela época, a mídia previu que a openai precisaria de financiamento em breve, o que infelizmente era verdade.

devido a preocupações internas, a openai não apenas desacelerou suas atualizações, mas também sofreu frequentes saídas de executivos.

em 2023, a openai lançará a loja gpt e lançará o gpt-4, e estará muito movimentada. mais da metade deste ano já se passou, e os novos produtos da openai são em sua maioria quentes, mas não tangíveis. sora foi anunciado oficialmente no início deste ano, mas ainda não foi testado em grande escala; "morango" é ainda mais misterioso.

ao mesmo tempo, apenas 2 dos 11 cofundadores ainda trabalham na openai. recentemente, alexis conneau, a figura-chave por trás do gpt-4o e do gpt-5, anunciou sua saída da openai.

devido à agressão estrangeira, gigantes como google e microsoft adquiriram concorrentes da openai disfarçados, e outras startups de ia no vale do silício, incluindo inflection ai e character ai, já têm “proprietários” de facto.

o que é ainda mais problemático é que o velho inimigo elon musk passou de uma briga verbal com a openai para uma luta acirrada com armas reais.

a xai, fundada por musk, foi criada há apenas 15 meses e se tornou um dos rivais mais poderosos da openai. o financiamento da série b terminou em maio deste ano. a xai não só recebeu um único financiamento de us$ 6 bilhões, perdendo apenas para a openai, mas sua avaliação também atingiu us$ 24 bilhões, tornando-a a segunda startup de ia mais valorizada depois da openai.

em termos de produtos, o modelo grok do xai passou por muitas iterações, e o desempenho atual do grok 2 seguiu de perto o gpt-4.

no momento em que a aparente guerra estava num impasse, elon musk anunciou em 3 de setembro que o colossus, um cluster de supercomputação contendo 100.000 nvidia h100, foi lançado oficialmente, ocupando o primeiro lugar no mundo em termos de escala.

a expansão do poder computacional serve objetivos ambiciosos. o grok 3 já está a caminho e musk ameaçou desenvolver a inteligência artificial mais poderosa do mundo até o final deste ano.

openai, que tem lutado com o poder da computação há muito tempo, lançou vários novos planos de data center com a microsoft, seja expandindo os supercomputadores existentes da microsoft ou construindo novas instalações. foi até revelado que o "projeto stargate" tem milhões de chips nvidia.

porém, a diferença entre preparação e “lançamento oficial” é óbvia. na competição de ia onde o tempo se esgota, o tempo não espera por ninguém. de acordo com the information, altman expressou preocupação aos executivos da microsoft de que o poder de computação do xai excede o do openai.

a guerra pelo poder computacional entre musk e ultraman já começou.

um deles é musk, que diz “não vou me casar com uma família rica, eu também sou uma família rica” e está fazendo grandes progressos com o xai. uma delas é a openai, que é apoiada por gigantes e ainda é referência na indústria de ia. a batalha pelo poder da computação já começou, e o desafio não é apenas saber se você tem dinheiro ou não.

musk e altman são cofundadores da openai. os dois se deram bem quando o google estava usando o deepmind para dominar o campo da inteligência artificial, mas se separaram pouco antes de a organização sem fins lucrativos openai avançar para a comercialização limitada.

chatgpt se tornou um sucesso instantâneo há dois anos. musk lançou um ataque feroz ao openai e até ao próprio ultraman, dizendo que o openai “violou sua intenção original” e se tornou um vassalo da microsoft. este último é o maior financiador da openai, investindo dezenas de bilhões de dólares.

o desempenho do ultraman é medíocre na maioria das vezes. mas pelas poucas palavras de altman, não é difícil ver suas emoções conflitantes de repulsa e incapacidade de desprezar musk. altman disse uma vez que musk “é um idiota”. seis meses depois, altman disse algo bom sobre musk: “elon é definitivamente um ímã para talentos e foco de atenção, e ele tem alguns superpoderes reais”.

neste momento, o xai de musk foi estabelecido e altman está bem ciente das capacidades deste louco do vale do silício.

quando foi anunciado oficialmente em julho de 2023, considerou-se que o xai tinha como alvo o openai. musk também não tem vergonha disso.

mas naquela época, o mundo exterior mantinha principalmente uma atitude de esperar para ver em relação ao xai. afinal, começou tarde e é de pequena escala. além da openai e da microsoft, também existem gigantes como o google e startups famosas como a anthropic. a xai não só tem apenas 11 membros iniciais, mas a sua filosofia também exclui naturalmente grandes investimentos de gigantes da tecnologia. alguns meios de comunicação conhecidos, incluindo "wired", satirizaram o desafio da xai à openai como mais uma "ilusão" de musk.

no entanto, a velocidade de desenvolvimento do xai excede a imaginação de todos.isso é exatamente o que altman disse sobre musk – superpoderes.

não é difícil descobrir, analisando o cronograma, que os lançamentos e iterações de produtos xai são muito rápidos. fundada há 13 meses, lançou o primeiro modelo grok grande, o grok 1.5 iterativo, o grok 1.5v multimodal, grok 2 e o modelo pequeno grok 2mini.

musk, que é versado em marketing, deu a grok uma personalidade distinta. quando os usuários conversam com grok, eles descobrem que esse robô é loquaz, sarcástico, adora fazer piadas e desafia o "politicamente correto".

no entanto, sob o verniz das brincadeiras, o modelo grok sempre teve um controle firme sobre o openai.

tomemos como exemplo a última situação de batalha. xai lançou dois modelos, grok 2 e grok 2 mini, em agosto. o desempenho em termos de codificação, matemática e raciocínio foi bastante melhorado em comparação com a geração anterior, e a função de diagrama vincent foi adicionada. naquela época, na lista geral do lmsys, a versão inicial do grok 2, sus-column-r, ocupava o terceiro lugar. ele poderia competir com o gpt-4o no topo e ultrapassar diretamente o claude 3.5 sonnet da anthropic na parte inferior. em uso específico, grok 2 mantém o estilo "irregular" de pintura. a função de geração de imagens recém-lançada permite que a ia "desenhe" imagens de outros grandes modelos conhecidos andando por aí, como musk segurando uma arma, assassinato de personagens de animação da disney. cenas, etc., uma vez despertaram o entusiasmo dos internautas pela vida.

o que é ainda mais inesperado é que a xai concluiu o financiamento da série b em maio deste ano, com um montante total de financiamento de 6 mil milhões de dólares.no campo dos grandes modelos, este é o único financiamento, atrás apenas do openai. o valor total do financiamento da openai é de 14 mil milhões de dólares, o maior dos quais ocorreu em janeiro de 2023, com um investimento massivo de 10 mil milhões de dólares da microsoft.

para efeito de comparação, antes do financiamento da xai, o tamanho de financiamento único, atrás apenas do openai, era o anthropic, que recebeu us$ 4 bilhões em financiamento em setembro de 2023, e us$ 2 bilhões em financiamento em outubro, seguido por inflection ai, e seu valor único de financiamento em junho de 2023 atingiu us$ 1,3 bilhão.

entre eles, o xai iniciou o último, um ano após a sua criação, mas não só apresentou um grande modelo que capta firmemente a força do produto openai, mas também seguiu de perto em termos de escala de financiamento.

hoje, xai tornou-se um concorrente que a openai não pode ignorar, mesmo um dos seus concorrentes mais poderosos.

quer se trate de uma competição em termos de escala de produto ou de financiamento, é uma batalha aberta entre os dois. debaixo da água, a batalha oculta pelo poder de computação entre xai e openai também está acontecendo ferozmente.

ainda no dia 3 de setembro, musk anunciou no x que o colossus (gigante) havia sido lançado oficialmente.

colossus é o super cluster de treinamento de ia da xai, localizado na área de memphis, tennessee, e equipado com 100.000 gpus nvidia h100.

além disso, musk também prometeu que nos próximos meses a colossus continuará a aumentar o seu investimento, duplicando o número de gpus e aumentando o número de gpus em todo o cluster para 200.000, incluindo 50.000 nvidia h200s.

qual é o conceito de um cluster composto por 100.000 nvidia h100s?

simplificando, é atualmente o número 1 do mundo. para explicar melhor, como as grandes empresas estão acumulando gpus, é difícil ver números públicos sobre o número real de gpus ativas. no entanto, em junho do ano passado, a inflection ai, que arrecadou us$ 1,3 bilhão, fez uma declaração ousada de que construiria o “maior supercomputador do mundo” e consistiria em (apenas) 22.000 nvidia h100s. em março deste ano, a meta anunciou dois novos clusters de data center, cada um contendo 24.000 chips h100. várias empresas estão planejando construir um supercomputador contendo 100.000 chips nvidia ou mais, mas apenas musk se apresentou e disse que ele foi construído.

o que surpreende no lançamento oficial do colossus não é apenas a sua escala, mas também o tempo que levou para implementá-lo. nas palavras de musk, a equipe levou apenas 122 dias, ou 4 meses, para construir o colossus. de um modo geral, demoraria um ano para construir um cluster de formação em ia deste tamanho.

musk revelou pela primeira vez que a xai estava construindo uma “superfábrica de poder de computação” em maio deste ano. em julho, musk anunciou que algumas empresas, incluindo xai, x e nvidia, haviam iniciado os testes. naquela época, o cluster era chamado de “supercluster memphis”.

"jogue para ganhar ou não jogue."uma mensagem x de musk em junho é a melhor explicação para suas ambições, e seu plano mais específico é treinar “a inteligência artificial mais poderosa do mundo em todas as métricas” até dezembro deste ano.

de acordo com o próprio musk, são necessários 20.000 chips nvidia h100 para treinar o grok 2, enquanto o treinamento do grok 3 pode exigir 100.000 chips h100.

devemos saber que as capacidades do grok 2 estão próximas do gpt-4. não é difícil ver que musk quer trabalhar duro desta vez para conseguir milagres. também é evidente quem é o principal alvo para superar a ia “mais poderosa”.

essas notícias são naturalmente uma espécie de pressão para a openai.

de acordo com um relatório do the information, pessoas familiarizadas com o assunto revelaram que altman expressou preocupação aos executivos da microsoft por estar preocupado que o poder de computação do xai em breve exceda o do openai.

ultraman tinha muitos motivos para se preocupar.

atualmente, as grandes iterações do modelo openai estão limitadas à série “4”. de acordo com o ranking global atualizado pelo lmsys em 4 de setembro, a versão mais recente do openai chatgpt-4o foi atualizada em 8 de agosto deste ano e atualmente ocupa o primeiro lugar, mas em termos de pontuação abrangente, não é tão bom quanto o gemini-1.5-pro. , grok-2 abre uma grande lacuna. o gpt-4o, atualizado em 13 de maio deste ano, ocupa o quinto lugar.

pode-se dizer que as pessoas estão esperando pelo gpt-5 desde que a openai lançou o gpt-4 em março do ano passado. o consenso inicial era que o gpt-5 seria lançado no final de 2023 ou no verão de 2024, mas há alguns meses, mira murati, diretora de tecnologia da openai, declarou publicamente que o lançamento do gpt-5 poderia ser adiado. final de 2025 ou início de 2026.

a razão para o atraso do gpt-5 provavelmente serão “duas deficiências”, poder de computação insuficiente e dados insuficientes. mulati revelou que os parâmetros do gpt-5 chegarão a 52 trilhões, um aumento significativo em relação aos 2 trilhões do gpt-4.

não apenas o desenvolvimento da próxima geração de gpt requer suporte de poder computacional suficiente. em março deste ano, a organização de pesquisa de mercado facrorial funds divulgou um relatório analisando os recursos de hardware exigidos pela openai para implantar o sora, acreditando que se espera que o sora exija 720.000 chips nvidia h100 para suportar suas necessidades de computação durante o período de pico. este relatório também pode explicar porque sora não foi divulgado ao público.

o poder computacional atual da openai vem principalmente da microsoft ou se beneficia do investimento da microsoft. em 2020, a microsoft construiu um supercomputador contendo 10.000 placas gráficas para apoiar o trabalho do openai. este era um dos cinco supercomputadores mais rápidos do mundo na época.

em março do ano passado, a microsoft anunciou novos progressos na sua cooperação com a infraestrutura openai. o supercomputador original de 10.000 cpus foi atualizado para incluir dezenas de milhares de chips a100, e o custo do sistema "pode ​​exceder" várias centenas de milhões de dólares.

o poder da computação é o principal ponto de discórdia sobre o qual ultraman mais fala.já em maio de 2023, altman sentou-se na sala de audiência do congresso dos eua e expressou preocupação sobre os gargalos do poder computacional.

este ano, a declaração de altman ao falar sobre o poder da computação foi mais grandiosa e firme. ele acreditava que as duas “moedas” no futuro serão o poder da computação e a energia: “este (o poder da computação) pode ser o bem mais precioso do mundo. deveríamos haver um investimento significativo na realização de mais cálculos."

em março, ultraman também enviou uma mensagem x reclamando que não havia gpus nvidia suficientes para suportar o desenvolvimento de ia. é relatado que depois disso, a openai obteve mais direitos de uso de servidor da microsoft. em meados de 2025, a oracle e a microsoft fornecerão à openai um dos clusters de servidores nvidia mais poderosos do mundo, com um aluguel anual de aproximadamente 2,5 bilhões de dólares. .

de acordo com um relatório do the information, a microsoft está planejando mais atualizações e planeja construir múltiplas infraestruturas de ia até 2030.

o plano de poder de computação da microsoft e da openai pode ser dividido em cinco etapas.as duas partes estão atualmente na terceira fase do plano. a quarta fase é o supercomputador que a microsoft está construindo para openai, que está previsto para entrar em operação por volta de 2026. a autoridade de desenvolvimento econômico de wisconsin disse que a microsoft iniciou a construção para expandir um data center de us$ 1 bilhão no país, e pessoas familiarizadas com o assunto revelaram que o custo final do data center pode chegar a us$ 10 bilhões.

a quinta fase é o sensacional projeto “stargate”. o plano foi divulgado pela mídia em março deste ano: microsoft e openai planejam construir um supercomputador com "milhões" de chips, e o custo do projeto pode chegar a 100 bilhões de dólares americanos.

além de tentar obter mais recursos computacionais do mundo exterior, ultraman também entrou pessoalmente na batalha para tentar avançar em suas ambições de chips.ultraman está ansioso para ter chips de desenvolvimento próprio para reduzir os custos principais. atualmente, os chips de ia de ponta da nvidia não são apenas caros, mas também têm poucos recursos.

no início deste ano, surgiram notícias de que ultraman queria construir um império de 7 trilhões de chips, mas isso era muito ambicioso e rebuscado. de acordo com vários relatórios, o ultraman tem estado muito ativo em questões de chips no ano passado e negocia ativamente com todas as partes.

por um lado, trata-se de pesquisa e desenvolvimento de chips. em julho, foi relatado que a openai estava estabelecendo uma equipe interna de chips, liderada por richard ho, ex-presidente sênior de engenharia de tpu do google. a broadcom, que colaborou com o google para produzir tpu, já se comunicou com a equipe do chip openai. além disso, os concorrentes da broadcom também estão a promover os seus serviços para openai.

do outro lado está a produção de chips. diz-se que altman está negociando com executivos de grandes fabricantes e fornecedores de chips, incluindo a tsmc, para aumentar a capacidade de produção e produzir mais chips nvidia, ou mesmo novos chips openai. além disso, o ultraman pode ter entrado em contato com os fabricantes de chips de memória samsung e sk hynix no início deste ano.

e o primeiro passo do ultraman parece estar chegando em breve. recentemente, o taiwan economic daily informou que a openai encomendou o chip a16 da tsmc para ser usado no sora.o chip a16 é o nó de processo mais avançado que a tsmc revelou até agora. é também o primeiro passo para a tsmc entrar no sistema angstrom. espera-se que seja produzido em massa no segundo semestre de 2026. além do openai, a apple também é um dos primeiros clientes do a16.

a competição de poder computacional entre musk e ultraman já está em pleno andamento, mas a expansão do poder computacional requer mais do que apenas dinheiro. cada um deles tem sua própria "maldição de vantagem".

musk tem em suas mãos muitas empresas que são sua vantagem, entre as quais as relacionadas ao xai são principalmente x e tesla. x pode fornecer dados e usuários para xai, enquanto tesla é mais "útil". ele não apenas envia pelo menos 11 membros para xai, mas também pode fornecer gpus diretamente para xai. além disso, musk disse que a grande quantidade de dados visuais coletados pela tesla pode ser usada pela xai para treinar modelos grandes. em julho deste ano, musk até postou uma enquete no x, perguntando aos fãs se eles aprovavam o investimento de us$ 5 bilhões da tesla em xai.

mas "mão esquerda e mão direita" traz comodidade para musk, mas também traz problemas.

tesla não está no auge, pelo contrário, as vendas de veículos elétricos da tesla são fracas e seu novo modelo sedã carro-chefe foi adiado. os investidores da tesla reagiram fortemente à “transfusão de sangue” da tesla para xai, com oposição contínua e até desencadeando vários processos judiciais.

a polêmica forçou musk, que sempre foi um cara durão, a se apresentar para apaziguar os acionistas da tesla. depois que surgiu a notícia de que musk havia dado prioridade à nvidia no envio de chips para xai, ele explicou que tesla não tinha onde começar os chips e enfatizou que o projeto de expansão do gigatexas no sul da tesla seria concluído. ano. us$ 4 bilhões para comprar chips nvidia.

por outro lado, outra grande vantagem que musk levou o xai a prosperar é a “independência”. não “colaborar” com gigantes da tecnologia é a forma como musk e xai ocupam uma posição elevada na opinião pública. também o ajuda a atrair investimentos e a se tornar uma força para controlar e equilibrar os gigantes.

mas isto também significa que musk não terá “financiadores” em empresas iniciantes como openai, anthropic e inflection, todas as quais foram injetadas com grandes somas de dinheiro ao mesmo tempo por gigantes. o caminho para a expansão do poder de computação é pavimentado com ouro, e o custo de apenas 100.000 nvidia h100s é de cerca de us$ 2,5 bilhões (a menos que a nvidia ofereça descontos por volume).

uma das vantagens do openai é que ele conta com o apoio da microsoft, que tem sido seu patrocinador mais importante nos dois anos desde que a empresa ganhou destaque com o chatgpt.

mas há um constrangimento sutil no relacionamento próximo entre openai e microsoft, que já é um segredo aberto.

a contradição mais direta é que a openai e a microsoft são parceiras e competem entre si. em outras palavras, os produtos da microsoft, como o copilot e o new bing, que estão profundamente integrados no modelo openai, precisam competir com a própria openai em termos de clientes. anteriormente, altman voou para são francisco, nova york, londres e outros lugares para dar palestras pessoalmente a centenas de executivos de empresas da fortune 500 para promover os produtos e serviços de nível empresarial da openai.

apenas em 5 de setembro, a openai também anunciou com grande destaque que a versão empresarial do serviço de assinatura chatgpt lançada há um ano agora tem mais de 1 milhão de usuários pagantes.

a microsoft já fez ajustes no nível estratégico. anteriormente, a microsoft adquiriu a inflection ai disfarçada, absorveu quase todos os seus talentos e estabeleceu uma equipe interna de ia "microsoft ai" para estar alinhada com outros gigantes. em maio, o the information informou que a microsoft estava prestes a lançar um novo modelo de ia, codinome interno mai-1, com 50 bilhões de parâmetros.

deixe-me perguntar, se a microsoft tem seu próprio modelo grande "natural" e seu desempenho é alto, qual é a razão para não substituir o openai?

além disso, a estrutura especial de governação da openai plantou uma enorme bomba-relógio na cooperação entre as duas partes: de acordo com o acordo, a autorização da openai para a microsoft terminará com o advento da agi.

ela se esforça para fornecer dinheiro e poder computacional para promover o openai para alcançar agi, mas também se promove para perder o openai. este é um paradoxo enfrentado pela microsoft.

os clusters de supercomputação que a microsoft e a openai já estão a construir ou a planear construir envolvem enormes investimentos financeiros. tomemos como exemplo o “projeto stargate”. o custo do projeto é de us$ 100 bilhões. mesmo para a microsoft, esse é um valor inacessível. as despesas de capital da microsoft para o ano fiscal de 2024 (que termina em 30 de junho) são de us$ 55,7 bilhões.

no caminho para a expansão do poder computacional, a openai terá que "travar" seu relacionamento com a microsoft ou terá que encontrar uma saída para si mesma o mais rápido possível. caso contrário, o que aguarda a openai será uma situação de ". sucesso e fracasso".

finalmente, na disputa de poder computacional entre musk e ultraman, existe outro obstáculo chamado “energia”.

a informação estima que as gpus requerem mais energia do que os chips tradicionais, com um cluster de 100.000 chips exigindo potencialmente 100 megawatts de energia dedicada. isso representa 10 vezes a energia consumida pelos data centers tradicionais e pode abastecer de 70.000 a 100.000 residências.

a autenticidade do supergrande aglomerado colossus de musk “já online” foi, portanto, questionada. a empresa de energia disse que a xai será capaz de obter cerca de 50 megawatts de eletricidade até agosto. uma central em construção pode fornecer mais 150 megawatts de eletricidade, mas isso não será realizado até 2025.

também tem havido especulação de que musk está abandonando a empresa de energia e tentando abastecer o cluster com geradores de combustíveis fósseis, o que gerou uma reclamação de um grupo ambientalista em memphis, tennessee.

este não é um problema apenas para xai e openai. de acordo com estatísticas do the infomation, existem atualmente 17 centros de supercomputação em uso ou em construção em 7 estados dos estados unidos (excluindo projetos como o "projeto stargate" com realização duvidosa). o departamento de energia irá. se for demais, pode haver energia insuficiente.

parece que foi ontem que musk e altman estavam tendo uma briga verbal, mas agora eles entraram em uma luta corpo a corpo cautelosa. a expansão do poder computacional muitas vezes se desenrola numa grande narrativa, com milhares de milhões ou mesmo dezenas de milhares de milhões de dólares de investimento erguendo paredes de dezenas de milhares ou mesmo centenas de milhares de chips. mas no caminho, vocês dois ainda terão muitos obstáculos a superar.