notícias

Google AI ganha medalha de prata da IMO, a apenas um ponto do ouro!A quarta pergunta levou apenas 19 segundos

2024-07-26

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Baijiao West Wind se origina do Templo Aofei
Qubits | Conta pública QbitAI

Agora mesmo, a grande modelo conquistou novamente uma cidade!

O Google DeepMind anunciou que sua IA matemática “ganhou” a medalha de prata na IMO (Olimpíada Internacional de Matemática), e ficou a apenas um ponto da medalha de ouro!

Sim, você ouviu direito! É uma questão da Olimpíada de Matemática difícil para a maioria dos humanos. Você deve saber que dos 609 participantes da IMO este ano, apenas 58 alcançaram o nível da medalha de ouro.



Desta vez, a IA do Google resolveu 4 das 6 questões da competição IMO de 2024 eDepois de fazer uma pontuação perfeita, você obterá um total de 28 pontos . (A pontuação total é de 42 pontos, a pontuação da medalha de ouro é de 29 pontos)



Entre eles, para a quarta questão de geometria, a IA demorou apenas 19 segundos? !

Quanto à sexta questão, considerada a mais difícil deste ano, apenas cinco concorrentes venceram este ano e estava totalmente correta.



Os resultados desta vez também foram certificados profissionalmente pelo Comitê Organizador da IMO - avaliados pelo Professor Timothy Gowers, medalhista de ouro da IMO e vencedor da Medalha Fields, e pelo Dr. Joseph Myers, duas vezes medalhista de ouro da IMO e presidente do Comitê de Seleção de Questões da IMO de 2024.

O professor Timothy Gowers exclamou diretamente:Muito além do nível de última geração que conheço

Como Laikangkang faz isso?

Google ganha medalha de prata da IMO, novo membro da família Alpha é lançado

Os dois membros da família Alpha do Google que desta vez ganharam a medalha de prata da IMO são especializados na indústria digital.

  • Prova Alfa, um novo membro da família Alpha, um sistema formal de raciocínio matemático baseado na aprendizagem por reforço.
  • AlfaGeometria 2, a versão anterior melhorada do AlphaGeometry, usada especificamente para resolver problemas geométricos.

Primeiro, vamos conhecer o novo membro AlphaProof.

É um sistema de autotreinamento que pode comprovar afirmações matemáticas utilizando a linguagem formal Lean. Ele combina modelos de linguagem pré-treinados com o algoritmo de aprendizagem por reforço AlphaZero.

Ao ajustar o Gemini, a equipe pode converter automaticamente declarações de linguagem natural em declarações Lean de linguagem formal, criando assim um grande banco de questões matemáticas.

Ao se deparar com um problema, o AlphaProof gera candidatos a soluções e então prova ou refuta esses candidatos, buscando possíveis etapas de prova no Lean.

Cada prova encontrada e verificada é usada para fortalecer o modelo de linguagem do AlphaProof, melhorando assim sua capacidade de resolver problemas subsequentes mais desafiadores.

Nas primeiras semanas da competição, ele foi treinado em milhões de questões de nível IMO em um ciclo repetitivo.

Os ciclos de treinamento também são aplicados durante as competições, onde as autoprovas são continuamente reforçadas até que uma solução completa seja encontrada.



Vamos dar uma olhada no que aconteceu depois da evoluçãoAlfaGeometria 2 . É um sistema híbrido neuro-simbólico em que o modelo de linguagem é baseado em Gêmeos.

Seu antecessor 1.0 também foi destaque na Nature deste ano:Atingir o nível de geometria dos medalhistas de ouro da IMO sem demonstração humana



Em comparação com a versão anterior, ele usa dados sintéticos muito maiores para treinar do zero. E o motor simbólico que utiliza é duas ordens de grandeza mais rápido que o seu antecessor. Quando novos problemas são encontrados, um novo mecanismo de compartilhamento de conhecimento é usado para permitir combinações avançadas de diferentes árvores de busca para resolver problemas mais complexos.

Antes da competição oficial, já conseguia resolver 83% de todos os problemas de geometria da IMO nos últimos 25 anos, enquanto a taxa de solução do seu antecessor era de apenas 53%.

Na competição da IMO deste ano, foram necessários apenas 19 segundos para responder à quarta questão.



Então vamos dar uma olhada em como essas duas pessoas trabalham juntas desta vez, IMO.

Primeiro, o problema é traduzido manualmente para uma linguagem matemática formal para que possa ser compreendido pelo sistema.

Sabemos que durante a competição humana as respostas são submetidas em dois momentos, cada vez com duração de 4,5 horas.

Os dois sistemas do Google resolveram primeiro um problema em poucos minutos e os outros problemas levaram três dias.

No final das contas, AlphaProof resolveu dois problemas de álgebra e um problema de teoria dos números, determinando as respostas e provando sua correção.

Isto inclui a questão mais difícil da competição, que é a sexta questão que apenas cinco jogadores resolveram na competição IMO deste ano.



AlphaGeometry 2 resolve o problema de geometria, enquanto os dois problemas de combinação permanecem sem solução.

Além disso, a equipe do Google também experimentou um sistema de raciocínio em linguagem natural baseado no Gemini. Em outras palavras, não há necessidade de traduzir o problema para uma linguagem formal e pode ser utilizado em conjunto com outros sistemas de IA.

A equipe disse que também explorará mais métodos de IA para avançar no raciocínio matemático.

Mais detalhes técnicos sobre o AlphaProof também estão planejados para serem divulgados em breve.

Internauta: Eu não entendo matemática, mas fiquei chocado

Vendo o desempenho desses dois sistemas, os internautas expressaram que “não entendem matemática, mas ficaram chocados”.

Scott Wu, cofundador da Cognition AI, uma equipe de programadores de IA da Devin, disse:

Os resultados são verdadeiramente impressionantes. Quando criança, as Olimpíadas eram tudo para mim. Nunca pensei que seriam resolvidos pela inteligência artificial em 10 anos.



O cientista da OpenAI, Noam Brown, também abriu o microfone para parabenizar:



No entanto, alguns internautas disseram que se o horário padrão da competição for seguido (a competição é dividida em dois dias, quatro horas e meia por dia e três problemas são resolvidos todos os dias), os dois sistemas de IA só podem resolver um dos os seis problemas.



Esta afirmação foi imediatamente refutada por alguns internautas:

Neste cenário, a velocidade não é a principal preocupação. Se o número de operações de ponto flutuante (flops) permanecer constante, o aumento dos recursos computacionais reduzirá o tempo necessário para resolver o problema.



Em relação a este ponto, alguns internautas também perguntaram:

Os dois sistemas de IA não conseguiram responder às perguntas combinadas. É um problema de treinamento ou recursos ou tempo de computação insuficientes? Ou existem outras restrições?



O professor Timothy Gowers tuitou seus pensamentos:

Se os competidores humanos pudessem dedicar mais tempo a cada questão, suas pontuações seriam, sem dúvida, mais altas. No entanto, para os sistemas de IA, isto excedeu em muito as capacidades dos anteriores demonstradores automáticos de teoremas; em segundo lugar, à medida que a eficiência melhora, espera-se que o tempo necessário seja ainda mais reduzido;



Porém, nos últimos dois dias, o modelo grande ainda estava preso em “Qual número é maior, 9,11 ou 9,9?” !

Perdi a cabeça e agora de repente tive uma ideia e recuperei a cabeça?



O cientista da Nvidia Jim Fan explica: Simdistribuição de dados de treinamentoO problema.

O sistema do Google foi treinado em provas formais e mecanismos simbólicos específicos de domínio. Até certo ponto, eles são altamente especializados na resolução de Olimpíadas, embora se baseiem em grandes modelos gerais.



O conjunto de treinamento como o GPT-4o contém uma grande quantidade de dados de código GitHub, que podem exceder em muito os dados matemáticos. Nas versões de software, "v9.11>v9.9", isso pode distorcer gravemente a distribuição. Então, esse erro é bastante justificado.

Em relação a este estranho fenômeno, ele o descreveu como

Descobrimos uma região muito estranha, como um exoplaneta que se parece com a Terra, mas está cheio de vales estranhos.

Também há internautas entusiasmados que seguiram a sugestão do OpenAI. Talvez você também possa tentar...

Para isso, a resposta de Ultraman foi:



Links de referência:
[1]https://x.com/googledeepmind/status/1816498082860667086?s=46
[2]https://x.com/jeffdean/status/1816498336171753948?s=46
[3]https://x.com/quocleix/status/1816501362328494500?s=46
[4]https://x.com/drjimfan/status/1816521330298356181?s=46
[5]https://deepmind.google/discover/blog/ai-resolve-problemas-da-imo-no-nivel-medalha-de-prata/