notícias

OpenAI gosta de mencionar Yao Shunyu, o melhor aluno da classe Yao: autor de Thinking Tree, PhD em Princeton, e também sabe fazer rap

2024-08-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

O vento oeste de Jin Lei se origina do Templo Aofei
Qubits | Conta pública QbitAI

Melhor aluno da turma de Yao na Universidade de TsinghuaYao Shunyu, anunciou oficialmente que se juntou ao OpenAI.



Mas uma mensagem tão curta atraiu a atenção e as bênçãos de todos no círculo. Venha e sinta este sentimento:



Entre eles, há muitos, como o diretor de pesquisa de ponta da OpenAI e o treinador americano do IOI.Marca Chen, bem como professores, investidores, etc. na área de IA.

Então, por que Yao Shunyu atrai tanta atenção?

A julgar pelo seu currículo anterior, podemos extrair as seguintes palavras-chave:

  • Aula Yao na Universidade Tsinghua
  • Presidente do Comitê Conjunto da Classe Yao
  • Cofundador do Clube de Rap Estudantil da Universidade de Tsinghua
  • Doutorado em Ciência da Computação pela Princeton



△Yao Shunyu, fonte da foto: página pessoal

Mas, além de seu currículo relativamente brilhante, foram suas muitas realizações em pesquisas científicas que realmente trouxeram Yao Shunyu aos olhos do público:

  • árvore pensante(Árvore dos Pensamentos): Deixe o LLM pensar repetidamente e melhorar muito a capacidade de raciocínio.
  • Banco SWE: um grande conjunto de dados de avaliação de capacidade de modelo.
  • Agente SWE: Um programador de IA de código aberto.

Não é exagero dizer que quase todas as pesquisas causaram repercussões consideráveis ​​no círculo e é muito óbvio que todas elas estão profundamente envolventes;modelo grandeE desdobre.



Isso também pode corresponder a uma frase do anúncio oficial de Yao Shunyu:

É hora de transformar a visão da pesquisa em realidade.

Quanto a esta “visão de investigação”, continuemos a olhar mais de perto.

Palavras-chave da pesquisa: Agentes Linguísticos

Se você olhar a página inicial de Yao Shunyu, especialmente a seção de pesquisa de tese, não é difícil encontrar uma frase que aparece com muita frequência——Agentes de Linguagem



No perfil incluído em sua página inicial do X, a primeira frase também é Agentes de Idiomas:



E este é também o título da sua tese de doutoramento:Agentes de linguagem: da previsão do próximo token à automação digital



Agentes Linguísticos, nomeadamenteagente linguístico, foi Yao Shunyu quem propôs um novo tipo de agente.

Diferente dos agentes tradicionais, este método utiliza modelos de linguagem para o raciocínio e ações dos agentes, com foco em fazê-los perceberautomação digital(Automação Digital)。

Quanto aos métodos específicos de implementação, existem três tecnologias principais (todas com documentos independentes), que são:

  • Reagir: Um método que combina raciocínio e ação para gerar trajetórias de raciocínio e ações por meio de modelos de linguagem para resolver diversas tarefas de raciocínio e tomada de decisão de linguagem.
  • árvore pensante: Um método baseado na busca em árvore que resolve problemas complexos e melhora a capacidade de raciocínio dos modelos de linguagem, gerando e avaliando vários caminhos de pensamento.
  • CoALA: Uma estrutura conceitual para organizar e projetar agentes de linguagem, incluindo aspectos como memória, espaço de ação e tomada de decisão.



Tomando o ReAct como exemplo, a pesquisa visa expandir o espaço de ação do modelo de linguagem na união do conjunto de ações e do espaço de linguagem.

As ações (isto é, trajetórias de pensamento ou raciocínio) no espaço linguístico não afetam o ambiente externo, mas podem atualizar o contexto através do raciocínio sobre o contexto atual e podem apoiar raciocínios ou ações futuras.

Por exemplo, no diálogo mostrado na figura abaixo, o método ReAct pode ser usado para orientar o agente no ciclo do processo de “gerar ideias → agir → observar resultados”.

Dessa forma, a trajetória e o funcionamento do raciocínio podem ser combinados, permitindo que o modelo realize o raciocínio dinâmico, melhorando a tomada de decisão e os resultados finais do agente.



Se o método ReAct se resumir a deixar o agente“razão para agir”, então o próximo método éárvore pensante, então o foco é deixar o agente“razão para planejar”



A árvore pensante representa o problema como uma pesquisa na estrutura da árvore. Cada nó é um estado, representando uma solução parcial, e os ramos correspondem a operações que modificam o estado.

Envolve principalmente quatro questões:

  • Decomposição do pensamento: Decomponha um problema complexo em uma série de etapas intermediárias, cada etapa pode ser considerada como um nó da árvore.
  • Geração de pensamentos: Use modelos de linguagem para gerar pensamentos potenciais para cada nó, que são etapas intermediárias ou estratégias para resolver problemas.
  • Avaliação de status: Use o modelo de linguagem para avaliar o status de cada nó para determinar seu progresso e potencial na resolução de problemas.
  • Algoritmo de pesquisa: use diferentes algoritmos de pesquisa (como pesquisa em largura BFS ou pesquisa em profundidade DFS) para explorar a árvore de pensamento e encontrar a solução ideal.



Aplicando a árvore de pensamento ao jogo de "24 pontos", em comparação com a cadeia de pensamento anterior (CoT), a taxa de precisão foi significativamente melhorada.



Quanto à última tecnologia chave em Agentes Linguísticos, isto éCoALA, é uma estrutura conceitual para organizar e projetar agentes de linguagem.



A julgar pelo diagrama de estrutura abaixo, ele está dividido em três módulos: armazenamento de informações, espaço de ação e tomada de decisão.

Armazenamento de informações significa que o agente de linguagem armazena informações em vários módulos de memória, incluindo memória de trabalho de curto prazo e memória de longo prazo (como memória semântica, memória episódica e memória processual).

Esses módulos de memória são utilizados para armazenar diversos tipos de informações, como entradas sensoriais, conhecimento, experiência, etc., e desempenham um papel no processo de tomada de decisão do agente.

Além disso, o CoALA divide o espaço de ação do agente em ações externas e as ações internas envolvem interações com o ambiente externo, como controlar robôs, comunicar-se com humanos ou realizar operações em ambientes digitais;

As ações internas interagem com o estado interno e a memória do agente, incluindo operações como raciocínio, recuperação e aprendizagem.

Em última análise, o agente linguístico escolherá a ação a ser executada através do processo de tomada de decisão e este processo também encontrará a solução ideal com base em vários fatores e feedback;



Além disso, existem empregos como programadores de IA de código abertoAgente SWEetc., também está amplamente difundido no círculo.

Mas a partir dos muitos tópicos de pesquisa científica de Yao Shunyu, além dos Agentes Linguísticos, também podemos ver outra palavra-chave que ele busca——pensamento computacional

Na verdade, isso foi revelado quando ele era estudante de graduação.

Antes de ir para a Universidade de Princeton para estudar para um doutorado em ciência da computação, Yao Shunyu, no último ano de 2015, compartilhou sua experiência de aprendizado e crescimento na Universidade de Tsinghua com os candidatos ao reexame na cerimônia de abertura dos vários tipos de seleção independente de 2019 de Tsinghua. -exames.

O conteúdo relevante está registrado em um artigo que ele escreveu intitulado "O que você aprendeu na aula de Yao na Universidade de Tsinghua? Yao Shunyu: o suficiente para mudar o mundo".

Naquela época, ele se concentrou em compartilhar o pensamento computacional tanto no aspecto teórico quanto prático, e revelou que sentia que depois de quatro anos,O maior ganho é o pensamento computacional

Agora estamos vendo muitas coisas que são teoricamente impossíveis. A chamada teoria orienta a prática, acho que significa mais que temos que entender os limites das capacidades de um sistema e a dificuldade das coisas em alto nível, e então escolher o que pode ser feito e o que é significativo.

Preso na marca de um menino ensolarado e alegre, Yao Shunyu também compartilhou sua experiência de ir à Argentina para o Programa de Infiltração no Sul de Tsinghua:

Conheci um grupo de crianças argentinas... O inglês não é falado universalmente, os argentinos falam espanhol. Certa vez, tentei aprender espanhol, mas desisti porque estudei informática e peguei o Google Tradutor. Contei-lhes sobre a Cidade Proibida e a Grande Muralha em Pequim...



△Fonte: Conta oficial de admissões de Tsinghua

Para ele, nesta época a computação pode ser combinada com qualquer disciplina, e o mundo é um lugar grande, e você pode fazer o que quiser em Tsinghua.

Depois de falar sobre Yao Shunyu, quem mais da classe Yao está trabalhando em modelos grandes?

O grande modelo popular, quem mais da classe Yao está trabalhando nisso?

O que tenho a mencionar éMa TengyueChen Danqi





Os dois eram colegas de classe na época, ex-alunos da classe Tsinghua Yao em 2008, e ambos mais tarde ganharam o Prêmio Sloan, conhecido como "Prêmio Nobel Trend Vane".



Dr. Ma Tengyu estudou na Universidade de Princeton, onde seu mentor foi o professor Sanjeev Arora, um cientista da computação teórico e duas vezes vencedor do Prêmio Gödel.

Depois de se formar no doutorado, universidades importantes como MIT, Harvard e Stanford lhe ofereceram ofertas como professor assistente, e Ma Tengyu finalmente escolheu Stanford.

No final do ano passado, Ma Tengyu também anunciou oficialmente a fundação da Voyage AI, uma startup de modelos em grande escala. Ele revelou que lideraria uma equipe para construir o melhor modelo incorporado atualmente, e também forneceria modelos customizados com foco em um. determinado campo ou empresa.

Três professores, incluindo Christopher Manning, diretor do Laboratório de Inteligência Artificial de Stanford, e Li Feifei, um famoso estudioso chinês na área de IA, atuam como conselheiros acadêmicos da Voyage AI.



Para Chen Danqi, após concluir seus estudos de graduação em Tsinghua Yao Ban, ele obteve um doutorado na Universidade de Stanford em 2018, com foco em PNL. Ele acabou se tornando professor assistente no Departamento de Ciência da Computação da Universidade de Princeton e vice-diretor da Princeton Language. e Intelligence Project, co-liderando o grupo de PNL de Princeton.

Sua página pessoal mostra que “hoje em dia sou atraído principalmente pelo desenvolvimento de grandes modelos” e os tópicos que ele está pesquisando incluem:

  • Como a recuperação pode desempenhar um papel importante nos modelos da próxima geração, melhorando o realismo, a adaptabilidade, a interpretabilidade e a confiabilidade.
  • Treinamento de baixo custo e implantação de grandes modelos, métodos de treinamento aprimorados, gerenciamento de dados, compactação de modelos e otimização de adaptação de tarefas downstream.
  • Também interessado em trabalhos que realmente melhorem a compreensão das capacidades e limitações dos grandes modelos atuais, tanto empírica como teoricamente.



O grande modelo de trabalho e os qubits da equipe de Chen Danqi também continuam a prestar atenção.

Por exemplo, o algoritmo de seleção de dados LESS, um método proposto de redução de custos para modelos grandes, seleciona apenas 5% dos dados mais relevantes para a tarefa de ajuste fino da instrução, o que é melhor do que usar todo o conjunto de dados.

O ajuste fino das instruções é uma etapa fundamental para fazer com que o modelo básico se torne um modelo assistente ChatGPT.

Propôs o popular método de "cisalhamento de alpaca" - método de poda de modelo grande LLM-Shearing, que usa apenas 3% do valor do cálculo e 5% do custo para obter SOTA, dominando a escala 1B-3B de grandes modelos de código aberto.

Além desses dois, há muitos ex-alunos da Classe Yao trabalhando em modelos de grande escala na indústria e na academia.

O grande modelo de aplicativo nativo que era popular em toda a Internet estava "Concluído!" "I'm Surrounded by Big Models" e sua sequência "I Broken the Big Models" foram desenvolvidos por uma equipe liderada pelos melhores alunos da classe Yao.

autor do jogoFã Haoqiang , Funcionário Megvii nº 6. Naquela época, ele foi aclamado como um menino gênio por seus feitos lendários, como a medalha de ouro do IOI, sendo recomendado para a classe Tsinghua Yao e sendo estagiário no segundo ano do ensino médio. Agora ele é gerente geral de pesquisa da Megvii Technology e líder do setor com índice h 32 do Google Scholar.



O primeiro resultado da pesquisa do xAI de Musk - Programas Tensor VI, também inclui ex-alunos da classe Yao no trabalho conjunto.



Tensor Programs VI é uma continuação da série anterior de trabalhos de Tensor Programs de Greg Yang, membro fundador da xAI e discípulo de Qiu Chengtong. O artigo se concentra em "como treinar redes infinitamente profundas".

Diz-se que os resultados relacionados aos programas Tensor foram aplicados no GPT-4. Para interpretar o artigo, o próprio Yang também conduziu uma transmissão ao vivo no X.

Trabalhar juntosDingli Yu, formou-se na Classe Yao da Universidade de Tsinghua com bacharelado. Atualmente, Dingli Yu está prestes a se formar no Departamento de Ciência da Computação de Princeton.



Há muitos, muitos mais......

Falando sobre o recrutamento de Yao Shunyu para a OpenAI desta vez, os esforços de recrutamento da OpenAI ainda continuam.

A engenheira da OpenAI Karina Nguyen divulgou a última postagem de recrutamento:

  • A equipe de comportamento do modelo OpenAI está contratando! Esta é uma posição de sonho que combina engenharia de design e pesquisa pós-formação, e é o trabalho mais raro do mundo❤️
  • Usamos métodos de alinhamento como RLHF/RLAIF para definir comportamentos centrais do modelo para refletir valores básicos e aprimorar a inteligência criativa da AGI. Através desses resultados, trabalhamos com as equipes de design e engenharia de produto + modelo para criar novos modelos de interfaces e interações de IA que impactarão milhões de usuários...



O que é interessante é que Karina Nguyen era na verdade pesquisadora da Anthropic AI (equipe de Claude) antes, em maio do ano passado, ela também participou de um duelo de palavras imediatas no X (antigo Twitter) com Jason Wei da OpenAI, autor de “Think Chain”. Documento de Fundação”.



Não esperava que Karina Nguyen mudasse para OpenAI tão rapidamente…

A propósito, ontem foi divulgada a notícia de que Thibault Sottiaux, pesquisador do Google DeepMind, também foi contratado para a OpenAI.

Você sabe, Thibault Sottiaux foi um contribuidor importante em artigos como o Gemini original e o Gemini 1.5.



Isso mostra o quão popular é o modelo de pista grande atualmente. As empresas estão competindo pela pista e as pessoas estão competindo por outras pessoas.

Mais uma coisa

Houve outros dois Yao Shunyu que se formaram na Universidade Tsinghua no mesmo ano que Yao Shunyu!

Quando os três alunos de Yao Shunyu se formaram em 2019, funcionários da Universidade Tsinghua postaram uma postagem no Weibo e postaram uma foto de grupo dos três.

Além de Yao Shunyu, que agora ingressou na OpenAI, há outro Yao Shunyu deescola de humanidadesUma garota se formando em japonês.

Outro Yao Shunyu é Yao ShunYu, deDepartamento de Física, é vencedor do Prêmio Especial de Graduação em 2018. Durante o período de graduação, publicou dois artigos como primeiro autor na importante revista de física PRL (Physical Review Letters) e um na PRB (Physical Review B).



Links de referência:
[1]https://x.com/ShunyuYao12/status/1818807946756997624
[2]https://ysymyth.github.io
[3]https://x.com/karinanguyen_/status/1819082842238079371
[4]https://weibo.com/1676317545/HCR7yuXAl?refer_flag=1001030103_