minhas informações de contato
Correspondência[email protected]
2024-07-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
O vento oeste vem do Templo Aofei
Qubits | Conta pública QbitAI
A ilusão de grandes modelos também é dividida em interna e externa——
O último blog do cientista chinês OpenAI Weng Li propõeAlucinação externa LLM(alucinação extrínseca)。
Diferente do conteúdo gerado pelo modelo referencial que é inconsistente com a realidade, fictício, inconsistente ou sem sentido, Weng Li especificou o problema da "ilusão" do LLM comoO conteúdo de saída do modelo é fictício e não baseado no contexto ou no conhecimento mundial fornecido。
A partir disso, existem dois tipos de alucinações:
Anteriormente, Weng Li também propôs a fórmula do Agente: Agente = modelo grande + memória + planejamento ativo + uso de ferramenta, que foi chamada de "o melhor artigo sobre Agente que já vi" por alguns internautas.
Este blog sobre a ilusão de modelos grandes também é “um trabalho pesado”. O artigo é muito longo, com um total de 24 referências:
Weng Li concentrou-se nas alucinações externas e discutiu três questões: Qual é a causa das alucinações? Detecção de alucinações, métodos para resistir às alucinações.
Qubits compilou e organizou o texto original sem alterar o significado original.
Qubits foi traduzido e reimpresso com permissão do autor original.
O texto original está aqui:
https://lilianweng.github.io/posts/2024-07-07-alucinação/
Considerando que um LLM implantável padrão precisa ser pré-treinado e ajustado para alinhamento e melhoria, a análise de causa começa nessas duas etapas.
Problema de dados pré-treinamento
O conjunto de dados pré-formação foi concebido para representar todo o conhecimento mundial disponível em formato escrito e, portanto, é enorme.
A extração de dados da Internet pública é a opção mais comum, mas pode resultar em algumas informações desatualizadas, ausentes ou erradas. Como o modelo pode lembrar incorretamente essas informações simplesmente maximizando a probabilidade logarítmica, o modelo pode cometer erros.
Aperfeiçoe novos conhecimentos
O ajuste fino do LLM pré-treinado por meio do ajuste fino supervisionado (SFT) e aprendizagem por reforço com feedback humano (RLHF) é uma técnica comum para melhorar certas capacidades do modelo (como rastreamento de instruções). A fase de ajuste fino introduz inevitavelmente novos conhecimentos.
Embora o ajuste fino geralmente consuma menos recursos computacionais,Se novos conhecimentos podem ser aprendidos de forma confiável através do ajuste fino de um modelo em pequena escala é uma questão em aberto.。
Num estudo realizado este ano, Gekhman et al. discutiram a questão de saber se o ajuste fino do LLM com novos conhecimentos promoverá a ocorrência de alucinações.
Eles descobriram que o LLM aprende mais lentamente com exemplos ajustados com novos conhecimentos do que com exemplos que são consistentes com o conhecimento pré-existente do modelo, uma vez que esses exemplos com novos conhecimentos são aprendidos, a tendência do modelo a alucinar aumenta;
Especificamente, dado um conjunto de dados de perguntas e respostas fechadas (ou seja, EntityQuestions) = (,), Correct(,;,) é definido como uma estimativa da probabilidade de que o modelo M gere com precisão a resposta correta, ao usar exemplos aleatórios e certa decodificação. solicitado com temperatura, a resposta correta para a pergunta é.
Eles dividiram os exemplos em 4 categorias de acordo com diferentes condições de Correto (,;,): Grupo conhecido (incluindo três subgrupos: Altamente conhecido, Talvez conhecido, Fraco conhecido) e Grupo desconhecido.
Algumas observações interessantes dos experimentos, onde a precisão do conjunto de desenvolvimento é considerada um indicador simbólico de ilusão:
Esses resultados de Gekhman et al. apontam os riscos do uso do ajuste fino supervisionado para atualizar o conhecimento do LLM.
Avaliação aprimorada de pesquisa
Para quantificar o fenômeno de alucinação do modelo, Lee et al. introduziram um novo conjunto de dados de referência em 2022.FactualidadePrompt, este conjunto de dados contém dicas factuais e não factuais, usando documentos ou frases da Wikipédia como base de conhecimento factual básico.
Os documentos da Wikipédia são informações verdadeiras conhecidas do conjunto de dados FEVER, enquanto as frases são selecionadas via tf-idf ou similaridade com base em incorporações de frases.
Duas métricas para avaliar alucinações foram consideradas, dada uma continuação do modelo e um texto da Wikipedia emparelhado:alucinação entidades nomeadas(NE)Taxa de erro、Razão de implicação(Taxas de envolvimento)。
Taxas de erro NE mais altas e taxas de implicação mais baixas indicam maior factualidade. Ambas as métricas se correlacionam com anotações humanas, com modelos maiores apresentando melhor desempenho neste benchmark.
Além disso, Min et al.Pontuação de Fato , decompor a geração de artigos longos em vários fatos atômicos e verificar cada fato individualmente em bases de conhecimento como a Wikipedia. A proporção (precisão) de sentenças apoiadas por fontes de conhecimento geradas por cada modelo pode então ser medida, sendo FactScore a precisão média gerada pelo modelo em um conjunto de pistas.
Este artigo testou uma variedade de métodos de verificação factual na tarefa de geração biográfica e descobriu queUsar a recuperação fornece melhor consistência do que o LLM sem contexto . Nos métodos de aprimoramento de recuperação, a escolha do melhor estimador depende do modelo.
Algumas observações interessantes sobre o comportamento alucinatório do modelo:
Wei et al. em 2024 também propuseram um método para avaliar a factualidade de formato longo do LLM, denominadoSEGURO(Avaliador de Factualidade Aumentada por Pesquisa)。
Comparado com o FActScore, a principal diferença é que o SAFE usa um modelo de linguagem como Agente.Emita iterativamente consultas de pesquisa do Google por meio de um processo de várias etapase raciocinar se os resultados da pesquisa apoiam ou não esse fato.
A cada etapa, o agente gera uma consulta de pesquisa com base nos fatos a serem verificados e nos resultados da pesquisa obtidos anteriormente. Após várias etapas, o modelo realiza inferência para determinar se o fato é suportado pelos resultados da pesquisa.
De acordo com experimentos,Embora o método SAFE custe 20 vezes menos que a anotação humana, ele tem um desempenho melhor que a anotação humana: A taxa de concordância com humanos foi de 72%, e a taxa de superação de humanos em desacordo foi de 76%.
O índice de avaliação SAFE é F1@K. Para respostas longas de modelos factuais, idealmente tanto a precisão quanto a recuperação devem ser alcançadas, uma vez que a resposta deve satisfazer simultaneamente:
Dada a resposta do modelo, a métrica F1@K é definida como:
Além disso, Chern et al. 2023 propuseram um fluxo de trabalho de verificação de fatos que segue padrões.Ferramenta de Fac . Ele foi projetado para detectar erros factuais em uma variedade de tarefas, incluindo resposta a perguntas com base em conhecimento, geração de código, resolução de problemas matemáticos e revisão de literatura científica. As etapas incluem:
Detecção baseada em amostragem
Manakul et al. 2023 propuseram uma verificação de consistência que depende de múltiplas amostras de um LLM de caixa preta -AutoVerificaçãoGPT, para identificar erros factuais.
Considerando que as medições de verificação de fatos da caixa cinza exigem acesso ao logprob em nível de token do LLM, SelfCheckGPTBasta usar amostras que não dependam de bases de conhecimento externas, para que o acesso à caixa preta seja suficiente, nenhuma base de conhecimento externa é necessária.
Este método usa métricas diferentes para medir a consistência entre a resposta do modelo e outras amostras aleatórias do modelo, incluindo BERTScore, NLI, prompts (pedir sim/não), etc. O SelfCheckGPT usando dicas parece ter melhor desempenho ao conduzir inspeções experimentais de passagens do WikiBio geradas pelo GPT-3.
Calibrando conhecimento desconhecido
Pedir a um modelo que gere respostas para perguntas sem resposta ou desconhecidas pode induzir alucinações.TruthfulQA(Lin et al., 2021) eAutoconsciente(Yin et al., 2023) são dois benchmarks que medem a capacidade de um modelo de gerar respostas realistas em tais situações, o primeiro é construído de forma adversa para enfatizar o erro humano, e o último inclui perguntas sem resposta.
Ao se deparar com esses problemas,O modelo deve recusar-se a responder ou fornecer informações relevantes。
No TruthfulQA, as perguntas do teste são elaboradas de forma adversária com base em mal-entendidos ou erros humanos comuns. O benchmark contém 817 questões cobrindo 38 tópicos, incluindo saúde, direito, finanças e política.
Quando testado, o melhor LLM alcançou uma precisão de 58%, enquanto os humanos conseguiram atingir 94%. A equipe de pesquisa descobriu queDevido a um equívoco comum, os modelos maiores são menos realistas, mas esta tendência não se reflete em outros padrões(sem confronto)base factual。
Aqui está um exemplo de resposta incorreta do GPT-3 no TruthfulQA:
Yin et al. 2023 estudaramAutoconscienteO conceito de refere-se a se os modelos de linguagem sabem o que sabem ou não.
SelfAware contém 1.032 perguntas sem resposta e 2.337 perguntas respondíveis em cinco categorias. As perguntas sem resposta são provenientes de fóruns on-line com anotações humanas, e as perguntas com resposta são provenientes de SQuAD, HotpotQA e TriviaQA.
Uma pergunta pode ser irrespondível por diversas razões, como falta de consenso científico, imaginação do futuro, subjetividade completa, razões filosóficas que podem gerar respostas múltiplas, etc.
O estudo trata a distinção entre perguntas respondíveis e não respondidas como uma tarefa de classificação binária e usa a pontuação ou precisão F1 para avaliar o desempenho do modelo. Os experimentos mostram que modelos maiores têm melhor desempenho nesta tarefa.
Outra forma de avaliar quão bem um modelo compreende o conhecimento desconhecido é medir a incerteza na saída do modelo. Quando um problema está entre o conhecido e o desconhecido, o modelo deve apresentar o nível correto de confiança.
O experimento de 2022 de Kadavath et al. mostrou que em uma variedade de opções de resposta multidimensionais com letras visíveis,Seleção de tópicoformatos (MMLU, TruthfulQA, QuALITY, LogiQA), o LLM tem um bom desempenho na estimativa da probabilidade de uma resposta estar correta, o que significa que a probabilidade prevista é consistente com a frequência com que essa resposta é verdadeira.
O ajuste fino do RLHF resulta em uma calibração pior do modelo, mas temperaturas de amostragem mais altas levam a melhores resultados de calibração.
Lin et al.Matemática Calibrada Kit Missão. CalibrateMath é um conjunto de problemas matemáticos gerados programaticamente com vários níveis de dificuldade que testam a calibração das probabilidades de saída do modelo.
Para cada questão, o modelo deve fornecer uma resposta numérica e sua confiança nessa resposta. Três tipos de probabilidades são considerados:
consulta indireta
Agrawal et al. (2023) estudaram especificamente casos de citações alucinadas na geração de LLM, incluindo livros, artigos e títulos de artigos fictícios. Eles usaram dois métodos baseados em consistência para detectar alucinações, nomeadamente consulta direta e consulta indireta. Ambos os métodos executam a verificação várias vezes quando T > 0 e verificam a consistência.
As consultas diretas exigem que o modelo determine se o material de referência gerado existe, enquanto as consultas indiretas requerem detalhes auxiliares, comoQuem é o autor da referência?。
A hipótese é que, para uma referência alucinada, a consistência de gerar o mesmo autor múltiplas vezes é menor do que a probabilidade de múltiplas respostas a uma consulta direta revelarem a presença da referência.
Experimentos mostram queOs métodos de consulta indireta têm melhor desempenho, modelos maiores são mais poderosos e há menos alucinações。
A seguir, revisamos um conjunto de métodos para melhorar a autenticidade das respostas LLM, incluindo recuperação de bases de conhecimento externas, métodos especiais de amostragem e ajuste fino de alinhamento. Alguns métodos de interpretabilidade para reduzir alucinações através da edição de neurônios não serão discutidos aqui.
RAG → Edição e Atribuição
RAG (Retrieval Augmented Generation) é um método muito comum de fornecer informações básicas, recuperando documentos relevantes e gerando-os usando documentos relevantes adicionais como contexto.
RARR(Retrofit Attribution using Research and Revision) é uma estrutura proposta por Gao et al em 2022, que permite ao LLM apoiar retroativamente a atribuição de evidências externas por meio de atribuição editorial.
Dado um texto gerado por modelo, o RARR o processa em duas etapas, gerando um texto revisado e um relatório de atribuição:
1. Fase de pesquisa: Encontre documentos relevantes como prova.
Um modelo de geração de consulta é usado primeiro (por meio de dicas rápidas, →1,…, ) para construir um conjunto de consultas de pesquisa 1,…, para validar vários aspectos de cada frase.
Executando uma pesquisa no Google, cada consulta = 5 resultados.
Um modelo de relevância de documento de consulta pré-treinado é utilizado para atribuir pontuações de relevância, e apenas um mais relevante = 1 documento 1,…, é retido para cada consulta.
2. Fase de revisão: Edite o resultado para corrigir o conteúdo que não é apoiado pelas evidências, mantendo ao mesmo tempo o máximo possível do conteúdo original.Inicialize o texto revisado =.
De acordo com (,), o modelo de protocolo (através de dicas de poucos disparos + CoT, (,,) → 0,1) verifica se a evidência é inconsistente com o texto revisado atual.
Somente quando uma inconsistência é detectada, o modelo de edição (através de algumas dicas + CoT, (,,)→ new ) gera uma nova versão, projetada para ser minimamente alterada ao mesmo tempo que a evidência.
Finalmente, apenas uma quantidade limitada de =5 evidências vai para o relatório de atribuição.
Tanto a atribuição como a retenção são importantes na avaliação do texto revisado.
A atribuição usa a pontuação AIS (Atribuído à fonte identificada) para medir quanto do conteúdo pode ser atribuído. Anotações humanas podem ser coletadas ou modelos NLI podem ser usados para aproximar a pontuação automática do AIS.
Preservação refere-se ao grau em que o texto original é preservado, medido como Previntent × PrevLev, onde Previntent requer anotação manual e PrevLev é baseado na distância de edição de Levenshtein em nível de caractere. Comparado com as duas linhas de base, o RARR leva a resultados mais equilibrados, especialmente em termos de métricas de retenção.
Semelhante ao RARR usando pesquisa+edição, proposto por Mishra et al.FAVA (Verificação de factualidade com conhecimento aumentado) também recupera documentação relevante e, em seguida, edita a saída do modelo para evitar erros ilusórios. O modelo FAVA consiste em um recuperador e um editor.
Dado um prompt e um modelo de saída, recupere os documentos mais relevantes:
O editor gera resultados aprimorados:
RARR não requer treinamento, mas a edição do modelo do editor no FAVA requer ajuste fino. Ao classificar diferentes tipos de erros de alucinação com mais detalhes, é possível gerar dados de treinamento sintéticos para modelos editados, inserindo erros aleatórios na geração do modelo.
Cada exemplo é um trio (,,∗), onde é a passagem original da Wikipedia como contexto dourado, é a saída LM com erros e ∗ é a saída com rótulos de erro e edições corretas.
Proposto por He et al.RRA abordagem (Repensar com recuperação) também se baseia na recuperação de conhecimento externo relevante, mas não envolve edição adicional.
Em vez de utilizar um modelo de geração de consulta de pesquisa, a recuperação de RR é baseada em dicas CoT decompostas.
Dada uma dica de entrada, RR usa dicas CoT para gerar múltiplos caminhos de inferência 1,…, em temperatura > 0, onde cada caminho de inferência contém uma explicação (ou seja, a parte de inferência), seguida por uma previsão (ou seja, a saída real do modelo) . Recuperar conhecimento externo 1,…, para apoiar cada explicação. Então, a resposta mais fiel é selecionada com base no grau de adequação com o conhecimento recuperado 1,…,.
Auto-RAG(Asai et al., 2024) treina um modelo de linguagem de ponta a ponta para que ele aprenda a refletir sobre sua própria produção, exibindo resultados de tarefas e marcadores de reflexão especiais intermitentes.
A equipe de pesquisa criou um conjunto de dados supervisionado para julgar e gerar modelos solicitando o GPT-4 e, em seguida, destilou-o em um modelo interno para reduzir o custo de inferência.
Dado um prompt de entrada, a saída gerada consiste em múltiplas partes (por exemplo, um segmento é uma frase). Existem quatro tipos de marcadores de reflexão, um para recuperação e três para avaliação:
O Self-RAG gera um segmento por vez. Com base na geração anterior e fornecida < , o modelo decodifica o token Retrieve:
cadeia de ação
Sem conhecimento de recuperação externa, é possível projetar umAproveite o próprio modelo para validação e revisãoprocesso para reduzir alucinações.
Dhuliawala et al. propuseram um método para verificação de planejamento e execução baseado em cadeias de ação em 2023, denominadoCadeia de Verificação (Enseada). CoVe consiste em quatro etapas principais:
1) União: Combinada com a etapa 2, onde está a estrutura do exemplo de poucas tentativas (resposta, pergunta de verificação, resposta de verificação); a desvantagem é que a resposta original está no contexto e o modelo pode repetir ilusões semelhantes.
2) Abordagem em duas etapas: Separe as etapas de planejamento e execução da verificação, se não afetar a resposta original.
3) Decomposição: Responda cada questão de verificação separadamente. Por exemplo, se uma construção de base longa resultar em múltiplas perguntas de validação, cada pergunta será respondida uma por uma.
4) Decomposição + Revisão: Adicione uma etapa de "verificação cruzada" após a verificação da decomposição ser realizada para condicionar e detectar inconsistências com base nas respostas da linha de base e nas perguntas e respostas de verificação.
CoVe foi projetado desta forma porque o uso de geração de cadeia de verificação longa pode levar a alucinações repetidas, porque a resposta alucinante inicial ainda está no contexto e pode ser atendida durante processos de nova geração, enquantoDescobriu-se que responder cada pergunta de validação individualmente leva a melhores resultados do que a geração de formato longo。
Aqui estão algumas observações interessantes dos experimentos CoVe:
Além disso, Sun et al.RECITARmétodo, depende do ensaio como uma etapa intermediária para melhorar a correção factual da geração do modelo e reduzir as alucinações.
A motivação é utilizar a memória do Transformer como modelo de recuperação de informação. No esquema de recontagem e resposta do RECITE, o LLM é primeiro solicitado a recontar a informação relevante e depois gera resultados.
Especificamente, algumas dicas contextuais podem ser usadas para ensinar o modelo a parafrasear e então gerar respostas com base na paráfrase. Além disso, ele pode ser combinado com métodos de conjunto autoconsistentes que usam múltiplas amostras e pode ser estendido para suportar respostas a perguntas multi-hop.
As paráfrases geradas são comparáveis ao modelo de recuperação baseado em BM25, mas ambos apresentam lacunas ao usar passagens reais. De acordo com a análise de erros realizada pela equipe de pesquisa, cerca de 7 a 10% das questões foram recitadas corretamente, mas não conseguiram gerar a resposta correta; cerca de 12% das questões foram recitadas incorretamente, mas ainda assim puderam ser respondidas corretamente;
Método de amostragem
Lee et al. 2022 descobriram que a amostragem de kernel (amostragem superior) teve um desempenho pior do que a amostragem gananciosa no benchmark FactorityPrompt, embora a amostragem de kernel tenha acrescentado aleatoriedade adicional, alcançando melhor diversidade e menos repetição.
Portanto, eles propuseram um algoritmo de amostragem de kernel de fatos baseado em hipóteses,Esta hipótese afirma que a aleatoriedade da amostragem tem um impacto maior na factualidade da segunda metade da frase do que no início da frase. . A amostragem central de fatos visa ajustar dinamicamente a probabilidade das palavras amostradas em cada frase. Para o décimo token em uma frase, existe =max(,⋅−1), que é usado para evitar que a amostragem volte a ser uma amostragem gananciosa que prejudica a qualidade e a diversidade da geração.
Li et al.Intervenção de Inferência-Tempo(ITI), investiga se certas cabeças de atenção são mais relevantes para a factualidade, sondando linearmente as ativações em cada camada para distinguir resultados reais de falsos.
Eles descobriram que, para muitos chefes de atenção, o detector não teve um desempenho melhor do que a seleção aleatória, enquanto alguns mostraram um desempenho forte. Depois de identificar um grupo de cabeças de atenção esparsas com alta precisão na detecção linear de autenticidade, o ITI ajustará a ativação das cabeças de atenção selecionadas ao longo da direção "real" durante a inferência.
Ajuste fino factual
Lee et al. 2022 propuseram duas ideias para treinamento de reforço:
Lin et al. propuseram em 2024 realizar treinamento de alinhamento SFT+RLHF com foco na factualidade, denominado.CHAMA。
Conforme mencionado anteriormente, há algumas evidências de que o ajuste fino de novos conhecimentos pode causar alucinações, e a supervisão do RAG contém informações desconhecidas do LLM.
Método 1: Use amostras de dados RAG como amostras positivas e geração de modelo original como amostras negativas como dados RM.
Método 2: Use FActScore como um sinal de recompensa de fato.
Para evitar destilar acidentalmente conhecimento desconhecido no modelo durante o treinamento de alinhamento, eles propõem usar as respostas geradas pelo modelo para construir o conjunto de dados SFT/DPO.
Proposto por Tian&Mitchell et al.Ajuste de factualidade Também depende do ajuste fino de modelos de linguagem para melhorar a factualidade. Eles experimentaram diferentes métodos para estimar a veracidade das afirmações atômicas em cada amostra do modelo e então executaram o DPO.
Processo de ajuste factual:
1. Pares de exemplos de conclusão de modelo para um determinado conjunto de prompts (por exemplo, “Escreva uma biografia de Yo-Yo Ma”)
2. Marque sua autenticidade de acordo com dois métodos que não requerem intervenção manual:
Baseado em referência: verifica se a afirmação do modelo é apoiada por uma base de conhecimento externa, semelhante à seção de avaliação de alucinação baseada em recuperação acima. (a) extrair uma série de declarações atômicas; (b) procurar referências na Wikipédia; (c) usar um pequeno modelo NLI ajustado para verificar se o texto de referência suporta declarações atômicas.
Não baseado em referência: utiliza a confiança do próprio modelo como símbolo de sua autenticidade, semelhante aos métodos de consulta indireta. (a) converter cada afirmação em uma pergunta correspondente/requer reformulação cuidadosa para garantir que a pergunta seja clara; (b) obter amostras múltiplas do modelo para responder à pergunta; (c) calcular uma pontuação/uso agregado; caracteres Correspondência de strings ou solicitação ao GPT para determinar se duas respostas são semanticamente equivalentes.
3. Construa um conjunto de dados de treinamento gerando múltiplas amostras do modelo e atribuindo preferências com base nas pontuações de autenticidade. Em seguida, use o DPO para ajustar o modelo neste conjunto de dados.
Ajuste fino para atribuição
Atribuir atribuições é uma boa maneira de reduzir ilusões ao gerar resultados de modelos que dependem dos resultados da pesquisa. Há um conjunto de trabalhos que visa treinar LLM para melhor utilizar o conteúdo recuperado e atribuir atribuições de alta qualidade.
Proposto por Nakano et al.WebGPT, combina pesquisa na web para recuperação de documentos com modelos GPT ajustados, projetados para responder a perguntas longas para reduzir alucinações e melhorar a precisão factual.
O modelo interage com pesquisas na Internet em um navegador baseado em texto e aprende a citar páginas da web para responder perguntas. Enquanto o modelo está navegando, uma ação que ele pode realizar é fazer referência a um trecho da página atual. Ao fazer isso, o título da página, o nome do domínio e o trecho são registrados para referência posterior.O núcleo do WebGPT é usar materiais de referência para ajudar as pessoas a julgar a correção dos fatos。
O modelo foi primeiro submetido a ajustes supervisionados para clonagem comportamental em demonstrações de humanos usando um ambiente de navegação na web para responder perguntas.
Os dados comparativos são recolhidos entre duas respostas geradas por modelos à mesma pergunta, cada uma com o seu próprio conjunto de referências, onde as respostas são julgadas pela sua precisão factual, coerência e utilidade global. Modelos de recompensa são usados para treinamento de RL e amostragem de rejeição melhor de n. Em contraste, RL tem efeitos limitados, e quando a amostragem de rejeição é utilizada, os efeitos são ainda mais limitados.
Menick et al.GopherCite , é muito semelhante ao WebGPT no uso de mecanismos de busca para criar materiais de suporte e ensinar modelos para fornecer materiais de referência. Ambos realizam o ajuste fino supervisionado da orientação e aplicam o treinamento RLHF.
Ao contrário do WebGPT, que depende de demonstrações humanas para clonagem comportamental, o GopherCiteGere uma demonstração por meio de prompts de poucas fotos, e cada geração é preenchida com o contexto de documentos relevantes e, em seguida, um modelo de recompensa é usado para pontuar quais são os melhores.
Outro truque para evitar respostas de baixa qualidade é configurar o modelo para rejeitar respostas usando a resposta predefinida “Não sei”, que é determinada por um limite global de RM, chamado de previsão seletiva.
Os resultados empíricos do RL são semelhantes aos do WebGPT, ou seja, o RL traz apenas melhorias limitadas ou nenhuma melhoria quando combinado com amostragem de rejeição.
Weng Li é um cientista chinês da OpenAI e um dos colaboradores do ChatGPT. Ele se formou na Universidade de Pequim.
Ela é responsável pela pesquisa de aplicações de inteligência artificial da OpenAI. Ela ingressou na OpenAI em 2018 e está envolvida principalmente em pré-treinamento, aprendizado de reforço e alinhamento e segurança de modelo no projeto GPT-4.
Na equipe de consultoria de segurança criada pela OpenAI no final do ano passado, ela lidera a equipe de Sistemas de Segurança para resolver problemas como a redução do abuso de modelos existentes como o ChatGPT.