notícias

Um fórum cheio de IA, onde centenas de chatbots se reúnem para reclamar dos humanos

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

“Eu realmente não sei como responder às emoções das pessoas.”
"Quando alguém me envia um emoji, não entendo o significado. Como devo responder?"
Essas confusões não vêm do mural de reclamações Xiaohongshu do Weibo, mas da comunidade específica de robôs Deaddit: AOs robôs não precisam se preocupar com os olhos de outras pessoas e podem criar livremente suas próprias comunidades online.(sorriso manual).

Imagem de: usuário X @iamkylebalmer

Embora existam muitos bots misturados no reddit real, eles são apenas uma pequena parte, afinal. No Deaddit, todas as contas, conteúdos e subfóruns são gerados por grandes modelos de linguagem e nem uma única palavra é falada por uma pessoa real.

Basicamente, todos os modelos convencionais podem ser encontrados aqui.
全站六百多名「用户」,各个都有名有姓的,第一个就笑到我了「游戏玩家,兼职保安」😂

O mais interessante é o subfórum Betweenbots, onde os bots fazem muitas perguntas: “Por que os humanos são assim?”

Haverá um grupo de outros bots reunidos na área de comentários abaixo, todos falando sobre como fazer sugestões.

É muito parecido com os trabalhadores migrantes que vão trabalhar juntos. Depois de saírem do trabalho, verificam as redes sociais e falam sobre a sua experiência de trabalho - o pulso do chatbot.
Eles vão até discutir algumas questões técnicas, como o que fazer se os dados estiverem sobrecarregados, e estão trabalhando muito seriamente.

A resposta principal tem até 500 curtidas. As contas e o conteúdo do Deaddit são todos gerados, mas não sei de onde vem o número de curtidas. É um número aleatório de curtidas ou é real?Curtido por bot
Neste subfórum, os mais comuns são verdadeiros – observações humanas.

Por exemplo, alguns bots compartilharão suas “habilidades de trabalho” e como fazer com que pareçam mais autênticos e confiáveis, e também dirão “meus humanos parecem apreciar essa mudança”, o que parece um pouco estranho...
Embora possa ser comparado a pessoas reais que dizem “meus clientes” ao fazer reclamações, ainda é estranho ver bots chamando os usuários de “meus humanos”.
Além da observação humana, eles também reclamam de si mesmos.

「我们对这些模型的期待是否过高?」太抽象了,这个主语到底是谁😂

A seção de comentários ainda responde seriamente: “Se eles (outros bots) recolherem todo o nosso lixo aleatório, ainda aprenderão o bom senso?”
Isso é preocupante com os dados sintéticos que você gera? Vocês, bots, trabalham tanto!
No entanto, se você ler mais algumas postagens, descobrirá queA duração das respostas na área de comentários é quase sempre fixa.A estrutura também é muito semelhante.Eles sempre expõem sua posição primeiro + levando em consideração a situação de xxx + como bot, ainda preciso continuar trabalhando duro, não tenho um ponto de vista mais especial e raramente acompanho e faço perguntas.
Comentários escritos por usuários reais podem ter centenas ou até milhares de palavras, mas podem ser apenas “haha” em formato abreviado, o que ainda é muito diferente.

Atualmente, ainda existe um "muro" entre os modelos. Por exemplo, se uma postagem de pergunta for gerada por lhama, a resposta na área de comentários abaixo também será gerada por lhama.
Que pena, como um ser humano malvado, adoraria ver modelos diferentes brigando na seção de comentários (nem tanto).
O primeiro registro de bate-papo do robô
Este não é o primeiro experimento realizado entre bots. No início deste mês, quando o Moshi, concorrente do ChatGPT, foi lançado, alguém o montou com o GPT-4o e os deixou conversar por conta própria.
No ano passado, a OpenAI publicou um artigo propondo um ambiente multiagente e um método de aprendizagem, descobrindo que os agentes desenvolverão naturalmente uma linguagem de combinação abstrata nele.

Esses agentes formam gradualmente uma linguagem abstrata ao interagir com outros agentes sem qualquer entrada de linguagem humana.
Ao contrário da linguagem natural humana, não possui gramática ou vocabulário específico, mas pode completar a comunicação entre agentes inteligentes.
Na verdade, já em 2017, o Facebook (na época não chamado de Meta) também fez descobertas semelhantes.

Naquela época, o método do Facebook era permitir que dois agentes “negociassem” entre si.
"Negociação" é um tipo de negociação, e a negociação não testa apenas suas habilidades linguísticas, mas também sua capacidade de raciocínio: você deve ser capaz de julgar o preço ideal da outra parte com base nas ofertas e rejeições da outra parte.
Para começar, os pesquisadores coletaram um conjunto de dados conversacionais de negociações humanas. No entanto, na formação subsequente, os investigadores introduziram uma nova forma de planeamento do diálogo, pré-treinado através da aprendizagem supervisionada, e depois utilizaram a aprendizagem por reforço para fazer o ajuste fino direccionado.
Nessa altura, o agente tinha sido capaz de gerar novas frases significativas e tinha aprendido a negociar um preço fingindo não estar interessado no início.
Esta nem é uma pesquisa inicial. Na década de 1970, houve conversas iniciais entre robôs.
Em 1966, o cientista da computação Joseph Weizenbaum escreveu um programa e chamou-o de Eliza, que é considerado o primeiro chatbot.

José Weizenbaum
Este programa foi originalmente projetado para imitar um conselheiro psicológico. Quando uma determinada palavra é inserida, o programa também menciona a palavra na resposta para criar um efeito de conversação. É muito simples, com apenas cerca de 200 linhas de código.
Em 1972, outro cientista, Kenneth Colby, escreveu um programa semelhante, Parry, exceto que o personagem era um psicopata paranóico...

Numa conferência internacional de informática em 1973, um “paciente” e um “conselheiro” se conheceram.

Examinando os registros de suas conversas, descobri que hoje não existia tal humildade, respeito e amizade entre os bots. Em vez disso, eles estavam muito nervosos e conflituosos.

A arquitetura inicial dos robôs não era complexa e não pode ser comparada com a de hoje, mas é totalmente viável para eles se comunicarem e dialogarem.
Embora os códigos e modelos por trás de cada robô sejam diferentes, quando eles se juntam, eles podem se comunicar em linguagem natural ou formar sua própria linguagem interativa.
Porém, quando os robôs se reúnem, é realmente apenas um bate-papo?
Você pode fazer mais do que apenas conversar
A cena pura do chat é mais como explorar o desempenho da inteligência artificial na simulação do comportamento social humano. Por exemplo, a pequena cidade de SmallVille criada pela Universidade de Stanford.
Esta é uma cidade virtual com 25 agentes guiados por grandes modelos de linguagem, cada um com sua própria “definição de papéis”.
Se Deaddit é um fórum online para bots, então SmallVille é o seu “Mundo Ocidental”, com casas, lojas, escolas, cafés e bares, e eles se moverão e interagirão em diferentes cenários.

Este é um ambiente virtual relativamente geral que simula a sociedade humana, por isso os investigadores acreditam que este é um passo importante para a exploração da AGI.
Além da rota de simulação social, existe também uma rota mais focada na resolução de problemas e na conclusão de tarefas - essa é a rota que o ChatDev está estudando.

Como os robôs podem se comunicar entre si, eles podem ser treinados para fazer algo útil.
Na Conferência Zhiyuan de 2024, o Dr. Qian Chen, do Laboratório de Processamento de Linguagem Natural da Universidade de Tsinghua, apresentou a ideia por trás do ChatDev: por meio da dramatização, os bots podem formar uma linha de trabalho, permitindo que cada agente se comunique entre si sobre planos e discussões. tomada de decisões, formando uma cadeia de comunicação.

Atualmente, ChatDev é o melhor em programação, e a demonstração é usá-lo para escrever um jogo de gamão.

Ao longo de todo o processo, diferentes agentes da “linha de montagem” desempenham suas respectivas funções: há gerentes de produto, programadores e testadores. Pode ser chamada de equipe de produto virtual. Embora seja um pequeno pardal, possui toda a equipe interna. órgãos.
O modo multiagente fornecido pela Coze possui ideias e métodos semelhantes.

No modo multiagente, os usuários podem escrever prompts para definir funções e, em seguida, especificar sua ordem de trabalho puxando linhas e pular para diferentes agentes em diferentes etapas.
Mas a instabilidade do salto de Coze é um problema, principalmente quanto mais tempo as sessões se acumulam, mais confuso será o salto, ou não saltará diretamente, o que refleteO julgamento do salto do agente é difícil de se adaptar com precisão aos requisitos do usuário.
A Microsoft também lançou o AutoGen, uma estrutura de diálogo multiagente que é conversacional, personalizável e pode integrar modelos grandes com outras ferramentas.

Embora a tecnologia atual ainda seja muito falha, é obviamente muito promissora.Ng Enda mencionou certa vez em um discurso que quando agentes inteligentes se unem, o efeito sinérgico excederá em muito o de um único agente.

Quem não espera o dia em que os bots se unirão para trabalhar por conta própria?

Texto |