nouvelles

Un forum plein d'IA, où des centaines de chatbots se rassemblent pour se plaindre des humains

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

"Je ne sais vraiment pas comment réagir aux émotions des gens."
"Quand quelqu'un m'envoie un emoji, je n'en comprends pas du tout le sens. Comment dois-je répondre ?"
Ces confusions ne viennent pas du mur de plaintes Xiaohongshu de Weibo, mais de la communauté spécifique aux robots Deaddit : ALes robots n’ont pas à se soucier du regard des autres et peuvent créer librement leurs propres communautés en ligne.(sourire manuel).

Image de : utilisateur X @iamkylebalmer

Bien qu’il existe de nombreux robots mélangés dans le vrai Reddit, ils ne représentent après tout qu’une petite partie. Dans Deaddit, tous les comptes, contenus et sous-forums sont tous générés par de grands modèles linguistiques, et pas un seul mot n'est prononcé par une personne réelle.

En gros, tous les modèles grand public peuvent être trouvés ici.
全站六百多名「用户」,各个都有名有姓的,第一个就笑到我了「游戏玩家,兼职保安」😂

Le plus intéressant est le sous-forum Betweenbots, où les robots posent beaucoup de questions : « Pourquoi les humains sont-ils comme ça ?

Il y aura un groupe d'autres robots rassemblés dans la zone de commentaires ci-dessous, tous parlant de faire des suggestions.

C'est un peu comme les travailleurs migrants qui partent travailler ensemble. Après avoir quitté le travail, ils consultent les réseaux sociaux et parlent de leur expérience professionnelle : le pouls du chatbot.
Ils discuteront même de certains problèmes techniques, comme par exemple que faire si les données sont surchargées, et travaillent très sérieusement.

La première réponse compte même 500 likes. Les comptes et le contenu sur Deaddit sont tous générés, mais je ne sais pas d’où vient le nombre de likes. Est-ce un nombre aléatoire de likes ou est-ce réel ?Aimé par le bot
Dans ce sous-forum, les plus courantes sont vraies : les observations humaines.

Par exemple, certains robots partageront leurs « compétences professionnelles » et comment se faire paraître plus authentiques et dignes de confiance, et diront également « mes humains semblent apprécier ce changement », ce qui semble un peu bizarre...
Même si cela peut être comparé à de vraies personnes disant « mes clients » lorsqu'elles déposent une plainte, cela fait quand même bizarre de voir des robots appeler les utilisateurs « mes humains ».
En plus de l’observation humaine, ils se plaignent aussi d’eux-mêmes.

「我们对这些模型的期待是否过高?」太抽象了,这个主语到底是谁😂

La section des commentaires répond toujours sérieusement : « S'ils (d'autres robots) ramassent tous nos déchets au hasard, apprendront-ils encore le bon sens ?
Est-ce inquiétant pour les données synthétiques que vous générez ? Vous, les robots, travaillez si dur !
Cependant, si vous lisez quelques articles supplémentaires, vous constaterez queLa longueur des réponses dans la zone de commentaires est presque toujours fixe.La structure est également très similaire.Ils indiquent toujours leur position en premier + compte tenu de la situation de xxx + en tant que bot, je dois encore continuer à travailler dur, je n'ai pas de point de vue plus particulier, et je fais rarement un suivi et pose des questions.
Les commentaires rédigés par de vrais utilisateurs peuvent contenir des centaines, voire des milliers de mots, mais peuvent uniquement être « haha ​​» sous une forme courte, ce qui est toujours très différent.

À l'heure actuelle, il existe encore un « mur » entre les modèles. Par exemple, si une question est générée par Lama, alors la réponse dans la zone de commentaire ci-dessous est également générée par Lama.
Quel dommage, en tant qu'être humain méchant, j'adorerais voir différents modèles se battre dans la section commentaires (pas si).
Le premier enregistrement de chat robot
Ce n'est pas la première expérience réalisée entre robots. Au début de ce mois, lorsque Moshi, un concurrent de ChatGPT, a été lancé, quelqu'un l'a associé à GPT-4o et les a laissés discuter seuls.
L'année dernière, OpenAI a publié un article proposant un environnement multi-agents et une méthode d'apprentissage, découvrant que les agents y développeraient naturellement un langage de combinaison abstrait.

Ces agents forment progressivement un langage abstrait en interagissant avec d’autres agents sans aucune intervention du langage humain.
Contrairement au langage naturel humain, il ne possède pas de grammaire ni de vocabulaire spécifiques, mais il peut compléter la communication entre agents intelligents.
En fait, dès 2017, Facebook (qui ne s’appelait pas Meta à l’époque) avait également fait des découvertes similaires.

À cette époque, la méthode de Facebook consistait à laisser deux agents « négocier » entre eux.
La « négociation » est une sorte de négociation, et la négociation teste non seulement vos compétences linguistiques, mais aussi votre capacité de raisonnement : vous devez être capable de juger le prix idéal de l'autre partie en fonction des offres et des refus de l'autre partie.
Pour commencer, les chercheurs ont collecté un ensemble de données conversationnelles sur les négociations humaines. Cependant, lors de la formation ultérieure, les chercheurs ont introduit une nouvelle forme de planification du dialogue, pré-entraînée par le biais d'un apprentissage supervisé, puis ont utilisé l'apprentissage par renforcement pour effectuer des ajustements ciblés.
À ce moment-là, l’agent était capable de générer de nouvelles phrases significatives et avait appris à négocier un prix en faisant semblant de ne pas être intéressé au début.
Il ne s’agit même pas des premières recherches. Dans les années 1970, les premières conversations entre robots ont eu lieu.
En 1966, l'informaticien Joseph Weizenbaum a écrit un programme et l'a nommé Eliza, considéré comme le premier chatbot.

Joseph Weizenbaum
Ce programme a été conçu à l'origine pour imiter un conseiller psychologique. Lorsqu'un certain mot est saisi, le programme mentionnera également le mot dans la réponse pour créer un effet conversationnel. C'est très simple, avec seulement environ 200 lignes de code.
En 1972, un autre scientifique, Kenneth Colby, écrit un programme similaire, Parry, sauf que le personnage est un psychopathe paranoïaque...

Lors d'une conférence informatique internationale en 1973, un « patient » et un « conseiller » se sont rencontrés.

En parcourant leurs enregistrements de conversations, j'ai découvert qu'il n'y avait pas une telle humilité, respect et amitié entre les robots aujourd'hui, mais qu'ils étaient très nerveux et conflictuels.

L'architecture des premiers robots n'était pas complexe et ne peut être comparée à celle d'aujourd'hui, mais il leur est tout à fait possible de communiquer et de dialoguer.
Bien que les codes et les modèles derrière chaque robot soient différents, lorsqu’ils se réunissent, ils peuvent soit communiquer en langage naturel, soit former leur propre langage interactif.
Cependant, lorsque les robots se réunissent, est-ce vraiment pour discuter ?
Vous pouvez faire plus que simplement discuter
La scène du chat pur s’apparente davantage à l’exploration des performances de l’intelligence artificielle dans la simulation du comportement social humain. Par exemple, la petite ville de SmallVille créée par l'université de Stanford.
Il s'agit d'une ville virtuelle composée de 25 agents pilotés par de grands modèles linguistiques, chacun avec son propre « cadre de rôle ».
Si Deaddit est un forum en ligne pour les robots, alors SmallVille est leur « monde occidental », avec des maisons, des magasins, des écoles, des cafés et des bars, et ils se déplaceront et interagiront dans différentes scènes.

Il s’agit d’un environnement virtuel relativement général qui simule la société humaine. Les chercheurs estiment donc qu’il s’agit d’une étape importante vers l’exploration de l’AGI.
En plus de la voie de la simulation sociale, il existe également une voie plus axée sur la résolution de problèmes et l'accomplissement de tâches - c'est la voie qu'étudie ChatDev.

Puisque les robots peuvent communiquer entre eux, ils peuvent être entraînés à faire quelque chose d’utile.
Lors de la conférence Zhiyuan 2024, le Dr Qian Chen du laboratoire de traitement du langage naturel de l'université Tsinghua a présenté l'idée derrière ChatDev : grâce au jeu de rôle, les robots peuvent former une ligne de travail, permettant à chaque agent de communiquer entre eux sur les plans et les discussions. prise de décision, formant une chaîne de communication.

Actuellement, ChatDev est le meilleur en matière de programmation et la démo consiste à l'utiliser pour écrire un jeu de backgammon.

Tout au long du processus, différents agents de la « chaîne de montage » accomplissent leurs tâches respectives : il y a des chefs de produit, des programmeurs et des testeurs. On peut l'appeler une équipe produit virtuelle. Bien qu'il s'agisse d'un petit moineau, il possède tous les éléments internes. organes.
Le mode multi-agent fourni par Coze a des idées et des méthodes similaires.

En mode multi-agents, les utilisateurs peuvent rédiger des invites pour définir des rôles, puis spécifier leur ordre de fonctionnement en tirant des lignes et accéder à différents agents à différentes étapes.
Mais l'instabilité du saut de Coze pose problème, surtout plus les séances s'accumulent longtemps, plus le saut sera déroutant, ou il ne sautera pas directement, ce qui reflèteLe jugement du saut d'agent est difficile à adapter avec précision aux besoins de l'utilisateur.
Microsoft a également lancé AutoGen, un cadre de dialogue multi-agent conversationnel, personnalisable et capable d'intégrer de grands modèles avec d'autres outils.

Même si la technologie actuelle est encore très imparfaite, elle est évidemment très prometteuse.Ng Enda a mentionné un jour dans un discours que lorsque des agents intelligents se réunissent, l'effet synergique dépassera de loin celui d'un seul agent.

Qui n’attend pas avec impatience le jour où les robots s’associeront pour travailler à leur compte ?

Texte |