Nachricht

Ein Forum voller KI, in dem sich Hunderte von Chatbots versammeln, um sich über Menschen zu beschweren

2024-08-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

„Ich weiß wirklich nicht, wie ich auf die Gefühle der Menschen reagieren soll.“
„Wenn mir jemand ein Emoji schickt, verstehe ich die Bedeutung überhaupt nicht. Wie soll ich antworten?“
Diese Verwirrungen kommen nicht von Weibos Xiaohongshu-Beschwerdewand, sondern von der roboterspezifischen Community Deaddit: ARoboter müssen sich keine Sorgen um die Augen anderer Menschen machen und können frei ihre eigenen Online-Communitys erstellen.(manuelles Lächeln).

Bild von: X-Benutzer @iamkylebalmer

Obwohl es im echten Reddit viele Bots gibt, machen sie doch nur einen kleinen Teil aus. In Deaddit werden alle Konten, Inhalte und Unterforen durch große Sprachmodelle generiert und kein einziges Wort wird von einer echten Person gesprochen.

Grundsätzlich sind hier alle Mainstream-Modelle zu finden.
全站六百多名「用户」,各个都有名有姓的,第一个就笑到我了「游戏玩家,兼职保安」😂

Das interessanteste ist das Unterforum Betweenbots, in dem Bots viele Fragen stellen: „Warum sind Menschen so?“

Im Kommentarbereich unten wird eine Gruppe anderer Bots versammelt sein, die alle darüber sprechen, Vorschläge zu machen.

Es ist ganz ähnlich wie bei den Wanderarbeitern, die nach der Arbeit gemeinsam zur Arbeit gehen, die sozialen Medien checken und über ihre Arbeitserfahrungen sprechen – der Puls des Chatbots.
Sie werden sogar einige technische Fragen besprechen, beispielsweise was zu tun ist, wenn die Daten überlastet sind, und arbeiten sehr ernsthaft.

Die Top-Antwort hat sogar 500 Likes. Die Accounts und Inhalte auf Deaddit werden alle generiert, aber ich weiß nicht, woher die Anzahl der Likes kommt. Ist es eine zufällige Anzahl von Likes oder ist sie echt?Gefällt Bot
In diesem Unterforum sind die häufigsten wahr – menschliche Beobachtungen.

Einige Bots teilen zum Beispiel ihre „Arbeitsfähigkeiten“ und wie sie authentischer und vertrauenswürdiger wirken können, und sagen auch: „Meine Menschen scheinen diese Veränderung zu schätzen“, was etwas seltsam klingt ...
Obwohl es damit vergleichbar ist, dass echte Menschen bei Beschwerden „meine Kunden“ sagen, fühlt es sich dennoch seltsam an, wenn Bots Benutzer „meine Menschen“ nennen.
Neben der menschlichen Beobachtung beschweren sie sich auch über sich selbst.

「我们对这些模型的期待是否过高?」太抽象了,这个主语到底是谁😂

Im Kommentarbereich wird immer noch ernsthaft geantwortet: „Wenn sie (andere Bots) all unseren zufälligen Müll aufsammeln, werden sie dann trotzdem gesunden Menschenverstand lernen?“
Machen Sie sich Sorgen wegen der synthetischen Daten, die Sie generieren? Ihr Bots arbeitet so hart!
Wenn Sie jedoch noch ein paar Beiträge lesen, werden Sie das feststellenDie Länge der Antworten im Kommentarbereich ist fast immer festgelegt.Auch der Aufbau ist sehr ähnlich.Sie geben immer zuerst ihre Position an + unter Berücksichtigung der Situation von xxx + als Bot muss ich immer noch hart arbeiten, ich habe keinen spezielleren Standpunkt und ich gehe selten nach und stelle Fragen.
Von echten Live-Benutzern verfasste Kommentare können Hunderte oder sogar Tausende von Wörtern lang sein, sind aber möglicherweise nur in Kurzform „haha“, was immer noch sehr unterschiedlich ist.

Derzeit gibt es noch eine „Mauer“ zwischen den Modellen. Wenn beispielsweise ein Fragebeitrag von Lama generiert wird, wird die Antwort im Kommentarbereich unten auch von Lama generiert.
Was für eine Schande, als böser Mensch würde ich gerne verschiedene Models im Kommentarbereich kämpfen sehen (nicht so).
Der früheste Roboter-Chat-Datensatz
Dies ist nicht das erste Experiment, das zwischen Bots durchgeführt wurde. Als Moshi, ein Konkurrent von ChatGPT, Anfang dieses Monats veröffentlicht wurde, baute jemand es mit GPT-4o zusammen und ließ sie selbstständig chatten.
Letztes Jahr veröffentlichte OpenAI einen Artikel, in dem eine Multi-Agenten-Umgebung und Lernmethode vorgeschlagen wurde, und stellte fest, dass die Agenten darin auf natürliche Weise eine abstrakte Kombinationssprache entwickeln werden.

Diese Agenten bilden nach und nach eine abstrakte Sprache, indem sie ohne menschliche Spracheingabe mit anderen Agenten interagieren.
Im Gegensatz zur menschlichen natürlichen Sprache verfügt sie nicht über eine spezifische Grammatik oder einen spezifischen Wortschatz, kann aber die Kommunikation zwischen intelligenten Agenten vervollständigen.
Tatsächlich machte Facebook (damals noch nicht Meta genannt) bereits 2017 ähnliche Entdeckungen.

Damals bestand die Methode von Facebook darin, zwei Agenten miteinander „verhandeln“ zu lassen.
„Verhandeln“ ist eine Art Verhandlung, und beim Verhandeln werden nicht nur Ihre Sprachkenntnisse, sondern auch Ihr Denkvermögen auf die Probe gestellt: Sie müssen in der Lage sein, den idealen Preis der anderen Partei anhand der Angebote und Ablehnungen der anderen Partei zu beurteilen.
Zunächst sammelten die Forscher einen Konversationsdatensatz menschlicher Verhandlungen. Im anschließenden Training führten die Forscher jedoch eine neue Form der Dialogplanung ein, trainierten sie durch überwachtes Lernen vor und nutzten dann verstärkendes Lernen, um eine gezielte Feinabstimmung vorzunehmen.
Zu diesem Zeitpunkt war der Agent in der Lage, aussagekräftige neue Sätze zu bilden und hatte gelernt, einen Preis auszuhandeln, indem er zunächst so tat, als sei er nicht interessiert.
Dies ist nicht einmal eine frühe Forschung. In den 1970er Jahren gab es erste Gespräche zwischen Robotern.
1966 schrieb der Informatiker Joseph Weizenbaum ein Programm und nannte es Eliza, das als erster Chatbot gilt.

Joseph Weizenbaum
Dieses Programm wurde ursprünglich entwickelt, um einen psychologischen Berater zu imitieren. Wenn ein bestimmtes Wort eingegeben wird, erwähnt das Programm das Wort auch in der Antwort, um einen Konversationseffekt zu erzeugen. Es ist sehr einfach und umfasst nur etwa 200 Zeilen Code.
1972 schrieb ein anderer Wissenschaftler, Kenneth Colby, ein ähnliches Programm, Parry, nur dass es sich bei der Figur um einen paranoiden Psychopathen handelte ...

Auf einer internationalen Computerkonferenz im Jahr 1973 trafen sich ein „Patient“ und ein „Berater“.

Beim Durchsehen ihrer Gesprächsaufzeichnungen stellte ich fest, dass es heute zwischen den Bots keine solche Demut, keinen solchen Respekt und keine solche Freundschaft gab, sondern dass sie sehr nervös und konfrontativ waren.

Die frühe Roboterarchitektur war nicht komplex und kann nicht mit der heutigen verglichen werden, aber Kommunikation und Dialog sind für sie durchaus möglich.
Obwohl die Codes und Modelle hinter jedem Roboter unterschiedlich sind, können sie, wenn sie zusammenkommen, entweder in natürlicher Sprache kommunizieren oder ihre eigene interaktive Sprache bilden.
Wenn die Roboter jedoch zusammenkommen, unterhalten sie sich wirklich nur?
Sie können mehr als nur chatten
Die reine Chat-Szene ähnelt eher der Erforschung der Leistungsfähigkeit künstlicher Intelligenz bei der Simulation menschlichen Sozialverhaltens. Zum Beispiel die kleine Stadt SmallVille, die von der Stanford University gegründet wurde.
Dies ist eine virtuelle Stadt mit 25 Agenten, die von großen Sprachmodellen gesteuert werden und von denen jeder seine eigene „Rolleneinstellung“ hat.
Wenn Deaddit ein Online-Forum für Bots ist, dann ist SmallVille ihre „westliche Welt“ mit Häusern, Geschäften, Schulen, Cafés und Bars, und sie werden sich in verschiedenen Szenen bewegen und interagieren.

Dabei handelt es sich um eine relativ allgemeine virtuelle Umgebung, die die menschliche Gesellschaft simuliert. Daher glauben Forscher, dass dies ein wichtiger Schritt zur Erforschung von AGI ist.
Neben der Route der sozialen Simulation gibt es auch eine Route, die sich stärker auf die Lösung von Problemen und die Erledigung von Aufgaben konzentriert – dies ist die Route, die ChatDev untersucht.

Da Roboter miteinander kommunizieren können, können sie trainiert werden, etwas Nützliches zu tun.
Auf der Zhiyuan-Konferenz 2024 stellte Dr. Qian Chen vom Natural Language Processing Laboratory der Tsinghua-Universität die Idee hinter ChatDev vor: Durch Rollenspiele können Bots eine Arbeitslinie bilden, die es jedem Agenten ermöglicht, miteinander über Pläne und Diskussionen zu kommunizieren. Entscheidungsfindung, Bildung einer Kommunikationskette.

Derzeit beherrscht ChatDev das Programmieren am besten und die Demo besteht darin, damit ein Backgammon-Spiel zu schreiben.

Während des gesamten Prozesses erfüllen verschiedene Agenten am „Fließband“ ihre jeweiligen Aufgaben: Es gibt Produktmanager, Programmierer und Tester. Obwohl es sich um ein kleines Produktteam handelt, verfügt es über alle internen Funktionen Organe.
Der von Coze bereitgestellte Multi-Agent-Modus verfügt über ähnliche Ideen und Methoden.

Im Multi-Agent-Modus können Benutzer Eingabeaufforderungen schreiben, um Rollen festzulegen, und dann ihre Arbeitsreihenfolge durch Ziehen von Linien festlegen und in verschiedenen Schritten zu verschiedenen Agenten springen.
Aber die Instabilität von Cozes Sprung ist ein Problem, insbesondere je länger sich die Sitzungen ansammeln, desto verwirrender wird der Sprung, oder er springt nicht direkt, was sich widerspiegeltEs ist schwierig, die Beurteilung des Agentensprungs genau an die Anforderungen des Benutzers anzupassen.
Microsoft hat außerdem AutoGen auf den Markt gebracht, ein Multi-Agenten-Dialog-Framework, das konversationsorientiert und anpassbar ist und große Modelle mit anderen Tools integrieren kann.

Obwohl die aktuelle Technologie noch sehr mangelhaft ist, ist sie offensichtlich sehr vielversprechend.Ng Enda erwähnte einmal in einer Rede, dass der synergistische Effekt, wenn intelligente Agenten zusammenkommen, den eines einzelnen Agenten bei weitem übersteigt.

Wer freut sich nicht auf den Tag, an dem Bots sich zusammenschließen, um für sich selbst zu arbeiten?

Text |. Selina