Nachricht

Das zweite Opfer von „Black Myth: Wukong“ tauchte auf und wurde tatsächlich durch eine KI-Suche verursacht

2024-08-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

Organisieren |. Huawei, Nuka-Cola

Vor Kurzem erfreute sich das inländische AAA-Spielemeisterwerk „Black Myth: Wukong“ im gesamten Internet großer Beliebtheit und erregte kurz nach seiner Veröffentlichung weltweite Aufmerksamkeit. Laut Statistiken der National Games-Bestsellerliste überstieg der Gesamtumsatz des Spiels auf mehreren Plattformen an nur einem Tag 4,5 Millionen Exemplare und der Gesamtumsatz überstieg 1,5 Milliarden Yuan. Gleichzeitig gab es auch einige „Opfer“, die von der Beliebtheit seiner Spiele betroffen waren.

An dem Tag, an dem „Black Myth: Wukong“ auf Steam freigeschaltet wurde, litt ein bekannter Spielemoderator beim Live-Spielen des Spiels unter 3D-Schwindelgefühlen. Infolgedessen stand es ganz oben auf der Liste der beliebtesten Suchanfragen auf Weibo und wurde scherzhaft „Black Myth“ genannt : Wukong“ von vielen Internetnutzern. „Das erste Opfer der Welt“. Und am 21. August erschien ein weiteres „Opfer“ des Spiels, und seine damit verbundenen Erfahrungen waren tatsächlich ähnlichMicrosoftverwandt.

Bei der Eingabe von „Black Myth Wukong Customer Service“ in der Bing-Suche von Microsoft wird fälschlicherweise die persönliche Mobiltelefonnummer eines Mitarbeiters von Jifeng.com angezeigt, bei der es sich nicht um die offizielle Kundendienstnummer handelt. Darüber hinaus wurden zwei falsche Telefonnummern als Kundendienst gekennzeichnet, darunter die Kontaktnummer und die E-Mail-Adresse der Urheberrechtsabteilung von China Business News.

Die Person, deren Telefonnummer durchgesickert war, sagte, dass sie in 5 Stunden fast 20 Anrufe erhalten habe. Es wird berichtet, dass der Hauptgrund für diesen Vorfall Microsoft Bing war KI Der Assistent erfasste fälschlicherweise Informationen, was zur Offenlegung seiner persönlichen Daten führte. Obwohl die relevanten erfassten Artikel später gelöscht wurden und das Opfer eine Beschwerde und andere Rückmeldungen einreichte, erschienen immer noch die falschen „Black Myth Wukong Customer Service“-Informationen auf Bing Startseite durchsuchen. Der Suchsituation nach zu urteilen, hat das Bing-Team derzeit die fehlerhaften Informationen korrigiert.

Als weltweit zweitgrößte Suchmaschine deckt Microsoft Bing 36 Länder und Regionen mit über 600 Millionen Nutzern ab. Am 7. Februar 2023 kündigte Microsoft dies an ChatGPT Integriert in die neue Version von Bing (New Bing), wird die integrierte neue Version von Bing übernommenOpenAI KI-ModellGPT Aktualisierte Version von 3.5GPT-4. Dieser Vorfall könnte darauf hindeuten, dass KI-Suchmaschinen gewisse Mängel bei der Informationserfassung und -verarbeitung aufweisen.

Nachdem Bing seine Version stillschweigend überarbeitet hatte,

KI-Suchergebnisse werden zuerst angezeigt

Letzten Monat kündigte Microsoft ein großes Update für Bing an. Die Suchmaschine wird eine umfassende Transformation durchlaufen und beginnt, von KI generierte Antworten zu priorisieren. Das heißt, wenn ein Benutzer eine Suchanfrage eingibt, wird auf der Ergebnisseite eine von der Master-KI generierte Antwort angezeigt, in der alle kuratierten Informationsquellen aufgeführt sind, die zum Erhalten der Ergebnisse verwendet wurden. Natürlich werden auf der Bing-Suchseite weiterhin herkömmliche Suchergebnisse angezeigt, diese werden jedoch neben dem KI-generierten Material angezeigt (in einem kleineren Bereich rechts).

Zu dieser Änderung erklärte Microsoft in einem offiziellen Blogbeitrag: „Diese neue Erfahrung wird die inhärente Grundlage der Bing-Suchergebnisse sein, mit dem großen/kleinen Sprachmodell (LL.M. Kombiniert mit den leistungsstarken Funktionen von SLM). Es versteht Suchanfragen, ruft Millionen von Informationsquellen ab, gleicht Inhalte dynamisch ab und zeigt Suchergebnisse in neuen KI-generierten Layouts an, um die Suchanfragenabsichten der Benutzer effektiver zu erfüllen. "

Microsoft hat in seinem Blogbeitrag auch einige Beispiele zur generativen Suche von Bing aufgeführt. Neben der Beschreibung der Zusammenfassungsfunktion wird Microsoft auch primäre Quelllinks für große Sprachmodelle und kleine Sprachmodelle bereitstellen, die zum Erstellen der Antworten verwendet werden, die den Benutzern angezeigt werden. Nachdem die KI die Ergebnisse generiert hat, gibt es eine regelmäßige Liste mit Ergebniseinträgen.

Wenn der Benutzer beispielsweise nach „Wie lange leben Elefanten?“ sucht, werden in der Zusammenfassung der Antwort auch Videos aufgeführt, die sich auf die Lebensspanne von Elefanten auswirken. Bings generative Suche wird dies tun Zeigt Informationen über die Geschichte, Ursprünge und Klassiker dieses Film-Subgenres sowie Links und Quellen zu diesen Informationen an.

Damals hieß es von Microsoft, dass diese Anpassung nur für eine kleine Anzahl von Bing-Nutzern ausgerollt wurde, sie aber in naher Zukunft sukzessive ausgeweitet werden soll. Microsoft erklärte in seinem Blogbeitrag außerdem, dass man die Auswirkungen der KI-Suche auf Websites und Leser weiterhin bewerten werde. Einige Leute in der Branche befürchten, dass wennKIWebsites, die kostenlos Inhalte erstellen, werden irgendwann ihren Betrieb aufgeben, wenn von Bots erfasste Inhalte direkt in Chatfenstern oder Suchseiten gerendert werden.

Als Antwort sagte Microsoft, dass dieses neue KI-Sucherlebnis von Grund auf unter Berücksichtigung dieses Problems entwickelt wurde und somit die gleiche Anzahl an Website-Klicks wie bei der herkömmlichen Suche aufrechterhält. Die Zeit wird zeigen, ob dies wahr ist. Darüber hinaus versteht es sich, dass Bing die KI-Generierungsfunktion auf der Ergebnisseite deaktivieren und nur herkömmliche Suchausschnitte anzeigen kann.

KI-Suchwitze

Nun ist Microsoft nicht das einzige Browserunternehmen, das KI-generierte Ergebnisse zu Suchseiten hinzufügt. Da Microsoft immer mehr Tools für Bing auf den Markt bringt, verschärft sich der Wettbewerb um die Einführung weiterer KI-Funktionen in die Suche.

Unzählige Fälle aus der Praxis beweisen jedoch, dass die KI-Suche nicht so zuverlässig und genau ist, wie wir denken – sie kann Fehler machen und in manchen Fällen sogar falsche Informationen und Vorschläge in den generierten Ergebnissen anzeigen.

Anfang dieses JahresGoogleEin ähnliches Tool namens AI Overview wurde eingeführt, um Benutzer zu binden, die Antworten auf Fragen direkt von KI-Chatbots erhalten möchten. Aber das Tool hat seit seiner Einführung auch einige Witze gemacht, wie zum Beispiel den Vorschlag, Klebstoff hinzuzufügen, damit Käse an der Pizza kleben bleibt, und die Antwort: „Geologen empfehlen, jeden Tag mindestens einen kleinen Stein zu essen.“

Der Arc Search-Browser verspricht im KI-Modus, unangemessene medizinische Ratschläge zu geben und sagt: „Ein abgetrennter Zeh wird irgendwann nachwachsen.“

Die Suchmaschine für künstliche Intelligenz Genspark empfiehlt Benutzern einige Waffen, mit denen Menschen getötet werden können.Verwirrung Sie plagiierten Nachrichtenartikel einiger Medien, gaben jedoch weder die Quelle noch das Urheberrecht an.

Darüber hinaus können KI-generierte Zusammenfassungen den Verkehr auf der Website, von der sie stammen, ausschlachten. Eine Studie ergab, dass KI-Auszüge den Traffic von Content-Publishern um etwa 25 % reduzieren können, da der Schwerpunkt auf Artikellinks liegt.

Experten warnen vor KI-„Halluzination“

Das Problem lässt sich nicht wirklich lösen

Diese aufstrebenden KI-Suchmaschinen sind beliebt für ihre Fähigkeit, schnell große Textmengen zu generieren und menschlichen Text mit überzeugenden Effekten zu imitieren, aber hinter den Kulissen hat die KI-„Illusion“ auch Einfluss auf diese Chatbots genommen, um sie in die Tat umzusetzen nächste Stufe. Leider warnen einige Experten, dass die Situation möglicherweise nie gelöst werden kann.

Ein neuer von Associated Press veröffentlichter Bericht hebt hervor, dass das Problem des „Unsinns“ des Large Language Model (LLM) möglicherweise nicht so einfach zu lösen ist, wie viele Technologiegründer und KI-Befürworter behaupten. Emily Bender, Professorin für Linguistik am Computational Linguistics Laboratory der University of Washington, äußerte Pessimismus: „Das Halluzinationsproblem ist einfach unlösbar und eine unvermeidliche Folge der Diskrepanz zwischen der Technologie und den vorgeschlagenen Anwendungsfällen.“

Laut Shane Orlick, Präsident von Jasper AI, gibt es Situationen, in denen angemessener „Bullshit“ keine schlechte Sache ist. Orlick erklärte: „Illusionen können tatsächlich zusätzliche Vorteile bringen. Kunden haben uns immer für die Inspiration gedankt. Die Ursache liegt darin, dass KI durch verschiedene Zufälle Geschichten oder Perspektiven ausgeben kann, an die Kunden nie gedacht haben.“

Ebenso ist die KI-Illusion eine große Hilfe bei der KI-Bildgenerierung. Modelle wie Dall-E und Midjourney verlassen sich auf diese Vorstellungskraft, um auffällige und wundervolle Bilder zu erzeugen. Mit anderen Worten, nur im Bereich der Textgenerierung ist Halluzination ein Problem, das Benutzer wirklich stört, insbesondere in Szenarien, in denen Genauigkeit stark im Vordergrund steht, wie beispielsweise bei der Berichterstattung in Nachrichten.

Bender weist darauf hin: „Das Grundprinzip großer Sprachmodelle besteht darin, Inhalte zu ‚erfinden‘, die die Wurzel aller ihrer Funktionen sind. Aber weil die Kraft aus dem Erfinden von Dingen kommt, wenn der von ihnen ausgegebene Text zufällig korrekt mit unserer Eingabeaufforderung übereinstimmt.“ Mit anderen Worten, diese Situation ist eher eine Frage des Zufalls. Auch wenn fein abgestimmte Modelle in den meisten Fällen korrekt sind, sind sie immer noch nicht völlig immun gegen Störungen, und die Illusion der Zukunft existiert wahrscheinlich in einer Unschärfe, die schwieriger ist damit Textleser es bemerken.“

Abschluss

Das große Sprachmodell ist ein leistungsstarkes Werkzeug, das außergewöhnliche Funktionen erreichen kann, aber Unternehmen und sogar die gesamte Technologiebranche müssen sich darüber im Klaren sein, dass etwas, nur weil es mächtig ist, nicht als nützliches Werkzeug angesehen werden kann. Ein Bohrhammer eignet sich hervorragend zum Durchbrechen von Gehwegen und Asphalt, aber niemand wagt es, ihn zu einer archäologischen Ausgrabung mitzunehmen.

Wie Bender betonte, versucht ein großes Sprachmodell in dem Moment, in dem es zum ersten Mal mit dem Training beginnt, das nächste Wort in der Sequenz basierend auf den Stichworten, die wir ihm geben, vorherzusagen. Jedem Wort in den Trainingsdaten wird eine Gewichtung oder ein Prozentsatz zugewiesen, um frühere Vorkommen eines bestimmten Wortes in einem bestimmten Kontext zu verfolgen. Aber diese ersten Wörter selbst haben nicht genügend greifbare Bedeutung oder wichtigen Kontext, um eine genaue Ausgabe zu gewährleisten.

Mit anderen Worten, diese großen Sprachmodelle sind einfach großartige Nachahmer. Sie wissen nicht wirklich, wovon sie sprechen, und wenn sie ihnen zu sehr vertrauen, werden sie nur in Schwierigkeiten geraten. Diese Schwäche ist großen Sprachmodellen inhärent, und auch wenn die „Illusion“ in zukünftigen Iterationen allmählich abnehmen kann, wird das Problem selbst möglicherweise nie wirklich gelöst.

Referenzlinks:

https://www.engadget.com/microsoft-is-adding-ai-powered-summaries-to- 必应 -search-results-203053790.html?src=rss

https://www.techradar.com/computing/artificial-intelligence/ Technologie wurde überarbeitet, um KI-Suchergebnisse zu priorisieren, ob es Ihnen gefällt oder nicht

https://www.techradar.com/computing/artificial-intelligence/chatgpt-and-other-ai-chatbots-will-never-stop-making-stuff-up-experts-warn

https://techcrunch.com/2024/07/24/bing-previews-its-answer-to-googles-ai-overviews/