KI-Halluzinationen sind unvermeidlich, wie man damit umgeht
2024-08-15
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
Zhang HaiMit der rasanten Entwicklung der Technologie der künstlichen Intelligenz (KI) sind „KI-Illusionen“, also Fehler oder Illusionen bei der Informationsverarbeitung und -generierung durch künstliche Intelligenz, zu einem Problem geworden, das nicht ignoriert werden kann. Im Jahr 2023 wurde „Halluzination“ zum Wort des Jahres von Cambridge Dictionary und Dictionary.com. Laut Dictionary.com stiegen die Suchanfragen nach dem Wort „Halluzination“ im Jahr 2023 im Vergleich zum Vorjahr um 46 %. Zusätzlich zur ursprünglichen Definition von „Halluzination“ im Cambridge Dictionary wurde eine neue Bedeutung hinzugefügt: „etwas sehen, hören, fühlen oder riechen, das nicht da ist, normalerweise aufgrund einer Erkrankung oder weil Sie Medikamente eingenommen haben.“ KI-Halluzinationen erzeugen Fehlermeldungen.“Ein kürzlich in der Zeitschrift „Nature“ veröffentlichter Artikel „Machine Behavior“ wies darauf hin, dass künstliche Intelligenz in der heutigen menschlichen Gesellschaft allgegenwärtig geworden sei. Algorithmen für das Nachrichtenranking würden sich auf die Informationen auswirken, die Menschen sehen, Konsumalgorithmen würden sich darauf auswirken, was Konsumgüter Menschen kauften, und Algorithmen für das Anhalten von Taxis Unsere Reisegewohnheiten und Smart-Home-Algorithmen werden sich auf unser Familienleben auswirken. In den Bereichen Recht, Medizin und anderen Bereichen ist der Einfluss künstlicher Intelligenz noch größer. Künstliche Intelligenz ermöglicht es Maschinen, immer mehr wie Menschen zu denken und sich zu verhalten. Infolgedessen beeinflussen Maschinen zunehmend die Struktur der menschlichen Gesellschaft. Maschinen prägen das menschliche Verhalten, und auch die Art und Weise, wie Menschen und Maschinen zusammenarbeiten, wird einen erheblichen und weitreichenden Einfluss auf die zukünftige Gesellschaftsform haben.Im Zeitalter der künstlichen Intelligenz sind KI-Halluzinationen zu einem weit verbreiteten Phänomen geworden. Von möglichen Fehleinschätzungen bei selbstfahrenden Autos über Fehlinterpretationen von Anweisungen durch intelligente Assistenten bis hin zu Fehldiagnosen durch medizinische Diagnosetools: KI-Illusionen sind in jedem Winkel unseres täglichen Lebens präsent. Im Jahr 2024 startete die Suchmaschine Google einen Suchdienst mit künstlicher Intelligenz: AI Overview, der KI-generierte Antworten bereitstellt. Die ursprüngliche Absicht bestand darin, das Benutzererlebnis zu verbessern, aber Benutzer stellten bald fest, dass die KI-Übersicht eine große Anzahl unverschämter Antworten lieferte, z. B. den Vorschlag, Pizza mit Klebstoff zu kleben und jeden Tag Steine zu essen, um Nährstoffe zu erhalten, usw., was Google dazu veranlasste einige seiner Funktionen schnell herunterzufahren.Aus der Sicht von Wissenschaftlern der künstlichen Intelligenz sind KI-Halluzinationen aufgrund technischer Einschränkungen und Mängel in der menschlichen Wahrnehmung im Wesentlichen unvermeidbar. Obwohl Techniker hart daran arbeiten, die Genauigkeit und Zuverlässigkeit der KI zu verbessern, treten KI-Illusionen immer noch häufig auf und lassen sich aufgrund von Faktoren wie unvollständigen Daten, Einschränkungen von Algorithmen und komplexen interaktiven Umgebungen nur schwer vollständig beseitigen.Der Mechanismus der KI-Halluzination umfasst viele Aspekte. Erstens ist die Datenverzerrung einer der Hauptgründe. Wenn es den KI-Trainingsdaten an Vielfalt mangelt oder sie systematisch verzerrt sind, können die Ausgabeergebnisse halluzinatorisch sein. Zweitens können sich aktuelle KI-Algorithmen, insbesondere solche, die auf Statistiken basieren, nicht perfekt an neue, unsichtbare Situationen anpassen, was zu falschen Urteilen führen kann. Drittens stellen auch die kognitiven Einschränkungen menschlicher Designer ein großes Problem dar. Die subjektiven Vorurteile von Designern und Trainern können unbeabsichtigt in das KI-System kodiert werden und dessen Entscheidungsfindung beeinflussen. Schließlich ist die interaktive Umgebung, in der das KI-System arbeitet, voller Variablen. Komplexe und sich ändernde Umgebungsfaktoren übersteigen oft die Verarbeitungsfähigkeiten des KI-Systems, was zur Entstehung von KI-Halluzinationen führt.Wie geht man mit der Allgegenwärtigkeit und Unvermeidlichkeit von KI-Halluzinationen um? Erstens ist die Verbesserung der Datenqualität und -vielfalt von grundlegender Bedeutung. Durch die Erhöhung der Breite und Tiefe der Trainingsdaten kann die Datenverzerrung verringert und die Generalisierungsfähigkeit des KI-Systems verbessert werden. Zweitens kann die Optimierung des Algorithmusdesigns und die Verbesserung seiner Robustheit und Anpassungsfähigkeit dazu führen, dass das KI-System neue Situationen besser bewältigen kann. Drittens ist es auch von entscheidender Bedeutung, die Aufklärung und das Bewusstsein der Benutzer zu verbessern. Indem den Benutzern geholfen wird, die Fähigkeiten und Grenzen der KI richtig zu verstehen, können durch Missverständnisse verursachte Illusionen wirksam verringert werden. Darüber hinaus ist die Festlegung ethischer Normen und Überwachungsmechanismen, um sicherzustellen, dass die Entwicklung und Anwendung von KI ethischen und rechtlichen Standards entspricht, ebenso wichtig, um das Auftreten von KI-Halluzinationen zu reduzieren. Schließlich spielt die interdisziplinäre Zusammenarbeit eine Schlüsselrolle im Umgang mit KI-Halluzinationen. Ingenieure, Datenwissenschaftler, Psychologen, Ethiker und Rechtsexperten sollten gemeinsam am Entwurfs- und Bewertungsprozess von KI-Systemen teilnehmen und gemeinsam das Problem der KI-Illusion aus der beruflichen Perspektive ihres jeweiligen Fachgebiets lösen.Im Zeitalter der künstlichen Intelligenz ist die KI-Halluzination ein komplexes, häufiges und unvermeidliches Problem, das von uns die Annahme mehrdimensionaler und mehrstufiger Strategien zur Bewältigung dieses Problems erfordert, um so die negativen Auswirkungen der KI-Halluzination zu minimieren. Die 2023 von der UNESCO veröffentlichten „Richtlinien für generative künstliche Intelligenz in Bildung und Forschung“ empfehlen, das Mindestalter für den Einsatz von Werkzeugen der künstlichen Intelligenz im Unterricht auf 13 Jahre festzulegen. Open AI empfiehlt, dass Kindern unter 13 Jahren die Nutzung generativer künstlicher Intelligenz verboten ist und Kinder im Alter von 13 bis 18 Jahren diese unter Anleitung eines Erziehungsberechtigten nutzen müssen.Im Jahr 2023 wird in Singapur ein Trusted Media Summit stattfinden, um Maßnahmen verschiedener Länder zur Verbesserung der Medienkompetenz junger Menschen auszutauschen. So trägt beispielsweise „SQUIZ KIDS“, eine im Ausland gestartete gemeinnützige Aktion auf der Grundlage von Websites und Podcasts, die sich an Grundschüler zur Verbesserung der Medienkompetenz richtet, dazu bei, die Fähigkeit junger Menschen zu fördern, im Internet auftauchende Fehlinformationen von falschen Informationen zu unterscheiden. Es besteht im Wesentlichen aus drei Schritten: STOP, wenn Netzwerkinformationen ausgesetzt sind, darüber nachdenken (THINK) und schließlich ein Paar überprüfen (CHECK), um zu bestätigen, ob es mit einer zuverlässigen Informationsquelle übereinstimmt. Indem wir Wissen und Fähigkeiten aus verschiedenen Bereichen sammeln, um Probleme umfassender zu identifizieren und Lösungen zu finden, können wir uns auf die Ankunft einer intelligenteren, sichereren und zuverlässigeren Gesellschaft für künstliche Intelligenz freuen. (Der Autor ist Professor an der School of Media Science der Northeast Normal University und Direktor des Jilin Provincial Education and Artificial Intelligence Integrated Innovation Engineering Center) ▲