nachricht

kommentieren sie jetzt|fügen sie markante logos hinzu, um zu verhindern, dass ki-generierte inhalte mit echten inhalten verwechselt werden.

2024-09-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

wie viele der riesigen bilder, texte und videos, die wir täglich online sehen, werden von künstlicher intelligenz generiert und synthetisiert? wie kann man ki-artikel, ki-bilder und ki-videos genau unterscheiden?
am 14. september veröffentlichte die cyberspace administration of china die „maßnahmen zur kennzeichnung von durch künstliche intelligenz generierten synthetischen inhalten (entwurf für kommentare)“. der „entwurf für kommentare“ soll festlegen, dass die von dienstanbietern bereitgestellten generierten synthesedienste text, wenn diensteanbieter methoden zum herunterladen, kopieren und exportieren synthetischer inhalte bereitstellen, sollten sie dafür sorgen, dass audio, bilder und videos usw. deutlich erkennbar sind die anforderungen erfüllen.
diese bestimmung ist sehr realistisch und notwendig. in den letzten jahren wurde die tiefensynthesetechnologie der künstlichen intelligenz in vielen bereichen weit verbreitet eingesetzt, von der bild-, text- und videogenerierung bis hin zu online-fragen und -antworten, und es entstehen immer mehr verschiedene anwendungen. es besteht kein zweifel daran, dass ki-tools unsere inhaltsproduktion und wissensverbreitung effizienter machen können, und da die lernfähigkeit der ki immer stärker wird, werden ihre fähigkeiten zur „produktion“ von inhalten in zukunft sogar die des menschen übertreffen.
andererseits ist die wirkung tiefgreifender synthetischer inhalte realistischer und die produktion effizienter, was es auch schwierig macht, die synthetischen inhalte „wahr von falsch“ zu unterscheiden. wenn es schwierig ist, zwischen wahr und falsch zu unterscheiden, und sehen nicht mehr glauben bedeutet, ist die technologie der künstlichen intelligenz wie ein zweischneidiges schwert, das auch probleme wie informationsverzerrung und kognitive verwirrung in die gesellschaft mit sich bringt.
im november 2022 erließ die cyberspace administration of china die „regulations on the management of deep synthesis of internet information services“, die den zweck, die kennzeichnung, den umfang der nutzung und die strafen für den missbrauch tief synthetisierter inhalte festlegen. in diesem „entwurf für kommentare“ wird weiter klargestellt, dass unabhängig davon, ob es sich um text, audio, bilder oder videos handelt, „auffällige erinnerungsschilder an geeigneten stellen angebracht werden müssen“. dies ist eine klare anforderung an dienstleister: solange es von einem ki-tool generiert wird, egal ob es sich um einen artikel oder ein bild handelt, muss eine prominente kennzeichnung hinzugefügt werden.
dies soll das publikum tatsächlich daran erinnern, dass online-informationen gemischt sind. wenn sie „insider“-artikel, „heiße“ bilder oder „schockierende“ videos sehen, müssen sie zunächst darauf achten, ob diese von ki generiert wurden und ob sie akzeptiert werden sollten . wie erkennt man sie?
es ist erwähnenswert, dass kriminelle, da die technologie allmählich „zivil“ wird, ki leicht nutzen können, um gerüchte zu verbreiten und fake news zu produzieren. vor nicht allzu langer zeit haben einige medien eine mcn-organisation gegründet, die mithilfe der ki jeden tag 4.000 bis 7.000 gerüchteartikel generieren kann. dank der ki-technologie sehen diese artikel für ein publikum, das mit der internettechnologie nicht vertraut ist, sehr „real und vernünftig“ aus . wenn man solche informationen mit „bildern und wahrheit“ sieht, ist es leicht zu glauben, dass sie wahr sind.
laut einer medienumfrage betragen die kosten für einen ki-artikel bei verwendung einer inländischen ki nur 0,00138 yuan, und 7 artikel können für 1 cent generiert werden. solche „keinen kapital- und riesengewinne“ können leicht von kriminellen ausgenutzt werden, wie etwa „u-bahn-angriff“, „explosion in xi'an“, „explosion in einem privathaus in wuxi, chongqing“ usw die wahrheit dahinter sind gerüchte über eine ki-massenproduktion.
die protokollierung künstlicher intelligenz zur generierung synthetischer inhalte ist technisch nicht schwer umzusetzen. einige experten schlagen vor, dass die plattform vollständig mit dem großen modellsystem der plattform zur generierung von ki-inhalten verbunden werden kann, datenerkennung und -vergleich in echtzeit durchführt und dann ein unentfernbares digitales wasserzeichen oder eine textbeschreibung wie „dieses bild/video“ anfügt wird von ki synthetisiert“.
in diesem „entwurf für kommentare“ wird betont, dass „keine organisation oder einzelperson die in diesen maßnahmen festgelegten generierten synthetischen inhaltskennungen böswillig löschen, manipulieren, fälschen oder verbergen darf“. dies soll ki-dienstleister und plattformen daran erinnern, dass sie keine ki verwenden dürfen werkzeuge wegen um die „verkehrsdividende“ herbeizuführen, nehmen wir eine beschwichtigungshaltung ein, indem wir ein auge zudrücken und ein auge schließen. ein klarer cyberspace darf nicht zulassen, dass ki-inhalte verwechselt werden und die grenzen der realität verwischen; wenn informationen als gerüchte identifiziert werden, sollte die plattform diese sofort kennzeichnen und bereinigen.
die fähigkeit der künstlichen intelligenz zur generierung und synthese geht über die traditionelle erkenntnis hinaus und macht uns auch klar, dass viele online-artikel sehr „wissenschaftlich“ und viele online-videos besonders „echt“ aussehen, aber möglicherweise nicht unbedingt zuverlässig sind, also nicht ich glaube es nicht voreilig. sie können genauso gut zuerst danach suchen. befindet sich an prominenter stelle im inhalt ein schild mit der aufschrift „dieses bild/video wurde von ki synthetisiert“?
li qinyu, chefkommentator von the paper
(dieser artikel stammt von the paper. für weitere originalinformationen laden sie bitte die „the paper“-app herunter.)
bericht/feedback