2024-08-17
한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina
[Text/Beobachternetzwerk Liao Yiheng]
Mit dem Aufkommen der KI-Ära wird die diesjährige US-Wahl von einigen Wissenschaftlern auch als der erste „groß angelegte Einsatz künstlicher Intelligenz zur Beeinflussung von Wählern“ angesehen. Die vielen Ereignisse, die sich bei dieser Wahl ereigneten, haben auch die Meinungen von bestätigt Viele Menschen in den Vereinigten Staaten befürchten, dass das Eingreifen großer Sprachmodelle in Wahlen negative Auswirkungen auf das amerikanische demokratische System haben wird. Wenn der AGI-Deep-Fake-Aufzeichnungsvorfall bei der slowakischen Wahl im Jahr 2023 nur der erste Fall einer KI-Einmischung in die Wahl ist, dann kann die laufende US-Wahl als ein großer Kampf der AGI-Einmischung in die Wahl angesehen werden.
Anfang August warf Trump vor, dass „das Foto von Tausenden von Menschen, die auf Harris warteten, als sie bei der Kundgebung in Detroit aus dem Flugzeug stieg, von KI gefälscht wurde“, obwohl dies vom Harris-Team, darunter auch Reuters-Ermittlungsteams mehrerer Medien, dementiert wurde bestätigte Harris‘ Namen. Der laute Lärm bei Harris‘ Kundgebung stimmte zwar, zeigt aber auch, dass das amerikanische Volk sehr nervös ist, dass die KI-Technologie in die Wahl eingreifen könnte.
Am 7. August Ortszeit wartete eine Gruppe von Menschen auf Vizepräsidentin Kamala Harris und Minnesotas Gouverneur Tim Walz, um an einer Wahlkampfveranstaltung am Flughafen Romulus in Michigan teilzunehmen. Donald Trump hat gegen die Teilnahme an Kundgebungen gewettert und falsche Behauptungen über Fotos von der Veranstaltung aufgestellt. Internetbilder
Zufälligerweise teilte Musk am 26. Juli dieses Jahres auf seiner Plattform X ein Deep-Fake-Video von Harris mit dem Text „Das ist erstaunlich“ und einem lachenden Emoticon. In diesem Video finden sich viele frühere Wahlkampf-Werbematerialien des Harris-Wahlkampfteams sowie eine Harris-Erzählung, die ausreicht, um in den USA Konflikte zwischen Geschlecht und Rasse zu provozieren: „Ich bin eine Frau und eine Person of Color. Wenn.“ Du kritisierst alles, was ich sage. Wenn du das sagst, dann bist du sexistisch und rassistisch.
Das Video wurde innerhalb von drei Tagen über 100 Millionen Mal aufgerufen und sorgte für Aufruhr. Tatsächlich wurde dieses Video nicht von Harris selbst gedreht, sondern durch generative künstliche Intelligenz synthetisiert und von der synthetisierten Stimme von Harris begleitet, was ziemlich realistisch ist. Aber Musk bezeichnete das Video in dem Beitrag nicht als gefälscht.
Harris‘ Wahlkampfteam äußerte ernsthaften Protest und betonte in einer Stellungnahme: „Dieser Vorfall ist ein gutes Beispiel dafür, wie realistische Bilder, Videos oder durch künstliche Intelligenz generierte Videos im Vorfeld der US-Präsidentschaftswahlen eingesetzt werden können. Wie Audioclips genutzt werden, um Spaß zu machen.“ Politik verleiten und in die Irre führen.“
Von Musk in seinen eigenen sozialen Medien erneut gepostetes Video X. Das Video wurde durch generative künstliche Intelligenz (AGI) synthetisiert und mit einigen echten Kampagneninformationen kombiniert, um es sehr realistisch zu machen. Internetbilder
Tatsächlich spielt sich die Geschichte der Einmischung der KI-Technologie in die US-Wahlen seit Anfang dieses Jahres ab. Noch bevor Biden aus dem Rennen ausschied, kam es zu einem Vorfall, bei dem „AI Biden“ die Vorwahlen in New Hampshire störte. Relevanten Berichten zufolge erhielten einige Wähler am 21. Januar dieses Jahres Anrufe mit Bidens synthetischer Stimme, in denen sie aufgefordert wurden, ihre Stimmen für die Endwahl im November aufzubewahren, und behaupteten, dass sie nicht mehr in der Lage seien, wenn sie an den Vorwahlen der Partei teilnehmen würden an der Endwahl teilzunehmen. Später bestätigte Hani Farid, ein Experte für digitale Forensik an der University of California in Berkeley, dass die Telefonstimme tatsächlich durch „relativ minderwertige“ Technologie der künstlichen Intelligenz gefälscht wurde.
Anschließend, am 25. Februar dieses Jahres, gab Steve Kramer, ein politischer Berater des demokratischen Präsidentschaftskandidaten und Kongressabgeordneten Phillips, zu, dass er Carpenter angeheuert und Carpenter gebeten hatte, mithilfe von Dengs Stimme und der Planung dieses Telefonsturms die Baidu-Software zu entwickeln an die Wähler bestand lediglich darin, „die Öffentlichkeit daran zu erinnern, sich vor irreführenden Anwendungen von KI zu hüten“.
Magic Carpenter beschrieb den Medien den Prozess, bei dem er gebeten wurde, einen „falschen Biden-Anruf“-Audio zu erstellen. Internetbilder
Der KI-Wettbewerb zwischen den beiden Parteien bei der US-Wahl hat bereits begonnen. Die Demokratische Partei hat auch die mutige und anspruchsvolle Erfahrung der Republikanischen Partei beim Einsatz von KI gesehen.
Im März dieses Jahres tauchten weiterhin Fotos von Trump und schwarzen Wählern in den sozialen Medien der USA auf. Ein Untersuchungsteam der BBC-Sendung „Panorama“ stellte fest, dass die Bilder einen gemeinsamen Nenner hatten: Sie zeigten schwarze Menschen als Unterstützer des ehemaligen Präsidenten Trump und deuteten an, dass sie die Republikaner wählen würden. Tatsächlich fördern die Bilder eine strategische Erzählung: Trump erfreut sich mittlerweile großer Beliebtheit in der schwarzen Community. Sie müssen wissen, dass schwarze Wähler der Schlüssel zu Bidens Sieg bei der Wahl 2020 sind.
Natürlich wurden diese Deepfake-Bilder irgendwann entdeckt, aber während des Verbreitungsprozesses hatten diese Deepfake-Fotos keine Wasserzeichen oder Anmerkungen, um auf ihre nicht-realen Eigenschaften hinzuweisen. Obwohl einige aufmerksame Internetnutzer Verzerrungen im Glanz und in der Textur dieser Fotos erkennen können, verfügt nicht jeder über die Energie und das Urteilsvermögen, um sie zu identifizieren.
Trump umarmte eine Gruppe schwarzer Frauen. Später wurde bestätigt, dass das Foto durch generative künstliche Intelligenz gefälscht wurde. Internetbilder
Nach einer Untersuchung stellte sich heraus, dass einige dieser Fotos von Accounts stammten, die Trump verspotteten, aber nach der Säuberung weit verbreitet wurden, und dass einige von Trumps eigenen fanatischen Unterstützern erstellt wurden. Der Ersteller eines der Bilder sagte gegenüber der BBC: „Ich habe nicht gesagt, dass es ein echtes Foto ist.“ Diese Art von Antwort gibt den Menschen ein Gefühl der Hilflosigkeit, denn bevor AGI zutiefst gefälschte Fotos generiert, greifen die meisten Menschen standardmäßig auf das Urteil „Sehen ist Glauben“ zurück.
Zusätzlich zu den Falschinformationen, die von Trumps fanatischen Anhängern spontan verbreitet werden, erhöht auch die Trump-Kampagne selbst ihre Aufmerksamkeit und Investitionen im Bereich der KI. Aufzeichnungen zur Wahlkampffinanzierung zeigen, dass das Trump-Team, das Republikanische Nationalkomitee und die damit verbundenen Spendenkomitees mehr als 2,2 Millionen US-Dollar an verbundene Unternehmen wie Campaign Nucleus gezahlt haben, das Trumps ehemaligem Wahlkampfmanager Parscale gehört. Das Geschäft von Campaign Nucleus umfasst die Verwendung von AGI zur Generierung maßgeschneiderter E-Mails, zur Analyse einer breiten Palette von Daten zur Messung der Wählerstimmung, zur Ermittlung überzeugender Wähler und zur Verstärkung der Social-Media-Beiträge von „Anti-Woke“-Influencern. Der Schwerpunkt liegt auf der Nutzung von KI-Technologie zur Analyse von Unterstützern politischer Missionen, um Profile zu erstellen und zu versuchen, Wählerpräferenzen durch personalisierte Programme zu manipulieren.
Erwähnenswert ist, dass auch einige Technologieführer ihre politische Haltung geändert haben und begonnen haben, Trump zu unterstützen. Dies scheint ein wechselseitiges Rennen zu sein. Eine der ikonischen Figuren ist Elon Musk. Nach der Schießerei auf Trump gab Musk auf seiner sozialen Plattform X offiziell bekannt, dass er die Kandidatur des ehemaligen Präsidenten Trump unterstütze und bereit sei, Mittel zur Unterstützung seines Wahlkampfs bereitzustellen.
Während der Rückgang der Unterstützung einiger Silicon-Valley-Führungskräfte für die Republikanische Partei direkt mit den Mängeln der Diversitätspolitik zusammenhängt, liegt der allgemeinere Grund in ihren Sorgen über die Zukunft der Technologiebranche. Kurz gesagt, Elemente wie Fonds und Kommunikationsplattformen sind eng mit der Unterstützung der AGI-Technologie verbunden und haben eine unerwartete Macht ausgeübt.
Das Geheimnis einer engmaschigen Black Box
Nachdem wir Zeuge der beispiellosen Fähigkeit der AGI geworden sind, Wahlen zu trüben, kommen wir nicht umhin zu fragen: Was ist der Mechanismus für die Intervention der AGI bei Wahlen?
Von AGI generierte Deep-Fake-Inhalte (Deepfakes), einschließlich Text, Audio, Bilder und Videos. Diese Elemente verflechten die Informations- und kognitiven Elemente der Wahlpropaganda tief und sind tatsächlich eng mit dem politischen Kommunikationsmodell verbunden. Indem sie sich tief in den Wahlprozess einbettet, stellt AGI die Wahrnehmung der Wähler in Frage, was sowohl stärkende als auch erschütternde Effekte hervorruft und so den Zweck der Wählermanipulation erreicht.
Analyserahmen für US-Wahlpropaganda Sun Chenghao: Die Intervention generativer künstlicher Intelligenz in der US-Wahlpropaganda: Wege, Szenarien und Risiken, 2024-7. [3]
Der Wahlpropagandamechanismus in den Vereinigten Staaten besteht im Wesentlichen aus drei Phasen: Eingabe, Verarbeitung und Ausgabe. Kandidaten und politische Parteien führen Wahlkampfaktivitäten durch, um Wahlen zu gewinnen. Diese Aktivität dient im Wesentlichen dazu, die Wähler zu überzeugen und ihnen zu ermöglichen, den Inhalt der politischen Propaganda zu verarbeiten und zu verarbeiten und letztendlich das Ziel zu erreichen, den Wählern die Möglichkeit zu geben, Entscheidungen zu treffen.
Mit der umfassenden Befähigung von AGI im Bereich der US-Wahlpropaganda wurden Prozesse wie Wählerregistrierung, Wählerdatenanalyse, Wahlprognoseanalyse, Wahlstrategieformulierung, Wahlprozessverfolgung, Öffentlichkeitsarbeit und Wählerunterstützung im Zusammenhang mit Wahlressourcen übernommen über neue Formen.
Im Hinblick auf Wahlprognosen, Wählerdatenanalyse, Formulierung von Wahlstrategien und Wählerunterstützung ist die aktuelle Leistung von AGI im Allgemeinen auf einem guten Weg. Insbesondere hilft es Wahlkampfteams und Entscheidungsträgern, die Wahlsituation schneller und sorgfältiger zu analysieren und Diagramme in Echtzeit zu erstellen. Es hilft Kandidaten, Wählerporträts zu analysieren und detaillierte Segmentierungsstrategien zu formulieren. Außerdem verbessert es die Beziehung zwischen Kandidaten und Wählern durch AGI Automatische E-Mail-Antworten und andere Methoden können den Feedback-Effekt verstärken und als Wahlenzyklopädie dienen, um Wähler mit den notwendigen und zeitnahen Wahlinformationen zu versorgen.
Aber auch in anderen Aspekten hat die vertiefte Anwendung von AGI offensichtlich einige Probleme aufgedeckt. Bei der Wählerregistrierung besteht die ursprüngliche Absicht von AGI darin, die Wahlbeteiligung durch aktives Generieren von E-Mails oder Telefonieren zu erhöhen. Der Vorfall „AI Biden-Telefonanruf“ zu Beginn des Jahres hat jedoch bewiesen, dass AGI auch bei der Störung der Wählerwahl „glänzen“ kann.
Im Hinblick auf die Verfolgung des Wahlprozesses und die Bereitstellung von Öffentlichkeitsarbeit besteht die positive Bedeutung der AGI-Befähigung darin, ungewöhnliche Aktivitäten im Wahlprozess zu erkennen, Netzwerkbetrug und Netzwerkangriffe zu verhindern, die Reihenfolge der Wahlen aufrechtzuerhalten, unterteilte Gruppen zu identifizieren und Wahlinformationen genau an diese zu übermitteln auf diese Wähler. Aber bei dem Vorfall mit dem schwarzen Foto von Trump und dem vorherigen Vorfall mit der Aufnahme in die Slowakei können wir sehen, dass AGI die gegenteilige Rolle spielt. Die Aufrechterhaltung der Ordnung und der korrekten Zustellung hat sich in eine störende und zutiefst falsche Zustellung verwandelt.
Der durch die durch AGI gestörte Wahlkampfökologie verursachte Schaden an der Wahrnehmung der Wähler spiegelt sich hauptsächlich in zwei Aspekten wider: der Erschütterung der Wahrnehmung der Wähler und der Stärkung der Wahrnehmung der Wähler.
Was die destabilisierende Wirkung betrifft, so half AGI bei dem Vorfall mit falschen Fotos von Trump und Schwarzen, um Schwarze, insbesondere junge Schwarze, für sich zu gewinnen, bei der Erstellung einer Reihe zutiefst falscher Fotos. Durch die präzise Positionierung von AGI wurden diese zutiefst falschen Fotos stillschweigend den Wählern präsentiert, was die bisherige Wahrnehmung schwarzer Wähler in Frage stellte und zögerliche junge Wähler beeinflusste.
Was die Verstärkung der Wirkung betrifft, so kann die Geschwindigkeit der AGI-Generierung, was die Propagandainformationen selbst betrifft, dem Wahlteam den Propagandavorteil eines massiven Informationsbombardements verschaffen, und sogar die Qualität des Textens kann die „Schmerzpunkte“ der Wähler und Wähler genauer erfassen locken ihre Spenden an. Darüber hinaus kann der Anthropomorphismus von AGI wie Politikerrobotern dazu beitragen, dass politische Parteien näher an die Wähler herankommen und eine effiziente Kommunikation und Rückmeldung erreichen.
Es ist erwähnenswert, dass die flexible Verstärkungswirkung von AGI und die Fähigkeit, in kurzer Zeit riesige Mengen an Informationen zu generieren und diese präzise zu verbreiten, in bestimmten Phasen der politischen Kommunikation schnell verstärkt wird, was leicht zur explosionsartigen Verbreitung tiefgreifender Falschinformationen führen kann. Diese Situationen treten häufig zu Beginn der Wahl und während der Wahlstille auf, wenn verschiedene Propagandaorganisationen den Veranstaltungsort noch nicht betreten haben oder gewaltsam aus dem Propagandaort geräumt werden.
Der Mechanismus, durch den von generativer künstlicher Intelligenz verarbeitete Informationen die Wahrnehmung der Wähler zerstören Sun Chenghao: Die Intervention generativer künstlicher Intelligenz in der US-Wahlpropaganda: Wege, Szenarien und Risiken, 2024-2027. [3]
Darüber hinaus haben einige AGIs selbst potenzielle Ideologien. Beispielsweise wurde in einem Test darauf hingewiesen, dass die berühmte GhatGPT eine offensichtlich linke ideologische Haltung hat. Neil Postman erwähnte bei der Analyse der Medientechnologie einmal einen Standpunkt: „Medien sind Metaphern.“ Er glaubte, dass die Medien selbst starke Auswirkungen haben und die Denkweise der Menschen verändern können, um die Realität neu zu definieren. Schon in Trumps „Twitter-Wahl“- und „Twitter-Governance“-Periode haben wir die Macht der Medien gespürt, Wähler zu formen. Wenn AGI nun die Medienplattform stark stärkt, kann diese Metapher selbst leicht ins Unendliche verstärkt werden.
Auf dem Weg zu Cyber-Wahlen
Im März dieses Jahres führten einschlägige Experten der Brookings Institution in den USA eine Offline-Diskussion über die Risiken durch künstliche Intelligenz und falsche Informationen während der Wahlen. Sie glauben, dass sich die aktuellen Risiken, die AGI für Wahlen mit sich bringt, auf drei Aspekte konzentrieren: die tiefe Integration von Gesetzgebung, Technologie und Kommunikationsmechanismen.
Seminar, von links nach rechts: Darrell M. West (Senior Fellow, Center for Technology Innovation), Soheil Feizi (Associate Professor, Department of Computer Science, University of Maryland), Shana M Broussard (Federal Election Commission Commissioner), Matt Perault ( (Universität von North Carolina in Chapel Hill) Direktor des Campus Technology Policy Center) Video-Screenshot
Auf gesetzgeberischer Ebene ist die US-Bundesregierung offensichtlich nicht bereit, Gesetze gegen die Einmischung von AGI in Wahlen zu erlassen. Der größte Teil der Verantwortung liegt immer noch bei der Gesetzgebung der Bundesstaaten und den großen privaten Medienplattformen.
Am 30. Oktober 2023 unterzeichnete Präsident Biden die Executive Order 14110 über die „sichere, geschützte und vertrauenswürdige Entwicklung und Nutzung künstlicher Intelligenz“. Diese Executive Order ist der bisher umfassendste Ansatz zur Governance künstlicher Intelligenz in den Vereinigten Staaten und umfasst die Abdeckung Bereiche, die von neuen Industriestandards für KI-Sicherheit bis hin zu Datenschutz, Bürgerrechten, Arbeitnehmerinteressen, technologischer Innovation, staatlichem Einsatz von KI und der internationalen Führungsrolle der USA reichen.
In gewisser Weise kann diese Durchführungsverordnung als Fahrplan für künftige Rechtsvorschriften im Bereich der Sicherheit künstlicher Intelligenz in den Vereinigten Staaten angesehen werden, der dazu beiträgt, eine Wiederholung der spaltenden Entwicklung in früheren Regierungsführungen zu vermeiden und eine Rückkehr der Regulierungsarbeit nach vereinzelten Vorschlägen von Bundesstaaten zu ermöglichen das föderale System unter Kontrolle. Allerdings steckt diese „umfassende künstliche Governance-Methode“ noch in den Kinderschuhen und die Probleme, die durch inländische AGI bei Wahlen verursacht werden, treten bereits in Erscheinung.
Obwohl einige Leute vorgeschlagen haben, digitale Wasserzeichen zu verwenden, um stark gefälschte generierte Inhalte zu identifizieren, halten Experten dies auf technischer Ebene für unzuverlässig. Diese Wasserzeichen können während des AGI-Generierungsprozesses leicht gelöscht werden. Dabei handelt es sich um eine grundlegende technische Einschränkung, die kurzfristig nur schwer zu lösen sein wird. Die effektivste Methode besteht derzeit darin, zu hoffen, dass der Privatsektor proaktiv einige Überprüfungsdienste bereitstellen kann. Obwohl dies angesichts verbesserter Rechtsvorschriften nicht ausreicht, um das Problem zu lösen, kann es zumindest eine gewisse Rolle spielen.
Auf der Ebene der Beeinträchtigung des Kommunikationsmechanismus sagten Experten auf dem Treffen, dass falsche Informationen tatsächlich den Wechsel von 5 bis 10 % der Wähler beeinflussen und die überwiegende Mehrheit der Wähler sich bereits von Anfang an für ihr Lager entschieden hat. In diesem Punkt sagen andere Experten, dass wir nicht allzu pessimistisch sein müssen, was die Entstehung tiefgreifender Desinformation angeht:
Erstens machen falsche Nachrichten nur einen kleinen Teil der Informationen aus, die normale Menschen erhalten. „Eine Studie aus dem Jahr 2020 ergab, dass der durchschnittliche Amerikaner täglich etwa 7,5 Stunden Medienzeit verbringt, davon etwa 14 % mit Nachrichten, hauptsächlich aus dem Fernsehen. Selbst in den Monaten vor der US-Wahl 2020 waren weniger als 7 % der Inhalte, die sie sahen, nachrichtenbezogen.“
Zweitens zeigen Untersuchungen, dass die tiefgreifende Desinformation, die tatsächlich existiert, sich hauptsächlich auf eine kleine Anzahl von Amerikanern konzentriert. Dies hängt möglicherweise mit dem durch den Algorithmus verursachten Informationskokon zusammen, aber diese tiefgreifenden falschen Informationen können normalerweise nicht die überwiegende Mehrheit der Online-Öffentlichkeit erreichen, insbesondere nachdem AGI dazu beigetragen hat, die Benutzergruppe tief zu spalten, wird die Benutzerbasis, die bestimmten Informationen entspricht, kleiner .
Neben der Stärkung der Bundesgesetzgebung und der Förderung der gemeinsamen Kontrolle von AGI durch Technologieunternehmen werden auch die Förderung von „Haftungsausschlusserklärungen“, die Verpflichtung von Kampagnenteams zur Erhöhung der Transparenz bei Kampagnenaktivitäten und die Stärkung der öffentlichen Bildung als Lösungen diskutiert.
Der Vorstoß für eine „Haftungsausschluss“-Lösung kommt von der überparteilichen Senatorin Clore Malofsky. Das Problem besteht jedoch darin, dass die Menschen eher dazu neigen, dem Inhalt zu misstrauen, wenn ein Haftungsausschluss auf Inhalten angebracht wird, deren Authentizität unbekannt ist, wodurch die Glaubwürdigkeit aller Informationen mit dieser Markierung und die Wirksamkeit der damit verbundenen Propagandawirkung geschwächt werden Der identifizierte Inhalt kann authentisch sein.
Der Ansatz, Kampagnenteams zu mehr Transparenz und proaktiver Offenlegung zu verpflichten, besteht darin, von Kampagnen zu verlangen, proaktiv offenzulegen, wann und wie Systeme der künstlichen Intelligenz eingesetzt werden. Nur mangelt es dieser Methode derzeit an ausreichend Vertrauen und Garantien, denn obwohl dieser Plan die Verantwortung den Kandidaten selbst auferlegt, wenn die Kandidaten selbst keine Verantwortung übernehmen wollen, nicht bereit sind, ihre Handlungen proaktiv offenzulegen oder sogar absichtlich zu verbergen, dann ist die Sammlung Die Beweisführung wird recht kostenintensiv sein, zumal es noch gewisse technische Schwellenwerte gibt.
Darüber hinaus sind die Kandidaten möglicherweise bereit, bestraft zu werden, wenn es sich nur um eine Geldbuße oder geringfügige Verwaltungsstrafen handelt. Denn sobald die Vorteile, die eine fehlerhafte Anwendung der AGI mit sich bringt, größer sind als die Kosten der Strafe, wird sie sich zweifellos auswirken „Legal“ bedeutet für die Kandidaten, einen Preis für die Möglichkeit zu zahlen, eine Massenmordwaffe einzusetzen. Doch wie viel Geld sollte der Gesetzgeber angesichts der Versuchung, die Präsidentschaftswahl zu gewinnen, in die Kosten stecken, die durch Gesetzesverstöße entstehen, um den Menschen Schaden zuzufügen? besorgt?
Gleichzeitig müssen wir auch erkennen, dass bei Trumps Vorfall mit falschen Fotos mit Schwarzen und bei Bidens Vorfall mit KI-Telefonanrufen der Auslöser des Verhaltens nicht der Kandidat selbst war (zumindest nicht oberflächlich), sodass auch Verantwortung besteht Schließlich wirkt die Übertragung der Verantwortung auf Tausende von Unterstützern nicht besonders abschreckend.
Öffentliche Bildung ist eine unmittelbare Lösung, obwohl sie das Problem nicht grundsätzlich löst. Wir müssen wissen, dass nicht jeder in der Öffentlichkeit in der Lage ist, tiefgreifende falsche Informationen zu verdauen, insbesondere wenn der tiefgreifende falsche Inhalt eine Mischung aus wahr und falsch ist. Indem die Wähler während der Wahl regelmäßig aktiv aufgeklärt werden und ihnen erklärt wird, wie sie zutiefst falsche Inhalte erkennen und wie sie Informationen objektiv verarbeiten können, wird dies eine große Hilfe für diejenigen Wähler sein, die in einem Informationskokon gefangen sind oder nicht gut informiert sind.
Auf jeden Fall ist die Wahlära der tiefen AGI-Integration angebrochen. Wie man die Authentizität von Informationen erkennt, wie man sich vor Gegnern schützt, wie man einen Regulierungsmechanismus einrichtet und die Wirksamkeit öffentlicher Maßnahmen bewertet, sind für beide Parteien bei dieser Wahl gemeinsame Herausforderungen geworden.
Notiz:
[1]AP: Eine von Elon Musk geteilte Parodie-Werbung klont die Stimme von Kamala Harris und weckt damit Bedenken hinsichtlich KI in der Politik.
https://apnews.com/article/parody-ad-ai-harris-musk-x-misleading-3a5df582f911a808d34f68b766aa3b8e
[2] Das Papier: Die US-Wahlen stehen vor der Tür und das Dilemma falscher Informationen im Rahmen des KI-Spiels
https://www.thepaper.cn/newsDetail_forward_27359556
[3] Sun Chenghao: Die Intervention generativer künstlicher Intelligenz in der US-Wahlpropaganda: Wege, Szenarien und Risiken, 2024-7, P4-5.
[4]The Brookings: Die Gefahren von KI und Desinformation bei Wahlen, 2024-3
https://www.brookings.edu/events/the-dangers-posed-by-ai-and-disinformation-during-elections/
[5]The Brookings: Regulierung allgemeiner KI: Bereiche der Konvergenz und Divergenz in der EU und den USA, 2024-5
https://www.brookings.edu/articles/regulated-general-zweck-ai-areas-of-convergence-and-divergence-across-the-eu-and-the-us/
[6]The Brookings: Missverstandene Mechaniken: Wie sich KI, TikTok und die Lügnerdividende auf die Wahlen 2024 auswirken könnten, 2024-1
https://www.brookings.edu/articles/misunderstood-mechanics-how-ai-tiktok-and-the-liars-dividend-might-affect-the-2024-elections/
Dieser Artikel ist ein exklusives Manuskript von Observer.com. Der Inhalt des Artikels stellt ausschließlich die persönliche Meinung des Autors dar und stellt nicht die Meinung der Plattform dar. Er darf nicht ohne Genehmigung reproduziert werden, andernfalls wird eine rechtliche Haftung übernommen. Folgen Sie Observer.com auf WeChat guanchacn und lesen Sie jeden Tag interessante Artikel.