Nachricht

Die Singularität liegt näher, was sollen Menschen tun?

2024-07-22

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina



beobachten

Wird diese Runde der durch KI-Substitutionen verursachten technologischen Arbeitslosigkeit so einfach sein wie in der Vergangenheit, und kann sie allein durch die spontane Anpassung des Marktes leicht überwunden werden? Mein Standpunkt zu diesem Thema ist nicht so optimistisch. Ob eine Gesellschaft die Welle der technologischen Arbeitslosigkeit relativ reibungslos überstehen kann, hängt grundsätzlich vor allem von zwei Punkten ab: Erstens davon, ob es eine große Zahl von Erwerbstätigen in Berufen gibt, die von neuen Technologien betroffen sind. Zweitens: Wenn neue Technologien alte Beschäftigungsmöglichkeiten eliminieren, können sie umgehend neue Arbeitsplätze schaffen, die einfacher zu starten sind.

——Chen Yongwei






Die Singularität liegt näher, was sollen Menschen tun?

Kunst/Chen Yongwei



Die Singularität: Von der Science-Fiction zur Realität


Nach zwei Jahren der „Verzögerung“ wurde Ray Kurzweils neues Buch „The Singularity is Nearer“ Ende Juni endlich veröffentlicht. Als Fan von Kurzweils Büchern habe ich sofort die elektronische Version des neuen Buches gefunden und es in einem Rutsch gelesen.


In dem Buch zeigt Kurzweil den Lesern ein wichtiges empirisches Gesetz auf: Die Entwicklungsgeschwindigkeit der Informationstechnologie schreitet exponentiell voran. Bei diesem Tempo verdoppelt sich die technische Fähigkeit der Menschen, Informationen zu verarbeiten, jedes Jahr. Als typischster Vertreter der Informationstechnologie ist die Entwicklung der künstlichen Intelligenz (Künstliche Intelligenz, im Folgenden als KI bezeichnet) noch erstaunlicher. Diesem Trend zufolge wird die KI vor 2029 den Menschen in allen Aufgaben übertreffen und die Künstliche Allgemeine Intelligenz (AGI) wird vollständig verwirklicht sein. Wenn die KI-Technologie bei Durchbrüchen die Führung übernimmt, wird sie viele Bereiche stärken und ihnen zu einer schnellen Entwicklung verhelfen. Daher wird erwartet, dass der Mensch innerhalb von 5 bis 10 Jahren die „Longevity Escape Velocity“ erreicht, obwohl sein Sterberisiko aufgrund der Fortschritte in der Medizintechnik mit zunehmendem Alter nicht steigt. Mit Hilfe von Nanorobotern in der Größe roter Blutkörperchen können Menschen Viren und Krebszellen direkt auf molekularer Ebene abtöten und so eine Vielzahl von Krankheiten lösen, die den Menschen plagen, und die Lebenserwartung der Menschen wird dadurch deutlich steigen. Darüber hinaus wird erwartet, dass Nanoroboter nicht-invasiv über Kapillaren in das menschliche Gehirn eindringen. Zusammen mit anderen in der Cloud gehosteten digitalen Neuronen werden sie die menschliche Intelligenz auf ein höheres Niveau bringen. Auf diese Weise werden menschliches Denken, Gedächtnis und Problemlösungsfähigkeiten nicht mehr durch die Gehirnkapazität eingeschränkt und die menschliche Intelligenz wird um ein Tausendfaches gesteigert. Wenn all das geschieht, werden viele der Probleme, die die Menschen derzeit plagen, gelöst sein: Es wird billigere Energie entdeckt und genutzt, die Effizienz der Landwirtschaft wird erheblich verbessert, das Niveau der öffentlichen Bildung wird erheblich verbessert und die Gewalt wird erheblich sein Reduktion... Kurz gesagt, vor 2045 wird die Menschheit die „Singularität“ überwinden und eine neue Ära einläuten, die sich völlig von der vorherigen unterscheidet.


Für alte Leser wie mich sind diese Ansichten über Kurzweil nicht neu. Tatsächlich hat er in seinem 2005 erschienenen Buch „The Singularity is Near“ fast alle oben genannten Punkte ausführlich erörtert. In diesem Sinne ist dieses neue Buch nichts anderes als nur alter Wein in neuen Schläuchen. Als ich diese Ansichten dieses Mal jedoch noch einmal las, war meine Stimmung völlig anders als zuvor. Als ich „The Singularity Is Near“ vor mehr als einem Jahrzehnt las, dachte ich eher an einen Science-Fiction-Roman. Obwohl Kurzweil in dem Buch viele Daten verwendet, um zu zeigen, dass die Technologie weltweit exponentiell wächst, stehen viele Menschen, darunter auch ich, dem äußerst skeptisch gegenüber.


„Die Singularität ist nahe: Wenn wir mit künstlicher Intelligenz verschmelzen“
(Die Singularität ist nahe: Wenn wir mit der KI verschmelzen)
(USA) Ray Kurzweil/Autor
Viking Press
Juni 2024

Denn obwohl die Internet-Technologie von da an ein rasantes Wachstum erlebte, schien es schwierig, abgesehen davon, dass sie den Menschen mehr Komfort brachte, einen grundlegenden Einfluss auf den Lebensstil der Menschen zu haben. Gleichzeitig ist der Bereich der KI, der einst große Hoffnungen hegte, unter der Führung der Symbolik in eine Sackgasse geraten, und es scheint für eine Weile schwierig, einen möglichen Durchbruch zu erkennen. Unter solchen Bedingungen grenzt es fast an eine Fantasie zu sagen, dass der Intelligenzgrad der KI im Jahr 2029 den des Menschen übertreffen wird.


Wundersamerweise ähnelt der nachfolgende historische Entwicklungstrend auffallend der Vorhersage von Kurzweil. Nur zwei Jahre nach der Veröffentlichung von „The Singularity is Near“ löste die „Deep-Learning-Revolution“ eine neue Wachstumsrunde im Bereich KI aus. Es dauerte nicht lange, bis die Fähigkeiten der KI so weit fortgeschritten waren, dass sie die besten menschlichen Go-Spieler besiegen, die Strukturen von Milliarden von Proteinen entschlüsseln und bei der Entwicklung von Computerchips mit Hunderttausenden von Komponenten helfen konnte. Nach der Geburt von ChatGPT (Chat-basiertes Programm für künstliche Intelligenz) im Oktober 2022 beherrscht die KI Fähigkeiten, die nur Menschen in etwas mehr als einem Jahr beherrschen können, wie Konversation, Schreiben, Malen und Videoproduktion. Relevanten Untersuchungen zufolge haben die neuesten KI-Modelle bei Hunderten von Aufgaben Fähigkeiten gezeigt, die über die des Menschen hinausgehen. Unter diesen Umständen erscheint die Vorhersage, dass die KI im Jahr 2029 den Menschen übertreffen wird, nicht nur nicht mehr radikal, sondern erscheint auch leicht konservativ. Tatsächlich glauben viele Fachleute, dass AGI früher eintreten wird. Shane Legg, einer der Gründer von DeepMind (dem Unternehmen für künstliche Intelligenz, das AlphaGo entwickelt hat), glaubt beispielsweise, dass AGI bis 2028 erreicht werden kann, während Elon Musk, CEO von Tesla, noch radikaler glaubt, dass die Menschen AGI einführen werden 2025.


Darüber hinaus entwickeln sich viele Technologien, darunter Nanoroboter und Gehirn-Computer-Schnittstellen, rasant weiter, wie Kurzweil vorhergesagt hat. Beispielsweise berichtete das Magazin „Nature Nanotechnology“ im Januar 2023 über die Forschung von Forschern des Barcelona Institute of Science and Technology, bei denen Nanoroboter Medikamente zur Behandlung von Blasenkrebs transportieren. Studien haben gezeigt, dass diese Behandlung Tumore bei Versuchsmäusen um 90 % verkleinern kann. Dieser Erfolg ist ein gutes Beispiel für Kurzweils Idee, Nanoroboter zur Behandlung von Krebs einzusetzen und so das menschliche Leben zu verlängern. Als weiteres Beispiel kündigte Musk vor wenigen Tagen an, dass die zweite Gehirn-Computer-Schnittstellenoperation innerhalb weniger Tage durchgeführt werden werde, und prognostizierte, dass innerhalb weniger Jahre Tausenden von Patienten Schnittstellengeräte in ihre Gehirne implantiert werden. Obwohl diese Technologie derzeit noch viele Mängel aufweist, sollte es angesichts der aktuellen Entwicklungsgeschwindigkeit in naher Zukunft für Menschen kein Traum sein, über Gehirn-Computer-Schnittstellen mit Computern zu interagieren. Wenn die beiden „schwarzen Technologien“ Nanotechnologie und Gehirn-Computer-Schnittstelle kombiniert werden, wird es durchaus möglich sein, die Mensch-Maschine-Fusion und die Verdoppelung der Intelligenz zu erreichen, wie Kurzweil sagte. Aus den oben genannten Gründen haben wir Grund zu der Annahme, dass das Erreichen der „Singularität“ vor 2045 technisch immer machbarer wird.


Können die Menschen jedoch, wenn sie die „Singularität“ überwinden, wirklich eine beispiellos schöne Ära einleiten, wie Kurzweil es vorhergesagt hat? Meiner Meinung nach ist die Antwort auf diese Frage eigentlich ungewiss. Obwohl Technologieoptimisten, darunter auch Kurzweil selbst, viele historische Beweise anführen können, um zu beweisen, dass die bisherige technologische Entwicklung letztendlich die Verbesserung des menschlichen Wohlergehens gefördert hat, besteht möglicherweise ein enormes Risiko, wenn wir dieses Gesetz einfach zur Vorhersage der Zukunft verwenden. Schließlich verfügt keine Technologie in der Geschichte der Menschheit über die Macht der KI. Bei unsachgemäßer Anwendung sind die Risiken, die sie mit sich bringt, unvorstellbar.


Um sicherzustellen, dass wir nach der „Singularität“ eine schöne neue Ära einläuten, müssen wir daher vor dem Eintreffen der Singularität eine umfassende Untersuchung der Beziehung zwischen Mensch und Technologie, Mensch und Mensch sowie Mensch und menschlicher Natur durchführen. Denken Sie nach und finden Sie Wege, um sicherzustellen, dass sich die Technologie immer in eine Richtung entwickelt, die für die Menschheit von Vorteil ist.


Wenn Arbeitsplätze zu sterben beginnen


Laut Kurzweils Prognose ist die Ankunft von AGI noch etwa fünf Jahre entfernt. Obwohl das Intelligenzniveau der KI das des Menschen bisher nicht vollständig übertroffen hat, hat es in vielen Aspekten tatsächlich das menschliche Niveau übertroffen, was beispiellose Besorgnis über die durch KI verursachte technologische Arbeitslosigkeit ausgelöst hat.


Aus historischer Sicht ist technologische Arbeitslosigkeit kein neues Thema. Von der Erfindung der Dampfmaschine über die Anwendung von Elektrizität bis hin zur Popularisierung des Internets gab es einen erheblichen Effekt der „kreativen Zerstörung“, der zum Verschwinden einer großen Zahl von Arbeitsplätzen, die auf alten Technologien basierten, und zum Verlust vieler Menschen führte in verwandten Berufen. Allerdings waren die meisten dieser Wellen technologischer Arbeitslosigkeit in der Geschichte vorübergehender Natur. Da neue Technologien immer beliebter werden, werden viele neue Arbeitsplätze entstehen.


Zwar sind die Auswirkungen von KI auf den Arbeitsmarkt bisher nicht erheblich, doch das bedeutet nicht, dass die Risiken nicht bestehen. Bei der Vorhersage der möglichen Auswirkungen von KI auf die Beschäftigung in der Zukunft wird oft eine wichtige Bedingung übersehen, nämlich dass die Verbesserung der KI-Fähigkeiten nach einem exponentiellen Gesetz erfolgen kann. Wenn wir das Aufkommen von ChatGPT (Konversationsprogramm für künstliche Intelligenz) im Jahr 2022 als Knoten betrachten, ist es nicht schwer festzustellen, dass die Entwicklungsgeschwindigkeit der KI nach diesem Knoten viel schneller ist als vor dem Knoten. Nehmen Sie als Beispiel die Fähigkeit zur Interaktion. Vor dem Aufkommen von ChatGPT dauerte es Jahrzehnte, bis die KI lernte, frei mit Menschen zu sprechen. Nach dem Aufkommen von ChatGPT hat die KI in etwas mehr als einem Jahr viele Dinge erreicht . In diesem Sinne wird die Extrapolation der künftigen Wachstumsrate der KI-Fähigkeiten ausschließlich auf der Grundlage linearer Logik wahrscheinlich zu sehr schwerwiegenden Fehleinschätzungen führen. Es sollte auch beachtet werden, dass die KI-Fähigkeiten zwar erheblich verbessert wurden, ihre Nutzungskosten jedoch auch erheblich gesenkt wurden. Derzeit sind die Kosten für den Aufruf von KI-Modellen über APIs auf nahezu Null gesunken.


Diese Leistungssteigerung und Kostenreduzierung machen es nicht nur technisch möglich, sondern auch wirtschaftlich machbar, Menschen durch KI zu ersetzen. Wenn wir den relevanten Technologienachrichten mehr Aufmerksamkeit schenken, werden wir tatsächlich feststellen, dass KI viele Berufe still und leise ersetzt hat, wenn wir nicht darauf achten. Es ist erwähnenswert, dass die Menschen noch vor zehn Jahren dachten, dass KI nur Jobs ersetzen würde, die routinemäßiger und repetitiver sind. Allerdings wäre es für KI schwierig, Jobs zu ersetzen, die mehr Kreativität und Kommunikationsfähigkeiten erfordern. Allerdings war der Beruf des Illustrators einst aufgrund seiner kostenlosen Arbeitszeiten und seines relativ hohen Einkommens bei jungen Leuten beliebt. Wenn Sie nun KI-Modelle zur Vervollständigung von Illustrationen verwenden möchten, benötigen Sie nur noch ein paar hundert Yuan für ein unbegrenztes Monatsabonnement kann es jederzeit nach Bedarf überarbeiten. Offensichtlich werden sich bei einem solchen Vergleich die meisten Kunden dafür entscheiden, KI anstelle menschlicher Maler zu verwenden, und die Mehrheit der Illustratoren wird aufgrund dieser Kundenentscheidung auch ihren Job verlieren. Neben Illustratoren sind auch Berufe wie Übersetzer, Programmierer und Grafikdesigner stark von der KI betroffen. Es ist nur so, dass der Anteil dieser Gruppe von Menschen, die die Auswirkungen erlebt haben, an der gesamten Erwerbsbevölkerung relativ gering ist, sodass die Gefühle der Menschen nicht offensichtlich sind.


Wird die durch diese Runde der KI-Ersetzungen verursachte technologische Arbeitslosigkeit also so einfach sein wie in der Vergangenheit, und kann sie allein durch die spontane Anpassung des Marktes leicht überwunden werden? Mein Standpunkt zu diesem Thema ist nicht so optimistisch. Ob eine Gesellschaft die Welle der technologischen Arbeitslosigkeit relativ reibungslos überstehen kann, hängt grundsätzlich vor allem von zwei Punkten ab: Erstens davon, ob es eine große Zahl von Erwerbstätigen in Berufen gibt, die von neuen Technologien betroffen sind. Zweitens: Wenn neue Technologien alte Beschäftigungsmöglichkeiten eliminieren, können sie umgehend neue Arbeitsplätze schaffen, die einfacher zu starten sind.


Doch dieses Mal ist der Einfluss von KI auf den Arbeitsmarkt völlig anders. Einerseits ist diese Runde der KI-Auswirkungen nicht nur umfassend, sondern auch zeitlich sehr intensiv. Der sogenannte umfassende Geltungsbereich führt dazu, dass viele Branchen gleichzeitig betroffen sind. Im Gegensatz zur spezialisierten KI in der Vergangenheit sind die meisten neu veröffentlichten KI-Modelle universell einsetzbar. In der Praxis können Benutzer diese Modelle verwenden, um mit nur wenigen Anpassungen viele verschiedene Aufgaben zu erfüllen. In diesem Fall kann die Entwicklung der KI Auswirkungen auf mehrere Berufe gleichzeitig haben. Der Begriff „zeitintensiv“ bezieht sich auf die Tatsache, dass KI, nachdem sie sich auf einen Beruf ausgewirkt hat, unmittelbar Auswirkungen auf einen anderen Beruf hat. Diese intensiven Auswirkungen werden die Wiederbeschäftigung für Arbeitslose bald erheblich erschweren und auch ihr Vertrauen in die Wiederbeschäftigung durch Qualifizierung ernsthaft untergraben. Stellen Sie sich vor, wenn ein Illustrator gerade von Midjourney (einem Zeichentool mit künstlicher Intelligenz) seines Jobs beraubt wurde, lernt er endlich Autofahren und wird ein Online-Mitfahrgelegenheitsfahrer, verliert aber bald seinen Job aufgrund der Verbreitung selbstfahrender Autos. Und hat er nach dem Verlust seines Arbeitsplatzes unter solchen Umständen immer noch die Ausdauer, weiterhin neue Fähigkeiten zu erlernen, und ist er sicher, dass die KI diese Fähigkeit nicht in kurzer Zeit beherrschen wird?


Daher kann sich diese durch KI verursachte Runde der technologischen Arbeitslosigkeit völlig von der früheren technologischen Arbeitslosigkeit unterscheiden. Wenn die KI-Technologie weiterhin exponentiell wächst, kann es für die Gesellschaft schwierig werden, Vollbeschäftigung zu erreichen, indem sie sich ausschließlich auf die spontane Regulierung des Marktes verlässt. Aus politischer Sicht haben wir sicherlich viele Möglichkeiten, die Auswirkungen von KI auf die Beschäftigung abzumildern. Beispielsweise kann die Bereitstellung von mehr Arbeitsvermittlungsdiensten und Wiedereinstellungsschulungen dazu beitragen, dass diejenigen, die ihren Arbeitsplatz aufgrund von KI verloren haben, schneller einen neuen Arbeitsplatz finden. . Bleibt die Entwicklungsgeschwindigkeit der KI jedoch weiterhin auf einem hohen Niveau, werden all diese Bemühungen allenfalls vorübergehende Auswirkungen haben. Der Untergang der menschlichen Arbeit mag für uns eine Zukunft sein, die wir nur schwer akzeptieren können, aber wir müssen uns damit auseinandersetzen.


Ablehnung von „Terminals“


Wenn man bedenkt, dass unsere aktuelle Entwicklung von Technologien wie Gehirn-Computer-Schnittstellen und Nanorobotern hinter der KI zurückbleibt, wird der Einsatz von KI zur direkten Verbesserung des Gehirns zumindest in den nächsten zehn Jahren möglicherweise nur auf der Ebene der Vorstellungskraft bleiben. Wie sollten die Menschen also in dieser Zeit mit den verschiedenen sozialen Widersprüchen umgehen, die durch die durch KI verursachte technologische Arbeitslosigkeit verursacht werden?


Die von einigen Wissenschaftlern vorgeschlagene Lösung besteht darin, KI-Nutzer zu besteuern und die Steuereinnahmen für die Ausgabe eines bedingungslosen Grundeinkommens (UBI) zu verwenden. Selbst wenn diejenigen, die aufgrund der Auswirkungen der KI ihren Arbeitsplatz verlieren, Schwierigkeiten haben, einen neuen Arbeitsplatz zu finden, können sie auf diese Weise dennoch eine grundlegende Lebenssicherheit erlangen und ein Leben in Schwierigkeiten vermeiden.


Dieser Plan war jedoch seit seinem Vorschlag umstritten. Einige Wissenschaftler glauben beispielsweise, dass die Besteuerung neuer Technologien wie KI deren Entwicklung erheblich behindern wird; andere glauben, dass die Einführung von UBI die Menschen dazu ermutigen könnte, etwas umsonst zu bekommen.


Meiner Meinung nach ergibt sich der größere potenzielle Widerstand gegen die Einführung der KI-Steuer und des BGE tatsächlich aus deren Auswirkungen auf die Verteilung der Leistungen. Wie wir sehen können, verzeichneten zahlreiche KI-bezogene Unternehmen mit der Entwicklung der KI in kurzer Zeit einen sprunghaft ansteigenden Umsatz und Marktwert. Nehmen wir als Beispiel OpenAI: Vor ein paar Jahren war es ein Unternehmen, das Jahr für Jahr Geld verlor. Mit der Popularität von Modellen wie GPT entwickelte es sich jedoch schnell zu einem Unternehmen mit einem Jahresumsatz von mehreren Milliarden Dollar Fast 100-Milliarden-Dollar-Geschäft. Ganz zu schweigen davon, dass Giganten wie Microsoft und Nvidia die KI genutzt haben, um ihren Marktwert in mehr als einem Jahr um Billionen Dollar zu steigern. Es ist absehbar, dass sich mit der Weiterentwicklung der KI-Technologie dieser Trend der Konzentration großer Vermögensbeträge auf eine kleine Anzahl von Unternehmen und Einzelpersonen fortsetzen wird.


Welche Konsequenzen hat das? Eine direkte Folge ist, dass die Spaltungen und Entfremdungen in der gesamten Gesellschaft gravierender werden. Wenn die Kosteneffizienz der KI hoch genug ist, haben normale Arbeiter nicht mehr den Wert der Ausbeutung, wie in Hao Jingfangs Roman „Beijing Folding“ erwähnt. In diesem Fall werden die wohlhabenden Menschen, die KI und Reichtum kontrollieren, nicht einmal mit ihnen in derselben Stadt leben wollen. Dadurch werden soziale Isolation und Opposition gravierender.


Das ist nicht das Schlimmste. Wenn, wie Kurzweil vorhergesagt hat, der Mensch in naher Zukunft in der Lage sein wird, sich von der molekularen Ebene durch Nanotechnologie zu transformieren, dann werden diejenigen mit mehr Wohlstand die ersten sein, die eine „mechanische Evolution“ ihrer selbst erreichen. Danach wird der Vorteil der Reichen gegenüber den Armen nicht nur in mehr Reichtum bestehen, sondern sie werden letztere auch in allen Aspekten wie Intelligenz und körperlicher Stärke vernichten. Und dieser Vorteil wird es ihnen wiederum ermöglichen, weiter zur Konzentration des Reichtums beizutragen ... Liu Cixin hat sich diese Situation einmal in seinem Roman „Sustaining Humanity“ vorgestellt. Seiner Vorstellung zufolge werden bei einem ähnlichen Trend der Reichtum und die Macht der gesamten Gesellschaft von einem „Finalisten“ monopolisiert und das Schicksal aller anderen von ihm kontrolliert.


Wie bringt man die KI in Einklang?


Wenn technologische Arbeitslosigkeit und Verteilungsprobleme das Wiederauftauchen alter Probleme sind, mit denen Menschen im KI-Zeitalter schon oft konfrontiert waren, dann werden wir im Folgenden mit dem Herannahen der „Singularität“ völlig neue Probleme diskutieren.


Unter all den neuen Problemen dürfte das Problem der KI-Ausrichtung das prominenteste sein. Kurz gesagt, die sogenannte KI-Ausrichtung soll sicherstellen, dass die KI menschliche Normen und Werte verstehen, menschliche Wünsche und Absichten verstehen und im Einklang mit dem menschlichen Willen handeln kann. Oberflächlich betrachtet scheint dies keine schwierige Aufgabe zu sein, schließlich werden KI-Programme grundsätzlich von Menschen festgelegt. Würden sich Menschen dennoch ein Ziel setzen, das ihren eigenen Interessen widerspricht? Tatsächlich ist die Antwort jedoch aus zwei Gründen nicht so einfach:


Wenn Menschen einerseits Verhaltensziele und -normen für die KI festlegen, ist es für sie oft schwierig, ihre eigenen Interessen und Anliegen vollständig und korrekt auszudrücken, was der KI Spielraum lässt, menschliche Interessen zu verletzen. Beispielsweise schlug der Wissenschaftsphilosoph Bostrom in seinem berühmten Werk „Superintelligenz“ einst ein Gedankenexperiment namens „Kosmische Büroklammer“ vor. Er stellte sich vor, dass Menschen eine KI mit dem Ziel erschaffen würden, die Produktion von Büroklammern zu maximieren. Dann würden sie alle Methoden nutzen, um dieses Ziel zu erreichen, und sie würden sogar Menschen eliminieren, um mehr Ressourcen für die Produktion von Büroklammern aufzuwenden. In diesem Gedankenexperiment liegt die Herstellung von Büroklammern selbst im Interesse der Menschheit, ihr Endergebnis könnte jedoch den Interessen der Menschheit ernsthaft schaden.


Um der KI andererseits eine höhere Effizienz zu ermöglichen, lässt der Mensch ihr in der Regel viel Raum zum Selbstlernen und zur Verbesserung, was dazu führen kann, dass die KI von ihren ursprünglich festgelegten Werten abweicht. Viele aktuelle KI-Agenten ermöglichen es ihnen beispielsweise, sich basierend auf ihren Interaktionen mit der Umwelt und den Benutzern kontinuierlich zu verbessern. In diesem Fall können sie von verschiedenen schlechten Werten beeinflusst werden, was dazu führt, dass ihre Ziele im Widerspruch zu den grundlegenden Interessen der Menschheit stehen.


Insbesondere mit der Einführung von AGI wird sich die KI schrittweise von einem Werkzeug in ein Individuum verwandeln, dessen Fähigkeiten in allen Aspekten denen des Menschen entsprechen oder diese sogar übertreffen. In diesem Fall wird die Diskrepanz zwischen den Interessen der KI und denen des Menschen zu enormen Risiken führen Die dunkle Zukunft, die in Film- und Fernsehwerken wie „The Terminator“ und „The Matrix“ dargestellt wird, könnte tatsächlich kommen.


Gerade um das Eintreten einer solchen Situation zu verhindern, hat sich die aktuelle KI-Ausrichtungsforschung zu einer herausragenden Wissenschaft auf dem Gebiet der KI entwickelt. In dieser Phase verwenden Menschen hauptsächlich zwei Methoden, um eine KI-Ausrichtung zu erreichen. Das eine ist „Reinforcement Learning with Human Feedback“, die sogenannte RLHF-Methode; das andere ist „Constitutional Artificial Intelligence“, die sogenannte CAI-Methode. Bei der Verwendung von RLHF trainiert der Designer zunächst manuell ein kleineres KI-Modell, implementiert verstärktes Lernen durch kontinuierliches Feedback des Trainers zum Verhalten der KI und leitet seine Werte so an, dass sie mit den vom Designer erwarteten Werten übereinstimmen. Anschließend wird dieses kleine Modell als „Coach“ verwendet, um ein größeres KI-Modell mithilfe von Reinforcement Learning zu trainieren. Bei Verwendung der CAI-Methode legt der Designer zunächst eine „Verfassung“ fest, der das KI-Modell folgen muss, und verwendet die „Verfassung“, um Verhaltenskodizes zu generieren, denen die KI in verschiedenen Szenarien folgen muss. Anhand dieser Kriterien beurteilen Designer dann die verschiedenen vom KI-Modell generierten Ergebnisse daraufhin, ob sie den „verfassungsmäßigen“ Kriterien entsprechen. Für Ergebnisse, die der „Verfassung“ entsprechen, werden entsprechende Belohnungen vergeben; für Ergebnisse, die gegen die „Verfassung“ verstoßen, werden entsprechende Strafen verhängt.


Es ist erwähnenswert, dass beide Methoden bisher gewisse Erfolge erzielt haben, ihre Probleme jedoch immer noch riesig sind. So wies beispielsweise Geoffrey Hinton, der „Vater des Deep Learning“, kürzlich darauf hin, dass diese Methoden das Verhalten der KI nur scheinbar im Einklang mit den Interessen der Menschen erwecken können, aber nicht garantieren können, dass es vollständig mit den Werten der Menschen übereinstimmt. Unter solchen Umständen ist es schwierig zu garantieren, dass KI unter bestimmten Umständen Menschen verrät. Insbesondere mit dem Aufkommen von AGI und der Fähigkeit der KI, den Menschen zu übertreffen, wird die Möglichkeit eines ähnlichen Verrats immer größer, und auch die daraus resultierenden Risiken werden immer größer.


Wie sollte also unter solchen Umständen die KI-Ausrichtungsarbeit weiter verbessert werden? Meiner Meinung nach brauchen wir möglicherweise einige Änderungen im Denken. Aus heutiger Sicht setzt fast jeder KI-Ausrichtung natürlich mit Werteausrichtung gleich und glaubt, dass KI-Werte mit ihren eigenen übereinstimmen müssen, damit sie immer menschlichen Interessen dienen, aber das ist offensichtlich ziemlich schwierig. Aber ist eine Wertausrichtung wirklich notwendig? Oder wir können die Frage ändern: In Wirklichkeit brauchen wir jemanden, der bestimmte Aufgaben in unserem Interesse erledigt. Brauchen wir, dass er in Bezug auf Werte mit uns übereinstimmt? Die Antwort ist natürlich nein. In den meisten Fällen müssen wir lediglich ein gutes Regelwerk entwerfen, um Menschen, deren Werte nicht mit unseren übereinstimmen, dabei zu helfen, die Ziele zu erreichen, die wir wollen. Wenn wir zum Beispiel zwei eigennützige Menschen bitten würden, einen Kuchen gerecht aufzuteilen, wäre die Aufgabe unendlich schwieriger, wenn wir dies erreichen wollten, indem wir zunächst ihre Werte angleichen. Wir müssen dies jedoch nicht tun. Wir müssen nur einen Mechanismus entwerfen, um eine Person den Kuchen anschneiden zu lassen, aber eine andere Person für die Verteilung verantwortlich machen. Dies inspiriert uns dazu, dass wir bei der KI-Ausrichtung auch die schwer zu durchbrechende Blackbox von Werten umgehen und diese Aufgaben direkt aus der Perspektive des Mechanismusdesigns erledigen können. Erfreulich ist, dass einige Forscher diese Ausrichtung inzwischen erkannt und viele Erfolge in dieser Richtung erzielt haben.


Wer bist du? Wer bin ich?


Neben dem Problem der KI-Ausrichtung ist die Identifizierung und Erkennung von Identität ein weiteres großes Problem, mit dem Menschen konfrontiert sind, wenn sich die „Singularität“ nähert. Dieses Problem umfasst zwei Aspekte: Wie können wir die Identität der KI verstehen und wie wir unsere eigene Identität neu verstehen können?


Schauen wir uns zunächst die erste Frage an. Wenn man vor ein paar Jahren jemanden fragte, was er über KI denken sollte, würde er wahrscheinlich ohne zu zögern sagen, dass es sich nur um ein Werkzeug für uns handelt. Der Grund ist einfach: Ihrer Leistung nach zu urteilen, ist es unwahrscheinlich, dass sie über ein autonomes Bewusstsein verfügen und verwandte Aufgaben nur unter menschlicher Kontrolle ausführen können.


Doch nach dem Aufkommen großer Sprachmodelle wie ChatGPT hat sich die Situation stark verändert. Die Leistung der KI bei der Interaktion mit Menschen hat nach und nach ihre ursprüngliche Starrheit verloren. In Gesprächen mit uns kann sie in einigen Fällen sogar unsere Psychologie und unser Verhalten aktiv erraten. Da fragen wir uns, ob sie bereits über ein eigenes Bewusstsein verfügen. Vielleicht trösten uns einige Computerexperten damit, dass dies nur eine mechanische Antwort auf diese Fragen ist, die auf einem vorgefertigten Modell basiert. Im Wesentlichen handelt es sich lediglich um die Addition, Subtraktion und Subtraktion einer Reihe von Nullen und Einsen. Wie das Sprichwort sagt: „Ein Kind, das kein Fisch ist, kennt die Freude eines Fisches.“ Wer kann garantieren, dass hinter dieser einfachen Addition und Subtraktion kein Bewusstsein und kein Denken steckt? Denn selbst wenn wir unser Gehirn beiseite legen und sorgfältig mit einem Mikroskop beobachten, können wir nur eine Ansammlung von Neuronen sehen, die verschiedene elektrische Signale senden, aber nicht einmal eine einzige Zelle mit einer Seele. Wie können wir in diesem Fall sicher sein, dass die KI vor uns, die frei mit uns kommunizieren kann, keine Seele entwickelt hat?


Ich denke, dass nach der Einführung von AGI ähnliche Probleme immer stärker in den Vordergrund treten werden. Vielleicht wird eines Tages in naher Zukunft der bionische KI-Roboter in „Westworld“ vor uns erscheinen. Alle ihre Verhaltensweisen stimmen mit unseren überein, und selbst das voreingestellte Programm sagt ihnen, dass sie Menschen sind. Können wir uns bei der Begegnung mit einem solchen KI-Roboter immer noch auf die Brust klopfen und sagen, dass das, was wir vor uns sehen, nur ein von uns geschaffenes Werkzeug ist?


Schauen wir uns die zweite Frage an. Verglichen mit der Identitätsfrage der KI kann die menschliche Selbstidentität und -erkennung ein schwierigeres Problem sein.


Einerseits wird der Mensch, wie oben erwähnt, mit der Entwicklung von Nanorobotern und der Gehirn-Computer-Schnittstellentechnologie die Fähigkeit erlernen, seinen Körper erheblich zu verändern. Von den Menschen wird in Zukunft nicht nur erwartet, dass sie Nanoroboter nutzen, um abgestorbene Zellen zu reparieren und so ihre Lebensdauer zu verlängern, sondern sie können sich auch direkt darauf verlassen, dass sie ihre Intelligenz und körperliche Stärke erweitern. Zunächst mag diese Art der Veränderung des menschlichen Körpers auf einige wenige Zellen beschränkt sein, was uns keine Identitätsprobleme bereiten wird – genauso wie wir heute nicht glauben, dass eine Person, nachdem sie Prothesen oder Zahnersatz trägt, kein Mensch ist . Er war derselbe. Wenn dieser Veränderungsprozess jedoch anhält, werden eines Tages die meisten oder sogar alle Zellen im Körper ersetzt. Zu diesem Zeitpunkt wird die klassische „Schiff des Theseus“-Frage erneut vor uns auftauchen: Ist das „Ich“ jetzt noch das „Ich“ in der Vergangenheit?


Andererseits werden die Menschen mit der Entwicklung der KI-Technologie nach und nach die Fähigkeit erlernen, ihr Bewusstsein in die Cloud hochzuladen – tatsächlich haben einige Leute, darunter Musk, bereits mit ähnlichen Bemühungen begonnen. Angenommen, dass die Technologie eines Tages in der Zukunft wirklich so weit entwickelt ist, dass dieses Bewusstsein so denken kann wie ich, kann dieses Bewusstsein dann als menschliches Bewusstsein angesehen werden? Wenn die Antwort „Ja“ lautet, in welcher Beziehung steht es dann zur wahren Natur des Bewusstseins? Wenn wir dieses Bewusstsein außerdem in einen Klon der Bewusstseinsquelle einfügen, welche Beziehung besteht dann zwischen diesem Klon und der ursprünglichen Person? Vater und Sohn? Bruder? Oder etwas anderes?


Es muss betont werden, dass Fragen der Identität und Identität keineswegs nur Fragen philosophischer Spekulationen sind. In Wirklichkeit geht es dabei um viele rechtliche und ethische Fragen. Wie sollte beispielsweise mit der Arbeits-Management-Beziehung zwischen Menschen und KI umgegangen werden? Sollte KI die gleichen Rechte haben wie Menschen? Kann ein Klon meines Körpers und Geistes mein Eigentum besitzen? Wenn das Identitätsproblem nicht gelöst wird, wird es schwierig, diese Probleme wirklich zu lösen.


Doch bisher hat man noch keine eindeutige Antwort auf die oben genannten Fragen gefunden. Um die Bildung eines entsprechenden Konsenses weiter voranzutreiben, müssen wir weiterhin offene und vertiefte Diskussionen zu diesen Themen führen.






Dieser Artikel wurde erstmals veröffentlicht in„Wirtschaftsbeobachter·Beobachter“
22. Juli 2024Ausgaben 25 und 26