Nachricht

Die Vereinigten Staaten starten „Manhattan Project 2.0“. Wird die KI ihren Oppenheimer-Moment erreichen? 6 Milliarden wurden auf Drohnen geworfen, 800 davon bereits

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Neuer Weisheitsbericht

Herausgeber: Aeneas so schläfrig

[Einführung in die neue Weisheit] Kommt Manhattan Project 2.0? Derzeit verfügt das US-Militär über mehr als 800 aktive KI-Projekte und hat allein in 24 Jahren 1,8 Milliarden US-Dollar an Fördermitteln für KI beantragt. In den nächsten fünf Jahren werden die Vereinigten Staaten außerdem 6 Milliarden US-Dollar für die Forschung und Entwicklung unbemannter kollaborativer Kampfflugzeuge bereitstellen. Nun scheint die KI ihren Oppenheimer-Moment erreicht zu haben.

Künstliche Intelligenz hat ihren Oppenheimer-Moment erreicht.

Mittlerweile werden KI-Waffen ständig für militärische Zwecke eingesetzt und die damit verbundenen Industrien boomen.

Das milliardenschwere Wettrüsten im Bereich KI hat Silicon-Valley-Giganten und Länder auf der ganzen Welt angezogen.

Zunehmende Konflikte auf der ganzen Welt sind sowohl Beschleuniger als auch Testgelände für KI-Kriegsführung. Das Interesse der Militärs verschiedener Länder an KI ist groß und es mangelt in diesem Bereich derzeit an Aufsicht.


Das US-Militär verfügt bereits über mehr als 800 aktive KI-Projekte. Allein im Jahr 2024 hat es im Budget für KI Fördermittel im Wert von 1,8 Milliarden US-Dollar beantragt.

Wenn KI in Militärs und Regierungen auf der ganzen Welt Fuß fasst, wird sie wahrscheinlich die Gesellschaft, die Technologie und die Kriegsführung grundlegend verändern.

Drohnenwerbung wird wahr

Eine Gruppe von Soldaten wird bei einem Nahkampf in der Stadt von Raketen beschossen.

Einer von ihnen rief über Funk an und schon bald flog eine Flotte kleiner autonomer Drohnen mit Sprengstoff ein.

Diese Selbstmorddrohnen fliegen in Gebäude und beginnen mit der Suche nach Feinden. Sobald sie ein Ziel gefunden haben, detonieren sie auf Befehl.

Das obige Bild stammt aus einer Werbung des Waffenunternehmens Elbit, die dafür werben soll, wie KI-Drohnen „Tödlichkeit und Kampfrhythmus maximieren“ können.


Mittlerweile hat die von Elbit entwickelte Technologie zunehmend Einzug in die reale Welt gehalten.

„Mit der Zeit werden wir vielleicht sehen, dass Menschen mehr Urteilsvermögen an Maschinen abgeben“, sagte Paul Scharre, Executive Vice President und Forschungsdirektor am Center for a New American Security Think Tank.

„Wenn wir in 15 oder 20 Jahren zurückblicken, werden wir feststellen, dass wir eine sehr wichtige Schwelle überschritten haben.“


Im Jahr 2023 erkennt eine KI-integrierte Drohne Sprengkörper

Die Vereinigten Staaten geben 1 Milliarde Dollar für das „Replicator Project“ aus

Obwohl die Investitionen in die KI-Entwicklung erst in den letzten Jahren stark angestiegen sind, lässt sich die Entwicklung autonomer Waffensysteme in der Kriegsführung Jahrzehnte zurückverfolgen.

Natürlich tauchen diese Entwicklungen selten in öffentlichen Diskussionen auf, werden aber von einer kleinen Anzahl von Wissenschaftlern und Militärstrategen untersucht.

Doch mittlerweile nimmt die öffentliche Aufmerksamkeit für KI zu. Ob Waffen wirklich „autonom“ sind, ist ebenfalls zu einem heiß diskutierten Thema geworden.

Nach Ansicht von Experten und Forschern können wir „Autonomie“ eher als ein Spektrum als als ein einfaches binäres Konzept verstehen.

Sie sind sich jedoch im Großen und Ganzen einig, dass Maschinen heute mehr Entscheidungen als je zuvor ohne menschliches Zutun treffen können.


Und Geld fließt in Unternehmen und Regierungsbehörden und verspricht, dass KI den Krieg intelligenter, billiger und schneller machen kann.

Das Pentagon plant, bis 2025 eine Milliarde US-Dollar für sein „Replikatorprogramm“ auszugeben. Ziel dieses Programms ist es, eine große Anzahl unbemannter Kampfdrohnen zu entwickeln und mithilfe von KI nach Bedrohungen zu suchen.

In den nächsten fünf Jahren plant die US-Luftwaffe, etwa 6 Milliarden US-Dollar für die Forschung und Entwicklung unbemannter, kollaborativer Kampfflugzeuge bereitzustellen, um eine Flotte von 1.000 KI-Kampfflugzeugen aufzubauen, die autonom fliegen können.

In den letzten Jahren hat das US-Verteidigungsministerium außerdem Hunderte Millionen Dollar gesammelt, um ein geheimes Programm für künstliche Intelligenz namens Project Maven zu finanzieren, das sich auf Technologien wie automatische Zielerkennung und -überwachung konzentriert.


Britische Soldaten nutzen KI bei Übungen

Technologieunternehmen schließen riesige Verträge ab

Gleichzeitig hat die steigende Nachfrage nach KI und Autonomie im Militär dazu beigetragen, dass Technologieunternehmen und Waffenhändler große Aufträge erhalten.

Anduril, ein Unternehmen, das autonome Angriffsdrohnen, unbemannte Kampfflugzeuge und Unterwasserfahrzeuge entwickelt, nimmt eine neue Runde Risikokapital mit einem erwarteten Wert von 12,5 Milliarden US-Dollar auf.


Der Gründer von Anduril, Palmer Luckey, ist ein 31-jähriger Milliardär, der dieses Jahr einen Vertrag mit dem Pentagon über den Bau eines unbemannten Kampfflugzeugprogramms unterzeichnet hat.

Der Silicon-Valley-Milliardär Peter Thiel gründete auch Palantir, ein Technologie- und Überwachungsunternehmen. Es hat bereits an KI-Projekten wie dem „ersten durch künstliche Intelligenz definierten Fahrzeug“ der US-Armee teilgenommen.


Im Mai gab das Pentagon bekannt, dass es Palantir einen 480-Millionen-Dollar-Auftrag für KI-Technologie erteilt habe, die dabei hilft, feindliche Ziele zu identifizieren.

Derzeit wird die Technologie von Palantir in mehreren Militäreinsätzen eingesetzt.


Palantir ist am „ersten KI-definierten Fahrzeug“ der US-Armee beteiligt

Anduril und Palantir, benannt nach dem Heiligen Schwert bzw. dem Stein der Weisen in „Herr der Ringe“, sind nur ein kleiner Teil des internationalen Goldrauschs im KI-Krieg.


Helsing hat fast 500 Millionen US-Dollar an Finanzmitteln für seine KI-Verteidigungssoftware aufgebracht und wurde diesen Monat mit 5,4 Milliarden US-Dollar bewertet.

Unterdessen gab Elbit Systems in einem Finanzdokument im März bekannt, dass es im Jahr 2023 einen Munitionsvertrag über 760 Millionen US-Dollar unterzeichnet hatte. Und im vergangenen Jahr erreichte der Umsatz 6 Milliarden US-Dollar.


Helsing sammelt diesen Monat fast 500 Millionen US-Dollar für seine KI-Verteidigungssoftware im Wert von 5,4 Milliarden US-Dollar

Auch große Technologieunternehmen sind gegenüber der Verteidigungsindustrie und ihrem Einsatz von KI aufgeschlossener als in den vergangenen Jahren.

Im Jahr 2018 protestierten Google-Mitarbeiter gegen die Beteiligung des Unternehmens am Project Maven des Militärs und argumentierten, dass dies gegen ethische und moralische Pflichten verstoße. Unter Druck brach Google damals die Zusammenarbeit mit dem Projekt ab.

Allerdings hat Google inzwischen mit der Regierung eines bestimmten Landes eine Vereinbarung im Wert von 1,2 Milliarden US-Dollar getroffen, um ihm Cloud-Computing-Dienste und KI-Funktionen zur Verfügung zu stellen.

In diesem Jahr entließ Google Dutzende Mitarbeiter, da einige Mitarbeiter gegen Militärverträge protestierten. CEO Pichai sagte den Mitarbeitern unverblümt: „Das ist ein Geschäft.“


Ähnliche Mitarbeiterproteste kam es 2022 bei Amazon, und auch hier änderte das Unternehmen seine Politik nicht.

Doppelte Blackbox

Forscher warnen davor, dass viele Unternehmen und Technologien mit minimaler Transparenz und Rechenschaftspflicht agieren, da riesige Geldbeträge in den Verteidigungstechnologiesektor fließen.

Wenn ein Produkt unerwartet ausfällt, kann das fatale Folgen haben, doch diese Waffenhändler sind in der Regel nicht dafür verantwortlich.

Darüber hinaus bedeutet die Geheimhaltungsorientierung des nationalen Sicherheitsapparats der USA auch, dass Unternehmen und Regierungen nicht verpflichtet sind, die Einzelheiten der Funktionsweise dieser Systeme offenzulegen.

Wenn die Regierung geheime, proprietäre KI-Technologie nimmt und sie in der verborgenen Welt der nationalen Sicherheit platziert, entsteht das, was Ashley Deeks, Rechtsprofessorin an der University of Virginia, eine „doppelte Blackbox“ nennt.

In diesem Fall ist es für die Öffentlichkeit schwierig zu erkennen, ob diese Systeme korrekt oder ethisch einwandfrei funktionieren. Und das lässt im Allgemeinen viel Spielraum für Fehler.

„Ich habe in der Geschäftswelt einen großen Hype um KI gesehen, und das Wort ‚KI‘ wird überall missbraucht“, sagte Scharre vom Think Tank Center for American Security Es ist möglicherweise nicht so komplex wie angekündigt.


Aktivisten protestieren vor dem Brandenburger Tor in Berlin und fordern „Stoppt die Killerroboter“.

Leute im Kreis

Während Unternehmen und nationale Militärs zögern, die spezifischen Betriebsdetails ihrer Systeme offenzulegen, führen sie dennoch zahlreiche Debatten über die ethische Verantwortung und Regulierung von KI-Systemen.

Beispielsweise glauben Diplomaten und Waffenhändler im Allgemeinen, dass es immer eine „menschliche Beteiligung“ am Entscheidungsprozess geben sollte, anstatt vollständig von Maschinen kontrolliert zu werden.

Es besteht jedoch wenig Konsens darüber, wie menschliche Aufsicht umgesetzt werden soll.

„Jeder kann sich auf das Konzept einigen, aber gleichzeitig hat jeder eine andere Vorstellung davon, was es in der Praxis bedeutet“, sagte Rebecca Crootof, Rechtsprofessorin und Expertin für autonome Kriegsführung an der University of Richmond und erste Gastwissenschaftlerin der DARPA.

„Im Hinblick auf die eigentliche Steuerung technischer Designentscheidungen ist dieses Konzept nicht so nützlich.“


Demonstranten versammeln sich vor der Elbit Systems-Fabrik in Leicester, Großbritannien

Darüber hinaus machen die Komplexität der menschlichen Psychologie und Verantwortlichkeit Diskussionen auf hoher Ebene über „People in the Loop“ noch problematischer.

Ein von Forschern häufig genanntes Beispiel sind selbstfahrende Autos, bei denen der Mensch bei Bedarf die Kontrolle über das Fahrzeug zurückgewinnen muss, um eine „menschliche Beteiligung“ zu erreichen.

Aber wenn ein selbstfahrendes Auto einen Fehler macht oder einen Menschen dazu bringt, eine falsche Entscheidung zu treffen, ist es dann fair, dem Fahrer die Schuld zu geben?

Genauer gesagt: Wer trägt die Verantwortung, wenn ein selbstfahrendes Auto in den ersten Sekunden eines Unfalls die Kontrolle an einen Menschen übergibt?

Scharre von der Denkfabrik Center for American Safety wies auf eine interessante Sache hin: Wir setzen manchmal Menschen ins Cockpit, damit wir jemanden finden, der die Verantwortung übernimmt, wenn etwas schief geht.

Über die Art der Aufsicht gibt es unterschiedliche Meinungen

Auf einer Konferenz Ende April dieses Jahres in Wien kamen internationale Organisationen und Diplomaten aus 143 Ländern zusammen, um Regulierungsfragen für den Einsatz künstlicher Intelligenz und autonomer Waffen in der Kriegsführung zu diskutieren.

Viele Jahre lang gelang es dem UN-Sicherheitsrat nicht, zu diesem Thema ein umfassendes Abkommen zu schließen.

Im Vergleich zu einem völligen Verbot autonomer Waffen fällt die Forderung des österreichischen Außenministers Alexander Schallenberg deutlich milder aus: „Zumindest sollten wir die weitreichendste und wichtigste Entscheidung treffen: Wer lebt und wer stirbt, liegt weiterhin in den Händen von Menschen, nicht von Maschinen.“ " .


Das Internationale Rote Kreuz und Stop Killer Robots fordern seit mehr als zehn Jahren ein Verbot bestimmter Arten autonomer Waffensysteme.

Catherine Connolly, Managerin von Stop Killer Robots, sagte: „Wir sehen, dass viel Geld in Technologien wie autonome Waffen und KI-Zielsysteme investiert wird, was sehr besorgniserregend ist.“

Heute wird die Situation immer dringlicher.

Befürworter der Rüstungskontrolle erkennen auch an, dass die Zeit für den Kampf für eine Regulierung knapp wird.

Mary Wareham, stellvertretende Direktorin der Krisen-, Konflikt- und Rüstungsabteilung der Organisation, sagte: „Wir haben einst ein präventives Verbot vollständig autonomer Waffensysteme gefordert, und jetzt verwenden wir das Wort ‚präventiv‘ nicht mehr, weil wir so weit von autonom entfernt sind.“ Waffen. Ganz nah.“

Der Forderung nach einer stärkeren Aufsicht stoßen die USA und andere Länder sowie Waffenhändler auf Widerstand.

Anduril-Gründer Luckey hat vage versprochen, die „menschliche Beteiligung“ an der Technologie des Unternehmens aufrechtzuerhalten, sich jedoch gegen Regulierungen und Verbote autonomer Waffen ausgesprochen.

Alex Karp, CEO von Palantir, hat oft erwähnt, dass wir einen Oppenheimer-Moment erreicht haben.


Eine KI-integrierte Drohne räumt Minen

Experten sagen, dass dieser Mangel an Aufsicht nicht nur ein Phänomen ist, das nur bei autonomen Waffen auftritt, sondern ein allgemeines Problem, mit dem das internationale Rechtssystem konfrontiert ist.

Viele befürchten jedoch, dass diese Technologien, sobald sie entwickelt und in das Militär integriert sind, bestehen bleiben und schwieriger zu regulieren sein werden.

„Sobald eine Waffe im Militär eingesetzt wird, ist es schwieriger, sie aufzugeben, weil sie von ihr abhängig geworden sind“, sagte Scharre vom Think Tank Center for American Security. „Das ist nicht mehr nur eine finanzielle Investition.“

Wenn sich autonome Waffen und KI wie andere Militärtechnologien entwickeln, wird ihr Einsatz wahrscheinlich auch auf inländische Strafverfolgungs- und Grenzschutzbehörden durchsickern und die Technologie weiter etablieren.

„Oft landet die im Krieg eingesetzte Technologie in der Heimat“, sagte Connolly.

Verweise:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield