KI-autonome Waffen sind da, der Oppenheimer-Moment unserer Generation ist da

KI-autonome Waffen sind da, der Oppenheimer-Moment unserer Generation ist da

Im Konflikt zwischen Russland und der Ukraine sorgte ein aktuelles Video für Aufsehen: Ukrainische Drohnen drangen mehr als 1.000 Kilometer von der Grenze entfernt tief in russisches Territorium ein und zerstörten die russische Öl- und Gasinfrastruktur. Experten gehen davon aus, dass es höchstwahrscheinlich künstliche Intelligenz war, die die Drohne zum Angriff auf das Ziel lenkte. Ukrainische Militärkommandeure sagten außerdem, dass die Ukraine „vollständig robotergestützte Operationen ohne menschliches Eingreifen durchführt“.

Das heißt, diese Art von Waffensystem mit künstlicher Intelligenz kann Ziele autonom auswählen und angreifen, ohne dass ein Mensch eingreifen muss. Tatsächlich ist die Anwendung künstlicher Intelligenz in der Kriegsführung viel einfacher als wir denken: Bereits vorhandene Technologien für künstliche Intelligenz und Robotik können geeignete physische Plattformen bereitstellen. Die technische Schwierigkeit solcher Systeme, menschliche Ziele zu finden und zu töten, ist sogar noch geringer als die Entwicklung selbstfahrender Autos. Jeder Doktorand kann das Projekt abschließen.

Einige Beobachter befürchten daher, dass jede Fraktion in Zukunft Schwärme billiger KI-Drohnen aussenden könnte, die mithilfe von Gesichtserkennungstechnologie gezielt Personen eliminieren. Und wenn wir den Maschinen die Möglichkeit geben, den Tod zu erleiden, wird sich die Art des Krieges völlig verändern. Daher gelten tödliche autonome Waffensysteme als die dritte Revolution in der Kriegsführung nach Schießpulver- und Atomwaffen.

„Ich glaube, dies ist der Oppenheimer-Moment unserer Generation“, betonte der österreichische Bundesminister für europäische und internationale Angelegenheiten Alexander Schallenberg auf der ersten internationalen Konferenz zu autonomen Waffensystemen am 29. April in Wien.

Geschrieben von | Ren

Der Krieg ist wie ein Schatten, den die menschliche Zivilisation niemals loswerden kann. Heute wird dieses blutige Spiel, das schon immer von Menschen gespielt wurde, von künstlicher Intelligenz (KI) übernommen.

Ob im Russland-Ukraine-Konflikt oder in den Kriegen im Nahen Osten, allen voran im Israel-Palästina-Konflikt, ist der Schatten der KI immer noch vage sichtbar: Sie steuert (unter menschlicher Aufsicht) Drohnen, Raketen, Gewehre, Minen und andere Waffen, identifiziert Ziele und startet Angriffe.

Dies ist das erste Mal, dass wir die beiden Seiten der KI intensiv erleben. Es kann der Menschheit nützen, aber es kann auch im Handumdrehen Menschenleben kosten. Leider haben wir keine Zeit, die Toten zu betrauern. Im militärischen Bereich ist die Anwendung von KI in diesem Ausmaß erst der Anfang.

Wir werden demnächst Zeuge eines sich langsam entfaltenden KI-Wettrüstens, bei dem die Waffen immer intelligenter und autonomer werden und sich die Menschen langsam aus ihren Entscheidungsprozessen zurückziehen, bis schließlich tödliche autonome Waffensysteme (LAWs) auftauchen und auf dem Schlachtfeld eingesetzt werden.

Darauf waren wir nicht vorbereitet. Wenn KI-Waffen eines Tages autonom angreifen können und über Leben und Tod unzähliger Menschen durch eine einzige Codezeile entschieden werden kann, können Sie es dann akzeptieren, dass über Ihr Schicksal ein kalter Algorithmus entscheidet?

Es sollte jedem klar sein, dass es eine schreckliche Idee ist, einen Algorithmus über Leben und Tod eines Menschen entscheiden zu lassen. Glücklicherweise haben wir noch Zeit, dies zu verhindern. leider läuft uns die Zeit davon.

Fernsteuerung vs. autonome Entscheidungsfindung

Nach der Definition des US-Verteidigungsministeriums lassen sich die Stufen der Waffenautonomie in drei Kategorien einteilen: „Human in the Loop“, „Human on the Loop“ und „Human out of the Loop“, abhängig von der Rolle des Menschen:

Da Menschen involviert sind, werden die Aktionen der Waffen vollständig von Menschen entschieden und kontrolliert.

Durch die Einbindung des Menschen können Waffen nach ihrer Aktivierung autonome Entscheidungen treffen und gemäß Anweisungen handeln. Zudem können Menschen jederzeit die Kontrolle übernehmen und eingreifen, um bei Bedarf die Entscheidungs- und Kontrollrechte zu übernehmen.

Der Mensch ist außen vor und bekommt nach Aktivierung der Waffe ein Aktionsziel zugewiesen, woraufhin er Entscheidungen trifft und Aktionen völlig selbstständig durchführt.

Die gute Nachricht ist, dass unseres Wissens nach bisher keine echten „tödlichen autonomen Waffensysteme (an denen der Mensch nicht beteiligt ist)“ zum Einsatz gekommen sind. Den Vereinten Nationen zufolge handelt es sich dabei um „Waffen, die dazu bestimmt sind, menschliche Ziele ohne menschliche Aufsicht zu orten, auszuwählen und anzugreifen“.

Dabei geht es nicht um von Menschen ferngesteuerte Waffen wie die berühmte amerikanische Drohne „Predator“ oder die selbstgebauten Bombenabwurfdrohnen ukrainischer Frontsoldaten, die unter menschlicher Kontrolle Granaten aus der Ferne abwerfen können.

Mit zunehmendem Verständnis der Menschen für diese Waffen und der Verbesserung der elektronischen Störtechnologie wird ihre Wirksamkeit zunehmend nachlassen. Aus diesem Grund richten einige Länder und Unternehmen ihre Aufmerksamkeit auf die Forschung und Entwicklung autonomer Waffen wie Drohnen.

Die Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums hat zwei Programme veröffentlicht, die die geplanten Einsatzmöglichkeiten ihrer autonomen Waffensysteme offenlegen: Fast Lightweight Autonomy (FLA) und Collaborative Operations in Jammed Environments (CODE). Ersteres wird das Mikrorotorflugzeug so programmieren, dass es ohne menschliche Hilfe mit hoher Geschwindigkeit in städtischen Gebieten und innerhalb von Gebäuden fliegen kann. Letzteres zielt darauf ab, Teams autonomer Fahrzeuge zu entwickeln, die alle Schritte einer Angriffsmission durchführen können – erkennen, identifizieren, verfolgen, anvisieren, angreifen, einschätzen –, wenn die Kommunikation mit menschlichen Kommandanten durch feindliche Signalstörungen unmöglich ist.

Auch andere Länder betreiben entsprechende Waffenforschung und -entwicklung. Seit 2017 verkauft ein türkisches Unternehmen namens STM die Kargu-Drohne, die etwa so groß wie ein Essteller ist und 1 Kilogramm Sprengstoff transportieren kann. Laut der Beschreibung auf der Website des Unternehmens aus dem Jahr 2019 ist die Drohne in der Lage, Fahrzeuge und Personen „autonom und präzise“ anzugreifen, „Ziele auf Bildern auszuwählen“ und „bewegliche Ziele zu verfolgen“.

Israels Harpy-Drohnen können stundenlang über einem Gebiet fliegen, nach Zielen suchen, die einer visuellen oder Radarsignatur entsprechen, und sie dann mit Sprengstoff zerstören. Die US-Marine und die Defense Advanced Research Projects Agency haben außerdem das unbemannte Kriegsschiff Sea Hunter entwickelt, das U-Boot-Abwehr und andere Aufgaben übernehmen kann.

Auf der ganzen Welt wurden experimentelle U-Boote, Panzer und Schiffe gebaut, die alle KI zum autonomen Fahren und Schießen nutzen können. Den bislang veröffentlichten Informationen zufolge können diese Waffen ferngesteuert werden oder nach der Aktivierung autonom Aufgaben ausführen. Es ist schwierig zu erkennen, in welchem ​​Ausmaß Menschen an den Entscheidungsprozessen beteiligt sind.

KI bewirbt sich für den Kampf

Autonome Waffen gibt es schon seit mindestens einigen Jahrzehnten, darunter wärmesuchende Raketen und sogar druckaktivierte Minen aus der Zeit des amerikanischen Bürgerkriegs (wenn man Autonomie weit definiert). Doch nun erweitern die Entwicklung und Nutzung von KI-Algorithmen ihre Fähigkeiten.

Tatsächlich ist der Einsatz von KI im Krieg viel einfacher als wir denken.

„Die technische Fähigkeit eines Systems, Menschen zu finden und zu töten, ist viel einfacher als die Entwicklung eines selbstfahrenden Autos“, sagte Stuart Russell, Informatiker an der University of California in Berkeley und prominenter Aktivist gegen KI-Waffen. „Dies ist ein Doktorandenprojekt.“

Vorhandene KI- und Robotertechnologien sind gut aufgestellt, um die richtige physische Plattform, Wahrnehmung, Motorsteuerung, Navigation, Kartierung, taktische Entscheidungsfindung und langfristige Planung bereitzustellen. Die Waffenhersteller müssen sie lediglich nach Bedarf kombinieren. Beispielsweise kann ein autonomes Waffensystem Such- und Zerstörungsmissionen in Städten vollständig durchführen, indem es den DQN-Algorithmus von DeepMind zum Erlernen menschlicher taktischer Strategien verwendet und ihn mit vorhandener autonomer Fahrtechnologie kombiniert.

Es ist schwer vorherzusagen, welche Leistung KI-Waffen auf dem Schlachtfeld erbringen werden, vor allem, weil das Militär solche Daten nicht ohne weiteres herausgibt.

Im Jahr 2023 wurde Tom Copinger-Symes, stellvertretender Kommandeur des UK Strategic Command, im Rahmen einer parlamentarischen Untersuchung im Vereinigten Königreich direkt zu KI-Waffensystemen befragt. Er sagte, es sei nicht angebracht, zu viele Informationen preiszugeben, sondern lediglich, dass das britische Militär Benchmarkstudien durchführe, um autonome Waffensysteme mit nicht-autonomen Systemen zu vergleichen.

Obwohl es nur wenige Daten aus realen Schlachtfeldern gibt, weisen Forscher darauf hin, dass KI über überlegene Verarbeitungs- und Entscheidungsfähigkeiten verfügt, die theoretisch einen enormen Vorteil bieten könnten. Im Bereich der schnellen Bilderkennung beispielsweise übertreffen Algorithmen den Menschen seit fast einem Jahrzehnt. Dies ermöglicht eine präzise Identifizierung von Zielen in Bildern.

Bereits 2020 besiegte ein KI-Modell erfahrene F-16-Kampfpiloten in einer Reihe simulierter Luftkämpfe, vor allem aufgrund seiner „aggressiven und präzisen Manöver, mit denen menschliche Piloten nicht mithalten konnten“. Sie müssen wissen, dass die KI in sehr kurzer Zeit sehr komplexe Entscheidungen hinsichtlich der Ausführung bestimmter Aktionen, der Flugdistanz zum Gegner und des Angriffswinkels treffen kann.

Im April dieses Jahres gab das US-Militär den Abschluss eines bahnbrechenden Experiments bekannt, bei dem ein KI-gesteuerter F-16-Kampfjet einen echten Luftkampf mit einem von Menschen gesteuerten Kampfjet absolvierte. Das KI-gesteuerte Flugzeug führte Angriffs- und Verteidigungsübungen durch und war nur 610 Meter von den von Menschen gesteuerten Kampfjets entfernt.

Der modifizierte F-16-Kampfjet, bekannt als X-62A, wird von künstlicher Intelligenz gesteuert.

Quelle: Daten

Dies stellt einen Durchbruch für das US-Militär auf dem Gebiet des autonomen Kampfes KI-gesteuerter Flugzeuge dar. Sollte diese Technologie in Zukunft auf dem Schlachtfeld zum Einsatz kommen, wird die Fernsteuerung aufgrund der sich ständig verändernden Natur des Luftkampfs schwierig werden, sodass sie unweigerlich in die Kategorie der tödlichen autonomen Waffen fallen wird.

Theoretisch könnte KI auch in anderen Bereichen der Kriegsführung eingesetzt werden, beispielsweise bei der Erstellung von Listen potenzieller Ziele. Früheren Medienberichten zufolge nutzte Israel künstliche Intelligenz, um eine Datenbank mit den Namen Zehntausender mutmaßlicher Militanter zu erstellen. Doch das israelische Militär bestritt dies.

Die Kontrolle von KI-Waffen ist schwierig

Die Macht der KI zwingt die Menschen dazu, darüber nachzudenken, wie sich ihr Einsatz sowohl aus praktischer Anwendungsperspektive als auch aus ethischer Sicht besser kontrollieren lässt.

Die Bemühungen der Menschheit, den Einsatz von Waffen zu kontrollieren und zu regulieren, reichen Hunderte von Jahren zurück. Disziplinierte mittelalterliche Ritter einigten sich beispielsweise darauf, ihre Lanzen nicht auf die Pferde der anderen zu richten. Im Jahr 1675 einigten sich Frankreich und das Heilige Römische Reich darauf, den Einsatz von Giftgeschossen zu verbieten.

Die wichtigste internationale Waffenbeschränkung besteht heute in der 1983 unterzeichneten UN-Konvention über bestimmte konventionelle Waffen (CCW), die unter anderem blendende Laserwaffen verbietet.

Forscher arbeiten seit Jahren daran, die neuen Bedrohungen durch tödliche autonome Waffensysteme unter Kontrolle zu bringen. UN-Generalsekretär Antonio Guterres sagte im vergangenen Juli, er wolle den unbeaufsichtigten Einsatz von Waffen bis 2026 verbieten.

Stoppen Sie die Bewegung der Killerroboter. Quelle: Internet

Im Dezember 2023 verabschiedeten die Vereinten Nationen eine wichtige Resolution, die das Thema KI-Waffen auf die Tagesordnung der UN-Generalversammlung im September 2024 setzte.

Experten zufolge bietet dieser Schritt den Ländern erstmals eine realistische Möglichkeit, gegen KI-Waffen vorzugehen. Aber das ist leichter gesagt als getan.

Manche glauben, dass KI-gestützte Waffen präziser sein könnten als von Menschen gesteuerte Waffen. Dadurch könnten sogenannte Kollateralschäden wie zivile Opfer und die Zerstörung von Wohngebieten sowie die Zahl getöteter und verstümmelter Soldaten verringert und schwächeren Ländern und Gruppen geholfen werden, sich zu schützen.

Der Fehler bei dieser Denkweise liegt jedoch darin, dass auch feindliche Staaten über derartige Waffen verfügen würden, und dass militärisch mächtigere Staaten wahrscheinlich über stärkere autonome Waffen verfügen würden, die nicht weniger, sondern mehr Schaden anrichten würden.

Was die Verwendung autonomer Waffen zur Reduzierung von Kollateralschäden betrifft, so basiert diese auf zwei Prämissen, die schwer zu erreichen sind.

Erstens macht KI keine Fehler bzw. die Wahrscheinlichkeit, dass KI Fehler macht, ist geringer als bei Menschen. Doch niemand kann garantieren, dass KI nicht dieselben Fehler macht wie Menschen, etwa Zivilisten als Ziele zu identifizieren.

Zweitens können autonome Waffen in nahezu denselben Szenarien eingesetzt werden wie von Menschen gesteuerte Waffen, etwa Gewehre, Panzer und Predator-Drohnen. Dies ist möglicherweise nicht haltbar, da sich mit dem Aufkommen neuer Waffen auch die Kampfmethoden und Ziele ändern und ihre Einsatzszenarien schwer vorherzusagen und zu kontrollieren sein werden.

Aus diesem Grund sind die meisten KI-Experten der Ansicht, dass ein energisches Vorgehen auf dem Weg zu autonomen Waffen katastrophal schiefgehen könnte. Viele Menschen sind zutiefst besorgt über die ethischen Probleme, die damit verbunden sind, KI die autonome Auswahl von Zielen und das Treffen von Entscheidungen zu ermöglichen.

Im Jahr 2007 war das britische Militär gezwungen, seine eigene Brimstone-Rakete für den Einsatz in Afghanistan eilig umzugestalten, da man befürchtete, man könnte einen Bus mit Kindern für einen Lastwagen voller Aufständischer halten.

Denn obwohl KI gut darin ist, Bilder zu erkennen, ist sie nicht unfehlbar. Wir alle haben schon von lächerlichen Fehlern bei der Bilderkennung gehört, etwa der Verwechslung einer Katze mit einem Hund. Doch im Krieg kann die Verwechslung eines Kindes mit einem Terroristen verheerende Folgen haben.

Darüber hinaus können KI-Systeme gehackt werden, Handlungen ausführen, die gegen Anweisungen verstoßen, oder unerwartete Ereignisse wie Fehleinschätzungen verursachen, die zu einer Eskalation des Konflikts führen oder die Kriegsschwelle senken.

Ein von Forschern und Militärs häufig vertretenes Prinzip besteht darin, dass autonome Waffen den „Menschen in der Schleife“ berücksichtigen müssen. Doch wo und wie Menschen beteiligt sein sollten oder müssen, bleibt umstritten: Sollten Menschen das Ziel visuell überprüfen, bevor sie einen Angriff autorisieren? Muss es möglich sein, einen Angriff abzubrechen, wenn sich die Bedingungen auf dem Schlachtfeld ändern (z. B. wenn Zivilisten das Kampfgebiet betreten)?

Gleichzeitig machen autonome KI-Waffen die Mechanismen zur Rechenschaftslegung komplex und verwirrend. Wenn ein Problem auftritt, ist es offensichtlich, dass nicht die Waffe selbst dafür verantwortlich ist, sondern die Person, die den Angriff autorisiert hat? Oder ein Waffenhersteller? Oder der Entwickler des KI-Systems?

Angesichts der Komplexität und Zerstörungskraft KI-gestützter autonomer Waffen glauben viele Menschen (wahrscheinlich die überwiegende Mehrheit der Weltbevölkerung), dass ein Verbot tödlicher autonomer Waffen die beste Lösung sei. Aber alle diese Fragen müssen auf internationaler Ebene (Vereinte Nationen) erkannt, diskutiert, diskutiert, ausgehandelt und Kompromisse geschlossen werden. Angesichts eines so kontroversen Themas und der enormen Arbeitsbelastung werden wir mehrere Jahre brauchen, um den ersten inhaltlichen Schritt zu unternehmen.

Aber die Zivilgesellschaft kann jetzt handeln. Berufsverbände in den Bereichen KI und Robotik sollten Verhaltenskodizes entwickeln und durchsetzen, die die Arbeit an tödlichen autonomen Waffen verbieten. Diesbezüglich gibt es zahlreiche Präzedenzfälle, wie etwa die strenge Chemiewaffenpolitik der American Chemical Society oder die Aufforderung der American Physical Society an die USA, den umfassenden Nuklearteststoppvertrag zu ratifizieren und sich dem Einsatz von Atomwaffen gegen Nichtatomwaffenstaaten zu widersetzen, um Frieden und Sicherheit zu fördern.

Kurz gesagt: Es wird zwangsläufig KI-gesteuerte autonome Waffen geben, und ob sie nun tödlich sind oder nicht, sie werden die Kriegsführung der Zukunft grundlegend verändern.

Die Menschheit sollte nicht zulassen, dass diese „Waffe“ außer Kontrolle gerät. Wir müssen uns den damit verbundenen Risiken und Herausforderungen stellen und jede Chance nutzen, um die Entwicklung rechtzeitig in den Griff zu bekommen. Nur so kann vermieden werden, dass sich der „Terminator“ in einen „menschlichen Terminator“ verwandelt.

Quellen:

[1] https://www.nature.com/articles/d41586-024-01029-0

[2] https://www.nature.com/articles/d41586-023-00511-5

[3] https://www.nature.com/articles/521415a

[4] https://san.com/cc/experts-warn-world-is-running-out-of-time-to-regulate-ai-in-warfare/

Dieser Artikel wird vom Science Popularization China Starry Sky Project unterstützt

Produziert von: Chinesische Vereinigung für Wissenschaft und Technologie, Abteilung für Wissenschaftspopularisierung

Hersteller: China Science and Technology Press Co., Ltd., Beijing Zhongke Xinghe Culture Media Co., Ltd.

Besondere Tipps

1. Gehen Sie zur „Featured Column“ unten im Menü des öffentlichen WeChat-Kontos „Fanpu“, um eine Reihe populärwissenschaftlicher Artikel zu verschiedenen Themen zu lesen.

2. „Fanpu“ bietet die Funktion, Artikel nach Monat zu suchen. Folgen Sie dem offiziellen Account und antworten Sie mit der vierstelligen Jahreszahl + Monat, also etwa „1903“, um den Artikelindex für März 2019 zu erhalten, usw.

Copyright-Erklärung: Einzelpersonen können diesen Artikel gerne weiterleiten, es ist jedoch keinem Medium und keiner Organisation gestattet, ihn ohne Genehmigung nachzudrucken oder Auszüge daraus zu verwenden. Für eine Nachdruckgenehmigung wenden Sie sich bitte an den Backstage-Bereich des öffentlichen WeChat-Kontos „Fanpu“.

<<:  Der Höhepunkt des Rückreiseverkehrs während der Maifeiertage ist da! Keine Angst auf dem Heimweg, achte auf die Sicherheit →

>>:  Heute ist Sommeranfang. Da wir die Frühlingsbrise nicht behalten können, verschwenden Sie die Sommerzeit nicht.

Artikel empfehlen

Können Mädchen Kniebeugen machen, um abzunehmen?

Kniebeugen sind sehr wichtige Übungen zum Abnehme...

Wie übt man Seilspringen?

Die Körpergröße ist für viele Menschen wichtig. M...

Warum warnte Hawking: „Reagieren Sie nicht auf außerirdische Signale“?

Im vergangenen Oktober empfing das gerade in Betr...

Wie kann man seine Fitness besser gestalten?

Fitness ist heutzutage ein sehr beliebter Trend. ...

Welche Fitnessübung ist die beste?

Viele Menschen möchten gute Trainingsergebnisse e...

Warum gelten Große Pandas als Nationalschätze?

Heute sprechen wir speziell über unseren National...

PepsiCo bestellt 100 Semi-Elektro-LKWs, Tesla-Aktien steigen um 3 %

Am Dienstag (US-Zeit) gab PepsiCo bekannt, dass e...