Eine tiefgründige Frage: Wie können Menschen Roboter „moralisch“ machen?

Eine tiefgründige Frage: Wie können Menschen Roboter „moralisch“ machen?

Mit der rasanten Entwicklung der Technologie der künstlichen Intelligenz (KI) sind viele automatisierte Systeme entstanden, die keiner menschlichen Steuerung bedürfen und das materielle und kulturelle Leben der Menschen erheblich bereichern und verbessern. Natürlich wird diese Technologie unweigerlich auch im militärischen Bereich Einzug halten und eine Vielzahl automatisierter Waffen und Ausrüstungen hervorbringen, etwa unbemannte Flugzeuge, Schiffe, Panzer und humanoide, hochintelligente Kampfroboter. Nach ihrer Aktivierung können diese Waffen und Geräte automatisch Ziele auswählen und ohne menschliches Zutun Aktionen ausführen, was bei den Menschen nur Besorgnis auslösen kann: Sie töten wahllos unschuldige Menschen, verändern so die Natur des Krieges und fügen der Menschheit schweren Schaden zu.

Daher stellt sich die Frage: Gibt es eine Möglichkeit, Roboter dazu zu bringen, sich an menschliche Moralvorstellungen zu halten?

Kontroverse um „Killerroboter“

Die Vereinigten Staaten waren das erste Land, das mit der Entwicklung und dem Einsatz dieser Art automatisierter Waffen (allgemein als „Killerroboter“ bekannt) begann, gefolgt von Ländern wie Großbritannien, Japan, Deutschland, Russland, Südkorea und Israel, die ebenfalls ihre eigenen Systeme entwickelten. Die größte Zahl davon sind amerikanische Drohnen.

Israels Harpy-Drohne

Berichten zufolge verfügt das US-Militär derzeit über 7.000 Drohnen unterschiedlicher Typen, von handflächengroßen Mikromaschinen bis hin zum Riesenflugzeug „Global Hawk“, dessen Flügelspannweite die einer Boeing 737 übertrifft. Sie sind in der Regel mit Kameras und Bildprozessoren ausgestattet und können ohne jegliche Kommunikations- und Kontrollsysteme zur Zerstörung von Zielen losgeschickt werden. Berichten zufolge hat das US-Militär in Afghanistan in großem Umfang Drohnen eingesetzt, was zu zahlreichen unschuldigen Opfern geführt hat.

Das große unbemannte Aufklärungsflugzeug RQ-4 Global Hawk der Vereinigten Staaten

Im März 2020 griff auf dem Schlachtfeld des libyschen Bürgerkriegs sogar eine Selbstmorddrohne türkischer Bauart einen Soldaten im völlig autonomen Modus an. Der entsprechende Bericht des UN-Sicherheitsrates schockierte die internationale Öffentlichkeit und löste tiefgreifende moralische und rechtliche Debatten aus. Die Befürworter sind davon überzeugt, dass Roboter auf dem Schlachtfeld bei richtiger Anwendung die Verluste von Soldaten wirksam reduzieren und Leben retten können. Doch in der Wissenschaftsgemeinde herrscht allgemein die Meinung vor, dass Schlachtfeldroboter eine Bedrohung darstellen, und zwar nicht nur, weil sie über autonome Fähigkeiten verfügen, sondern weil sie über Leben und Tod entscheiden können. Zu diesem Zweck forderten die Vereinten Nationen in einer Erklärung einen „Einfrieren“ der Entwicklung entsprechender Technologien. Sie erklärten, das Aufkommen von „Killerrobotern“ habe die internationalen Konventionen zur Kriegsführung erschüttert. Das ultimative Ziel besteht darin, den Einsatz solcher Waffen dauerhaft zu verbieten und nicht einem Roboter die Macht über Leben und Tod zu geben.

Ein interessantes Experiment

Der Grund für diesen Appell der Vereinten Nationen liegt darin, dass Roboter nicht für ihre eigenen Handlungen verantwortlich sein können. Sie können zwar beurteilen, ob es sich bei der Gegenpartei um einen Menschen oder eine Maschine handelt, es ist jedoch nahezu unmöglich, festzustellen, ob es sich bei der Gegenpartei um einen Soldaten oder einen Zivilisten handelt. Ein Soldat kann mit gesundem Menschenverstand beurteilen, ob die Frau vor ihm schwanger ist oder Sprengstoff bei sich trägt, ein Roboter ist dazu wahrscheinlich nicht in der Lage. Wenn Terroristen statt Selbstmordattentaten „Killerroboter“ einsetzen würden, wäre das das Öffnen einer modernen „Büchse der Pandora“ mit verheerenden Folgen.

Gibt es also eine Möglichkeit, Roboter so zu programmieren, dass sie über „moralische Konzepte“ und „Rechtsbewusstsein“ verfügen und zu „guten Menschen“ mit einem gütigen Herzen werden? Mit anderen Worten: Ist es möglich, die Aktionen von Robotern auf einen legalen Rahmen zu beschränken?

Dies ist eine faszinierende Frage, die eine Gruppe führender Wissenschaftler inspiriert und einige dazu veranlasst hat, tatsächliche Experimente durchzuführen. So haben beispielsweise Alan Winfield und seine Kollegen am Bristol Robotics Laboratory in Großbritannien ein Programm für einen Roboter entwickelt, das verhindern soll, dass andere anthropomorphe Roboter in Löcher fallen. Die Entwicklung basiert auf den „Drei Gesetzen der Robotik“ des berühmten amerikanischen Science-Fiction-Autors Isaac Asimov.

Zu Beginn des Experiments konnte der Roboter die Aufgabe problemlos erledigen: Als sich der anthropomorphe Roboter auf das Loch zubewegte, eilte er herbei und schob ihn weg, um zu verhindern, dass er in das Loch fiel. Anschließend fügten die Forscher einen humanoiden Roboter hinzu und die beiden Roboter bewegten sich gleichzeitig auf den Höhleneingang zu, wodurch der Rettungsroboter gezwungen war, eine Entscheidung zu treffen. Manchmal konnte eine der „Personen“ erfolgreich gerettet werden, die andere „Person“ fiel jedoch in das Loch. einige Male wollte es sogar beide „Menschen“ retten. Bei 14 der 33 Tests war es jedoch so verwirrt darüber, welchen es speichern sollte, dass es Zeit verschwendete und beide „Personen“ in das Loch fielen. Nachdem dieses Experiment öffentlich vorgeführt wurde, erregte es weltweit große Aufmerksamkeit. Winfield sagte anschließend, dass der Rettungsroboter zwar gemäß dem festgelegten Programm andere retten könne, die Gründe für sein Verhalten jedoch überhaupt nicht verstehe und in Wirklichkeit ein „moralischer Zombie“ sei.

Da Roboter immer stärker in das Leben der Menschen integriert werden, erfordern diese Fragen klare Antworten. Beispielsweise muss ein selbstfahrendes Auto eines Tages möglicherweise zwischen der Sicherheit der Insassen und der Gefährdung anderer Fahrer oder Fußgänger abwägen. Die Lösung dieses Problems kann sehr schwierig sein. Glücklicherweise können einige Roboter jedoch möglicherweise eine vorläufige Antwort liefern: Ronald Arkin, ein Computerexperte am Georgia Institute of Technology in den USA, hat einen Satz von Algorithmen speziell für einen Militärroboter namens „Moral Supervisor“ entwickelt. In simulierten Kampftests kann es dem Roboter helfen, auf dem Schlachtfeld kluge Entscheidungen zu treffen. Beispielsweise ist das Schießen in der Nähe geschützter Ziele wie Schulen und Krankenhäuser nicht gestattet und die Zahl der Opfer soll so gering wie möglich gehalten werden. Dies ist jedoch eine relativ einfache Situation. Wenn Sie auf komplexe Situationen stoßen, fallen die Ergebnisse oft sehr unterschiedlich aus. Es scheint, dass die Frage, ob Roboter moralische und ethische Entscheidungen treffen können, nicht in kurzer Zeit beantwortet werden kann. Dabei handelt es sich um eine Reihe hochmoderner und komplexer Technologien der künstlichen Intelligenz, und bis wesentliche Fortschritte erzielt werden können, ist es noch ein weiter Weg.

Die Schwierigkeit, Roboter „moralisch“ zu machen

Dies ist ein großes Problem bei der Entwicklung von Technologien der künstlichen Intelligenz. Um dieses Problem richtig zu beantworten und zu lösen, müssen wir zunächst einen zentralen Punkt klären: Ist es die künstliche Intelligenz selbst oder der Mensch, der ethische Standards beherrschen muss?

Vor über einem Jahrhundert warnten einige Leute, dass die Erfindung der Elektrizität, insbesondere des Telegrafen, negative Auswirkungen auf die menschliche Intelligenz haben würde. Da die Menschen ständig Telekommunikation zur Informationsübermittlung nutzen und kaum Zeit zum Nachdenken haben, wird ihre Denkfähigkeit geschwächt, was möglicherweise sogar zu einer Gehirnlähmung führen kann. Mehr als 100 Jahre später richteten einige Leute ähnliche Warnungen an Google – als sie sahen, dass soziale Netzwerke manchmal mit viel Unsinn gefüllt waren, glaubten sie fälschlicherweise, dass die oben erwähnte „Schwächung der Denkfähigkeit“ Realität geworden sei. Doch selbst wenn das oben Gesagte zutrifft, wäre es unfair, die Ursache auf die Entwicklung der Elektrizität zurückzuführen. Denn offensichtlich ist nicht die Elektrotechnik, sondern die menschliche Natur als Handelnder in erster Linie für den vielen Unsinn verantwortlich.

Heute ist die Entwicklung künstlicher Intelligenz mit einer ähnlichen Situation konfrontiert: Einerseits schätzen die Menschen die beispiellose und enorme Antriebskraft, die sie in alle Lebensbereiche gebracht hat, andererseits sind sie besorgt über einige ihrer möglichen Nachteile. Das Aufkommen von „Killerrobotern“ ist ein typisches Beispiel.

Die enorme Leistungsfähigkeit der künstlichen Intelligenz beruht vor allem auf ihren bemerkenswerten Turing-Erkennungsmustern. Im Zusammenhang mit der COVID-19-Pandemie können damit beispielsweise asymptomatische Infektionen identifiziert und so die Ausbreitung der Krankheit verhindert werden. Es ermöglicht die Identifizierung und Klassifizierung gefährdeter Tiere anhand der Flecken auf ihrem Fell, was zu deren Überwachung beiträgt und somit das Risiko des Artensterbens verringert. es können auch Spuren antiker Texte identifiziert und die Anzahl der Autoren bestimmt werden; Es kann sogar abnormales Verhalten im Prüfungsraum durch intelligente Algorithmen beurteilen und Betrüger identifizieren …

Dennoch ist die Technologie der künstlichen Intelligenz nicht allmächtig. Wenn seine Entwicklung nach und nach Fragen berührt, die mit dem menschlichen Bewusstsein, den Emotionen, dem Willen und der Moral zusammenhängen, verblasst es im Vergleich und ist manchmal sogar völlig machtlos. Dies liegt daran, dass es die Gesetze des Krieges schon seit Tausenden von Jahren gibt und Menschen oft durch Emotionen und andere Faktoren dazu verleitet werden, die Regeln zu brechen, Roboter hingegen nicht. Diese Situation ist Teil der Philosophie und Ethik geworden. Um die moralischen und ethischen Probleme der künstlichen Intelligenz zu lösen, können wir sie daher nicht einfach aus einer technischen Perspektive betrachten, sondern müssen philosophische und ethische Faktoren berücksichtigen, was die Schwierigkeit der Problemlösung zwangsläufig erhöhen wird.

Wie man Roboter dazu bringt, sich an die menschliche Moral zu halten

Diese Schwierigkeit lässt sich in zwei Aspekte zusammenfassen: Erstens ist es schwierig, mit einigen abstrakten Konzepten umzugehen, wie etwa dem Konzept „Schaden verursachen“. Töten ist offensichtlich eine Form der Schädigung, aber auch Impfungen können Schmerzen und in manchen Fällen sogar den Tod verursachen. Inwieweit kann es also als „Schaden“ definiert werden? Der zweite Grund liegt in der Einschätzung möglicher Schäden und der Notwendigkeit, Schäden für Menschen zu vermeiden. Wenn ein intelligentes System angesichts zweier Ziele mit gleichem Schädigungspotenzial ratlos ist und nicht weiß, welches es angreifen soll, kann es nicht als ausgereiftes System gelten.

Obwohl dieses Problem äußerst schwierig zu lösen ist und sogar als „überhaupt unlösbar“ gilt, haben die Wissenschaftler ihr Tempo bei der Erforschung des Unbekannten und der Überwindung von Schwierigkeiten nicht verlangsamt. Sie haben sich viele Gedanken darüber gemacht, wie man Roboter dazu bringen kann, sich an die menschliche Moral zu halten, und haben zahlreiche Ideen, Vorschläge und Pläne vorgelegt, von denen einige bereits getestet werden. Zusammengefasst handelt es sich dabei um:

Erstens besagen strenge Vorschriften in Anlehnung an die „Drei Gesetze der Robotik“ des Science-Fiction-Meisters Isaac Asimov, dass intelligente Roboter Menschen keinen Schaden zufügen und ihnen durch Untätigkeit keinen Schaden zufügen dürfen. Bei Verstößen werden die betreffenden F&E-Mitarbeiter oder -Institutionen bestraft.

Zweitens: Nehmen Sie den Standpunkt ein, an die Mehrheit zu appellieren. Generell gilt: Was richtig und was falsch ist, bestimmen oft die Interessen der Mehrheit. Nehmen wir beispielsweise an, dass wir im Falle eines unmittelbaren und irreversiblen Unfalls mit einem Fußgänger entscheiden müssen, was das autonome Fahrzeug tun soll: den Insassen oder den Fußgänger retten? Die Vereinigten Staaten haben einst eine Moralmaschine eingesetzt, um diese möglichen Entscheidungen zu analysieren und kamen zu dem Schluss, dass eine Handlung eine gute Sache ist, die es wert ist, getan zu werden, wenn sie möglichst vielen Menschen das größte Glück bringt. Hier ist Glück ein großes Wunschziel.

Drittens wird das eigentliche Dilemma auf den Schlachtfeldern der Zukunft dann entstehen, wenn wir den zukünftigen Soldaten gegenüberstehen. Damit zukünftige Soldaten effektiv arbeiten können, müssen sie zunächst wahrgenommene Bedrohungen eliminieren, bevor sie diese beseitigen. Dies könnte dadurch erreicht werden, dass Roboter so programmiert werden, dass sie bestimmte „ethische Regeln“ befolgen, insbesondere wenn es um Soldaten in Kampfumgebungen geht. Allerdings könnten Kommandeure zu dem Schluss kommen, dass die Programmierung eines Roboters die Durchführung einer Mission behindert, wenn die darin enthaltenen „moralischen“ Einschränkungen die eigenen Kämpfer der Einheit gefährden würden. Beispielsweise könnte ein KI-System die Waffe eines Soldaten sperren, um die Tötung eines Zivilisten zu verhindern, bei dem es sich in Wirklichkeit um einen gegnerischen Kämpfer oder Terroristen handelt. Aus dieser Perspektive scheint es unmöglich, bei einem Terroranschlag in einer Stadt jemals herauszufinden, wer ein Zivilist ist und wer nicht. Daher handelt es sich bei der Programmierung um eine äußerst komplexe Technologie, die ein Brainstorming und die Zusammenarbeit von Top-Experten aus allen Bereichen erfordert, um Durchbrüche zu erzielen.

Zusammenfassend lässt sich sagen, dass die Frage, ob Roboter moralischen Zwängen unterworfen werden können, ein großes Ziel ist. Der grundlegende Weg zur Erreichung dieses Ziels besteht nicht darin, die Technologie der künstlichen Intelligenz ethischen Standards anzupassen, sondern darin, dass die Menschen bei der Entwicklung und Nutzung künstlicher Intelligenz ethische Standards einhalten. Auch wenn ethische Roboter derzeit ein Mythos sind, sind ethische Menschen alles andere als das. Daher ist es durchaus möglich und unbedingt notwendig, Wissenschaftler und Militärkommandanten auf der ganzen Welt zu einem ethischen Handeln aufzufordern und autonome Waffen nur dann einzusetzen, wenn dies unbedingt notwendig ist und ihre eigene Sicherheit gefährdet ist. in dieser Hinsicht. Der Mensch kann viel. Alan Mathison Turing, der Vater der künstlichen Intelligenz, sagte: „Wir können nur eine kurze Strecke in die Zukunft blicken, aber wir können sehen, dass noch eine Menge Arbeit zu tun ist.“ Die Aussichten sind also rosig.

Das automatische Waffensystem Phalanx der USA

Von Wang Ruiliang

<<:  Der Kindheitssnack „Feigenraspeln“ hat nichts mit Feigen zu tun?

>>:  KI-Showdown: Wie sieht Google seinen Kampf mit OpenAI?

Artikel empfehlen

Ist es gut, jeden Tag 45 Minuten zu laufen?

Tatsächlich ist es nicht nur eine Person, die sic...

Gelbe Kehle, haariger Kutteln, Hühnermägen ... man weiß nie, was man isst!

Wer würde eine Einladung zu einem Hotpot-Essen ab...

So trainieren Sie den inneren Bizeps

Beim Fitnesstraining haben viele Freunde das Gefü...

Kann das Laufband im Fitnessstudio beim Abnehmen helfen?

Heutzutage gehen viele Menschen gern ins Fitnesss...

Kann ich während meiner Periode Hula-Hoop machen?

Alle Freundinnen hoffen, dass sie die Auswirkunge...

An Taifuntagen gibt es keinen Donner. Sind diese beiden Dinge „unvereinbar“?

Prüfungsexperte: Zhan Mingjin PhD, Chinesische Ak...

Welche Dehnübungen gibt es nach dem Seilspringen zum Abnehmen?

Denken Sie daran, nach dem Seilspringen weitere D...