Künstliche Intelligenz wird immer intelligenter. Sollten wir der KI Menschenrechte gewähren?

Künstliche Intelligenz wird immer intelligenter. Sollten wir der KI Menschenrechte gewähren?

Vor einigen Jahren wäre das Thema der Rechtspersönlichkeit und der Rechtsansprüche künstlicher Intelligenz vielleicht nur in der Science-Fiction aufgetaucht. Aber das ist nur die Vergangenheit.

Müssen wir jetzt auch über die Rechte der KI nachdenken?

Sie müssen für Ihre KI-Rechte kämpfen

Es ist bereits jedem klar, dass Maschinen mit künstlicher Intelligenz dem menschlichen Gehirn immer weiter nachbilden. Manchen Schätzungen zufolge verfügen unsere aktuellen künstlichen neuronalen Netzwerke über mehr Neuronen als Organismen wie Bienen und Kakerlaken, und ihre Zahl steigt weiter an.

Die größten Projekte zielen darauf ab, mehr biosynthetische Algorithmen zu entwickeln, mit dem Ziel, die Funktionsweise des menschlichen Gehirns nachzubilden, anstatt einfach nur unsere Erinnerungsfunktion nachzuahmen. Dann gibt es Projekte, die darauf abzielen, das menschliche Bewusstsein in eine Maschinenform zu übertragen, oder etwas wie das sogenannte OpenWorm-Projekt, das darauf abzielt, das menschliche Konnektom (ein Schaltplan des zentralen Nervensystems) für den winzigen hermaphroditischen Fadenwurm zu konstruieren, das einzige vollständige Konnektom, das jemals erstellt wurde.

In einer Umfrage aus dem Jahr 2016 glaubten 90 % von 175 Branchenexperten, dass künstliche Intelligenz bis 2075 das Niveau der menschlichen Intelligenz erreichen könnte.

Bis wir an diesem Punkt angelangt sind und die KI die Intelligenz der Tiere allmählich übertrifft, müssen wir darüber nachdenken, in welchem ​​Verhältnis die Rechte der KI zu den „Rechten“ stehen, die wir für Tiere definieren. Stellen Sie sich vor, wie grausam es wäre, einen intelligenten Aufzug zu zwingen, auf und ab zu fahren. Der britische Technologie-Autor Bill Thompson schrieb vor einigen Jahren, dass Menschen dazu tendierten, KI-Produkte so zu entwickeln, dass sie ihnen selbst nicht schaden, „was widerspiegelt, dass die Leute immer denken, künstliche Intelligenz sei im Dienste der Menschen und nicht für unabhängiges Denken da.“

Die drängendste Frage, die wir uns derzeit stellen müssen, ist jedoch, ob KI gesetzliche Rechte hat. Einfach ausgedrückt: Sollten wir in Erwägung ziehen, ihnen eine Art Rechtspersönlichkeit zu verleihen? Das ist nicht so lächerlich, wie es klingt, und es bedeutet auch nicht, dass die KI in unserer Gesellschaft einen besonderen Status „erreicht“ hat. Aber dies spiegelt die Rolle wider, die KI derzeit in unserem Leben spielt und auch weiterhin spielen wird.

Smarte Tools im Zeitalter der Doppelrechtsanwälte

Derzeit geht unser Rechtssystem weitgehend davon aus, dass wir es mit einer Welt voller dummer Werkzeuge zu tun haben. Wir reden vielleicht über die Bedeutung der Waffenkontrolle, aber wir werden immer noch die Person verurteilen, die jemanden mit einer Waffe verletzt hat, und nicht die Waffe selbst. Wenn die Waffe selbst defekt wäre, würden wir das Unternehmen, das die Waffe hergestellt hat, dafür verantwortlich machen.

Bisher wurde diese Denkweise weitgehend direkt auf die Welt der künstlichen Intelligenz und Robotik angewendet. Im Jahr 1984 wurden die Eigentümer einer amerikanischen Firma namens Athlone Industries vor Gericht gebracht, weil ihre Schlagkäfigmaschine als zu brutal angesehen wurde. Es lohnt sich, den Fall vor Gericht zu bringen, da der Richter erklärte, dass sich die Klage gegen Athlone und nicht gegen den Schlagroboter richte, da „Roboter nicht verklagt werden können“.

Im Jahr 2009 folgte ein britischer Autofahrer den Anweisungen seines Navigationssystems und folgte einer schmalen Klippenkante. Dabei blieb er stecken und musste von der Polizei zurück auf die Hauptstraße geschleppt werden. Obwohl er die Ursache des Problems auf die Technik zurückführte, befand ihn das Gericht der Fahrlässigkeit für schuldig.

Allerdings bestehen zu viele Unterschiede zwischen der heutigen (und sicherlich auch zukünftigen) Technologie der künstlichen Intelligenz und der Wissenschaft und Technologie von gestern. Intelligente Geräte wie selbstfahrende Autos oder Roboter werden nicht nur von Menschen bedient, sondern auch gesteuert – und führen die Anweisungen anschließend natürlich selbstständig aus. Intelligente Geräte können mithilfe von Algorithmen des maschinellen Lernens Informationen sammeln und analysieren und dann selbstständig Entscheidungen treffen. Die alleinige Schuld dafür kann nicht den Entwicklern dieser Technologie zugeschrieben werden.

Wie David Vladek, Juraprofessor an der Georgetown University in Washington, betont, waren in den wenigen ausführlichen Fallstudien auf diesem Gebiet so viele Einzelpersonen und Unternehmen an der Entwicklung, Modifikation und Integration von muskelbetriebenen Komponenten beteiligt, dass es schwierig ist, festzustellen, wer letztendlich die Verantwortung trägt. Wenn man von der „Black Box“ der künstlichen Intelligenz spricht, ist das System notorisch schwer fassbar.

David Vladek hat geschrieben, dass „einige Komponenten möglicherweise schon entworfen wurden, bevor das KI-Projekt überhaupt konzipiert wurde, und dass die Entwickler der Komponenten sich möglicherweise nie vorstellen konnten, dass ihre Entwürfe in ein KI-System integriert würden, geschweige denn in eines, das Schaden anrichtet.“ In diesem Fall erscheint es nicht fair, einem Komponentendesigner die Schuld zu geben, der nicht an der Fertigstellung und dem Betrieb des KI-Systems beteiligt war. Für ein Gericht kann es schwierig sein, festzustellen, ob der Konstrukteur einer solchen Komponente den entstandenen Schaden vorausgesehen hat.

Die Rolle des Unternehmens

Dass KI den Rechtsstatus einer Entität erhält, ist nicht völlig beispiellos. Unternehmen spielen diese Rolle schon seit langem. Aus diesem Grund können sie Eigentümer von Vermögenswerten sein oder verklagt werden, und dies muss nicht im Namen des CEO oder der geschäftsführenden Direktoren geschehen.

Sean Byrne, Juraprofessor an der Florida State University, merkte an, dass künstliche Intelligenz, obwohl sie noch nicht getestet wurde, diesen Status möglicherweise bereits habe, da KI Gesellschaften mit beschränkter Haftung verwalten könne und daher rechtlich unabhängig sei. Wenn Vorschläge wie die „Robotersteuer“ von Bill Gates auf rechtlicher Ebene ernst genommen werden sollen, müssen auch steuerliche Aspekte berücksichtigt werden.

Es bestehen jedoch weiterhin Kontroversen. Wenn KI in der Lage ist, Aktionen auszuführen, für die die Verantwortung unklar ist, können ihre Schöpfer dies möglicherweise nutzen, um sich der Verantwortung zu entziehen. Darüber hinaus kann dies auch dazu führen, dass Entwickler von KI-Tools entmutigt werden – denn wenn die KI nicht die erwartete Leistung erbringt, haben sie einen Grund, sie nicht weiterzuentwickeln.

Außerdem gibt es derzeit keine Möglichkeit, KI zu bestrafen, da Strafen wie Gefängnis oder die Todesstrafe für eine KI bedeutungslos wären.

John Danaher, Juraprofessor an der National University of Ireland, sagte zur Rechtspersönlichkeit von KI: „Ich glaube nicht, dass das das Richtige ist, zumindest nicht im Moment.“ „Ich vermute, dass es in absehbarer Zukunft vor allem dazu genutzt werden wird, sich der menschlichen Verantwortung zu entziehen und asoziales Verhalten zu vertuschen.“

Dieses Feld stützt sich jedoch nicht auf einen Maßstab, der auf das subjektive Bewusstsein abzielt.

„Heute haben Unternehmen Rechtsansprüche und gelten als juristische Personen, die meisten Tiere jedoch nicht“, sagte Yuval Noah Harari, Autor von „Sapiens: Eine kurze Geschichte der Menschheit“ und „Homo Deus: Eine kurze Geschichte von Morgen“. Und das, obwohl Unternehmen offensichtlich kein Bewusstsein, keine Persönlichkeit und keine Fähigkeit haben, Glück und Schmerz zu empfinden. Tiere hingegen sind bewusste Wesen. Unabhängig davon, ob KI Bewusstsein entwickelt oder nicht, könnte es wirtschaftliche, politische und rechtliche Gründe geben, ihr Persönlichkeit und Rechte zu verleihen, so wie Unternehmen Rechtspersönlichkeit und Rechte haben können. Tatsächlich könnte KI eines Tages bestimmte Unternehmen, Organisationen und sogar Länder dominieren. Dieses Szenario wird in Science-Fiction-Geschichten selten erwähnt, aber ich halte es für wahrscheinlicher als die Geschichten in Westworld und Appleseed.

Keine Science-Fiction mehr

Derzeit sind diese Themen noch Science-Fiction, doch wie Yuval Noah Harari betont, könnte das bald der Fall sein. Basierend auf der Verwendung von KI in der realen Welt und ihrer Beziehung zu Menschen müssen im zukünftigen Leben Fragen wie „Wer ist verantwortlich, wenn KI den Tod eines Menschen verursacht?“ oder „Kann eine Person ihren KI-Assistenten heiraten?“ beantwortet werden.

John Danaher sagte: „Die Entscheidung, einer Entität Rechtspersönlichkeit zu verleihen, lässt sich im Grunde in zwei Unterfragen unterteilen. Soll diese Entität als moralisches Subjekt behandelt und für ihre Handlungen zur Verantwortung gezogen werden? Die andere Frage ist, soll diese Entität als moralisches Objekt behandelt und somit vor bestimmten Eingriffen und Verletzungen ihrer Integrität geschützt werden? Meiner Ansicht nach sollte KI nicht als moralisches Subjekt behandelt werden, zumindest noch nicht. Ich denke jedoch, dass sie in manchen Fällen als moralische Objekte behandelt werden sollte. Ich denke, dass sich die Menschen weitgehend auf künstliche Intelligenz verlassen können, daher wäre es in vielen Fällen falsch, diese Entitäten zu verändern oder zu zerstören. Das bedeutet, dass wir für KIs verantwortlich sein können, ohne ihre Integrität zu zerstören oder zu verletzen.“

Mit anderen Worten: Wir sollten nicht zulassen, dass sich Unternehmen ihrer Verantwortung entziehen, wenn es um KI-Tools geht. Da KI-Systeme in allen Bereichen der realen Welt Einzug halten – von selbstfahrenden Autos und Finanzhändlern bis hin zu Drohnen und Robotern – ist es von entscheidender Bedeutung, dass jemand für sein Handeln zur Verantwortung gezogen wird.

Ebenso wäre es ein Fehler, die Beziehung zwischen KI und Mensch als von derselben Natur wie bei früheren, nicht intelligenten Technologien zu betrachten.

Es geht um eine Lernkurve. Und selbst wenn wir technologisch noch nicht an dem Punkt sind, an dem wir uns über die Souveränität der KI Gedanken machen müssen, bedeutet das nicht, dass dies die falsche Frage ist. Wenn Siri Sie also nicht deutlich hört und fragt, ob es im Internet suchen möchte, hören Sie auf, es anzuschreien, okay?

Von Digital Trends

von Luke Dormehl

Von: NetEase Intelligence

<<:  Künstliche Intelligenz: Motor des chinesischen Wirtschaftswachstums (chinesische Version)

>>:  Um Ablenkung am Steuer zu vermeiden, untersucht das MIT die Art und Logik des menschlichen Fahrens

Artikel empfehlen

Dieses tödliche Gift ist der Ursprung allen Lebens

Bevor es auf der Erde Sauerstoff gab, war die Umw...

Wie bauen Bodybuilder Muskeln auf?

Vielleicht ist jeder sehr neidisch auf die Muskel...

Kann sanftes Hula-Hoop-Reifen beim Abnehmen helfen?

Beim Abnehmen können wir Hula-Hoop-Reifen verwend...

Übungen zur Steigerung der Lungenkapazität

Menschen mit einer guten Lungenkapazität sind vol...

Wie macht man wirkungsvolle Aerobic zur Gewichtsabnahme?

Aerobic kann in zwei Arten unterteilt werden: Wet...

Kann Ballspielen dabei helfen, größer zu werden?

Viele Menschen wissen, dass sportbegeisterte Kind...