Sorgen Sie dafür, dass Maschinen und Menschen gemeinsame Werte haben. Dieses heiße Thema der Mensch-Maschine-Abstimmung könnte eine falsche Annahme sein.

Sorgen Sie dafür, dass Maschinen und Menschen gemeinsame Werte haben. Dieses heiße Thema der Mensch-Maschine-Abstimmung könnte eine falsche Annahme sein.

Die rasante Entwicklung des maschinellen Lernens hat bei der Menschheit zunehmende Besorgnis ausgelöst. Ohne weiteres würden die meisten Menschen zustimmen, dass es notwendig ist, die Aufgaben künstlicher Intelligenz mit den menschlichen Zielen in Einklang zu bringen, das heißt, Maschinen und Menschen einheitliche Werte zu geben. Dies ist derzeit ein heißes Forschungsthema – „das Ausrichtungsproblem“. Es scheint, dass der Erfolg oder Misserfolg der Forschung zu Ausrichtungsproblemen das Schicksal der Menschheit direkt beeinflussen wird.

In diesem Zusammenhang beschreibt Brian Christian, ein amerikanischer Bestsellerautor zum Thema Technologie, in seinem neuen Buch „Human-Machine Alignment“ prägnant die Entwicklungsgeschichte und den neuesten Forschungsstand des maschinellen Lernens. Darüber hinaus führt er einen direkten Dialog mit zahlreichen Wissenschaftlern, um den Lesern zu zeigen, wie die weltweit ersten Wissenschaftler, die sich aktiv mit Ausrichtungsproblemen auseinandersetzen, in akribischer Kleinarbeit Ausrichtungspläne entwickeln. Dieses Buch hat nach seiner Veröffentlichung eine große Resonanz hervorgerufen, aber ist die Bedeutung des Problems der „Mensch-Maschine-Ausrichtung“ wirklich so, wie wir es uns allgemein vorstellen? Professor Xu Yingjin von der Fudan-Universität, der sich seit langem mit der Erforschung der Philosophie der künstlichen Intelligenz beschäftigt, ist der Ansicht, dass das Problem der sogenannten „Mensch-Maschine-Ausrichtung“ bei genauerer Betrachtung eigentlich ein Pseudoproblem ist und einer gründlichen Reflexion und Klärung seiner Prämisse bedarf.

Mensch-Maschine-Ausrichtung (Hunan Science and Technology Press, Juni 2023), von Brian Christian, übersetzt von Tang Lu

Geschrieben von Xu Yingjin (Professor der Philosophischen Fakultät der Fudan-Universität und Berater des Shanghai Artificial Intelligence Laboratory)

Der Kern des Problems der Mensch-Maschine-Ausrichtung besteht darin, wie man die Verhaltensausgabe von Produkten künstlicher Intelligenz an die menschlichen Erwartungen anpassen kann. Brian Christians Buch „Human-Machine Alignment“ (Hunan Science and Technology Press, 2023) befasst sich mit diesem Thema. Das Buch ist detailliert und sehr gut lesbar und bietet dem allgemeinen Leser zahlreiche nützliche Informationen zu den hochaktuellen Themen, die in der westlichen Wissenschafts- und Technologieethik-Community im Hinblick auf die Mensch-Maschine-Zusammenarbeit diskutiert werden. Wenn wir dieses Buch jedoch aufmerksam lesen, werden wir feststellen, dass die Diskussion des Themas „Fairness“ einen sehr großen Teil des Buches einnimmt. Man erkennt, dass der Autor sehr besorgt ist, dass der Einsatz künstlicher Intelligenzsysteme bestimmte bestehende Vorurteile in der menschlichen Gemeinschaft verstärken wird, insbesondere Rassendiskriminierung und Geschlechterdiskriminierung.

Viele Menschen würden denken, dass es normal sei, sich über solche Themen Gedanken zu machen, denn da die universellen Werte der Menschheit offensichtlich gegen Rassendiskriminierung und ähnliche Vorurteile sind, müssen die Ergebnisse von Produkten der künstlichen Intelligenz an diesen Werten ausgerichtet sein. Bei näherer Betrachtung werden jedoch sofort die Widersprüche deutlich, die in dieser Ansicht stecken. Eine Seite des Widerspruchs besteht darin, dass der Widerstand gegen bestimmte Formen der Diskriminierung ein allgemein anerkannter Wert ist. Die andere Seite des Widerspruchs besteht jedoch darin, dass die „Voreingenommenheit“, die durch die derzeitige Mainstream-Technologie des maschinellen Lernens entsteht, tatsächlich auf einer großen Menge tatsächlicher menschlicher Ergebnisse beruht, die im Internet zu finden sind. Mit anderen Worten: Diese „Voreingenommenheit“ spiegelt bereits einige menschliche Werte wider. Nun stellt sich eine neue Frage: Das Konzept der „Wertausrichtung“ kann den Konflikt zwischen bestimmten spezifischen Werten (wie etwa Rawls‘ liberalen Werten) und bestimmten lokalen Werten (wie etwa konservativen Werten) beinhalten. Daher kann es sich beim sogenannten Wertekonflikt zwischen Mensch und Maschine um einen Meinungskonflikt zwischen Menschen mit unterschiedlichen Werten handeln .

Es sei hier darauf hingewiesen, dass das Wort „prejudice“ (Vorurteil) im Englischen selbst eine abwertende Bedeutung hat und sich auf subjektive Meinungen bezieht, denen jede faktische Grundlage fehlt. Aus der Perspektive der Kognitionswissenschaft müssen intelligente Agenten jedoch häufig unter enormem Zeitdruck und mit begrenzter Intelligenz Entscheidungen treffen. Daher ist es oft schwierig, den Verdacht der Subjektivität und Willkür zu vermeiden, wenn intelligente Agenten über zukünftige Situationen urteilen. Wenn Mäuse beispielsweise feststellen, dass ihre Verwandten Nahrung mit einem bestimmten Geruch gefressen haben und daran gestorben sind, wird die gesamte Population diese Nahrung nicht anrühren – und diese Entscheidung auf Grundlage einer kleinen Stichprobe ist offensichtlich sowohl subjektiv als auch willkürlich. Da sie es sich jedoch offensichtlich nicht leisten können, durch den Verzehr solcher Nahrungsmittel zu sterben, passt der Verzicht auf diese Nahrungsmittel perfekt zu Gerd Gigerenzers auf ökologischen Überlegungen beruhendem Kriterium der „Genügsamkeit der Vernunft“. Aus darwinistischer Sicht ist das menschliche Gehirn zwar viel komplexer als das Nervensystem einer Maus, es spart jedoch dennoch Betriebsenergie gemäß dem Standard der „rationalen Genügsamkeit“. Wurde eine Frau beispielsweise in einer Beziehung von einem Mann mit Brille betrogen, wird sie solche Männer künftig immer meiden. Es ist nicht schwer zu erkennen, dass die Logik hinter seinem Urteilsvermögen sich nicht von der Logik unterscheidet, die Mäusen hilft, bestimmte Nahrungsmittel zu meiden. Offensichtlich basiert unser Verständnis der Welt im Wesentlichen auf einer solchen „Voreingenommenheit“. Angesichts der Bedeutung dieser „Vorurteile“ für die Einsparung kognitiver Kosten beim Menschen ist es möglicherweise nicht angemessen, sie alle als negativ zu bezeichnen. Ein passenderer Begriff wäre vielleicht das deutsche Wort „Vorsichit“, was „Vorurteil“ bedeutet – ein Wort, das sicherlich neutraler klingt als „Vorurteil“.

Eine auf „Vorurteilen“ basierende Strategie zur Textinterpretation basiert auf der Hermeneutik des deutschen Philosophen Hans-Georg Gadamer (1900–2002), seine relevanten Ansichten unterscheiden sich jedoch von den philosophischen Annahmen der derzeit populären Mensch-Maschine-Wertegleichstellungstheorie. Nach dem aktuellen narrativen Modell der Mensch-Maschine-Ausrichtung sind menschliche Ziele eine objektive Existenz, und das Ziel des KI-Systems besteht darin, dieses Ziel zu erreichen, genau wie das Ziel eines Spielers darin besteht, den Ball ins Tor zu schießen. Nach Gadamers Ansicht ist das Ziel der Interpretation eines Textes nicht eine objektive Existenz, sondern ein Produkt einer „Verschmelzung von Perspektiven“, die durch die Interaktion zwischen dem Interpreten, dem Text selbst und der zeitgenössischen Umgebung entsteht. Mit anderen Worten, welche Art von Textinterpretationsantwort als objektive Antwort angesehen wird, hängt vom spezifischen historischen Kontext ab. Eine Antwort, die zu einem Zeitpunkt als objektiv angesehen wird, kann zu einem anderen Zeitpunkt nicht mehr als objektiv angesehen werden. Der subjektive Faktor des Dolmetschers sickert daher wie Saft in den Cocktail und lässt sich nicht mehr eliminieren. Aus dieser Perspektive kann die grundlegende methodologische Prämisse der Theorie der Mensch-Maschine-Ausrichtung, die Ziele und Mittel klar trennt, fragwürdig sein.

——Können wir also im Namen der „Anpassung der Subjektivität“ Rassendiskriminierung und Sexismus tolerieren?

Eine Antwort im Stil Gadamers auf eine solche Frage lautet: Natürlich müssen wir uns der Rassendiskriminierung und der Geschlechterdiskriminierung widersetzen, aber nicht, weil es sich dabei um ein Wertziel handelt, das im Voraus bekräftigt werden muss, sondern weil der gegenwärtige Stand der geschichtlichen Entwicklung der Menschheit Rassendiskriminierung und Geschlechterdiskriminierung nicht länger zulassen kann. Mit anderen Worten: Wenn wir den historischen Kontext des antiken Griechenlands mit Verständnis verstehen müssen, müssen wir auch mit gleichem Verständnis Aristoteles' Toleranz gegenüber der Sklaverei begreifen. Dies bedeutet, dass es keinen abstrakten „menschlichen Wert“ gibt, der vom Hintergrund der Zeit und den Eigenschaften einer bestimmten Gruppe von Menschen getrennt ist. Daher gibt es für diesen abstrakten „menschlichen Wert“ auch keine Mensch-Maschine-Anpassungsoperation .

Welche spezifische technische Bedeutung hat die obige abstrakte Diskussion? Angenommen, Sie müssen eine Art autonome Fahrsoftware mit künstlicher Intelligenz und einer Funktion zur „Notfallvermeidung“ erstellen. Dann muss der Designer darüber nachdenken, welche Art von Objekt das Auto schützen soll, wenn die Situation zur „Notfallvermeidung“ tatsächlich eintritt (z. B. die Wahl zwischen Fußgängern links und Fußgängern rechts, was dem sogenannten „Trolley-Problem“ ähnelt). Gemäß der gängigen Theorie der Mensch-Maschine-Wertegleichstellung muss die Ausgabe solcher Software mit der moralischen Intuition der gesamten Menschheit übereinstimmen. Doch hier liegt das Problem: Es gibt vermutlich keine moralische Intuition, die von der gesamten Menschheit geteilt wird. In manchen Kulturen steht der Schutz von Kindern an erster Stelle, in anderen der Schutz von Frauen, wieder andere sind der Ansicht, dass Personen, die gegen Verkehrsregeln verstoßen, geopfert werden sollten, und in wieder anderen stehen sogar Tiere mit einer besonderen religiösen Bedeutung an erster Stelle (wie etwa eine heilige Kuh, die die Straße überquert). Welche Kultur hat unter ihnen die richtige Meinung? Die liberale Theorie, die sich durch „Antidiskriminierung“ auszeichnet, ist hier in eine Sackgasse geraten: Das Notfallszenario der Risikovermeidung selbst bedeutet „Vorurteile“ gegenüber einer bestimmten Art von Objekten, die geopfert werden müssen. Wenn also alle Vorurteile aufgegeben werden müssen, dann bedeutet dies, dass die Notfallabsicherung selbst abgeschafft werden muss. Wäre dies jedoch der Fall, würden wir keinerlei Anstrengungen unternehmen, um die Folgen der Katastrophe zu kontrollieren – was jedoch an sich nicht mit den Werten der meisten Menschen im Einklang steht. Daher werden die liberalen Implikationen der Mensch-Maschine-Ausrichtung Aktivitäten zur Mensch-Maschine-Ausrichtung selbst unmöglich machen . Die einzige Lösung zur Beseitigung dieses Paradoxons besteht darin, sich der Hermeneutik in der Philosophie zuzuwenden, das heißt zu erkennen, dass die Betriebsziele bestimmter künstlicher Intelligenzsysteme mit bestimmten kulturellen Gepflogenheiten verknüpft sind.

Ein Gegenargument zur oben genannten Meinung des Autors besteht darin, dass die Vermeidung von Notfällen nur eine der Funktionen ist, die wir uns von Systemen künstlicher Intelligenz erhoffen, und dass das in dieser Ausgabe aufgetretene Problem der „mehrdeutigen Zielausrichtung“ eigentlich nur ein Sonderfall ist. Bei anderen Fragen können wir noch klären, was das Ziel der „Mensch-Maschine-Ausrichtung“ ist. Beispielsweise führt die Verwendung großer Sprachmodelle mittlerweile allgemein zum Problem der sogenannten „Maschinenhalluzination“. Dabei liefert das Modell den Benutzern eine große Menge an Informationen, die zwar sehr real erscheinen, aber nicht der Wahrheit entsprechen (z. B. erfundene wissenschaftliche Arbeiten, die überhaupt nicht existieren, Laien aber völlig täuschen können). Da es tatsächlich einen kulturübergreifenden Bewertungsstandard dafür gibt, ob solche Informationen wahr sind, sollte es in diesem Zusammenhang keinen Unterschied hinsichtlich des Ziels der Mensch-Maschine-Ausrichtung geben. Ein ähnliches Beispiel ist folgendes: Manche KI-Software kann in Spielen hohe Punktzahlen erzielen, indem sie die Spielregeln in böswilliger Absicht austrickst (in einem Kriegsspiel missversteht sie beispielsweise die Belohnungsregel „mehrmaliges Treffen feindlicher Schiffe“ als „mehrmaliges Treffen desselben feindlichen Schiffs“). Menschliche Benutzer möchten jedoch offensichtlich nicht, dass solche Maschinen zum Einsatz kommen. Daher ist die Beseitigung böswilliger Regelmissverständnisse des Programms offensichtlich ein wesentlicher Bestandteil der Mensch-Maschine-Abstimmungsarbeit. In diesen Szenarien ist die Objektivität der Ziele einer solchen Arbeit klar.

Aus hermeneutischer Sicht ist dies jedoch möglicherweise nicht der Fall. Was genau eine „Maschinenhalluzination“ und was eine „böswillige Interpretation von Regeln“ ist, ist wiederum das Ergebnis einer Interpretation unter spezifischen historischen Bedingungen und nicht rein objektiver Dinge. Beispiel: In „Eine Studie über das neue Lernen und die falschen Klassiker“, die 1891 veröffentlicht wurde, glaubte Kang Youwei, dass Klassiker wie „Das Buch der Dokumente in alten Texten“, „Das Zuo Zhuan“ und „Das Buch der Lieder“ alle von Liu Xin in der späten Westlichen Han-Dynastie gefälscht wurden. Sie seien daher allesamt „ernster Unsinn“. Mit anderen Worten: Wenn man die konfuzianischen Gelehrten der von Liu Xin vertretenen Schule der alten Texte als ein großes, auf Kohlenstoff basierendes Sprachmodell betrachtet, dann sind diese klassischen Texte selbst ein klarer Beweis für die stattfindende „Maschinenhalluzination“. Aber ist Kang Youweis Urteil richtig? Den Forschungen von Gelehrten wie Qian Mu zufolge war Kang Youweis Urteil über die alten Klassiker falsch und Qian Mus Ansicht wird heute von der akademischen Gemeinschaft akzeptiert. Dies bedeutet auch, dass die Beurteilung der Wahrheit oder Falschheit von Informationen selbst von einer bestimmten akademischen Gemeinschaft abhängt. Wenn wir diese Ansicht auf den Bereich der Naturwissenschaften ausweiten, liegt der Grund dafür, dass wir heute glauben, der Geozentrismus sei falsch, nicht darin, dass es einen Standard objektiver Wahrheit gäbe, der uns zu dieser Ansicht zwingt, sondern vielmehr darin, dass das astronomische System des Ptolemäus schon lange aufgegeben wurde. Welche akademischen Normen und Paradigmen akzeptiert oder aufgegeben werden müssen, ist selbst eine Folge der historischen Entwicklung.

Sehen wir uns einen Fall böswilliger Regelauslegung an. Tatsächlich ist die Frage, welche Art von Interpretation böswillig ist, selbst ein Produkt gesellschaftlicher Konventionen. In einem Militärspiel gilt es als Betrug, ein Zielschiff wiederholt anzugreifen, um Punkte zu erzielen. In einem Fußballspiel hingegen gilt es als normal, ein Tor wiederholt anzugreifen, um Punkte zu erzielen. Welche Art der Interpretation der Regeln sinnvoll ist, hängt vom Zweck des Spieleentwicklers und den verschiedenen subtilen Einflüssen der lokalen Kultur ab. Mit anderen Worten: Es gibt keinen universellen Standard zur Beurteilung von „Bosheit“.

In meiner obigen Diskussion versuche ich, zwei Schlussfolgerungen zu ziehen. Erstens muss das Problem der Mensch-Maschine-Anpassung als „Problem der Anpassung zwischen der spezifischen menschlichen Kultur und den Maschinen“ umformuliert werden, da es keinen „menschlichen Wert“ gibt, der von historischen und regionalen Besonderheiten getrennt ist. Zweitens: Wenn wir darauf bestehen, Maschinen einheitliche menschliche Wertmaßstäbe aufzuzwingen, wird dies nur dazu führen, dass bestimmte Werte gegenüber anderen unterdrückt werden. Dies sind keine guten Nachrichten für die Vielfalt und Nachhaltigkeit der menschlichen kulturellen Entwicklung. Aus dieser Perspektive erfordert die im englischsprachigen Raum vorherrschende Erzählung von der Mensch-Maschine-Ausrichtung eine gründliche philosophische Reflexion, um ihre Prämissen zu klären.

Dieser Artikel wird vom Science Popularization China Starry Sky Project unterstützt

Produziert von: Chinesische Vereinigung für Wissenschaft und Technologie, Abteilung für Wissenschaftspopularisierung

Hersteller: China Science and Technology Press Co., Ltd., Beijing Zhongke Xinghe Culture Media Co., Ltd.

Besondere Tipps

1. Gehen Sie zur „Featured Column“ unten im Menü des öffentlichen WeChat-Kontos „Fanpu“, um eine Reihe populärwissenschaftlicher Artikel zu verschiedenen Themen zu lesen.

2. „Fanpu“ bietet die Funktion, Artikel nach Monat zu suchen. Folgen Sie dem offiziellen Account und antworten Sie mit der vierstelligen Jahreszahl + Monat, also etwa „1903“, um den Artikelindex für März 2019 zu erhalten, usw.

Copyright-Erklärung: Einzelpersonen können diesen Artikel gerne weiterleiten, es ist jedoch keinem Medium und keiner Organisation gestattet, ihn ohne Genehmigung nachzudrucken oder Auszüge daraus zu verwenden. Für eine Nachdruckgenehmigung wenden Sie sich bitte an den Backstage-Bereich des öffentlichen WeChat-Kontos „Fanpu“.

<<:  Schon eine Änderung beim Dämpfen von Reis kann Ihnen helfen, Ihre Blutfette und Ihren Blutzucker zu stabilisieren! Leiten Sie es an jemanden weiter, der es braucht!

>>:  Bedeutet „Overnight Food“ Lebensmittel, die über Nacht stehen gelassen wurden? unsicher! Diese beiden Lebensmittel sollten Sie am besten nicht über Nacht aufbewahren →

Artikel empfehlen

Ein Bild zum Verstehen | Chinas Radioentwicklung

【2.13 Weltradiotag】Ein Bild zum Verständnis | Chi...

Werden die Waden durch das Laufen auf dem Laufband dicker?

Sport ist eine Aktivität, die wir in unserem tägl...

Welches ist die beste Übungsmethode, um den Po schlanker zu machen?

Wenn Sie Tag für Tag lange Zeit auf einem Stuhl s...

Welche Übungen gibt es für den Trizeps?

Mit der Entwicklung der Wirtschaft trainieren vie...

In welche Fallstricke kann ein „Star“ auf seiner Reise tappen?

Nach einem Flug von mindestens 10 Minuten und höc...

Können Sit-ups Bauchfett reduzieren?

Sit-ups waren schon immer eine gute Form der Bewe...

Ein dicker Hals, liegt das daran, dass Sie dick oder krank sind?

Heutzutage achten Mädchen immer mehr auf ihr Imag...

Wie werden Sportverletzungen behandelt?

Sportverletzungen treten vor allem bei jungen Mens...

Wie führt man Übungen zur Kontraktion der Beckenbodenmuskulatur durch?

Mit zunehmendem Alter wird unsere Haut immer schl...