Wissenschaftler, die sich selten mit dem menschlichen Bewusstsein befassen, haben begonnen, über das „KI-Bewusstsein“ zu diskutieren. Quelle: AI Technology Review Autor | Antonio Herausgeber | Chen Caixian Es besteht kein Zweifel, dass der Mensch ein eigenes Bewusstsein hat. In gewissem Sinne kann dieses „Bewusstsein“ sogar als eine der Konnotationen menschlicher Intelligenz angesehen werden. Mit der tiefgreifenden Entwicklung der „Künstlichen Intelligenz“ ist die Frage „Kann KI ein Bewusstsein haben?“ in den Köpfen der Wissenschaftler allmählich zu einer Frage geworden, und „Bewusstsein“ wird auch als eines der Kriterien angesehen, um zu messen, ob KI intelligent ist. So initiierte beispielsweise der Chefwissenschaftler von OpenAI, IIya Sutskever, Mitte Februar auf Twitter eine Diskussion zum Thema KI-Bewusstsein. Damals sagte er: Die heutigen großen neuronalen Netzwerke verfügen möglicherweise bereits über eine Art Bewusstsein. Seine Ansichten lösten sofort eine Diskussion in einer Gruppe von KI-Experten aus. Als Reaktion auf die Erkenntnisse von IIya Sutskever erhob der Turing-Award-Gewinner und Chefwissenschaftler von Meta AI, Yann LeCun, als Erster Einwände und vertrat einen klaren Standpunkt: „Nein.“ Auch Judea Pearl unterstützte LeCun und sagte, dass bestehende tiefe neuronale Netzwerke noch immer nicht in der Lage seien, bestimmte Bereiche „tief zu verstehen“. Nach mehreren Runden verbalen Schlagabtauschs sagte Judea Pearl: ...Tatsächlich haben wir nicht einmal eine formale Definition von „Bewusstsein“. Vielleicht können wir nur Philosophen fragen, die sich im Laufe der Zeit mit dem Bewusstsein beschäftigt haben … Dies ist eine Frage zur Quelle. Wenn wir über „KI-Bewusstsein“ diskutieren müssen, dann: Was ist „Bewusstsein“? Was bedeutet es, bei Bewusstsein zu sein? Um diese Fragen zu beantworten, reichen Computerkenntnisse allein bei weitem nicht aus. Tatsächlich lässt sich die Diskussion über „Bewusstsein“ bis in die „Achsenzeit“ im antiken Griechenland zurückverfolgen. Seitdem ist das „Bewusstsein“ als erkenntnistheoretische Essenz des Menschen für nachfolgende Philosophen zu einem unvermeidlichen Thema geworden. Als die Diskussion über das Bewusstsein von KI aufkam, lieferte auch Amanda Askell, eine Wissenschaftlerin, die früher als Forscherin bei OpenAI tätig war, einige interessante Erkenntnisse zu diesem Thema. Bildunterschrift: Amanda Askell, ihr Forschungsschwerpunkt liegt an der Schnittstelle von KI und Philosophie In ihrem neuesten Blogbeitrag „Meine meist langweiligen Ansichten zum KI-Bewusstsein“ untersucht Askell das „phänomenale Bewusstsein“ im phänomenologischen Sinne und nicht das „Zugangsbewusstsein“. Das phänomenale Bewusstsein betont den Erfahrungsprozess des Subjekts und konzentriert sich auf Gefühle, Erfahrungen und passive Aufmerksamkeit. während das bewusste Bewusstsein die subjektive Initiative des Subjekts betont und die subjektive aktive Aufmerksamkeit des Subjekts betont. Wenn Sie beispielsweise beim Klang entspannender Musik Ihre Hausaufgaben machen, können Sie die Musik im Hintergrund spüren (phänomenales Bewusstsein), achten jedoch nicht auf ihren spezifischen Inhalt. Die Hausaufgaben sind für Sie subjektiv (bewusste Wahrnehmung) und Sie wissen wirklich, was Sie tun. Dies ähnelt ein wenig den beiden unterschiedlichen Aufmerksamkeitsmechanismen, die üblicherweise in der Computervision und der Kognitionswissenschaft verwendet werden. Phänomenales Bewusstsein entspricht „Bottom-up“, während bewusstes Bewusstsein „Top-down“ entspricht. Bildunterschrift: Auf den ersten Blick ist die Großschrift im Buch als „phänomenales Bewusstsein“ zu erkennen; sich der Einzelheiten darin bewusst zu sein, gehört zum „bewussten Bewusstsein“. Askell stimmt zu, dass höhere Intelligenz für das Bewusstsein relevanter ist, das auch Menschen wirksam von anderen Tieren unterscheiden kann, aber sie ist „mehr am Unterschied zwischen Tigern und Steinen interessiert als am Unterschied zwischen Menschen und Tigern“, und phänomenales Bewusstsein reicht aus, um eine solche Unterscheidung zu treffen. Sie glaubt außerdem, dass das Auftreten eines „phänomenalen Bewusstseins“ auch bedeutet, dass einige moralische und ethische Probleme auftauchen werden. Aus diesem Grund ist sie davon überzeugt, dass es wichtig ist, das Bewusstsein zu erforschen. 1 Verfügen aktuelle KI-Systeme über ein Bewusstsein? Askell macht eine interessante Beobachtung: Die heutigen KI-Systeme verfügen wahrscheinlich über ein phänomenales Bewusstsein als ein Stuhl, aber bei weitem nicht über ein so hohes Bewusstsein wie eine Maus oder gar ein so hohes Bewusstsein wie ein Insekt, ein Fisch oder eine Muschel. Sie vergleicht KI-Systeme grob mit den Regionen einer Pflanze – denn Pflanzen verhalten sich auf eine Art und Weise, die Planung zu erfordern scheint, und können Dinge tun, die scheinbar interne und externe Kommunikation erfordern. KI-Systeme scheinen sich ähnlich zu verhalten. Sie ist aber auch davon überzeugt, dass KI-Systeme insgesamt in Zukunft ein größeres Bewusstseinspotenzial haben werden als Pflanzen oder Muscheln. Insbesondere könnte die zukünftige KI-Forschung an stärker biologisch inspirierten neuronalen Netzwerken mehr bewusstseinsbezogene Architekturen, Verhaltensweisen und kognitive Systeme hervorbringen. Studien haben gezeigt, dass Pflanzen auch über Bewusstsein und Intelligenz verfügen, Schmerzen empfinden und gut mit der Umwelt kommunizieren und interagieren können. Welche Beweisaspekte sollten wir also berücksichtigen, wenn wir überlegen, ob KI über ein Bewusstsein verfügt? Askell listet vier Arten von Beweisen auf: architektonische, verhaltensbezogene, funktionale und theoretische. Architektonische Beweise beziehen sich auf den Grad, in dem die physische Struktur eines Systems der eines Menschen ähnelt, z. B. Die Struktur eines Gehirns ist weitaus bewusster als die eines Fingers. Von Verhaltensbeweisen spricht man, wenn eine Entität Aktionen ausführt, die mit Bewusstsein, Wahrnehmung usw. in Zusammenhang stehen, wie etwa sich der Umgebung bewusst zu sein, auf äußere Reize zu reagieren oder komplexere Verhaltensweisen wie Sprechen und Denken auszuführen. Funktionale Beweise berücksichtigen ihre Ziele und wie diese Ziele mit der Umgebung in Beziehung stehen. Beispielsweise war ein Tisch oder Stuhl keinem wirklichen Evolutionsdruck durch seine Umgebung ausgesetzt und hat daher keinen Grund, dieselbe Art von Bewusstsein für seine Umgebung zu entwickeln wie eine Maus. Zu den theoretischen Beweisen zählen die Kohärenz und Überzeugungskraft der Theorie selbst. Philosophen, die sich heute mit dem Geist beschäftigen, haben im Allgemeinen zwei theoretische Tendenzen: Die eine ist die inklusive Schule, wie etwa die Panpsychisten, die glauben, dass sogar Atome ein Bewusstsein haben können; Die andere ist die mechanistische Schule, die bestreitet, dass nicht-menschliche Wesen ein Bewusstsein haben. Doch egal, welche Tendenz man hat, die Frage des KI-Bewusstseins kann anhand der vier oben genannten verschiedenen Beweisstücke diskutiert werden. 2 Ist es wichtig, ob KI ein Bewusstsein hat? Die überwiegende Mehrheit der KI-Praktiker berücksichtigt das Bewusstsein nicht, und KI und Bewusstsein scheinen nur in der Vorstellung der Zukunft in einigen Science-Fiction-Filmen zu existieren. Im Hinblick auf Sicherheit, Ethik, Voreingenommenheit und Fairness hat die Kombination von Bewusstsein und KI jedoch in Wissenschaft und Industrie zunehmend Aufmerksamkeit erregt. Askell glaubt, dass KI über ein phänomenales Bewusstsein verfügt, was bedeutet, dass sie wahrscheinlich ethische Werte entwickelt, was viel mit ihren Schöpfern zu tun hat. Insbesondere wenn KI Fehler macht oder „missbraucht“ wird, sollten ihre Schöpfer eine gewisse Verantwortung tragen. Askell diskutiert zwei wichtige Konzepte der Moralethik: den moralischen Akteur und den moralischen Patienten. Unter ihnen sind „moralische Akteure“ Akteure, die die Fähigkeit besitzen, zwischen Gut und Böse zu unterscheiden und die Konsequenzen tragen können, wie beispielsweise Erwachsene; „Objekte moralischer Besorgnis“ hingegen sind Wesen, die nicht zwischen Gut und Böse unterscheiden können, also Wesen, die moralisch nicht eingeschränkt werden können und im Allgemeinen nicht bereit sind, die Konsequenzen zu tragen, wie etwa Tiere oder kleine Babys. Objekte moralischer Besorgnis Askell glaubt, dass ein Wesen, sobald es über Empfindungsvermögen wie Lust und Schmerz verfügt, wahrscheinlich zu einem Gegenstand moralischer Besorgnis wird. Es wäre irrational, wenn normale Menschen feststellen würden, dass ein Objekt moralischer Besorgnis (wie etwa eine Katze) leidet, und nicht versuchen würden, ihrer moralischen Verpflichtung nachzukommen, das Leiden dieses Objekts zu lindern. Sie argumentiert außerdem, dass phänomenales Bewusstsein eine notwendige Voraussetzung für die Wahrnehmung ist und dass phänomenales Bewusstsein daher eine Voraussetzung dafür ist, ein Objekt moralischer Besorgnis zu sein. Eine mögliche Debatte besteht darin, ob bestimmte Gruppen einen moralischen Status haben oder ob sie einen höheren moralischen Status haben. Der moralische Status kommt aus der Ethik und bezieht sich darauf, ob eine Gruppe ihre Fehler im moralischen Sinne diskutieren kann. Beispielsweise haben die meisten Lebewesen einen moralischen Status, unbelebte Objekte hingegen nicht. Die Überbetonung des Status einer Gruppe scheint zu implizieren, dass diese Gruppe wichtiger und andere Gruppen weniger wichtig sind. Dies ist ebenso besorgniserregend wie die Argumente, Tieren, Insekten, Föten, der Umwelt usw. einen höheren moralischen Status zuzuschreiben. Askell weist darauf hin, dass die Hilfe für eine Gruppe nicht auf Kosten anderer gehen muss. Beispielsweise hat eine vegetarische Ernährung Vorteile für die Gesundheit von Mensch und Tier. Teams konkurrieren normalerweise nicht um dieselben Ressourcen. Oft können wir unterschiedliche Ressourcen nutzen, um beiden Teams zu helfen, anstatt einen Kompromiss zwischen ihnen zu erzwingen. Wenn wir die verfügbaren Mittel für die globale Armutsbekämpfung erhöhen wollen, ist es nicht die einzige Möglichkeit, bestehende Spenden aus der Philanthropie zu streichen – wir können auch mehr Menschen zum Spenden und Schenken ermutigen. Wenn sich also die empfindungsfähigen KI-Systeme der Zukunft zu moralisch bedenklichen Wesen entwickeln, bedeutet das weder, dass uns das Wohlergehen anderer Menschen egal wäre, noch, dass wir vorhandene Ressourcen umlenken müssten, um ihnen zu helfen. Moralischer Agent Da moralische Akteure wissen, was gut und was böse ist, neigen sie dazu, gut zu handeln und schlechtes Handeln zu vermeiden. Wenn sie etwas tun, das moralisch oder rechtlich nicht akzeptabel ist, werden sie entsprechend bestraft. Der schwächste Teil eines moralischen Akteurs besteht einfach darin, auf positive und negative Anreize zu reagieren. Das heißt, eine andere Entität kann den Akteur für schlechtes Verhalten bestrafen oder ihn für gutes Verhalten belohnen, weil dies das zukünftige Verhalten des Akteurs verbessern wird. Bezeichnenderweise stellt Askell fest: Um Anregungen zu empfangen und Feedback zu bekommen, ist offenbar kein phänomenales Bewusstsein erforderlich. Aktuelle ML-Systeme entsprechen dieser Regel in gewisser Weise bereits, beispielsweise hinsichtlich der Notwendigkeit von Modellen zur Reduzierung von Verlustfunktionen oder der offensichtlicheren „Belohnungen“ und „Bestrafungen“ beim bestärkenden Lernen. Abbildung 1: Belohnungs-Feedback-Mechanismus für bestärkendes Lernen Was ist mit moralischeren Akteuren? Wir sind grundsätzlich der Meinung, dass Akteure nur dann moralisch für ihre Handlungen verantwortlich sein können, wenn sie in der Lage sind, zwischen Gut und Böse zu unterscheiden und sich nicht zu anderen Handlungen verleiten lassen. Wenn beispielsweise ein Mann seinen Freund dazu überredet, einen Waldbrand zu legen, und der Freund erwischt wird, trägt die Person, die den Brand verursacht hat (der Freund selbst), die moralische Verantwortung und nicht die Person, die ihn dazu überredet hat, unabhängig davon, wie sehr er sich verteidigt und sagt, dass er von anderen dazu angestiftet wurde. Wenn jedoch jemand seinen Hund darauf trainiert, Feuer zu legen, würden wir in diesem Fall die moralische Verantwortung eher dem Trainer als seinem Haustier zuschreiben. Warum ziehen wir menschliche Brandstifter zur moralischen Verantwortung, aber nicht ausgebildete Hunde? Erstens sind menschliche Brandstifter in der Lage, ihre Optionen abzuwägen und sich zu entscheiden, dem Rat ihrer Freunde nicht zu folgen, während Hunden diese Fähigkeit fehlt, über ihre Entscheidungen nachzudenken. Zweitens versteht der Hund nie, dass sein Verhalten falsch ist und zeigt nie die Absicht (Neigung), etwas Falsches zu tun – er tut einfach das, wozu er trainiert wurde. Angenommen, ein fortgeschrittenes maschinelles Lernsystem wird in diesem stärkeren Sinne zu einem moralischen Akteur, das heißt, es ist durchaus in der Lage, Richtig und Falsch zu erkennen, praktikable Optionen umfassend abzuwägen und aus eigenem Willen zu handeln. Bedeutet dies dann, dass diejenigen, die das System geschaffen haben, von der moralischen Verantwortung entbunden werden sollten, wenn ein maschinelles Lernsystem etwas Falsches tut? Askell ist anderer Meinung. Um genauer darüber nachzudenken, schlägt sie vor, den Entwicklern die folgenden Fragen zu stellen: Welche Auswirkungen sind von der Schaffung einer bestimmten Entität (wie etwa KI) zu erwarten? Wie viel Aufwand haben die Macher betrieben, um Beweise für ihre Wirkung zu sammeln? In welchem Ausmaß können sie Kontrolle über das Verhalten der von ihnen geschaffenen Entitäten ausüben (entweder indem sie deren Verhalten direkt beeinflussen oder indem sie deren Absichten indirekt beeinflussen)? Wie viel Aufwand betreiben sie, um das Verhalten des Unternehmens zu verbessern, soweit sie dazu in der Lage sind? Auch wenn ihre Entwickler alle Anstrengungen unternehmen, um sicherzustellen, dass ML-Systeme gut funktionieren, können sie dennoch scheitern. Manchmal sind diese Fehler auf Fehler oder Versehen der Ersteller zurückzuführen. Askell ist der Ansicht, dass die Schaffung moralischer Akteure die Dinge sicherlich verkomplizieren wird, da moralische Akteure schwieriger vorherzusagen sind als Automaten, beispielsweise wie ein autonomes Fahrzeug die Straßenbedingungen einschätzen könnte. Dies entbindet die Entwickler jedoch nicht von ihrer Verpflichtung, Verantwortung für die Sicherheit der von ihnen geschaffenen KI-Systeme zu übernehmen. 3 Wie wichtig ist die Erforschung des KI-Bewusstseins? Derzeit gibt es im Bereich der KI nur sehr wenig Forschung, die sich speziell auf das Bewusstsein (oder sogar andere philosophische Denkweisen) konzentriert, einige Wissenschaftler führen jedoch bereits fachübergreifende Gemeinschaftsforschung zu diesem Thema durch. Beispielsweise hat Daily Nous, ein Blog mit Schwerpunkt auf philosophischen Fragen, nach der Veröffentlichung von GPT-3 einen speziellen Bereich eröffnet, um die Anwendung der Sprachphilosophie in der KI zu diskutieren. Gleichzeitig betonte Askell jedoch, dass die Diskussion über das Bewusstsein von KI nicht nur eine philosophische, abstrakte Spekulation sein sollte, sondern dass es auch darum gehen sollte, relevante praktische Rahmenbedingungen zu entwickeln, wie etwa die Einführung einer Reihe effizienter Bewertungen für das Bewusstsein und die Wahrnehmung von Maschinen. Es gibt bereits einige Methoden zur Schmerzerkennung bei Tieren und es scheint möglich, sich davon inspirieren zu lassen. Umgekehrt gilt: Je mehr wir über das Bewusstsein der KI verstehen, desto mehr verstehen wir über den Menschen selbst. Obwohl es in der Diskussion über das Bewusstsein künstlicher Intelligenz keinen einheitlichen Konsens gibt, ist die Diskussion selbst bereits ein Fortschritt. Ich freue mich auf weitere Forschungsarbeiten zum KI-Bewusstsein. Referenzlinks: https://askellio.substack.com/p/ai-bewusstsein?s=r Quelle: Academic Headlines |
<<: Gibt es im Universum ein zweites Sonnensystem?
>>: Sponsor? Schutz? Bester Freund? Die Beziehung zwischen dem Gründervater und dem Bildhauer
Archäologen haben über 2.700 Jahre alten Wein ent...
Prüfungsexperte: Zhu Guangsi Mitglied der Beijing...
Wir müssen jeden Tag auf die Toilette. Das vielle...
Ich glaube, dass viele Menschen den Traum eines H...
Schwimmbäder sind im Sommer am beliebtesten. Im h...
Einige wichtige Gelenke des menschlichen Körpers ...
Viele Frauen wollen ihre Bauchmuskeln trainieren....
Experte dieses Artikels: Hu Zhongdong, Chefarzt d...
Die Alzheimer-Krankheit (AD) ist die weltweit am ...
Adobe hat seine Prognosen für die Weihnachtseinka...
Jedes Jahr sterben Tausende Meeresschildkröten, w...
Seit der Antike ist es der Traum der Menschheit, ...
Der globale Klimawandel ist heute eine der Hauptt...