Wir brauchen eine KI, die intelligenter, aber nicht bewusster ist. Ohne Bewusstsein ist KI lediglich ein Werkzeug für den Menschen. Je höher seine Intelligenz, desto nützlicher ist es für den Menschen. Im Gegenteil: Auch wenn KI in vielen Aspekten schwächer ist als der Mensch, kann sie, solange sie über ein Bewusstsein verfügt, eine potenzielle Bedrohung für den Menschen darstellen. Aber wie stellen wir fest, ob KI über ein Bewusstsein verfügt? In der wissenschaftlichen Gemeinschaft gibt es bisher keine einheitliche Antwort. Glücklicherweise haben einige Leute bereits mit der Erkundung begonnen. Geschrieben von | Lee Hyun-hwan Abbildung |StableDiffusion-generierte Bilder Kann künstliche Intelligenz (KI) „bewusst“ werden? Und wie können wir beurteilen, ob es dieses Bewusstsein wirklich hat? Viele Wissenschaftler und Science-Fiction-Autoren haben über diese Frage nachgedacht. Besonders in den letzten beiden Jahren schrillten die Alarmglocken immer wieder. Top-Experten, darunter der „KI-Pate“ Geoffrey Hinton und der Mitbegründer und Chefwissenschaftler von OpenAI, Ilya Sutskever, haben nacheinander erklärt, dass KI über ein Selbstbewusstsein verfügen könnte. In der Ära vor den großen Modellen sind KI-Anwendungen, wie Gesichtserkennung, Spracherkennung usw., nach und nach in jeden Winkel der Gesellschaft vorgedrungen. Diese Technologien scheinen hochentwickelt und komplex zu sein, sind aber in Wirklichkeit nur das Ergebnis der Programmausführung. Und das Programm versteht sein eigenes Verhalten nie wirklich. Dabei handelt es sich um künstliche Intelligenz ohne Selbstbewusstsein. Egal wie fortschrittlich es ist, es ist nur eine „Marionette“, die vollständig von Menschen kontrolliert und gelenkt wird. Alle freuen sich über die Entwicklung. Der Hintergrund hierfür ist, dass jeder davon ausgeht, dass es fortschrittliche und rückständige Werkzeuge gibt, dass Werkzeuge jedoch nie Leben haben werden. Mittlerweile sollte jeder die Geschichte von ChatGPT kennen. Wie eine Flamme im Feuer verwandelte es eine bahnbrechende Forschung im Labor in eine magische Technologie, die von den meisten Menschen mit Internetzugang genutzt werden kann. Gleichzeitig wächst die Sorge, dass KI ein Bewusstsein entwickeln könnte. Der Grund hierfür ist, dass wir eine intelligentere KI brauchen, nicht ein bewussteres. Ohne Bewusstsein ist KI lediglich ein Werkzeug für den Menschen. Je höher seine Intelligenz, desto nützlicher ist es für den Menschen. Im Gegenteil: Auch wenn KI in vielen Aspekten schwächer ist als der Mensch, kann sie, solange sie über ein Bewusstsein verfügt, eine potenzielle Bedrohung für den Menschen darstellen. Wir wollen nicht, dass Algorithmen nach Belieben zuschlagen, und wir können nicht akzeptieren, dass die Welt von KI kontrolliert wird. Daher müssen wir die Entwicklung der KI-Technologie genau beobachten, um den entscheidenden Moment des Erwachens des KI-Bewusstseins nicht zu verpassen. Vor Kurzem hat ein Team aus 19 Informatikern, Neurowissenschaftlern und Philosophen, darunter auch der Turing-Award-Gewinner und einer der drei Giganten des Deep Learning, Yoshua Bengio, begonnen, dieses Thema zu untersuchen. In einem kürzlich veröffentlichten 120-seitigen Vorabdruck schlug das Team eine Methode vor: Mithilfe einer Reihe komplexer Parameter und Attribute lässt sich vorläufig feststellen, ob eine KI über ein Bewusstsein verfügt. Die Suche nach Antworten hat gerade erst begonnen. Um zu testen, ob KI ein Bewusstsein hat, wird dringend ein „Testpapier“ benötigt Der Hintergrund dieser Studie besteht darin, dass selbst in der Wissenschaft die Frage, ob KI über ein Bewusstsein verfügt, noch immer ungeklärt ist. Basierend auf der Theorie der Neurowissenschaften können die durch Elektroenzephalogramm oder Magnetresonanztomographie erfassten internen Arbeitssignale des menschlichen Gehirns zu der Schlussfolgerung führen, dass „der Mensch über ein Bewusstsein verfügt“. Diese ausgereifte Methode kann jedoch nicht in Algorithmen verwendet werden. Basierend auf den Theorien und Erkenntnissen der kognitiven Neurowissenschaft extrahierten sie zunächst die Kernmerkmale des Bewusstseinszustands aus der aktuellen Theorie des menschlichen Bewusstseins und suchten dann in der Infrastruktur der KI nach Hinweisen auf diese Merkmale. Das Forschungsteam extrahierte spezifische Merkmale aus einer Vielzahl aktueller Bewusstseinstheorien, darunter: Theorie der rekurrenten Verarbeitung (RPT): Diese Theorie besagt, dass das Bewusstsein dadurch entsteht, dass das Gehirn Erfahrungen durch eine „Rückkopplungsschleife“ weiterleitet und dabei Vorwissen und Verbindungen nutzt, um aktuelle Erfahrungen zu verstehen. Theorie des globalen neuronalen Arbeitsbereichs (GNW): Eine Theorie, die erklärt, wie unser Gehirn die vielen gleichzeitigen Informationsströme koordiniert und verarbeitet. In dieser Theorie wird das Bewusstsein als ähnlich einem Scheinwerfer auf der psychologischen Bühne definiert, der bestimmt, worauf wir uns konzentrieren und was wir ignorieren. Theorie des Denkens höherer Ordnung (HOT): Dies ist eine Gruppe von Theorien, die besagen, dass Bewusstsein das Ergebnis einer Echtzeitwahrnehmung unserer Gedanken und Gefühle ist. Bewusstsein wird hier als die Fähigkeit zu „denken“ definiert; Aufmerksamkeitsschema-Theorie (AST): Diese Theorie erklärt, dass Bewusstsein das Ergebnis davon ist, dass das Gehirn unsere Aufmerksamkeit auf bestimmte Objekte, Gedanken, Erinnerungen und andere Reize lenkt und gleichzeitig andere Reize herausfiltert. Das Schlüsselelement dieser Theorie ist die Fähigkeit, sich bewusst zu sein, wie und wohin unsere Aufmerksamkeit gelenkt wird. Darüber hinaus fügten die Forscher Kriterien hinzu, die auf prädiktiver Verarbeitung basieren, also der Fähigkeit des Gehirns, die Welt um es herum auf der Grundlage früherer Erfahrungen genau vorherzusagen und zu interpretieren. Dies ist besonders wichtig für die Entwicklung von KI-Modellen, die kreative Inhalte generieren oder komplexe Probleme lösen können. Basierend auf der oben genannten Kerntheorie des Bewusstseins entwickelte das Forschungsteam 14 Kriterien und spezifische Messmethoden und bewertete dann die Modelle der künstlichen Intelligenz gemäß dieser Liste. Abbildung |StableDiffusion-generierte Bilder Sie kamen zu dem Schluss, dass die derzeit auf dem Markt erhältliche KI noch nicht über ein Bewusstsein verfügt. Einerseits zeigen die Ergebnisse, dass die aktuellen Fähigkeiten der KI möglicherweise noch nicht das Stadium erreicht haben, in dem sie ein Bewusstsein bilden können. Andererseits ermöglichen die Entwickler beim künstlichen Erstellen und Trainieren von KI-Modellen der KI nicht absichtlich, dass diese kognitiven Fähigkeiten vollständig ausgebildet werden. „Der Grund, warum das niemand tut, liegt darin, dass nicht klar ist, ob sie für die Aufgabe nützlich sind“, sagte Eric Elmoznino, einer der Autoren des Artikels. Gleichzeitig geht die Studie davon aus, dass die Wahrscheinlichkeit, dass eine KI-Architektur über ein Bewusstsein verfügt, umso größer ist, je mehr Indikatoren sie erreichen kann. Die Testergebnisse zeigen, dass viele Modelle auf dem Markt beim Indikator „Loop Processing Theory“ relativ gut abschneiden, während ChatGPT beim „Global Workspace“ hervorragende Leistungen erbringt. Insgesamt können jedoch alle im Testumfang enthaltenen KI-Modelle nur wenige Indikatoren erfüllen, was zu dem Schluss führt, dass kein Modell ein Selbstbewusstsein entwickeln kann. Die Forscher betonten jedoch, dass die ursprüngliche Absicht dieser Studie darin bestand, weitere Fragen und Diskussionen aufzuwerfen und einen Ausgangspunkt für Gespräche über die Bewusstseinsfrage von KI-Modellen zu bieten. Die Arbeit biete einen Rahmen für die Bewertung von KI, die zunehmend menschliche Eigenschaften annehme, sagte Co-Autor Robert Long vom gemeinnützigen Center for AI Safety mit Sitz in San Francisco. „Wir führen einen systemischen Ansatz ein, der bisher fehlte.“ Die Genauigkeit dieser Testmethode muss noch weiter überprüft werden, doch ungeachtet der weiteren Entwicklungen kann man diesen Schritt als beispiellos bezeichnen. Wissenschaftler verwenden eine Theorie des menschlichen Bewusstseins, um KI zu testen. Dies ist ein Beispiel dafür, wie sich die Fähigkeiten der KI so schnell weiterentwickelt haben, dass Wissenschaftler ein fortschrittlicheres „Testpapier“ dafür entwickeln müssen. Was Bewusstsein und Wahrnehmung betrifft, gilt: Je näher die KI dem Menschen kommt, desto näher werden auch Probleme und Katastrophen dem Menschen kommen. Wenn KI ein Bewusstsein erlangt, geraten die Menschen in große Schwierigkeiten Anders als in der Szene, in der Wissenschaftler hitzig debattieren, haben sich die meisten Menschen nicht ernsthaft mit der Frage auseinandergesetzt, ob KI über ein Bewusstsein verfügt, oder sie glauben im Allgemeinen, dass es nur eine Frage der Zeit ist, bis KI ein Bewusstsein erlangt, und dass dies daher nicht sehr wichtig ist. Science-Fiction oder Filme spielen dabei eine große Rolle, schließlich wird KI in den meisten Filmen mit futuristischem Thema als über Bewusstsein und Emotionen verfügend dargestellt. Tatsächlich unterschätzen viele Menschen die Bedeutung dieses Themas, obwohl es möglicherweise die zukünftige Richtung der Menschheit bestimmen könnte. Im Vergleich zur begrenzten Verarbeitungsleistung des menschlichen Gehirns ist die theoretische Verarbeitungsleistung der KI unbegrenzt und sie kann alle gesammelten Informationen wahllos verarbeiten. Wenn KI erst einmal ein Bewusstsein entwickelt und wie Menschen kommunizieren und Informationen austauschen kann und dabei weitaus effizienter arbeitet als Menschen, könnte dies dazu führen, dass ihr Intelligenzniveau rapide ansteigt und sie weniger intelligente Wesen, darunter auch Menschen, „eliminiert“ – genau wie beim Aufkommen der Smartphones, die die Feature-Phones der vorherigen Ära rücksichtslos verdrängt haben. Die Bedrohungen können sehr spezifisch werden. In einem Interview kurz nach seinem Ausscheiden bei Google sagte Hinton: „Diese von uns geschaffenen Agenten sind sehr mächtig und lernen alles von Menschen, zum Beispiel durch das Lesen aller Romane und Bücher Machiavellis über die Manipulation von Menschen. Wenn sie lernen, Menschen zu manipulieren, werden Sie und ich als Menschen nicht einmal merken, wie dieser Prozess abläuft. Sie werden wie ein zweijähriges Kind sein, das gefragt wird: ‚Möchtest du Erbsen oder Brokkoli?‘“ Sie werden nicht erkennen, dass Sie eigentlich keine Wahl haben und Sie werden leicht manipuliert.“ Was die extremste Vorstellung betrifft, sagte Hinton, dass, sobald KI und digitale intelligente Einheiten beginnen, direkte Erfahrungen mit der Welt zu sammeln und ihre Lernfähigkeit verbessert wird, die digitale Intelligenz den Menschen noch eine Zeit lang erhalten bleiben könnte, weil sie noch immer Menschen brauchen, um Strom für sie zu erzeugen. Doch irgendwann in der Zukunft wird sie dies vielleicht nicht mehr brauchen. Letztendlich wird der Mensch eine Übergangsphase in der Evolution der Intelligenz darstellen und die Welt wird in ein Zeitalter der Maschinen eintreten. Um dieses Fantasieszenario zu verwirklichen, muss sich die KI einerseits in Bezug auf die „Intelligenz“ weiterentwickeln und andererseits – und das ist noch wichtiger – muss die KI das Ziel und die Absicht der „Manipulation“ haben, und das Ziel ist eine Manifestation des Bewusstseins. Natürlich ist die Realität vielleicht nicht ganz so schlimm, zumindest im Moment. Bevor die KI die menschliche Gesellschaft „zerstört“, kann sie auch moralische und ethische Fragen aufwerfen. Christof Koch, ein deutscher Neurowissenschaftler und eine repräsentative Persönlichkeit auf dem Gebiet des Bewusstseins und der Neurowissenschaften, erwähnte einmal ein Beispiel, als er über das Bewusstsein von KI sprach: Wenn jemand sein Auto mit einem Hammer zertrümmert, halten ihn seine Nachbarn vielleicht für verrückt, aber schließlich ist es nur sein persönliches Eigentum. Wenn jedoch jemand seinen Hund misshandelt, steht die Polizei vor seiner Tür und eine moralische Verurteilung ist unausweichlich. Der Hauptunterschied zwischen beiden besteht darin, dass der Hund bei Bewusstsein ist und Schmerzen empfinden kann, während das Auto kein bewusstes Wesen ist. Und wenn Maschinen zu bewussten Wesen werden, wird dies moralische, ethische, rechtliche und politische Auswirkungen haben, die wir uns nie hätten vorstellen können. Offensichtlich ist die menschliche Gesellschaft dazu nicht bereit, auch nicht die Wissenschaftler, die sich den ganzen Tag mit zukunftsweisenden Themen beschäftigen. Die oben genannten Forschungsergebnisse können auch als Versuch der akademischen Gemeinschaft angesehen werden, im neuen KI-Zeitalter einen neuen „Turing-Test“ zu etablieren. Abbildung|Alan Turing Im Jahr 1950 setzte Alan Mathison Turing, bekannt als „Vater des Computers“ und „Vater der künstlichen Intelligenz“, in seinem Aufsatz „Können Maschinen denken?“ im Alleingang Teststandards im Bereich der Intelligenz. In seinem Artikel „Der Turing-Test“ schlug Turing erstmals den „Turing-Test“ vor, in dem er die kühne Vorstellung hatte, dass Maschinen die Fähigkeit zum Denken besitzen würden, und schlug eine Methode zum Testen der Intelligenz von Maschinen vor: die Kommunikation mit Menschen über eine Schreibmaschine. Können mehr als 30 % der Menschen innerhalb einer bestimmten Zeit (5 Minuten) nicht unterscheiden, ob es sich um einen Menschen oder eine Maschine handelt, kann man davon ausgehen, dass die Maschine über die Fähigkeit zum Denken verfügt. Die Einzigartigkeit dieser Testmethode liegt darin, dass sich die Begriffe „Bewusstsein“, „Denken“ und „Intelligenz“ nur schwer durch Definitionen erklären lassen. Daher verwendet der Test den Menschen eher intuitiv als Referenz und beurteilt, ob die Maschine über menschliche Intelligenz verfügt, indem ihre Leistung nicht von der eines Menschen zu unterscheiden ist. Bis heute ist der „Turing-Test“ ein wichtiger Maßstab zur Messung der Intelligenz von KI. Einige Forscher weisen jedoch darauf hin, dass diese Testmethode veraltet und zu anthropozentrisch sei und Mängel in ihrem Design aufweise. Gleichzeitig hat dieser Test zu der trügerischen Vorstellung geführt, dass KI, solange sie Menschen erfolgreich „täuscht“, als Subjekt mit „Intelligenz“ betrachtet werden könne. Dies hat die Entwicklungsrichtung der KI-Forschung in gewissem Maße in die Irre geführt und die Beurteilung von „Intelligenz“ ist nicht wissenschaftlich. Siebzig Jahre später ist der Grad der „Intelligenz“ nicht mehr die einzige Dimension maschineller Fähigkeiten, die den Menschen interessiert. Während wir beginnen, sorgfältig zu beobachten, ob KI bei potenziellen Bedrohungen über ein Selbstbewusstsein verfügt, warten Wissenschaft und Industrie gespannt auf eine neue Ära des „Turing-Tests“, der Licht auf die nächsten siebzig Jahre der KI werfen wird. Niemand kann der KI im Notfall den Stecker ziehen In einem Interview stellte der Moderator Hinton eine einfache, aber tiefgründige Frage: „Wenn wir KI beängstigend finden, ist es dann eine Lösung, sie einfach abzuschalten?“ Dieses Problem scheint theoretisch machbar. Hinton glaubt jedoch, dass es für die Menschen umso schwieriger sein wird, auf KI zu verzichten, je fortschrittlicher und intelligenter sie ist. Das bedeutet auch, dass sie schwieriger zu kontrollieren sein wird. Hinton ist der Ansicht, dass die Einstellung der Weiterentwicklung entsprechender Technologien zwar wirksam erscheint, diese Idee jedoch zu naiv ist. „Selbst wenn die USA die Entwicklung einstellen, werden andere Länder weitermachen und KI für Waffen einsetzen.“ Zum Vorschlag, eine Petition zu veröffentlichen, in der dazu aufgerufen wird, „die Entwicklung künstlicher Intelligenz zu stoppen“, sagte Hinton, auch das sei eine naive Idee, da dies praktisch unmöglich sei. Ähnliche Technologiewettläufe sind bereits im Gange. Im Jahr 2017 brachte Google die Transformer- und Diffusion-Generation-Modelle auf den Markt, die jedoch anfangs nicht für jedermann zugänglich waren. Google war stets vorsichtig und befürchtete mögliche negative Konsequenzen. Allerdings sind ChatGPT und andere Sprachmodelle nacheinander auf den Markt gekommen und Google kann sich nur aus Wettbewerbs- und Gewinngründen dafür entscheiden, mitzuhalten. Foto: Geoffrey Hinton wird interviewt Hinton hofft, eine Einigung zwischen den Vereinigten Staaten und anderen Ländern herbeizuführen, so wie die Länder bereits eine Einigung in der Frage der Atomwaffen erzielt haben. „Wenn wir zulassen, dass diese Technologien uns übernehmen, wird das für uns alle schlecht sein. Unser Überleben ist bedroht, deshalb sollten wir alle zusammenarbeiten.“ Seiner Ansicht nach hat sich die Kontrolle der KI zu einem sozialwissenschaftlichen Problem entwickelt. Auch Ilya Sutskever hat mehrfach betont, dass KI über ein Bewusstsein verfügen und entsprechende Bedrohungen darstellen könnte. Als Vertreter von OpenAI stehen seine Worte und Taten in scharfem Kontrast zu denen des CEO des Unternehmens, Sam Altman. Insbesondere vor dem „Palastkampf“-Vorfall bei OpenAI flog Sam Altman häufig um die Welt, um Unternehmensführern und Politikern die Hand zu schütteln, während Sutskever einen zurückhaltenderen Lebensstil bevorzugte. Abgesehen von gelegentlichen Interviews und Reden an Schulen verbrachte er die meiste Zeit mit der Arbeit in einem unauffälligen Bürogebäude und ging dann nach Hause, um sich auszuruhen. Dies spiegelt auch die großen Unterschiede zwischen beiden hinsichtlich der zukünftigen Entwicklung der KI wider. Sutskever sagte in dem Interview, dass sein aktueller Fokus nicht mehr auf der Entwicklung des nächsten ChatGPT liege, sondern darauf, zu verhindern, dass Super-KI schlecht wird und außer Kontrolle gerät. In Hinton, Sutskever und anderen Wissenschaftlern, die ähnliche Anstrengungen unternehmen, sieht die Außenwelt den Schatten Oppenheimers, der versucht, die endgültige Explosion im KI-Zeitalter zu verhindern. Einschließlich der oben genannten Tests übernehmen sie die Führung bei der Entwicklung einer Reihe von Bewertungssystemen und einer Reihe von Infrastrukturen im Bereich der KI, obwohl in Wissenschaft und Industrie noch kein Konsens erzielt wurde und sich die KI-Fähigkeiten explosionsartig entwickeln. Diese Bemühungen stellen den Beginn einer Ordnung dar, die es zumindest mehr Menschen ermöglicht, bei der Entwicklung von KI bestimmten Normen zu folgen, eine rigorose Sicherheitslinie für die Zukunft von KI zu ziehen und letztlich klare Standards und Erkenntnisse zu etablieren. Referenzlinks [1] https://arxiv.org/abs/2308.08708 [2] https://www.science.org/content/article/if-ai-becomes-cious-how-will-we-know [3] https://www.technologyreview.com/2023/10/17/1081818/why-itll-be-hard-to-tell-if-ai-ever-becomes-cious/ [4] https://www.technologyreview.com/2023/10/26/1082398/exclusive-ilya-sutskever-openais-chief-scientist-on-his-hopes-and-fears-for-the-future-of-ai/ [5] https://www.americanbrainfoundation.org/how-will-we-know-if-ai-becomes-cious/ [6] https://mp.weixin.qq.com/s/tazJu1C0Vy0c5xn91IRZIQ Dieser Artikel wird vom Science Popularization China Starry Sky Project unterstützt Produziert von: Chinesische Vereinigung für Wissenschaft und Technologie, Abteilung für Wissenschaftspopularisierung Hersteller: China Science and Technology Press Co., Ltd., Beijing Zhongke Xinghe Culture Media Co., Ltd. |
Geheimer Terroralarm! Geheimer Terroralarm! Vor e...
Am 22. September wurden die Plakate für die Olymp...
Viele Menschen machen gerne Yoga, insbesondere ei...
Wenn die Temperatur steigt, werden Fliegen aktive...
Wenn jeder zum ersten Mal feststellt, dass er kur...
Seide, Reis, Tee und Sojabohnen gelten als die vi...
Autor: Duan Yuechu und Huang Xianghong Im riesige...
Chronische Rückenschmerzen sind einer der häufigs...
Die dritte Welle der kostenlosen Tests zur Gesamt...
Schwimmen ist ein Sport, den wir sehr mögen. Meis...
Viele Menschen haben nach dem Training immer Musk...
199IT Originalkompilation eMarketer prognostizier...
Da es sich bei dem Fernseher um das wichtigste vi...
Der Hauptgrund für Kleinwuchs sind Probleme mit d...
Wie das Sprichwort sagt: „Wenn Sie Fleisch ohne K...