Wird es jemals eine künstliche Superintelligenz mit Selbstbewusstsein und Emotionen geben? Ehrlich gesagt ist dieses Thema zu einem Klischee geworden. Wissenschaftler, Technologiegiganten und Politiker aus verschiedenen Ländern streiten erbittert, und es ist uns unmöglich, die Antwort zu kennen. Was wir aber sagen möchten, ist, dass bei allem Logik angewendet werden sollte. Gibt es Theorien oder Vermutungen, die das Thema KI-Erwachen anstoßen können? Gibt es Theorien oder Vermutungen, die es uns ermöglichen, uns die Zukunft der künstlichen Intelligenz vorzustellen, ohne verwirrt oder übermäßig enthusiastisch zu sein? Zufällig gibt es tatsächlich einige solcher Theorien, wie zum Beispiel das berühmte „Chinese Room Paradox“. Diese Szenario-Vermutung wird in den meisten Fällen verwendet, um den „Turing-Test“ zu negieren. Die tiefere Bedeutung liegt jedoch darin, zu erklären, dass künstliche Intelligenz niemals in der Lage sein wird, ein Selbstbewusstsein wie der Mensch zu entwickeln. Was ist das „Chinesische Zimmer-Paradoxon“ Das sogenannte „Chinese Room Experiment“ ist ein Gedankenexperiment, das der amerikanische Philosoph John Searle in einem 1980 veröffentlichten Artikel vorschlug. Dieses Gedankenexperiment besagt, dass eine Person, die nur Englisch spricht und in einem geschlossenen Raum eingesperrt ist, mit der Außenwelt nur kommunizieren kann, indem sie Notizen durch ein kleines Loch in der Wand schickt, und alle von außen hereingeschickten Notizen sind auf Chinesisch verfasst. Der Mann brachte ein Buch mit einem chinesischen Übersetzungsprogramm mit und im Zimmer gab es jede Menge Notenpapier, Bleistifte und Schränke. Anschließend kann diese Person mithilfe eines chinesischen Übersetzungsprogramms den eingehenden Text ins Englische übersetzen und anschließend mithilfe des Programms ihre eigene Antwort ins Chinesische übersetzen und versenden. In einem solchen Szenario würden die Leute draußen denken, dass die Person im Raum über umfassende Chinesischkenntnisse verfügt, aber in Wirklichkeit kann diese Person nur das Übersetzungstool bedienen und weiß nichts über Chinesisch. Natürlich handelt es sich hierbei um ein Gedankenexperiment und es ist nahezu unmöglich, es in die Praxis umzusetzen. Doch die Idee dieses Experiments bringt eine Möglichkeit zum Ausdruck: Die von der Maschine gezeigte Intelligenz (das Verstehen von Chinesisch) ist wahrscheinlich nur eine vom Übersetzungsprogramm erzeugte Illusion und weiß tatsächlich nichts über die wahre menschliche Intelligenz. Ursprünglich sollte mit diesem Experiment der Turing-Test widerlegt werden, da argumentiert wurde, dass selbst wenn eine Maschine den Turing-Test besteht, dies nicht unbedingt bedeutet, dass sie intelligent ist. Aber es ist mehr oder weniger weit hergeholt und der Turing-Test wurde nie vollständig widerlegt. Doch das „Chinese Room Paradox“ lehrt uns möglicherweise noch etwas anderes über den Weg der technologischen Entwicklung: All unsere technologischen Erkundungen und Forschungen zielen möglicherweise auf die Perfektionierung des Chinesisch-Englisch-Übersetzungsprogramms ab und niemals darauf, Maschinen echte Intelligenz beizubringen. Die Grenze zwischen allgemeiner künstlicher Intelligenz und starker künstlicher Intelligenz Hier müssen wir zwei Konzepte vorstellen, die man oft hört, die aber verwechselt werden können: allgemeine künstliche Intelligenz und starke künstliche Intelligenz. Bei der sogenannten Artificial General Intelligence (AGI) handelt es sich um eine Technologie der künstlichen Intelligenz, die vielfältige oder auch verallgemeinerte Probleme bewältigen kann, ohne dass Kenntnisse und Anwendungsgebiete speziell kodiert sind. Obwohl diese Technologie unpopulär und weit verbreitet ist, arbeiten tatsächlich viele akademische Einrichtungen und Unternehmen daran und sie wird allgemein als die zukünftige Entwicklungsrichtung der künstlichen Intelligenz angesehen. Starke künstliche Intelligenz ist die Stufe der künstlichen Intelligenz, die John Searle mit seinem „Chinese Room Experiment“ definierte. Künstliche Intelligenz auf diesem Niveau muss nicht nur über bestimmte menschliche Fähigkeiten verfügen, sondern auch scharfsinnig und selbstbewusst sein und in der Lage sein, unabhängig zu denken und Probleme zu lösen. Obwohl beide Konzepte der Problemlösungsfähigkeit künstlicher Intelligenz zu entsprechen scheinen, können wir uns erstere als allmächtigen Computer und letztere als einen Menschen in einer Iron-Man-Rüstung vorstellen. Die im „Chinese Room Paradox“ zum Ausdruck kommende Idee besteht darin, dass die Richtung der menschlichen Forschung grundsätzlich nicht in der Lage ist, an starke künstliche Intelligenz heranzukommen. Auch wenn allgemeine künstliche Intelligenz verschiedene menschliche Bedürfnisse erfüllen kann, besteht zwischen ihr und starker künstlicher Intelligenz mit Selbstbewusstsein kein fortschreitender Zusammenhang. Die technologische Entwicklung scheint in der Realität so zu verlaufen. Im Bereich der allgemeinen künstlichen Intelligenz haben Menschen einige Konzepte und Architekturmodelle vorgeschlagen. Das bekannteste davon dürfte AIXI sein, das im Jahr 2000 von Marcus Hutter, einem Wissenschaftler der Australian National University, vorgeschlagen wurde. Dieses Computermodell soll verschiedene Algorithmen und Technologien abdecken und sich dem Wesen der allgemeinen künstlichen Intelligenz nähern … Natürlich ist die Komplexität dieses Algorithmus so hoch, dass er überhaupt nicht ausgeführt werden kann, es handelt sich also lediglich um ein Konzept. Unternehmen wie OpenAI und DeepMind haben in den letzten zwei Jahren mit spezifischer AGI-Forschung begonnen, wobei DeepMind als Pionier gilt, der AIXI beerben wird. Aus den von DeepMind durchgeführten Untersuchungen und Experimenten zur allgemeinen künstlichen Intelligenz geht hervor, dass sich ihre „Allgemeingültigkeit“ hauptsächlich auf vier Aspekte konzentriert: intelligente Agenten, die mit komplexen Umgebungen zurechtkommen, unbekannte Umgebungen handhaben, mit Zeitvariablen zurechtkommen und Aufgaben mit mehreren Informationsquellen gleichzeitig verarbeiten. Und all diese Technologien weisen in dieselbe Richtung, nämlich auf die Interaktion zwischen intelligenten Agenten und der Außenwelt – vielleicht kann man sie als ein Übersetzungsprogramm zwischen KI und der Welt verstehen? Mit anderen Worten: Alles, was die Menschen getan haben, ist, „dieser Person“ ein besseres Übersetzungsprogramm zu geben, anstatt ihr Chinesisch beizubringen (was natürlich unmöglich ist). Daher besteht zwischen allgemeiner Intelligenz, die bereits eine sehr mysteriöse Sache ist, und starker künstlicher Intelligenz noch immer eine klare Grenze. Verzweifelt starke KI: Fähigkeit und Bewusstsein können grundverschieden sein Lassen Sie uns das Experiment mit dem Chinesischen Zimmer auf die Spitze treiben und den gesamten Raum in das Gehirn einer Person verlegen. Wenn eine Person alle Übersetzungsprogramme auswendig kann und sich die entsprechenden Antworten merken und aufschreiben kann, wenn sie ein chinesisches Wort sieht, bedeutet das dann, dass sie Chinesisch versteht? Für Menschen ist es möglicherweise ein natürliches Verständnis von Chinesisch. Doch egal, wie schnell der Vorgang abläuft und wie empfindlich die Reaktion ist, die Maschine versteht kein einziges chinesisches Schriftzeichen. Genauer gesagt erwirbt diese Person (der Agent) die Fähigkeit, Chinesisch zu verwenden, aber er (es) hat keine Kenntnisse über Chinesisch. Die Unterscheidung zwischen Fähigkeit und Bewusstsein ist das verwirrendste Thema, wenn wir uns eine zukünftige Superintelligenz vorstellen. Aus der Perspektive realistischer logischer Argumentation können wir jedoch feststellen, dass die beiden sehr unterschiedlich sind und fast nichts miteinander zu tun haben. Künstliche Intelligenztechnologien wie Wissensrepräsentation, maschinelles Lernen, NLP usw. stärken zwar ständig die Fähigkeit künstlicher Intelligenz, Menschen zu imitieren (dieser Satz ist etwas verwirrend), aber die Fähigkeit künstlicher Intelligenz, das menschliche Bewusstsein zu imitieren, ist bis jetzt noch eine Lücke. Ohne Ursache gibt es keine Wirkung. Die „Chinesische Raumtheorie“ besagt, dass es angesichts der technologischen Entwicklung der Menschheit immer an den Grundvoraussetzungen für die Entstehung des Bewusstseins intelligenter Wesen mangeln wird. Wenn diese Schlussfolgerung zutrifft, dann wäre die Entwicklung einer starken künstlichen Intelligenz äußerst hoffnungslos. Sie können nur im langen Fluss von Zeit und Raum weiterschlafen. In der menschlichen Vorstellung sind sie wie antike Götter und Geister in urbanen Legenden. Wenn ich darüber nachdenke, finde ich es immer noch ziemlich langweilig. Als Gewinner des Qingyun-Plans von Toutiao und des Bai+-Plans von Baijiahao, des Baidu-Digitalautors des Jahres 2019, des beliebtesten Autors von Baijiahao im Technologiebereich, des Sogou-Autors für Technologie und Kultur 2019 und des einflussreichsten Schöpfers des Baijiahao-Vierteljahrs 2021 hat er viele Auszeichnungen gewonnen, darunter den Sohu Best Industry Media Person 2013, den dritten Platz beim China New Media Entrepreneurship Competition Beijing 2015, den Guangmang Experience Award 2015, den dritten Platz im Finale des China New Media Entrepreneurship Competition 2015 und den Baidu Dynamic Annual Powerful Celebrity 2018. |
<<: Selbstfahrende Autos müssen 15 Herausforderungen meistern, bevor sie „allen helfen“ können
„Metaverse“ ist in letzter Zeit ein heißes Wort. ...
Der Passenger Car New Four Modernizations Index, ...
===...
Wenn das Wetter wärmer wird, beginnt die aktive P...
Mit zunehmendem Alter werden unsere Gesichtsmuske...
Anmerkung des Herausgebers: Am 30. Mai öffnet das...
Ich glaube nicht, dass mein Leben unorthodox ist....
Kürzlich gab es Neuigkeiten, dass Meizu bei Tmall...
In den letzten Jahren hat der Markt für native KI...
Viele Leute haben mich konsultiert und gefragt, w...
Heutzutage legen immer mehr Menschen Wert auf Spo...
Die aktuelle Situation der Epidemieprävention und...
Unsere traditionelle Fähigkeit bei „Bowu“ besteht...
Chinesen legen Wert auf die Bedeutung ihrer Namen...