Wie weit sind wir von AGI entfernt? Das große Modell ist nicht die endgültige Lösung, das Weltmodell ist die Zukunft

Wie weit sind wir von AGI entfernt? Das große Modell ist nicht die endgültige Lösung, das Weltmodell ist die Zukunft

In Science-Fiction-Filmen sind KI-Systeme wie JARVIS nahezu allmächtig und die ultimativen Assistenten, die Menschen bei der Lösung verschiedener schwieriger Probleme unterstützen.

Dahinter steht das Streben der Menschen nach der fortschrittlichsten KI, einem Konzept namens Artificial General Intelligence (AGI).

Das Konzept der AGI lässt sich bis in die Mitte des 20. Jahrhunderts zurückverfolgen, als viele Informatiker und KI-Forscher begannen, darüber nachzudenken, wie man Computerprogramme mit menschenähnlicher Intelligenz erstellen könnte. Im Gegensatz zu eng gefassten KI-Systemen, die sich auf die Lösung spezifischer Aufgaben konzentrieren, ist AGI mit umfassenderen kognitiven Fähigkeiten und Denkfähigkeiten ausgestattet und kann lernen, sich anpassen und Aufgaben in mehreren Bereichen ausführen.

Allerdings konzentrierte sich die KI-bezogene Forschung lange Zeit hauptsächlich auf die Lösung spezifischer Probleme und Aufgaben, während die Realisierung von AGI immer als komplexeres und weiter entferntes Ziel angesehen wurde.

Kürzlich hat Dr. Valentino Zocca, Vizepräsident für Datenwissenschaft bei der Citibank, einen Artikel mit dem Titel „How far are we from AGI?“ (Wie weit sind wir von AGI entfernt?) verfasst, in dem er eine eingehende Analyse von AGI und anderen wichtigen damit verbundenen Themen bietet . Die Kerngedanken sind folgende:

Im Vergleich zur aktuellen schwachen KI muss AGI in der Lage sein, in mehreren kognitiven Domänen zu schlussfolgern und zu lernen. Allerdings sind auf dem Weg zur AGI noch viele Herausforderungen zu bewältigen, etwa der Aufbau eines Weltmodells und die Durchführung kausaler Schlussfolgerungen.

Große Sprachmodelle wie GPT-4 zeichnen sich durch die Lösung spezifischer Aufgaben und das Extrahieren kausaler Beziehungen aus, verfügen jedoch nicht über die Fähigkeit zum abstrakten kausalen Denken. Sie neigen dazu, bekannte kausale Muster aus den Daten zu extrahieren und schaffen es nicht, neue kausale Erkenntnisse zu gewinnen.

Einige Forscher glauben, dass vorhandene große Sprachmodelle (wie GPT-4) ein Schritt in Richtung AGI sein könnten, es gibt jedoch noch viele ungelöste Probleme, wie etwa die Erstellung von Weltmodellen, die Ermöglichung der Selbsterkundung und die Durchführung kausaler Deduktion.

Große Sprachmodelle sind gut darin, kausale Zusammenhänge aus Daten zu erkennen und zu extrahieren, ihnen fehlt jedoch die Fähigkeit, aktiv und selbstständig neue kausale Szenarien abzuleiten. Sie sind in der Lage, aus Beobachtungen kausale Schlussfolgerungen zu ziehen, jedoch nicht, kausale Schlussfolgerungen zu ziehen.

KI ist möglicherweise nicht in der Lage, wirklich zu „lernen“, sondern lediglich Informationen oder Erfahrungen zu destillieren. Anstatt ein umfassendes Modell der Welt zu erstellen, erstellt die KI eine Zusammenfassung.

Indem KI Punktzahlen als Zeichen von Fähigkeiten verwendet, ist es so, als ob sie nur einen groben Überblick über die Welt hätte, ohne das Wesen der Welt als Ganzes wirklich zu verstehen.

Wir sollten Intelligenz nicht nur als abstrakte Fähigkeit betrachten, Lösungen für allgemeine Probleme zu finden, sondern als konkrete Fähigkeit, aus früheren Erfahrungen erlernte Lösungen auf unterschiedliche Situationen anzuwenden, die in unserer Umgebung auftreten können.

Wir werden AGI nur dann wirklich erreichen, wenn wir ein System schaffen können, das an seiner eigenen Realität zweifeln, sich selbst erforschen und zumindest kausale Deduktion anwenden kann, um ein vernünftiges Modell der Welt zu erstellen. Academic Headlines hat eine einfache Übersetzung vorgenommen, ohne die Hauptbedeutung des Originaltextes zu verändern. Der Inhalt ist wie folgt:

Vor etwa 200.000 Jahren begannen wir Menschen, die Erde zu bevölkern und die Bereiche des Denkens und Wissens zu erkunden. Dieser Abschnitt der Menschheitsgeschichte wurde durch eine Reihe von Entdeckungen und Erfindungen geprägt. Einige dieser Faktoren haben nicht nur den Verlauf unserer Geschichte beeinflusst, sondern auf subtile Weise auch unsere Biologie. So ermöglichte beispielsweise die Entdeckung des Feuers unseren Vorfahren das Kochen von Nahrungsmitteln. Dadurch wurde die Wärme nicht nur auf den Verdauungstrakt, sondern auch auf die Entwicklung des Gehirns übertragen, was wiederum die Weiterentwicklung der menschlichen Intelligenz vorantrieb.

Von der Erfindung des Rades bis zur Geburt der Dampfmaschine läutete die Menschheit die industrielle Revolution ein. Während dieser transformativen Zeit hat die Elektrizität den technologischen Fortschritt, den wir heute kennen, erheblich erleichtert. Die Druckerpresse beschleunigte die weite Verbreitung neuer Ideen und neuer Kultur und steigerte das Innovationstempo weiter.

Der menschliche Fortschritt beruht jedoch nicht nur auf der Entdeckung neuer Materialien, sondern auch auf neuen Ideen. Die Geschichte der sogenannten westlichen Welt, vom Untergang des Römischen Reiches bis zum Mittelalter, mit einer Wiedergeburt während der Renaissance und der Aufklärung, betont die zentrale Bedeutung des menschlichen Denkens und nicht die der sogenannten allmächtigen Götter. Mit dem Fortschritt des menschlichen Wissens begannen die Menschen jedoch, ihre eigene Bedeutungslosigkeit zu erkennen. In den zweitausend Jahren seit Sokrates haben die Menschen erkannt, dass sie „nichts wissen“, und unsere Erde wird nicht mehr als Mittelpunkt des Universums betrachtet. Das Universum selbst dehnt sich aus und wir sind nur ein Staubkorn darin.

Ändern Sie Ihre Wahrnehmung der Realität

Und doch dürfte das 20. Jahrhundert das Jahrhundert sein, über das im Hinblick auf die Neugestaltung unseres Weltverständnisses am meisten diskutiert wird. Im Jahr 1931 veröffentlichte Kurt Gödel seine Unvollständigkeitssätze.

Nur vier Jahre später schlugen Einstein, Boris Podolsky und Nathan Rosen das „EPR-Paradoxon“ in einem Artikel mit dem Titel „Kann die quantenmechanische Beschreibung der physikalischen Realität als vollständig angesehen werden?“ vor. zum Thema „Vollständigkeit“. Dieses Papier wurde später von Niels Bohr widerlegt, der die praktische Gültigkeit der Quantenphysik nachwies.

Gödels Unvollständigkeitssatz zeigt, dass selbst die Mathematik nicht alles endgültig beweisen kann und wir immer wieder mit Situationen konfrontiert werden, in denen es Fakten gibt, die nicht bewiesen werden können. Die Quantentheorie hingegen besagt, dass es in unserer Welt keinen Determinismus gibt und dass wir bestimmte Ereignisse, wie etwa die Geschwindigkeit und Position von Elektronen, nicht vorhersagen können, trotz Einsteins berühmter Aussage, dass „Gott nicht würfelt“. Grundsätzlich gehen unsere Grenzen über das bloße Vorhersagen oder Verstehen von Ereignissen im physischen Bereich hinaus. Selbst wenn wir versuchen würden, ein mathematisches Universum zu konstruieren, das vollständig von den Regeln unseres eigenen Handelns bestimmt wird, gäbe es immer noch unbestreitbare Fakten über dieses abstrakte Universum.

Doch neben mathematischen Aussagen ist unsere Welt voller philosophischer Aussagen, die Realitäten beschreiben, die wir nicht beschreiben, vollständig ausdrücken, verstehen oder auch nur definieren können.

Ähnlich wie die Unsicherheit um den Begriff der „Wahrheit“ im frühen 20. Jahrhundert fehlt es auch bei den Definitionen anderer Begriffe wie „Kunst“, „Schönheit“ und „Leben“ an einem grundlegenden Konsens. Dies sind jedoch keine Einzelfälle; Auch andere Begriffe wie „Intelligenz“ und „Bewusstsein“ befinden sich in diesem Dilemma.

Definition von Intelligenz

Um diese Lücke zu schließen, schlugen Legg und Hutter 2017 in „Universal Intelligence: A Definition of Machine Intelligence“ eine Definition von Intelligenz vor: „Intelligenz misst die Fähigkeit eines Agenten, Ziele in verschiedenen Umgebungen zu erreichen.“ In ähnlicher Weise argumentieren Hambrick, Burgoyne und Altmann in „Problemlösung und Intelligenz“, dass die Fähigkeit zur Problemlösung nicht nur ein Aspekt oder Merkmal der Intelligenz, sondern deren Wesen sei. Zwischen den beiden Aussagen bestehen wörtliche Ähnlichkeiten, da das Erreichen eines Ziels mit der Lösung eines Problems verknüpft sein kann.

Gottfredson fasste die Ansichten mehrerer Forscher in „Ein Leitartikel mit 52 Unterzeichnern“ zusammen: Intelligenz ist eine sehr allgemeine psychologische Fähigkeit, einschließlich der Fähigkeit, zu schlussfolgern, zu planen, Probleme zu lösen, abstrakt zu denken, komplexe Ideen zu verstehen, schnell zu lernen und aus Erfahrung zu lernen. Es geht um mehr als nur theoretisches Wissen, akademische Fertigkeiten oder Prüfungstechniken. Vielmehr spiegelt es eine umfassendere, tiefere Fähigkeit wider, die eigene Umgebung zu verstehen. Die Fähigkeit, Dinge zu „begreifen“ und zu „verstehen“ oder Wege zu finden, mit ihnen umzugehen.

Diese Definition führt zwei Schlüsseldimensionen ein, nämlich die Fähigkeit, aus Erfahrungen zu lernen und die eigene Umgebung zu verstehen, wodurch das Konzept der Intelligenz über bloße „Problemlösungsfähigkeiten“ hinausgeht. Mit anderen Worten: Wir sollten Intelligenz nicht nur als abstrakte Fähigkeit betrachten, Lösungen für allgemeine Probleme zu finden, sondern als konkrete Fähigkeit, aus früheren Erfahrungen erlernte Lösungen auf unterschiedliche Situationen anzuwenden, die in unserem Umfeld auftreten können.

Dies unterstreicht den inneren Zusammenhang zwischen Intelligenz und Lernen. In „Wie wir lernen“ definiert Stanislas Dehaene Lernen als „Lernen ist die Bildung eines Modells der Welt“. Das bedeutet, dass Intelligenz auch die Fähigkeit erfordert, unsere Umgebung zu verstehen und ein internes Modell zu ihrer Beschreibung zu entwickeln. Intelligenz erfordert daher auch die Fähigkeit, ein Modell der Welt zu erstellen, auch wenn diese Fähigkeit möglicherweise nicht umfassend ist.

Wie intelligent sind die Maschinen von heute?

Wenn wir über allgemeine AGI und eingeschränkte KI sprechen, betonen wir oft den Unterschied zwischen ihnen. Schwache KI (Narrow AI) ist weit verbreitet und erfolgreich und übertrifft bei bestimmten Aufgaben häufig die Leistung des Menschen. Ein gutes Beispiel hierfür ist der 4:1-Sieg von AlphaGo gegen den damaligen Go-Weltmeister Lee Sedol im Jahr 2016. Dennoch verdeutlichte ein Ereignis im Jahr 2023 einige der Grenzen der schwachen KI. In einem Go-Match gewann der Amateurspieler Kellin Perline mit einer Taktik, die die KI nicht bemerkt hatte. Offensichtlich fehlt der KI die menschliche Fähigkeit, ungewöhnliche Strategien zu erkennen und sich entsprechend anzupassen.

Tatsächlich können sogar unerfahrene Datenwissenschaftler auf der grundlegendsten Ebene verstehen, dass jedes maschinelle Lernmodell, auf dem KI basiert, selbst die einfachsten, ein Gleichgewicht zwischen Bias und Varianz finden muss. Dies bedeutet, dass KI aus Daten lernen muss, um Lösungen zu verstehen und zu verallgemeinern, anstatt sie auswendig zu lernen. Narrow AI nutzt die Rechenleistung und Speicherkapazität von Computern, um relativ einfach komplexe Modelle aus großen Mengen beobachteter Daten zu generieren. Allerdings versagen diese Modelle oft schon bei geringfügigen Änderungen der Bedingungen.

Es ist, als ob wir auf der Grundlage unserer Beobachtungen eine Gravitationstheorie entwickeln würden, die nur auf der Erde funktioniert, und dann feststellen würden, dass die Objekte auf dem Mond viel leichter sind. Wenn wir basierend auf unserem Wissen über die Gravitationstheorie Variablen anstelle von Zahlen verwenden, werden wir verstehen, wie wir die Stärke der Schwerkraft auf jedem Planeten oder Mond mithilfe der richtigen Werte schnell vorhersagen können. Wenn wir jedoch nur numerische Gleichungen ohne Symbole verwenden, können wir diese Gleichungen nicht korrekt auf andere Himmelskörper verallgemeinern, ohne sie neu zu schreiben.

Mit anderen Worten: KI ist möglicherweise nicht in der Lage, wirklich zu „lernen“, sondern lediglich Informationen oder Erfahrungen zu abstrahieren. Anstatt ein umfassendes Modell der Welt zu erstellen, erstellt KI eine Zusammenfassung .

Haben wir AGI wirklich erreicht?

Die allgemein verständliche Definition von AGI besteht darin, dass ein KI-System in der Lage ist, in mehreren kognitiven Bereichen auf menschlichem oder höherem Niveau zu verstehen und zu schlussfolgern. Dies steht in starkem Kontrast zu aktuellen Systemen mit eingeschränkter KI, wie etwa AlphaGo, die auf bestimmte Aufgaben spezialisiert sind. AGI bezeichnet ein KI-System, das über eine umfassende Intelligenz auf menschlichem Niveau verfügt und verschiedene Bereiche des abstrakten Denkens umfasst.

Wie bereits erwähnt, erfordert dies die Fähigkeit, ein Modell der Welt zu erstellen, das mit der Erfahrung übereinstimmt und genaue Annahmen über Vorhersagen ermöglicht.

Die meisten KI-Forscher und Experten sind sich einig, dass es bis zur tatsächlichen Einführung einer künstlichen Intelligenz noch mehrere Jahre dauern wird. Allerdings variieren die Vorhersagen darüber, wann dies der Fall sein wird. In dem Artikel „AGI Safety Literature Review“ erwähnen Everitt, Lea und Hutter: „Wir haben viele Forscher gefragt, und sie dachten, AGI könnte zwischen 2040 und 2061 auftauchen, aber die Vermutungen gingen weit auseinander. Manche dachten, es würde nie passieren, andere dachten, es könnte in den nächsten Jahren passieren.“ Zusammenfassend lässt sich sagen, dass AGI noch nicht angekommen ist.

Microsoft wies in seinem kürzlich veröffentlichten Papier „Sparks of Artificial General Intelligence: Early experiments with GPT-4“ darauf hin:

Wir argumentieren, dass GPT-4 Teil einer neuen Klasse von LLMs ist, die eine höhere allgemeine Intelligenz aufweisen als frühere KI-Modelle. Wir diskutieren die wachsenden Fähigkeiten und Auswirkungen dieser Modelle. Wir zeigen, dass GPT-4 nicht nur sprachlich kompetent ist, sondern auch neuartige und schwierige Aufgaben in Mathematik, Kodierung, Sehen, Medizin, Recht, Psychologie und mehr lösen kann, ohne dass besondere Eingabeaufforderungen erforderlich sind. Darüber hinaus erreicht GPT-4 bei all diesen Aufgaben Leistungen, die dem menschlichen Niveau sehr nahe kommen und frühere Modelle wie ChatGPT oft bei weitem übertreffen. Angesichts der Leistungsfähigkeit von GPT-4 halten wir es für vernünftig, es als eine nahezu (aber noch unvollständige) Version eines Systems künstlicher allgemeiner Intelligenz (AGI) zu betrachten.

was ist das Problem? Microsoft ist Partner von OpenAI.

In einem Artikel der New York Times wurde Maarten Sap, Professor an der Carnegie Mellon University, mit den Worten zitiert: „Dies ist ein Beispiel dafür, wie einige dieser großen Unternehmen das Format von Forschungsarbeiten für PR-Zwecke nutzen.“ In einem Interview mit IEEE Spectrum betonte der Forscher und Robotikunternehmer Rodney Brooks, dass wir bei der Bewertung der Fähigkeiten von Systemen wie ChatGPT oft „Leistung mit Fähigkeit verwechseln“ .

Anders ausgedrückt: Wenn man Punktzahlen als Zeichen von Fähigkeiten verwendet, ist es so, als ob die KI nur einen groben Überblick über die Welt hätte, ohne das Wesen der Welt als Ganzes wirklich zu verstehen.

Ein wichtiges Problem der KI sind ihre Trainingsdaten. Die meisten Modelle werden nur anhand von Texten trainiert und können weder sprechen, hören, riechen noch in der realen Welt leben. Wie ich bereits zuvor angedeutet habe, ähnelt diese Situation ein wenig Platons Höhlengleichnis. In dieser Geschichte können die Menschen nur Schatten an den Höhlenwänden sehen und die reale Welt nicht direkt erleben. Selbst wenn sie ein Weltmodell erstellen könnten, wäre ihre Welt eine rein textuelle Welt, syntaktisch korrekt, aber semantisch nicht umfassend. In dieser Umgebung fehlt der „gesunde Menschenverstand“, der aus der direkten Wahrnehmung entsteht, daher scheint sie unauffällig.

Was sind die Haupteinschränkungen großer Sprachmodelle?

Eine weitere der umstrittensten Herausforderungen für Large Language Models (LLMs) wie ChatGPT oder GPT-4 besteht darin, dass sie anfällig für Halluzinationen sind. Von Halluzinationen spricht man, wenn diese Modelle falsche Zitate und Fakten erstellen, die manchmal überhaupt keinen Sinn ergeben. Halluzinationen treten auf, weil ihnen das Verständnis für Ursache und Wirkung von Ereignissen fehlt.

In dem Artikel „Ist ChatGPT ein guter Kausalschlussfolger? Eine umfassende Bewertung“ kommen die Autoren zu dem Schluss, dass „ ChatGPT unter dem schwerwiegenden Problem der Kausalillusion leidet und dazu neigt, kausale Zusammenhänge zwischen Ereignissen anzunehmen, unabhängig davon, ob diese Zusammenhänge tatsächlich bestehen .“ Sie erklären weiter: „ChatGPT ist kein guter Kausalschlussfolgerer, aber ein guter Kausalerklärer“, und betonen erneut seine Fähigkeit, beim Erklären Zusammenhänge zu extrahieren, aber seine Unfähigkeit, diese Zusammenhänge durch den Aufbau eines bestehenden Modells der Welt abzuleiten, in dem diese Zusammenhänge natürlicherweise existieren. Obwohl sich dieser Beitrag auf ChatGPT konzentriert, kann er auf alle LLMs erweitert werden.

Grundsätzlich können wir feststellen, dass LLMs zwar gut darin sind, kausale Beziehungen aus Daten zu erkennen und zu extrahieren, ihnen jedoch die Fähigkeit fehlt, aktiv und selbstständig über neue kausale Szenarien nachzudenken . Sie sind in der Lage, aus Beobachtungen kausale Schlussfolgerungen zu ziehen, jedoch nicht, kausale Schlussfolgerungen zu ziehen.

Diese Unterscheidung verdeutlicht eine Einschränkung: Das System kann kausale Muster erkennen, es fehlt ihm jedoch die Fähigkeit, abstrakte kausale Schlussfolgerungen zu ziehen. Es werden keine neuen kausalen Erkenntnisse gewonnen, sondern lediglich kausale Zusammenhänge aus den Daten erklärt.

Wenn Intelligenz jedoch Lernen aus Erfahrung erfordert und Lernen in der Schaffung eines Modells der Welt besteht, das wir zum Verständnis unserer Umgebung verwenden können, dann stellt die kausale Deduktion ein wesentliches Element des Lernens und damit der Intelligenz dar, ein Aspekt, der in bestehenden Modellen fehlt . Dies ist einer der wichtigsten Schritte auf unserem Weg zur AGI.

abschließend

Wie das frühe 20. Jahrhundert gezeigt hat, unterscheidet sich die Realität oft von den Intuitionen, die wir aufgrund alltäglicher Beobachtungen bilden. So wie Physiker im frühen 20. Jahrhundert Schwierigkeiten hatten, die Quantenmechanik zu verstehen, weil sie der menschlichen Intuition widersprach, sind die KI-Systeme, die wir heute bauen, auf einen kleinen Ausschnitt der Realität beschränkt, der sogar noch enger ist als das, was wir Menschen erfahren können.

So wie wir irgendwann eine Realität verstehen, die unserer Alltagserfahrung widerspricht, werden wir AGI erst dann wirklich erreichen, wenn wir ein System schaffen können, das an seiner eigenen Realität zweifeln, sich selbst erforschen und zumindest kausale Deduktion anwenden kann, um ein vernünftiges Modell der Welt zu erstellen .

Diese Aussicht könnte ein Zeichen dafür sein, dass wir in eine neue Phase der Menschheitsgeschichte eintreten, in der wir beginnen zu akzeptieren, dass unsere Bedeutung im Universum abnimmt.

Originalartikel von Valentino Zocca

Originallink: https://aisupremacy.substack.com/p/how-far-are-we-from-agi

Zusammengestellt von: Yun Jing

<<:  Dies ist möglicherweise die gründlichste „Ganzkörperuntersuchung“ der Welt …

>>:  In einem Hochhaus in Tianjin ist ein Feuer ausgebrochen. Wie sollen wir entkommen, wenn in einem Hochhaus ein Feuer ausbricht?

Artikel empfehlen

„Demon Nickel“, komm mit mir zurück zur Erde!

Letzte Woche kam es aufgrund der aktuellen Spannu...

Ihre Katze starrt Sie an, will sie Sie tatsächlich fressen?

Während sie versuchen, mit ihren Katzen auszukomm...

Wie trainiert man die Beinexplosivität?

Es ist am besten, die Methoden des explosiven Kra...

Wie trainiert man richtig mit Hanteln?

Im Alltag sind die meisten Menschen mit Hanteln v...