Der Infinite-Monkey-Theorem besagt, dass ein Affe, wenn man ihm erlaubte, unendlich lange beliebig viele Tasten auf einer Schreibmaschine zu drücken, mit ziemlicher Sicherheit in der Lage wäre, jeden beliebigen Text zu tippen , beispielsweise die Gesamtwerke Shakespeares. In diesem Theorem ist „fast sicher“ ein mathematischer Begriff mit einer bestimmten Bedeutung, und „Affe“ bezieht sich nicht auf einen echten Affen, sondern wird verwendet, um ein abstraktes Gerät zu bezeichnen, das eine unendliche Folge zufälliger Buchstaben erzeugen kann. Abbildung | Ein Schimpanse, der zufällig tippt, kann mit genügend Zeit mit ziemlicher Sicherheit jedes Buch in der französischen Nationalbibliothek tippen. (Quelle: Wikipedia) Diese Theorie zeigt, dass es falsch ist, zu schlussfolgern, dass eine große, aber endliche Zahl unendlich ist. Selbst wenn das beobachtbare Universum voller Affen wäre, die ununterbrochen tippen, wäre die Wahrscheinlichkeit, dass sie einen „Hamlet“ tippen können, immer noch geringer als 1/10^183800. Und selbst wenn man unzähligen Affen unendlich viel Zeit gäbe, würden sie nicht lernen, die poetischen Worte eines Barden zu schätzen . „ Dasselbe gilt für künstliche Intelligenz (KI) “, sagte Michael Wooldridge, Professor für Informatik an der Universität Oxford. Foto: Michael Wooldridge Obwohl KI-Modelle wie GPT-3 mithilfe von Dutzenden oder Hunderten von Milliarden Parametern erstaunliche Fähigkeiten gezeigt haben, liegt ihr Problem nach Wooldridges Ansicht nicht in der Größe der Verarbeitungsleistung, sondern im Mangel an Erfahrung aus der realen Welt . Beispielsweise könnte ein Sprachmodell „Regen ist nass“ sehr gut lernen und auf die Frage, ob Regen nass oder trocken ist, wahrscheinlich antworten, dass Regen nass ist. Anders als Menschen hat dieses Sprachmodell jedoch nie das Gefühl von „nass“ erlebt. Für sie ist „nass“ nur ein Symbol, das oft in Verbindung mit Wörtern wie „Regen“ verwendet wird . Wooldridge betonte jedoch auch, dass mangelndes Wissen über die reale physikalische Welt KI-Modelle nicht nutzlos mache und sie auch nicht daran hindere, auf einem bestimmten Gebiet zu einem empirischen Experten zu werden. Allerdings sei es in der Tat zweifelhaft, ob KI-Modelle in Fragen wie dem Verständnis über dieselben Fähigkeiten wie Menschen verfügten. Die zugehörige Forschungsarbeit mit dem Titel „Was fehlt der modernen KI? Die Welt“ wurde in der Zeitschrift Intelligent Computing veröffentlicht. In der aktuellen Welle der KI-Innovation sind Daten und Rechenleistung zur Grundlage für den Erfolg von KI-Systemen geworden: Die Fähigkeiten von KI-Modellen sind direkt proportional zu ihrer Größe, den für ihr Training verwendeten Ressourcen und der Größe der Trainingsdaten. Zu diesem Phänomen erklärte der DeepMind-Forscher Richard S. Sutton zuvor , die „schmerzhafte Lektion“ der KI bestehe darin, dass ihr Fortschritt hauptsächlich auf die Verwendung immer größerer Datensätze und immer mehr Rechenressourcen zurückzuführen sei. Abbildung|KI-generierte Werke (Quelle: Wired) Als er über die allgemeine Entwicklung der KI-Branche sprach, reagierte Wooldridge positiv. „In den letzten 15 Jahren hat mich das Tempo des Fortschritts in der KI-Branche und insbesondere im Bereich des maschinellen Lernens (ML) immer wieder überrascht: Wir müssen unsere Erwartungen ständig anpassen, um festzustellen, was möglich ist und wann es realisiert werden könnte.“ Wooldridge wies jedoch auch auf die Probleme der aktuellen KI-Branche hin. „Obwohl ihre Leistungen lobenswert sind, glaube ich, dass die meisten aktuellen ML-Modelle im großen Maßstab durch einen Schlüsselfaktor eingeschränkt sind: KI-Modelle haben die reale Welt nicht wirklich erlebt. Nach Wooldridges Ansicht werden die meisten ML-Modelle in virtuellen Welten wie Videospielen erstellt . Sie können anhand riesiger Datensätze trainiert werden, doch sobald sie auf die physische Welt angewendet werden, gehen wichtige Informationen verloren und sie sind lediglich KI-Systeme, die vom Wesen losgelöst sind . Nehmen Sie die künstliche Intelligenz, die selbstfahrende Autos antreibt. Es ist nicht realistisch, dass selbstfahrende Autos auf der Straße selbstständig lernen. Aus diesem und anderen Gründen entscheiden sich Forscher oft dafür, ihre Modelle in virtuellen Welten zu erstellen. „ Aber sie verfügen einfach nicht über die Kapazität, in der wichtigsten Umgebung überhaupt zu agieren, nämlich unserer Welt “, sagte Wooldridge. (Quelle: Wikimedia Commons) Andererseits unterliegen Sprach-KI-Modelle denselben Einschränkungen. Man könnte argumentieren, dass sie sich von einer lächerlich schlechten Textvorhersage zu Googles LAMDA entwickelt haben. Anfang des Jahres machte ein ehemaliger Google-Ingenieur Schlagzeilen, als er behauptete, das künstliche Intelligenzprogramm LAMDA sei empfindungsfähig. „Unabhängig von der Gültigkeit der Schlussfolgerungen dieses Ingenieurs ist klar, dass er von LAMDAs Konversationsfähigkeiten beeindruckt war – und das aus gutem Grund“, sagte Wooldridge, aber er glaubt nicht, dass LAMDA empfindungsfähig ist, noch ist die KI auch nur annähernd in der Nähe eines solchen Meilensteins. „Diese Basismodelle weisen beispiellose Fähigkeiten bei der Generierung natürlicher Sprache auf, können relativ natürlich klingende Textausschnitte generieren und scheinen über einige Fähigkeiten zum gesunden Menschenverstand zu verfügen, was eines der wichtigsten Ereignisse in der KI-Forschung der letzten 60 Jahre ist.“ Diese KI-Modelle erfordern umfangreiche Eingabeparameter und werden darauf trainiert, diese zu verstehen. Beispielsweise wurde GPT-3 mit Hunderten Milliarden englischer Texte aus dem Internet trainiert. Riesige Mengen an Trainingsdaten in Kombination mit enormer Rechenleistung ermöglichen es diesen KI-Modellen, sich ähnlich wie das menschliche Gehirn zu verhalten. Sie gehen über enge Aufgaben hinaus und beginnen, Muster zu erkennen und Verbindungen herzustellen, die scheinbar nichts mit der Hauptaufgabe zu tun haben. (Quelle: OpenAI) Wooldridge sagte jedoch, dass die zugrunde liegenden Modelle darauf basieren, dass sie „anhand riesiger Datenmengen trainiert werden, um in einer Reihe von Domänen über nützliche Fähigkeiten zu verfügen und dann für bestimmte Anwendungen spezialisiert werden können.“ Symbolische KI basiert auf der Annahme, dass Intelligenz hauptsächlich ein Wissensproblem ist , während das zugrunde liegende Modell davon ausgeht, dass Intelligenz hauptsächlich ein Datenproblem ist . Man geht davon aus, dass die Eingabe ausreichender Trainingsdaten in ein großes Modell dessen Fähigkeiten verbessern kann. Wooldridge ist der Ansicht , dass dieser „Macht ist Recht“-Ansatz zwar die Größe von KI-Modellen weiter ausweitet, um intelligentere KI zu produzieren, dabei aber das reale Wissen über die physikalische Welt ignoriert, das für eine echte Weiterentwicklung der KI erforderlich ist. „Um fair zu sein, es gibt einige Anzeichen dafür, dass sich dies ändert“, sagte Wooldridge. Im Mai dieses Jahres kündigte DeepMind Gato an, ein grundlegendes Modell, das auf großen Sprachsätzen und Robotikdaten basiert und in einfachen physischen Umgebungen funktionieren kann. „Es ist großartig zu sehen, wie die grundlegenden Modelle ihre ersten Schritte in der physischen Welt machen, aber es ist nur ein kleiner Schritt: Die Herausforderungen, KI in unserer Welt zum Laufen zu bringen, sind mindestens genauso groß wie die, sie in der Simulation zum Laufen zu bringen, und wahrscheinlich sogar noch größer.“ Am Ende des Papiers schrieb Wooldridge: „Wir suchen nicht nach dem Ende des Weges zur KI, aber möglicherweise haben wir das Ende des Weges bereits am Anfang erreicht.“ Was denkst du darüber? Hinterlassen Sie gerne eine Nachricht im Kommentarbereich. Quellen: https://spj.sciencemag.org/journals/icomputing/2022/9847630/ https://www.eurekalert.org/news-releases/966063 |
>>: Wie leistungsstark ist Chinas Windkanal, der 35-mal schneller als der Schall ist?
Die Analyse des „Jahresberichts“ geht davon aus, ...
Yin Yoga ist eine Übungsform, die erst in den let...
Prüfungsexperte: Zhou Jiaojiao Außerordentlicher ...
Kürzlich hat Chevrolet den Preis des Chevrolet Eq...
Die aktuelle Situation im südpazifischen Inselsta...
Badminton ist ein weit verbreiteter Sport. Sowohl...
Wie das Sprichwort sagt: „Der Mensch ist Eisen un...
Apropos Golf: Früher dachten die Leute, es sei ei...
Viele Freunde, die abnehmen möchten, haben möglic...
Der Plan zum Bodyweight-Training interessiert all...
Der Frühling des B2B ist da. Dies war Ende 2015 u...
Im heißen Sommer sind viele Menschen anfällig für...
Tatsächlich wird unsere körperliche Fitness bei u...
Beim iPhone 6S, bei dem sich „nur alles geändert ...
Mädchen möchten einen sexy Körper, während manche...