Trotz des scheinbaren Wohlstands ist die Entwicklung der künstlichen Intelligenz in Schwierigkeiten geraten

Trotz des scheinbaren Wohlstands ist die Entwicklung der künstlichen Intelligenz in Schwierigkeiten geraten

Das Magazin Wired berichtete in seiner kürzlich erschienenen Dezemberausgabe in Form einer Titelgeschichte über die Entwicklung der künstlichen Intelligenz. Nun steht Deep Learning vor dem Dilemma, dass es nicht in der Lage ist, logisches Denken zu entwickeln. Das bedeutet, dass es Maschinen nicht zu einer menschenähnlichen Intelligenz verhelfen kann. Doch wie sieht echtes Denken bei einer Maschine aus? Wenn Deep Learning uns nicht dabei helfen kann, unsere Ziele zu erreichen, was dann? Der Autor des Artikels ist Clive Thompson (@pomeranian99) und der Originaltitel lautet „Wie man künstlicher Intelligenz gesunden Menschenverstand beibringt“.

eins,

Vor fünf Jahren beobachteten Programmierer bei DeepMind, einem in London ansässigen Unternehmen für künstliche Intelligenz, voller Spannung, wie eine KI sich selbst das Spielen eines klassischen Arcade-Spiels beibrachte. Sie nutzten eine der derzeit angesagtesten Technologien – Deep Learning –, um Breakout bei einer scheinbar „fantastischen“ Aufgabe zu meistern.

Dies ist ein von Atari entwickeltes Spiel. Im Spiel müssen Sie die Platte unten bewegen, um den Ball nach oben springen zu lassen und dann alle darüber liegenden Steine ​​umzuwerfen.

Deep Learning ist eine Möglichkeit für Maschinen, sich selbst etwas beizubringen. man füttert die KI mit Unmengen an Daten und sie erkennt selbstständig Muster. In diesem Spiel sind die Daten die Aktivität auf dem Bildschirm – Pixelblöcke, die Steine, Bälle und Spielerpads darstellen.

Die KI von DeepMind, ein neuronales Netzwerk aus mehrschichtigen Algorithmen, weiß nichts über die Funktionsweise von Breakout, seine Regeln, seine Ziele oder auch, wie es gespielt werden soll. Der Encoder ermöglicht es dem neuronalen Netzwerk einfach, bei jedem Aufprall des Balls die Ergebnisse jeder Aktion zu überprüfen. Wohin führt das?

Es stellt sich heraus, dass es einige ziemlich beeindruckende Fähigkeiten hat. In den ersten Spielen hat die KI lediglich das untere Tablet gesteuert und bewegt. Aber nachdem ich ihn ein paar hundert Mal gespielt hatte, begann er, den Ball präzise zu prellen. Im 600. Spiel hatte das neuronale Netzwerk eine Technik verwendet, die auch von erfahrenen menschlichen Breakout-Spielern verwendet wird. Dabei hatte es die gesamte Ziegelreihe abgetragen und den Ball oben auf der Mauer entlangspringen lassen.

„Das ist eine große Überraschung für uns“, sagte DeepMind-CEO Demis Hassabis damals. „Diese Strategie kommt vollständig aus dem zugrunde liegenden System.“

Die KI, die gezeigt hat, dass sie so subtil denken kann wie ein Mensch, hat die inneren Konzepte hinter Breakout verstanden. Da neuronale Netzwerke die Struktur des menschlichen Gehirns grob widerspiegeln, sollten sie theoretisch einige Aspekte unseres eigenen kognitiven Stils nachahmen. Dieser Moment schien die Richtigkeit dieser Theorie zu bestätigen.

Letztes Jahr führten Informatiker von Vicorance, einem in San Francisco ansässigen Unternehmen für künstliche Intelligenz, einen interessanten Realitätscheck durch. Sie nahmen eine KI, die der von DeepMind verwendeten ähnelte, und trainierten sie auf Breakout.

Die Ergebnisse waren großartig. Aber dann haben sie das Layout des Spiels ein wenig optimiert. In einer Iteration haben sie die Platte höher angehoben; in einem anderen Fall fügten sie darüber eine unzerbrechliche Zone hinzu.

Menschliche Spieler können sich schnell an diese Veränderungen anpassen, neuronale Netzwerke hingegen nicht. Diese scheinbar intelligente KI kann nur die Breakout-Methode anwenden, die sie in Hunderten von Spielen perfektioniert hat. Es kann mit neuen Änderungen nicht umgehen.

„Wir Menschen sind mehr als nur Mustererkenner“, sagte mir Dileep George, Informatiker und einer der Mitbegründer von Vicarious. „Wir erstellen auch Modelle dessen, was wir sehen. Dabei handelt es sich um kausale Modelle – auf der Grundlage unseres Verständnisses von Ursache und Wirkung.“

Der Mensch ist in der Lage, über die Welt um ihn herum nachzudenken und logische Schlussfolgerungen zu ziehen. Außerdem verfügen wir über einen großen gesunden Menschenverstand, der uns hilft, neue Situationen zu erkennen. Wenn wir ein Breakout-Spiel sehen, das sich leicht von dem unterscheidet, das wir gerade gespielt haben, stellen wir fest, dass es wahrscheinlich ungefähr dieselben Regeln und Ziele hat.

Andererseits wissen neuronale Netzwerke nichts über Breakout. Es kann nur dem Muster folgen. Wenn sich das Muster ändert, kann es nichts tun.

Deep Learning ist die Königin der künstlichen Intelligenz. In den sechs Jahren seit seiner Einführung im Mainstream ist es zum wichtigsten Mittel geworden, Maschinen dabei zu helfen, die Welt um sie herum wahrzunehmen und zu verstehen.

Es ist die Grundlage für die Spracherkennung von Alexa, die selbstfahrenden Autos von Waymo und die Sofortübersetzung von Google. In gewisser Weise stellt das Uber-Netzwerk auch ein riesiges Optimierungsproblem dar, da es maschinelles Lernen nutzt, um herauszufinden, wo die Fahrgäste Autos benötigen. Beim chinesischen Technologieriesen Baidu arbeiten mehr als 2.000 Ingenieure an künstlicher Intelligenz auf Basis neuronaler Netzwerke.

Im Laufe der Jahre schien das Deep Learning immer besser zu werden und unaufhaltsam zu Maschinen mit einer ebenso flüssigen und flexiblen Intelligenz wie der unseren zu führen.

Manche glauben jedoch, dass Deep Learning auf Schwierigkeiten stößt. Dadurch allein, so sagen sie, werde man nie Intelligenz im weiteren Sinne hervorbringen, denn wahre, menschenähnliche Intelligenz beinhalte mehr als nur die bloße Mustererkennung.

Wir müssen anfangen herauszufinden, wie wir der KI gesunden Menschenverstand verleihen können. Wenn uns das nicht gelingt, so warnen sie, werden wir immer wieder an die Grenzen des Deep Learning stoßen, genauso wie visuelle Erkennungssysteme leicht durch die Änderung einiger Eingaben getäuscht werden können – zum Beispiel, indem man ein Deep-Learning-Modell dazu bringt, zu denken, eine Schildkröte sei eine Waffe.

Sollten wir jedoch Erfolg haben, so sagen sie, könnten wir eine explosionsartige Zunahme sicherer und nützlicherer Geräte erleben – etwa medizinische Roboter, die sich frei durch überfüllte Häuser bewegen, Betrugserkennungssysteme, die keine Fehlalarme liefern und vieles mehr.

Doch wie sieht echtes Denken bei einer Maschine aus? Wenn Deep Learning uns nicht dabei helfen kann, unsere Ziele zu erreichen, was dann?

zwei,

Gary Marcus ist ein bebrillter, besorgter 48-jähriger Professor für Psychologie und Neurowissenschaften an der New York University. Er ist wahrscheinlich der berühmteste Kritiker des Deep Learning.

Marcus begann sich in den 1980er und 1990er Jahren für künstliche Intelligenz zu interessieren, als neuronale Netzwerke noch experimentell waren, und er vertritt seitdem immer noch dieselben Argumente.

„Ich war nicht nur zu spät, ich habe auch noch versucht, auf der Party zu pinkeln“, erzählte mir Marcus, als ich ihn in seiner Wohnung in der Nähe der New York University traf. (Wir sind auch persönliche Freunde.) „Als Deep Learning zum ersten Mal so richtig durchstartete, dachte ich: ‚Das ist die falsche Richtung, Leute!‘“

Die Strategien hinter Deep Learning waren damals dieselben wie heute. Nehmen wir an, Sie möchten, dass eine Maschine sich selbst beibringt, Gänseblümchen zu erkennen. Zuerst müssen Sie einige algorithmische „Neuronen“ schreiben und diese Schicht für Schicht wie ein Sandwich verbinden (wenn Sie mehrere Schichten verwenden, wird das Sandwich dicker oder tiefer – daher der Begriff „Deep Learning“).

Sie geben das Bild einer Gänseblume in die erste Schicht ein und ihre Neuronen treffen Entscheidungen basierend darauf, ob das Bild früheren Gänseblümchenbeispielen ähnelt, die sie gesehen hat. Das Signal bewegt sich dann zur nächsten Schicht, wo sich der Vorgang wiederholt. Diese Schichten führen schließlich zu einer Schlussfolgerung.

Zunächst rät das neuronale Netzwerk nur; Es beginnt sein Leben mehr oder weniger mit einem leeren Blatt. Der Schlüssel liegt darin, eine nützliche Feedbackschleife zu schaffen. Jedes Mal, wenn es der KI nicht gelang, ein Gänseblümchen zu identifizieren, schwächte dieser Satz neuronaler Verbindungen die Verbindung, die zu der falschen Vermutung führte; wenn es erfolgreich war, hat es es gestärkt.

Mit genügend Zeit und genügend Gänseblümchenbeispielen wird das neuronale Netzwerk genauer. Es lernte, Muster in einigen Gänseblümchen zu erkennen, sodass es jedes Mal ein Gänseblümchen (und nicht eine Sonnenblume oder Chrysantheme) erkannte.

Diese Kernidee – mit einem einfachen Netzwerk zu beginnen und es wiederholt zu trainieren – wurde im Laufe der Zeit verbessert und scheint fast überall anwendbar zu sein.

Aber Marcus war nie überzeugt. Für ihn liegt das Problem in der Unbeschriebenheit: Sie geht davon aus, dass Maschinen ihre Intelligenz genauso aufbauen können, wie Menschen sie allein durch die Beobachtung der Welt um sie herum entwickeln.

Aber Marcus glaubt nicht, dass Menschen so funktionieren. Er vertritt Noam Chomskys Theorie der intellektuellen Entwicklung, die besagt, dass der Mensch nicht mit einem unbeschriebenen Blatt, sondern mit einer Begabung zum Lernen geboren wird, mit der Fähigkeit, Sprache zu beherrschen und die physische Welt zu interpretieren.

Er stellte fest, dass neuronale Netzwerke trotz der Überzeugung vieler Menschen, sie seien intelligent, offenbar nicht wie das menschliche Gehirn funktionieren. Erstens sind sie datenhungrig.

In den meisten Fällen benötigt jedes neuronale Netzwerk Tausende oder Millionen von Beispielen, um zu lernen. Schlimmer noch: Jedes Mal, wenn Ihr neuronales Netzwerk einen neuen Artikeltyp erkennen soll, müssen Sie es von Grund auf neu trainieren. Ein neuronales Netzwerk, das Kanarienvögel erkennt, ist für die Erkennung von Vogelgesang oder menschlicher Sprache völlig nutzlos.

„Wir brauchen nicht Unmengen an Daten, um zu lernen“, sagte Marcus. Seine Kinder müssen nicht eine Million Autos sehen, um ein Fahrzeug zu erkennen. Noch besser: Sie können „abstraktieren“, sodass sie beim ersten Anblick eines Traktors erkennen, dass es sich ein bisschen um ein Auto handelt. Sie können auch an kontrafaktischen Aussagen arbeiten.

Google Translate kann Französisch ins Englische übersetzen. Aber es wusste nicht, was die Worte bedeuteten. Marcus weist darauf hin, dass Menschen nicht nur grammatikalische Muster erfassen, sondern auch die Logik hinter der Grammatik. Sie können einem Kind ein falsches Verb wie „pilken“ geben, und es wird wahrscheinlich daraus schließen, dass die Vergangenheitsform „pilked“ lautet. Natürlich hatte sie das Wort noch nie zuvor gesehen. Sie hatte hierfür keine „Ausbildung“. Sie kannte einfach intuitiv einen Teil der Logik der Sprachfunktion und konnte diese auf eine neue Situation anwenden.

„Diese Deep-Learning-Systeme wissen nicht, wie sie abstraktes Wissen integrieren sollen“, sagt Marcus, der ein Unternehmen gründete, das KI entwickelte, die mit weniger Daten lernt (und es 2016 an Uber verkaufte).

Anfang des Jahres veröffentlichte Marcus ein Whitepaper auf arXiv, in dem er argumentierte, dass Deep Learning ohne einige neue Ansätze seine derzeitigen Grenzen möglicherweise nie überwinden werde. Was es braucht, ist ein Anstoß – zusätzliche oder eingebaute Regeln, die ihm helfen, über die Welt nachzudenken.

drei,

Oren Etzioni lächelt immer. Er ist Informatiker und leitet das Allen Institute for Artificial Intelligence in Seattle.

Er begrüßt mich in seinem hellen Büro und führt mich an einem Whiteboard vorbei, auf dem Gedanken zur maschinellen Intelligenz vollgekritzelt sind. („Erfolg definieren“, „Was ist die Mission?“) Draußen setzten junge KI-Forscher Kopfhörer auf und tippten auf ihren Tastaturen herum.

Etzioni und sein Team arbeiten an Fragen des gesunden Menschenverstands. Er definierte dies als zwei legendäre KI-Momente – den Sieg von IBMs Deep Blue über den Schachgroßmeister Garri Kasparow im Jahr 1997 und den Sieg von DeepMinds AlphaGo über den weltbesten Go-Spieler Lee Sedol im letzten Jahr. (Google hat DeepMind im Jahr 2014 übernommen.)

„Mit Deep Blue könnte unser Programm übermenschliche Schachzüge machen, während der Raum brennt“, scherzte Etzioni. „Stimmt? Völlig ohne Kontext. 20 Jahre später haben wir einen Computer, der übermenschliche Go-Züge ausführen kann, während der Raum brennt.“

Menschen unterliegen dieser Einschränkung natürlich nicht. Wenn ein Feuer ausbricht, schlagen die Leute Alarm und rennen zur Tür.

Mit anderen Worten: Der Mensch verfügt über ein Grundwissen über die Welt (Feuer verbrennt Dinge) und die Fähigkeit zum logischen Denken (man sollte versuchen, einem außer Kontrolle geratenen Feuer aus dem Weg zu gehen).

Damit KI wirklich wie Menschen denkt, müssen wir ihr Dinge beibringen, die alle Menschen wissen, wie Physik (ein in die Luft geworfener Ball fällt herunter) oder Dinge wie relative Größe (ein Elefant passt nicht in eine Badewanne). Solange die KI diese grundlegenden Konzepte nicht beherrscht, ist sie nach Etzionis Ansicht nicht in der Lage, logisches Denken zu entwickeln.

Etzioni und sein Team investieren Hunderte Millionen Dollar von Paul Allen und arbeiten an der Entwicklung einer Ebene für gesundes Denken, die in bestehende neuronale Netzwerke passt. (Das Allen Institute ist eine gemeinnützige Organisation, daher stehen alle seine Entdeckungen öffentlich zur Nutzung durch jedermann zur Verfügung.)

Das erste Problem, vor dem sie stehen, ist die Beantwortung einer Frage: Was ist gesunder Menschenverstand?

Etzioni beschreibt es als all das Wissen über die Welt, das wir für selbstverständlich halten, aber selten laut aussprechen. Er und seine Kollegen erstellten eine Reihe von Benchmark-Fragen, die eine wirklich rationale KI beantworten können sollte: Wenn ich meine Socken in eine Schublade lege, werden sie morgen noch da sein? Wenn ich jemandem auf die Füße trete, wird er dann sauer?

Eine Möglichkeit, dieses Wissen zu erlangen, besteht darin, es dem Menschen zu entlocken. Etzionis Labor bezahlt Crowdsourcing-Mitarbeiter auf Amazon Mechanical Turk, damit sie ihnen beim Formulieren verständlicher Aussagen helfen.

Das Team verwendete dann verschiedene Techniken des maschinellen Lernens – einige davon altmodische statistische Analysen, einige Deep-Learning-Neuralnetze –, um diese Aussagen zu trainieren. Wenn sie es richtig machen, glaubt Etzioni, können sie wiederverwendbare „Legosteine“ für das Computerdenken herstellen: einen Satz zum Verstehen von Text, einen zum Erfassen physikalischer Zusammenhänge und so weiter.

Yejin Choi, einer der Wissenschaftler, die in Etzionis Team zum Thema gesunder Menschenverstand arbeiten, leitete mehrere Crowdsourcing-Bemühungen. In einem Projekt möchte sie eine KI entwickeln, die die Handlungen einer Person verstehen oder deren zugrunde liegende Absichten oder Emotionen artikulieren kann.

Sie begann damit, Tausende von Online-Geschichten, Blogs und Idiom-Einträgen in Wiktionary zu durchforsten und „Phrase-Ereignisse“ wie etwa „Jeff knocked Roger unconscious“ herauszufiltern. Anschließend zeichnete sie jeden Satz anonym auf – etwa „X schlug Y bewusstlos“ – und bat per Crowdsourcing Menschen auf Mechanical Turk, die Absichten von X zu beschreiben: Warum haben sie es getan?

Nachdem sie 25.000 dieser beschrifteten Sätze gesammelt hatte, trainierte sie damit ein maschinelles Lernsystem, das Sätze analysierte, die es noch nie zuvor gesehen hatte, und auf die Stimmung oder Absicht des Satzes schließen konnte.

Das neue System funktionierte bestenfalls nur die Hälfte der Zeit einwandfrei. Doch als es einsatzbereit war, zeigte es eine bemerkenswert menschliche Wahrnehmung: Wenn man ihm einen Satz wie „Oren hat das Thanksgiving-Dinner gekocht“ gab, sagte es voraus, dass Oren versuchte, seine Familie zu beeindrucken.

„Wir können auch Rückschlüsse auf die Reaktionen anderer Leute ziehen, selbst wenn diese nicht erwähnt werden“, sagte Choi. „Damit sich X‘ Familie beeindruckt und geliebt fühlt.“

Ein anderes System, das ihr Team entwickelte, nutzte Crowdsourcing-Menschen auf der Mechanical-Turk-Plattform, um die mentalen Zustände der Leute in Geschichten zu kennzeichnen. Das resultierende System könnte in einer neuen Situation auch einige „scharfe“ Schlussfolgerungen ziehen.

So wurde mir beispielsweise erzählt, dass ein Musiklehrer über die schlechte Leistung seiner Band außer sich war und sagte: „Der Lehrer war so wütend, dass er seinen Stuhl umwarf.“ Die KI würde vorhersagen, dass sie „sich danach entsetzt fühlen“ würden, obwohl dies in der Geschichte nicht explizit erwähnt wurde.

Cui Yejin, Etzioni und ihre Kollegen geben das Deep Learning nicht auf. Tatsächlich halten sie es für ein sehr nützliches Werkzeug. Sie glauben jedoch nicht, dass es eine Abkürzung gibt, um Menschen davon zu überzeugen, das seltsame, immaterielle, implizite Wissen, über das wir alle verfügen, explizit auszusprechen.

Deep Learning bedeutet: Müll rein, Müll raus. Es genügt nicht, einem neuronalen Netzwerk einfach eine Reihe von Nachrichtenartikeln zuzuführen, da es unausgesprochenes Wissen nicht aufnimmt, also etwas Offensichtliches, das die Autoren nicht erwähnen möchten.

Cui Yejin drückt es so aus: „Die Leute sagen nicht: ‚Mein Haus ist größer als ich.‘“ Um dieses Problem zu lösen, bat sie Crowdworker auf der Mechanical Turk-Plattform, die physischen Beziehungen zu analysieren, die in 1.100 häufigen Verben wie „X warf Y“ impliziert sind. Dies wiederum liefert ein einfaches statistisches Modell, mit dem aus dem Satz „Oren warf einen Ball“ gefolgert werden kann, dass der Ball kleiner als Oren sein muss.

Eine weitere Herausforderung ist das visuelle Denken. Aniruddha Kembhavi, ein weiterer KI-Wissenschaftler in Etzionis Team, zeigte mir einen virtuellen Roboter, der auf einem Bildschirm umherlief. Andere Wissenschaftler am Allen Institute bauten Sims-ähnliche Häuser, die mit Alltagsgegenständen gefüllt waren – Küchenschränke voller Geschirr, Sofas, die beliebig positioniert werden konnten und den Gesetzen der Physik in der realen Welt entsprachen.

Dann entwarfen sie diesen Roboter, der wie ein dunkelgrauer Mülleimer mit Armen aussieht, und sagten ihm, er solle nach bestimmten Objekten suchen. Nach der Erledigung Tausender Aufgaben konnte das neuronale Netzwerk im wirklichen Leben Fuß fassen.

„Wenn Sie fragen: ‚Habe ich Tomaten?‘ „Es wird nicht alle Schränke öffnen. Es wird eher den Kühlschrank öffnen“, sagte Kembowe. „Oder wenn Sie sagen: ‚Finde meine Schlüssel‘, versucht es nicht, den Fernseher hochzuheben. Es geht hinter den Fernseher. Es hat gelernt, dass Fernseher normalerweise nicht weggenommen werden.“

Etzioni und seine Kollegen hoffen, dass diese verschiedenen Komponenten – Chois sprachliches Denken, sein visuelles Denken und andere Arbeiten, die sie durchführen, um KI dazu zu bringen, wissenschaftliche Informationen aus Lehrbüchern zu erfassen – irgendwann zusammenkommen werden.

Aber wie lange wird es dauern und wie wird das Endprodukt aussehen? Sie wissen es nicht. Die Systeme, die sie bauen, sind nach wie vor vernünftig und liegen manchmal in mehr als der Hälfte der Fälle falsch.

Cui Yejin schätzt, dass sie etwa eine Million künstliche Sprachen benötigen wird, um ihre verschiedenen Sprachparser zu trainieren. Es scheint unglaublich schwierig zu sein, gesunden Menschenverstand aufzubauen.

Vier,

Es gibt andere sinnvolle Möglichkeiten, Maschinen zu bauen, diese sind jedoch arbeitsintensiver. Sie könnten sich beispielsweise hinsetzen und alle Regeln, die einer Maschine erklären, wie die Welt funktioniert, von Hand aufschreiben. So funktioniert das Cyc-Projekt von Doug Lenat.

Über 34 Jahre hinweg beauftragte Lennart ein Team aus Ingenieuren und Philosophen damit, 25 Millionen allgemeingültige Regeln zu programmieren, wie etwa „Wasser ist nass“ oder „Die meisten Menschen kennen die Namen ihrer Freunde“. Daraus konnte Cyc schlussfolgern: „Wenn Ihr Hemd nass ist, waren Sie wahrscheinlich im Regen.“ Der Vorteil besteht darin, dass Lenat genau kontrollieren kann, was in die Cyc-Datenbank gelangt. Dies ist bei Crowdsourcing-Wissen nicht der Fall.

Diese Art künstlicher Intelligenz, die durch grobe Handarbeit entsteht, ist in der Welt des Deep Learning unbeliebt geworden. Dies liegt zum Teil daran, dass sie „fragil“ sein kann: Ohne die richtigen Regeln für die Welt könnte die KI in Schwierigkeiten geraten. Aus diesem Grund sind programmierte Chatbots so dumm; wenn ihnen nicht ausdrücklich gesagt wird, wie sie eine Frage beantworten sollen, haben sie keine Möglichkeit, darüber nachzudenken.

Die Fähigkeiten von Cyc gehen über Chatbots hinaus und es wurde für den Einsatz in Gesundheitssystemen, Finanzdienstleistungen und Militärprogrammen zugelassen. Doch die Arbeit verlief langsam und teuer. Lennart sagte, die Entwicklung von Cyc habe etwa 200 Millionen Dollar gekostet.

Doch eine manuelle, schrittweise Programmierung könnte lediglich bedeuten, einen Teil des inhärenten Wissens zu reproduzieren, das das menschliche Gehirn laut einem Anhänger Chomskys besitzt.

Genau das haben Dilip George und Forscher mit Breakout getan. Um eine KI zu schaffen, die bei Änderungen im Spiellayout nicht „dumm“ wird, verzichteten sie auf Deep Learning und bauten ein System mit fest kodierten Grundannahmen.

George erzählte mir, dass ihre KI mühelos gelernt habe, dass „Objekte existieren, dass Objekte miteinander interagieren und dass die Bewegung eines Objekts in einem kausalen Zusammenhang mit seinen Kollisionen mit anderen Objekten steht.“

In Breakout entwickelt dieses System die Fähigkeit, verschiedene Vorgehensweisen und ihre möglichen Ergebnisse abzuwägen. Dies hatte jedoch auch den gegenteiligen Effekt. Wenn die KI einen Ziegelstein in der oberen linken Ecke des Bildschirms zerstören möchte, platziert sie das Tablet rational in der äußersten rechten Ecke.

Dies bedeutet, dass das System entschädigt wird, wenn Vicarious die Spielregeln ändert – neue Steine ​​hinzufügt oder die Platte anhebt. Es scheint ein allgemeines Verständnis von Breakout selbst zu vermitteln.

Natürlich muss man bei der Entwicklung dieser Art von KI Kompromisse eingehen. Die sorgfältige Gestaltung und Planung, um genau herauszufinden, welche voreingestellte Logik in das System eingespeist werden soll, ist wohl eine viel schwierigere Aufgabe. Beim Entwurf eines neuen Systems kann es schwierig sein, das richtige Gleichgewicht zwischen Geschwindigkeit und Genauigkeit zu finden.

George sagte, er suche nach dem kleinsten Datensatz, „um ihn in das Modell einzugeben, damit es schnell lernen kann.“ Je weniger Annahmen Sie benötigen, desto effizienter kann die Maschine Entscheidungen treffen.

Wenn Sie ein Deep-Learning-Modell darauf trainiert haben, Katzen zu erkennen, können Sie ihm eine Russisch Blau-Katze zeigen, die es noch nie zuvor gesehen hat, und es wird sofort zu dem Schluss kommen, dass es sich um eine Katze handelt. Nach der Verarbeitung von Millionen von Fotos weiß es nicht nur, was eine Katze zu einer Katze macht, sondern auch, wie man eine Katze am schnellsten identifiziert.

Die KI von Vicarious ist im Vergleich langsamer, da sie im Laufe der Zeit aktiv logische Schlussfolgerungen zieht.

Wenn die KI von Vicarious gut funktioniert, kann sie aus viel weniger Daten lernen. Georges Team hat eine KI entwickelt, die die „Ich bin kein Roboter“-Barriere neuronaler Netzwerke durchbricht, indem sie verzerrte Schriftbilder erkennt.

Wie beim Breakout-System haben sie die KI mit einigen Fähigkeiten ausgestattet, beispielsweise mit Wissen, das ihr beim Erkennen von Charakteren hilft. Mit dem eingerichteten Bootstrapping mussten sie die KI nur anhand von 260 Bildern trainieren, bevor sie lernte, CAPTCHAs mit einer Genauigkeit von 90,4 Prozent zu knacken. Im Gegensatz dazu musste ein neuronales Netzwerk anhand von mehr als 2,3 Millionen Bildern trainiert werden, bevor es ein CAPTCHA knacken konnte.

Andere bauen auf andere Weise eine dem gesunden Menschenverstand entsprechende Struktur in neuronale Netzwerke ein. Beispielsweise haben zwei Forscher bei DeepMind vor Kurzem ein Hybridsystem entwickelt, das teils Deep Learning und teils traditionellere Techniken verwendet. Sie nannten dieses System induktive logische Programmierung. Das Ziel besteht darin, etwas zu schaffen, das mathematische Schlussfolgerungen ziehen kann.

Sie trainierten es mit dem Kinderspiel „Fizz-Buzz“, bei dem man von 1 aufwärts zählt und „Fizz“ sagt, wenn eine Zahl durch 3 teilbar ist, und „Buzz“, wenn sie durch 5 teilbar ist. Ein normales neuronales Netzwerk kann nur Zahlen verarbeiten, die es schon einmal gesehen hat; Wenn Sie es 100 Minuten lang trainieren, weiß es, dass 99 „Fizz“ und 100 „Buzz“ ist.

Aber es weiß nicht, was es mit 105 anfangen soll. Im Gegensatz dazu schien DeepMinds hybrides DeepMind-System die Regel zu verstehen und hatte keine Probleme, Zahlen über 100 zu berechnen. „Man kann Systeme auf eine Weise trainieren, die ein Deep-Learning-Netzwerk allein nicht kann“, sagt Edward Grefenstette, einer der DeepMind-Programmierer, die das Hybridsystem entwickelt haben.

Yann LeCun, ein Pionier des Deep Learning und derzeitiger Leiter der Forschungsabteilung für künstliche Intelligenz bei Facebook, stimmt vielen der in diesem Bereich geäußerten Kritikpunkte zu. Er räumte ein, dass dafür zu viele Trainingsdaten erforderlich seien, dass es nicht logisch sei und dass es an gesundem Menschenverstand mangele.

„Im Grunde habe ich das in den letzten vier Jahren immer und immer wieder wiederholt“, erinnerte er mich. Er ist jedoch nach wie vor davon überzeugt, dass er die Antworten mit der richtigen, gründlichen Untersuchung finden kann. Er ist mit Chomskys Ansicht zur menschlichen Intelligenz nicht einverstanden. Er glaubte, dass das menschliche Gehirn seine Denkfähigkeiten eher durch Interaktion als durch eingebaute Regeln entwickelt.

„Wenn man darüber nachdenkt, wie Tiere und Kleinkinder in den ersten Minuten, Stunden und Tagen des Lebens lernen, werden viele Dinge so schnell gelernt, dass sie angeboren zu sein scheinen“, bemerkte er. „Tatsache ist jedoch, dass sie nicht fest codiert werden müssen, da sie Dinge sehr schnell lernen können.“

Aus dieser Perspektive betrachtet, bewegt ein Baby, um etwas über die Physik der Welt zu lernen, einfach seinen Kopf herum, verarbeitet Daten über die eingehenden Bilder und kommt zu dem Schluss, dass es sich um Schärfentiefe handelt.

Dennoch räumt LeCun ein, dass nicht klar sei, welche Wege dem Deep Learning aus seiner Krise helfen könnten. Es könnte sich um „konfrontative“ neuronale Netzwerke handeln, eine relativ neue Technik, bei der ein neuronales Netzwerk versucht, ein anderes mit falschen Daten auszutricksen, wodurch das zweite neuronale Netzwerk gezwungen wird, äußerst subtile interne Darstellungen von Bildern, Tönen und anderen Eingaben zu entwickeln.

Der Vorteil besteht darin, dass es kein Problem des „Datenmangels“ gibt. Sie müssen nicht Millionen von Daten sammeln, um ein neuronales Netzwerk zu trainieren, da sie lernen, indem sie voneinander lernen. (Anmerkung des Autors: Ein ähnlicher Ansatz wird verwendet, um diese zutiefst verstörenden „Deepfake“-Videos zu erstellen, in denen Menschen scheinbar Dinge sagen oder tun, die sie nicht getan haben.)

Ich traf Yan Likun in den Büros des Künstliche-Intelligenz-Labors von Facebook in New York. Mark Zuckerberg stellte ihn 2013 mit dem Versprechen ein, dass das Ziel des Labors darin bestünde, die Grenzen der künstlichen Intelligenz zu erweitern und nicht nur kleine Optimierungen an den Produkten von Facebook vorzunehmen. Wie ein akademisches Labor können LeCun und seine Forscher ihre Ergebnisse veröffentlichen, damit andere sie überprüfen können.

LeCun, der noch immer seinen französischen Akzent hat, stand an einer weißen Tafel und skizzierte energisch Theorien, die Fortschritte im Deep Learning vorantreiben könnten. An der gegenüberliegenden Wand hängt eine Reihe großartiger Gemälde aus Stanley Kubricks „2001: Odyssee im Weltraum“ – das Hauptraumschiff schwebt im Weltraum, ein Schiff mit Rädern, das die Erde umkreist. „Oh ja“, sagte LeCun, als ich darauf zeigte; Es handelte sich um Nachdrucke der Illustrationen, die Kubrick für den Film angefertigt hatte.

Es ist seltsam beunruhigend, mit Hilfe von Umgebungsbildern über humanoide KI zu diskutieren, da HAL 9000, eine humanoide KI aus dem Jahr 2001, ein effizienter Killer war.

Dies weist auf eine tiefere philosophische Frage hin, die über die Debatten über die Richtung der KI-Entwicklung hinausgeht: Ist es eine gute Idee, intelligentere KI zu entwickeln? Das System von Vicarious hat CAPTCHAs geknackt, aber der Sinn von CAPTCHAs besteht darin, zu verhindern, dass Roboter Menschen imitieren.

Einige KI-Forscher befürchten, dass Schurken-KI aufgrund ihrer Fähigkeit, mit Menschen zu kommunizieren und unsere Psychologie zu verstehen, extrem gefährlich werden könnte. Nick Bostrom von der Universität Oxford hat vor der Entstehung einer „Superintelligenz“ Alarm geschlagen. Superintelligenz ist künstliche Intelligenz, die sich selbst verbessert, die menschliche Leistungsfähigkeit rasch übertrifft und in der Lage ist, uns in jeder Hinsicht zu übertreffen. (Er glaubt, dass eine Möglichkeit, Kontrolle auszuüben, darin besteht, Menschen zu manipulieren – und eine „Theorie des Geistes“ wäre hierfür sehr nützlich.)

Elon Musk ist von der Gefahr so ​​überzeugt, dass er OpenAI gegründet hat, eine Organisation, die sich der Idee einer sicheren künstlichen Intelligenz verschrieben hat.

Es ist eine Zukunft, die Etzioni keine schlaflosen Nächte bereiten wird. Er macht sich keine Sorgen darüber, dass sich KI zu einer bösartigen Superintelligenz entwickeln könnte. „Wir haben Angst, dass etwas die Weltherrschaft übernimmt“, spottet er, „das nicht einmal von sich aus beschließen kann, noch eine Partie Schach zu spielen.“ Es ist nicht klar, wie eine KI diese Absichten entwickeln würde oder wie sie in der Software aussehen würden. Deep Learning kann Schach meistern, hat aber keinen angeborenen Wunsch, Schach zu spielen.

Was ihm Sorgen bereitet, ist die große Inkompetenz der gegenwärtigen künstlichen Intelligenz. Auch wenn wir HAL vielleicht nicht mit der nötigen Intelligenz ausstatten, um sich selbst zu erhalten, sagt er: „Tödliche Waffen und eine inkompetente KI können leicht Menschen töten.“ Dies ist einer der Gründe, warum Etzioni so entschlossen ist, der KI einen gesunden Menschenverstand beizubringen. Letztendlich, so argumentiert er, werde dies die KI sicherer machen. Es ist auch gesunder Menschenverstand, dass Menschen nicht massenhaft abgeschlachtet werden sollten. (Ein Teil der Mission des Allen Institute besteht darin, KI rationaler und damit sicherer zu machen.)

Etzioni weist darauf hin, dass dystopische Science-Fiction-Visionen künstlicher Intelligenz weniger Risiken bergen als kurzfristige wirtschaftliche Umlenkungen. Wenn KI ihren gesunden Menschenverstand verbessert, könnte sie Aufgaben schneller erledigen, die derzeit mit bloßem Musterabgleich und Deep Learning nur schwer zu bewältigen sind: Fahrer, Kassierer, Manager, Analysten aller Art und sogar Journalisten.

Doch eine wirklich rationale KI könnte auch außerhalb des wirtschaftlichen Bereichs für Störungen sorgen. Stellen Sie sich vor, Bots, die politische Desinformationen verbreiten, könnten ihren gesunden Menschenverstand einsetzen und auf Twitter, Facebook oder in großer Zahl am Telefon scheinbar nicht von Menschen zu unterscheiden sein.

Marcus stimmt zu, dass es Gefahren birgt, KI die Fähigkeit zum Denken zu geben. Aber, sagte er, die Vorteile seien enorm. Künstliche Intelligenz, die wie Menschen denken und wahrnehmen kann, aber mit Computergeschwindigkeit arbeitet, könnte die Wissenschaft revolutionieren, indem sie Ursache und Wirkung in einer für uns Menschen unerreichbaren Geschwindigkeit herausfindet.

Er verfügt nicht nur über ein enormes Roboterwissen, sondern kann auch ganz ähnlich wie ein Mensch Gedankenexperimente durchführen, Wenn-Dann-Ketten folgen und über kontrafaktische Aussagen nachdenken. „Irgendwann könnten wir zum Beispiel psychische Erkrankungen heilen“, fügte Marcus hinzu. „Künstliche Intelligenz könnte in der Lage sein, diese komplexen biologischen Proteinkaskaden zu verstehen, die am Aufbau des Gehirns beteiligt sind und dafür sorgen, dass es richtig funktioniert oder nicht.“

Unter dem Foto von „2001: Odyssee im Weltraum“ vertrat Yang Likun selbst eine „ketzerische“ Ansicht. Natürlich wird es unserer Welt helfen, wenn wir KI menschlicher machen. Aber wie wäre es, die Denkweise des Menschen direkt zu kopieren? Niemand weiß, ob das funktionieren wird. Wir haben bereits Menschen, die wie Menschen denken; vielleicht liegt der Wert intelligenter Maschinen darin, dass sie sich radikal von uns unterscheiden.

„Wenn sie über Fähigkeiten verfügten, die wir nicht hätten, wären sie nützlicher“, sagte er mir. „Dann werden sie zu Intelligenzverstärkern. Man möchte also, dass sie in gewisser Weise nicht-menschliche Formen der Intelligenz besitzen … man möchte, dass sie rationaler sind als Menschen.“ Mit anderen Worten: Vielleicht lohnt es sich, KI ein wenig künstlich zu machen.

Originallink: https://www.wired.com/story/how-to-teach-artificial-intelligence-common-sense/

Produziert vom Compilation-Team

<<:  Voicebot.ai: Nutzungsbericht zur Sprachassistentennutzung 2018

>>:  Warum ist Microsoft trotz wiederholter Misserfolge immer noch daran interessiert, Geld in sein Mobiltelefongeschäft zu investieren?

Artikel empfehlen

Ist Tischtennis eine Aerobic-Übung?

Heutzutage treiben immer mehr Menschen gerne Spor...

Warum haben Baidu und Alibaba ihre Unternehmen auf den Cayman Islands registriert?

Kürzlich reorganisierte der asiatische Milliardär...

Onkologe: Die typischen Erscheinungsformen von 21 Krebsarten werden aufgelistet!

Gutachter dieses Artikels: Chen Haixu, stellvertr...

Verbessert Bergsteigen die Bauchmuskulatur?

Viele Menschen besteigen gern Berge, gerne in Gru...

Ich spiele nur Tricks, aber du behandelst mich wie einen Schauspieler

„Seht mal, der Fischereimeister Kormoran hat wied...

„Muss künstliche Intelligenz wie Menschen sein?“

Können Maschinen denken? Kann künstliche Intellig...