Während eines Großteils des 20. Jahrhunderts diente Schach den Forschern im Bereich der künstlichen Intelligenz als Maßstab. Bereits Anfang der 1950er Jahre prägte John McCarthy den Begriff „Künstliche Intelligenz“. Er bezeichnete Schach einmal als „die Fruchtfliege im Bereich der künstlichen Intelligenz“, was auf den Einfluss der frühen Forschung an Fruchtfliegen auf den Bereich der Genetik zurückzuführen ist. In den späten 1990er Jahren spielte IBMs Deep Blue eine Reihe von Schachpartien gegen den Weltmeister Garri Kasparow. Im Jahr 1997 besiegte Deep Blue schließlich Kasparow. Dies war das erste Mal, dass eine Maschine einen Weltmeister in einem Spiel besiegte. Zu Beginn bis zur Mitte des Jahrhunderts war die Technologie bereits so weit fortgeschritten, dass Maschinen regelmäßig Schachgroßmeister in fast jeder Variante des Spiels schlagen konnten. Natürlich haben KI-Entwickler begonnen, sich anderen, komplexeren Spielen zuzuwenden, um ihre immer ausgefeilteren Algorithmen zu testen. In den letzten zwölf Monaten hat die künstliche Intelligenz eine Reihe neuer Grenzen überschritten und dabei menschliche Spieler bei einer Vielzahl unterschiedlicher Spiele geschlagen, vom alten Go bis zum dynamischen interaktiven Kartenspiel Texas Hold'em. Von Schach zu Go Ende der 1990er Jahre, nachdem die Maschinen die Schachgroßmeister endlich deutlich geschlagen hatten, meinte ein Astrophysiker aus Princeton: „Es könnte hundert Jahre dauern, bis Computer die Menschen im Go schlagen – vielleicht sogar noch länger.“ Daher richteten Informatiker ihre Aufmerksamkeit auf Go, ein altes Strategiespiel aus China, das sehr leicht zu erlernen, aber schwer zu meistern ist. Im letzten Jahrzehnt haben Fortschritte im maschinellen Lernen wirklich wettbewerbsfähige KI-Go-Spieler hervorgebracht. Im Jahr 2014 begann Google mit der Entwicklung eines neuronalen Deep-Learning-Netzwerks namens AlphaGo. Nachdem das Entwicklungsteam einige Jahre lang beinahe erfolgreich gewesen war, versuchte es etwas anderes. Ende 2016 tauchte auf dem beliebten asiatischen Spieleserver Tygem ein mysteriöser Online-Go-Spieler namens „Master“ auf. In den nächsten Tagen dominierte der mysteriöse Spieler die Spiele gegen viele Weltmeister. Am 4. Januar 2017 wurde offiziell bestätigt, dass es sich bei „Master“ tatsächlich um die neueste Version von DeepMinds KI AlphaGo handelte. Im Mai 2017 besiegte AlphaGo „Master“ Ke Jie, den weltbesten Go-Spieler. In den drei Spielen, die AlphaGo und Ke Jie gegeneinander spielten, war die Maschine immer im Vorteil, aber das Überraschendste war, dass Google im Oktober eine Version von AlphaGo entwickelt hatte, die fortschrittlicher war als „Master“. Laut einem Artikel im Magazin „Nature“ ist AlphaGo Zero ein revolutionärer Algorithmus, der sich selbst schnell das Spiel Go beibringen kann. Das System spielt immer wieder gegen sich selbst und lernt, in verschiedenen Situationen zu spielen. Nach 21 Lerntagen hat AlphaGo Zero das „Master“-Level erreicht. Nach 40 Tagen hatte es das Schwierigkeitsniveau aller vorherigen Versionen übertroffen. Im Dezember 2017 stellte DeepMind eine weiterentwickelte Version seines Systems vor. Die neue KI namens AlphaZero kann mehrere Spiele innerhalb weniger Stunden meistern. Nach acht Stunden Selbsttraining konnte das System nicht nur den Vorgänger AlphaGo Zero schlagen, sondern auch Schach und Shogi vollständig beherrschen. Meistern Sie die Kunst des Betrügens beim Poker Obwohl die Komplexität des Go-Spiels bereits sehr hoch ist, verwenden Go und Poker für die künstliche Intelligenz zwei völlig unterschiedliche Modelle. Um beim Poker zu gewinnen, müssen Sie einige Fähigkeiten zum Schummeln beherrschen. Um beim Poker erfolgreich zu sein, müssen Sie schummeln und das Schummeln anderer erkennen. Nach mehr als einem Jahrzehnt des Versuchens zeigten 2017 zwei unabhängige Studien, dass künstliche Intelligenz die Top-Pokerprofis endlich geschlagen hatte. Forscher der University of Alberta in Kanada haben mit DeepStack ein KI-System vorgestellt, das menschliche Pokerspieler mithilfe einer Art KI-Intuition ausmanövrieren kann. Nach einem anstrengenden 20-tägigen Marathon hat die Maschine alle vier professionellen Pokerspieler gründlich vernichtend geschlagen Ein Forschungsteam der Carnegie Mellon University veranstaltete im Januar 2017 ein öffentlicheres Event, bei dem sein KI-System Libratus 20 Tage lang 120.000 Runden No-Limit Texas Hold’em gegen vier professionelle Pokerspieler spielte. Während Profis jede Nacht darüber diskutieren, welche Schwächen der KI sie ausnutzen können, verbessert sich die Maschine täglich selbst, indem sie Löcher in ihrem Gameplay stopft und ihre Strategien verfeinert. Das menschliche Gehirn war der Maschine nicht gewachsen und nach fast einem Monat ununterbrochenen Spielens hatte die Maschine insgesamt 1,7 Millionen Dollar gewonnen, während jeder der vier Profis Tausende von Dollar in virtueller Währung verloren hatte. Einer der Profispieler sagte gegenüber dem Magazin Wired: „Während dieses intensiven Wettkampfs hatte ich das Gefühl, gegen einen Betrüger zu spielen, als ob er meine Karten sehen könnte. Ich beschuldige ihn nicht des Betrugs. Es ist sogar eine gute Sache.“ Elon Musks KI-Forschung Im Jahr 2015 gründeten Elon Musk und eine kleine Gruppe von Investoren ein Projekt namens OpenAI. Ziel des Projekts ist es, die Entwicklung künstlicher Intelligenzsysteme, insbesondere im Bereich des bestärkenden Lernens, zu erforschen. In einem solchen System kann sich eine Maschine selbst beibringen, wie sie ihre Fähigkeiten bei einer bestimmten Aufgabe verbessern kann. Im August 2017 nahm sich das OpenAI-Team vor, Dota 2 zu erobern, das Kernspiel eines großen E-Sport-Turniers namens „The International“. Dota 2 ist ein sehr beliebtes und komplexes Multiplayer-Online-Kampfspiel, das in der Welt des Wettkampf-Gamings eine ernstzunehmende Sportart darstellt. Nach nur zwei Wochen Lernzeit nahm der OpenAI-Bot am Turnier teil und besiegte mehrere der weltbesten Spieler. Derzeit werden künstliche Intelligenzsysteme nur anhand einfacherer Eins-gegen-Eins-Versionen des Spiels trainiert, das OpenAI-Team untersucht jedoch, wie KI in die Lage versetzt werden kann, Fünf-gegen-Fünf-Teamspiele zu meistern. KI spielt das Spiel „Pac-Man“, indem sie die Arbeit aufteilt Vor einigen Jahren trainierte Google DeepMind seine KI anhand von 49 Atari 2600-Spielen. Bei gleichen Eingaben wie ein menschlicher Spieler findet die KI heraus, wie diese Spiele gespielt und gewonnen werden können. Es stellt sich heraus, dass manche Spiele tatsächlich schwieriger zu meistern sind als andere, und unter diesen klassischen und notorisch schwierigen Spielen ist ein Videospiel aus den 1980er Jahren, Pac-Man, eine besondere Herausforderung. Im Jahr 2017 übernahm Google ein Deep-Learning-Startup namens Maluuba und fusionierte es mit DeepMind. Maluubas neuer Ansatz für maschinelles Lernen wird als Hybrid Reward Architecture (HRA) bezeichnet. Durch die Anwendung dieses Ansatzes auf das Pac-Man-System wurden mehr als 150 einzelne Agenten erstellt, jeder mit einem bestimmten Ziel – beispielsweise das Finden einer bestimmten Bohne oder das Vermeiden von Geistern. Der HRA-Ansatz bringt einen Senior Agent hervor, ähnlich einem Senior Manager. Dieser leitende Agent bewertet alle Vorschläge der untergeordneten Agenten, bevor er in jedem Schritt die endgültige Entscheidung trifft. Dieser Ansatz wird euphemistisch „Teile und herrsche“ genannt und beinhaltet die Aufteilung komplexer Aufgaben in kleinere Teile. Nachdem diese Methode auf Pac-Man angewendet wurde, beherrschte die KI schnell den Highscore von 999.990, was zuvor noch keiner menschlichen oder künstlichen Intelligenz gelungen war. KI wird anfangen, Spiele zu entwerfen Wenn die KI uns in fast jedem Spiel schlagen kann, was sollten wir als Nächstes tun? Ein Forscher der Falmouth University hat vor Kurzem einen Algorithmus für maschinelles Lernen vorgestellt, der seiner Aussage nach in der Lage ist, eigene Spiele für uns zu erstellen, die wir von Grund auf spielen können. Das KI-System namens Angelina verbessert sich zwar noch immer täglich, kann aber bereits jetzt Spiele mithilfe von Datensätzen aus einer Vielzahl von Quellen erstellen, von Wikipedia Commons bis hin zu Online-Zeitungen und sozialen Medien. Was bedeutet das alles? Die vielleicht größte und erschreckendste Entwicklung des Jahres 2017 waren die enormen Fortschritte bei bestärkenden Lernsystemen. Mithilfe dieser Programme können Sie sich effektiv selbst beibringen, wie Sie neue Fähigkeiten erlernen. Beispielsweise kann die neueste Version von AlphaZero bereits nach wenigen Tagen autonomen Lernens in einigen Spielen Superkompetenz erreichen. Eine umfassende Umfrage unter mehr als 350 KI-Forschern deutet darauf hin, dass die KI noch nicht gut genug ist, um uns zu besiegen. Die Umfrage prognostiziert, dass KI innerhalb von zehn Jahren besser sein wird als wir, dass sie im Jahr 2049 in der Lage sein wird, einen Bestseller-Roman zu schreiben und dass sie im Jahr 2053 bessere Operationen durchführen kann als der Mensch. Tatsächlich kam die Umfrage zu dem Schluss, dass die Wahrscheinlichkeit, dass KI bis 2060 alles kann, was wir können, 50:50 ist, nur eben besser. 2017 war zweifellos ein Meilensteinjahr für die künstliche Intelligenz, die Menschen in immer komplexeren Spielen schlagen konnte. Auch wenn dies wie eine bescheidene Leistung erscheinen mag, sind die Auswirkungen enorm. Viele dieser KI-Entwicklungsunternehmen richten ihren Blick schnell auf Herausforderungen der realen Welt. Google DeepMind hat das System von AlphaGo Zero auf andere Bereiche angewendet und eine umfassende Studie zur Proteinfaltung durchgeführt, in der Hoffnung, Behandlungsmöglichkeiten für Krankheiten wie Alzheimer und Parkinson zu finden. „Letztendlich hoffen wir, algorithmische Durchbrüche wie diesen nutzen zu können, um dringende Probleme in einer breiten Palette realer Probleme zu lösen“, sagte Demis Hassabis, Mitbegründer und CEO von DeepMind. „Wenn ähnliche Techniken auf andere strukturelle Probleme angewendet werden können, etwa auf die Proteinfaltung, die Reduzierung des Energieverbrauchs oder die Entdeckung revolutionärer neuer Materialien, werden die erzielten Durchbrüche das Potenzial haben, das Verständnis der Menschheit für die Welt zu verbessern und sich positiv auf unser aller Leben auszuwirken.“ Als Gewinner des Qingyun-Plans von Toutiao und des Bai+-Plans von Baijiahao, des Baidu-Digitalautors des Jahres 2019, des beliebtesten Autors von Baijiahao im Technologiebereich, des Sogou-Autors für Technologie und Kultur 2019 und des einflussreichsten Schöpfers des Baijiahao-Vierteljahrs 2021 hat er viele Auszeichnungen gewonnen, darunter den Sohu Best Industry Media Person 2013, den dritten Platz beim China New Media Entrepreneurship Competition Beijing 2015, den Guangmang Experience Award 2015, den dritten Platz im Finale des China New Media Entrepreneurship Competition 2015 und den Baidu Dynamic Annual Powerful Celebrity 2018. |
Kurzvideoanwendungen von Tencent Weishi und Sina ...
Manche Menschen trainieren, um abzunehmen, währen...
Bloomberg zitierte mit der Angelegenheit vertraut...
Das erste Quartal 2017 neigt sich dem Ende zu. Di...
Im hektischen Alltag ist es am besten, innezuhalt...
Immer wenn das Verkehrssystem lahmgelegt ist und ...
Am 20. Dezember 2014, dem Tag vor dem Silvesterab...
Das Ecosystem Pattern and Process Team des Qingha...
Experte dieses Artikels: Wang Xiaohuan, Doktor de...
Von der Subventionskampagne in Höhe von einer Mil...
Laut dem am 6. August 2020 von SMIC veröffentlich...
Wenn wir krank sind, raten uns Ärzte manchmal, ke...
Obwohl die COVID-19-Pandemie auch in diesem Jahr ...
Ich glaube, jeder kennt Taekwondo. Es ist eine de...