Leviathan Press: Im Altgriechischen sind die Begriffe „Spiel“ (paidia) und „Bildung“ (paideia, was sich auf die Kultivierung und Formung von Intelligenz und Geist bezieht) verwandt und bedeuten, Bildung mit Unterhaltung zu verbinden. Die Idee, Bildung mit Unterhaltung zu verbinden, ist gültig, da Spiele Teil der menschlichen Natur sind. Diese Natur steht nun im Einklang mit zwei anderen menschlichen Naturen: Die eine ist der Instinkt der Gruppenentwicklung. Der Mensch hat ein starkes Verlangen und Bedürfnis nach Spielen. Die hohen technischen Anforderungen moderner Spiele treiben die Entwicklung der gesamten Computerbranche voran. Der zweite Grund ist der Instinkt, das Unbekannte zu erforschen. Aus diesem Grund ziehen Spiele viele wissenschaftliche Forscher an. Doch neben dem Instinkt spielen natürlich noch andere Faktoren eine Rolle. Warum Wissenschaftler Spiele lieben <br /> Wenn es um wissenschaftliche Experimente geht, denken wir oft an staubfreie Labore, weiße Arbeitskleidung und ernst dreinblickende Wissenschaftler – doch das 2016 gestartete Big Bell Experiment sieht nicht sehr „seriös“ aus. Im Kern handelt es sich um ein elektronisches Spiel mit über 100.000 Spielern auf der ganzen Welt. Dieses Spiel will etwas überprüfen, das einfach klingt: ob die Welt wirklich so verrückt ist, wie es die Quantenmechanik beschreibt. Das Gameplay ist sehr einfach: Spieler melden sich mit ihrem Computer oder Mobiltelefon auf der Webseite beim Spiel an und steuern den Fortschritt der Charaktere im Spiel, indem sie auf Schaltflächen auf der Spielseite klicken. Je schneller, desto besser. oder sie erraten durch Drücken von Tasten die Farbe der versteckten Kugel, und ob sie richtig oder falsch raten, hängt ganz vom Glück ab. Sie können das nächste Level erreichen, wenn Sie eine bestimmte Punktzahl überschreiten. Das gesamte Spiel besteht aus 6 Leveln. © Gfycat Die Spielgrafik ist kindgerecht und das Gameplay für alle Altersgruppen geeignet. Jeder Klick des Spielers erzeugt zwei Zahlen, „0“ oder „1“, sodass nach einem Spiel eine binäre Zahlenfolge entstehen kann. Diese riesigen Zahlenreihen werden in 12 Labore auf der ganzen Welt hochgeladen (das Labor von Akademiker Pan Jianwei von der University of Science and Technology of China ist ebenfalls beteiligt) und das Forschungsteam wird die gesammelten Daten dann verwenden, um seine experimentellen Beobachtungen zur Quantenmechanik zu überprüfen. (Der Spiellink ist verfügbar unter: museum.thebigbelltest.org/#/contribute?l=EN) Wie kann ein so einfaches Webspiel Wissenschaftlern helfen, die Quantentheorie zu überprüfen? Sie haben vielleicht schon vom Konzept der Quantenverschränkung gehört: Ein Paar Quantenteilchen kann Informationen sofort übertragen, egal wie weit sie voneinander entfernt sind, und die Geschwindigkeit der Informationsübertragung ist weit höher als die Lichtgeschwindigkeit. Sehr seltsam.
© Quanta/NIST Doch in Einsteins Relativitätstheorie ist eine überlichtschnelle Informationsübertragung unmöglich, und das ist der Hauptgrund, warum er die Quantentheorie in Frage stellte. Einstein glaubte, dass es einen unbekannten, tieferen Mechanismus (verborgene Variablen) geben müsse, der auch mit der Logik der klassischen Physik vereinbar sei und eine überlichtschnelle Informationsübertragung ermögliche. Der Grund, warum wir die Quantentheorie seltsam finden, liegt einfach darin, dass wir sie nicht gut genug verstehen. Doch Einsteins Gegner (wie etwa der große Physiker Bohr) hielten die Quantenmechanik für völlig merkwürdig. Wie John Stewart Bell es ausdrückte: Die Quantenmechanik beschreibt den Determinismus der klassischen Physik grundsätzlich nicht. Ist das nicht einfach nur Streit? Später schlug Bell eine experimentelle Methode vor, die den jahrhundertelangen Streit zwischen Einstein und Bohr über die Quantenmechanik von einer philosophischen Diskussion in eine Meinungsverschiedenheit verwandeln könnte, die durch Experimente beigelegt werden könnte. Leider waren die Ergebnisse mehrerer Experimente im Laufe der Jahre für Einstein, der inzwischen verstorben ist, nichts als Enttäuschungen. John Stewart Bell. © ria Der Grund, warum das 2015 durchgeführte Big Bell Experiment in Form eines Videospiels durchgeführt werden musste, lag darin, dass das Forschungsteam den freien Willen des Menschen (durch Klicken auf Schaltflächen im Spiel) nutzen musste, um eine große Anzahl von Zufallszahlen zu generieren und so die sogenannte „Freie-Wahl-Lücke“ zu schließen – diese Lücke deutet darauf hin, dass es einen unbekannten, aber möglichen Mechanismus für die Quantenverschränkung gibt, der seit jeher existiert. Wenn ein solcher Mechanismus tatsächlich existiert, wären von Maschinen oder Würfeln erzeugte Zufallszahlen keine echten Zufallszahlen, da diese physikalischen Systeme wahrscheinlich ebenfalls mit Teilchen zusammenhängen – alles auf der Welt scheint unabhängig voneinander zu sein, aber niemand weiß, ob es aus einer gemeinsamen Quelle in der Vergangenheit stammt. Die Verwendung dieser Zufallszahlen zur Durchführung von Experimenten ist so, als würden die Schüler aufgefordert, ihre eigenen Prüfungsbögen zu erstellen, was das Experiment bedeutungslos macht. Nur auf der Grundlage des freien Willens der Menschen getroffene Entscheidungen können diese Störungen beseitigen. Obwohl die Prämisse für die Gültigkeit dieser Logik darin besteht, dass der Mensch tatsächlich über etwas verfügt, das „freier Wille“ genannt wird, ist dies ein anderes Thema. Was waren die Ergebnisse des Big Bell Experiments? Selbst wenn der freie Wille des Menschen als Datenquelle verwendet wird, ist die Quantenphysik immer noch so seltsam. Einstein lag wieder einmal falsch. Wissenschaftler haben schon lange ein Auge auf das große, fette Stück Fleisch geworfen, das Gaming ist. Neben dem Big Bell-Experiment gibt es unzählige Spiele, die der wissenschaftlichen Forschung dienen. So hofft etwa das Videospiel Foldit, bei dem es darum geht, die Faltstruktur von Proteinen zu entschlüsseln, die angeborene Fähigkeit des menschlichen Gehirns zur dreidimensionalen Grafikanpassung zu nutzen, um Computerarbeit zu ersetzen, die viel Rechenleistung erfordert. Im Spiel entschlüsselten die Spieler die Struktur eines Proteins, das Wissenschaftler seit mehr als zehn Jahren untersuchen. Dieses Ergebnis wird bei der Entwicklung von Medikamenten gegen AIDS hilfreich sein.
„Foldit“-Spielbildschirm. © Gfycat Beim Spiel „EyeWirers“ müssen die Spieler die Neuronen in der Netzhaut anordnen. Dabei wird mithilfe der Kraft des Spielers eine neuronale Karte des Gehirns gezeichnet. Ein aus etwa 700 Neuronen bestehendes Netzhautmodell einer Maus wurde fertiggestellt, das den Forschern dabei helfen wird, die Geheimnisse des Gehirns weiter zu erforschen. © eyewirers Blog Es gibt auch ein Spiel namens „Quantum Moves“, bei dem die Spieler einen Pool aus flüssiger Materie bewegen müssen, um die Level zu bestehen. Durch Highscore-Operationen können Wissenschaftler ihre Operationstechniken im Labor optimieren. Beispiele dieser Art gibt es zahllos. Diese Videospiele mit sozialem Zweck weisen natürlich die üblichen Merkmale von Spielen auf: auffällige Grafiken, Herausforderungen, die ein Erfolgserlebnis vermitteln, und Belohnungen, die die Leute zum Weiterspielen anregen. Darüber hinaus können sie Aufgaben erledigen, die scheinbar nur mit Spielen möglich sind. Als das britische Parlament im Jahr 2009 zu massiver Korruption im Zusammenhang mit der Veruntreuung öffentlicher Gelder befragt wurde, war es auf Druck der öffentlichen Meinung gezwungen, detaillierte Rechenschaftsberichte zu veröffentlichen. Allerdings sind die über eine Million vom Parlament veröffentlichten Berichte nicht nur nicht geheim, sondern auch voller Daten in unterschiedlichster Form, etwa Scans und Bildern, und können nicht effektiv durch Computer vereinfacht werden.
© uptown Das Parlament war der Ansicht, dass dies ausreichen würde, um die Menschen zu täuschen und sie aufgrund der enormen Datenmenge von der Nutzung der Daten abzuhalten. Die britische Zeitung The Guardian hatte jedoch eine Idee: die enorme Rechenarbeit per Crowdsourcing an die Öffentlichkeit zu übertragen. Sie beauftragten jemanden, ein einfaches Online-Spiel zu schreiben. Auf ihrer Website können Benutzer Dateien anfordern und selbst Berechnungen durchführen. Sie haben außerdem sorgfältig eine Rangliste der Spielerbeiträge erstellt … Der Name dieses Spiels ist auch sehr direkt: „Untersuchen Sie die Ausgaben Ihres Kongressabgeordneten.“ In weniger als drei Monaten wurden sämtliche Arbeiten zur Berichtserstellung im Übermaß abgeschlossen. Die Beteiligung der Bevölkerung war so groß, dass sie sogar die Differenz zwischen den vom Gesetzgeber ausgewiesenen und den tatsächlichen Treibstoffkosten berechnete … Eine riesige Menge an Arbeit, die einen Buchhalter überfordern kann, wird einfacher, wenn sie von Spielern geteilt wird. Rechenleistung entsteht durch die Leistung der Menschen. Die Rechenleistung ist so groß wie der Himmel <br /> Wir haben festgestellt, dass diese Spiele von den Spielern vor allem Rechenleistung verlangen. Die hier genannte Rechenleistung bezieht sich auf die Datenverarbeitungsfähigkeit des Geräts, die normalerweise von der CPU (Central Processing Unit) und GPU (Graphics Processing Unit) des Spielgeräts abhängt. Moderne Spiele erfordern einen unersättlichen Bedarf an Geräten mit hoher Datenverarbeitungskapazität, was nicht nur schnelle Veränderungen in der Halbleiterindustrie erfordert, sondern auch den Fortschritt der Branche vorantreibt. Wer über die stärkste Chip-Rechenleistung verfügt, wird zum Branchenführer. In der Halbleiterindustrie ist die Rechenleistung das A und O. In der modernen wissenschaftlichen Forschung sind häufig Berechnungen mit großen Tonnagen erforderlich, weshalb selbst Wissenschaftler ein Auge auf dieses Fettstück geworfen haben. Wie erschreckend kann die Rechenleistung einer Spielekonsole sein? So wurde beispielsweise der Export der PS2, einer Spielkonsole, die noch immer den weltweiten Verkaufsrekord hält (über 150 Millionen Einheiten), von Japan einst auf der Grundlage des Devisen- und Außenhandelsgesetzes eingeschränkt, als das Land seine Expansion von Japan auf ausländische Märkte vorbereitete. Denn das Gesetz enthielt eine klare Regelung: Produkte, deren Preis 50.000 Yen übersteigt und die für militärische Zwecke verwendet werden könnten, müssen eine Sondergenehmigung beantragen, wenn sie aus Japan exportiert werden sollen.
Spieler, die PS1 spielten, während sie die ganze Nacht in der Schlange auf die Veröffentlichung der PS2 warteten. © Reddit Welchen militärischen Nutzen könnte eine Spielkonsole haben? Es stellte sich heraus, dass die Vektorgrafik-Rechenkapazität der PS2 damals bis zu 3 Millionen Vektoren pro Sekunde betrug und damit die Supergrafik-Rendering-Kapazitäten vergleichbarer Produkte aus derselben Zeit fast übertraf. Es ist tatsächlich möglich, es für die Simulation und Entwicklung von Raketenleitsystemen zu verwenden – es wird gesagt, dass der Irak dies in der Vergangenheit getan hat. Für eine Spielekonsole ist das eine ganz besondere Ehre. Allerdings stellten Videospiele im Zeitalter der Aufklärung keine übermäßigen Anforderungen an die Hardware. Schließlich konnte man in dieser Zeit der „Materialknappheit“ die Anzahl der Pixel auf dem Bildschirm mit bloßem Auge zählen. Das erste Super Mario-Spiel aus dem Jahr 1985 (ja, das, bei dem man zu Beginn Pilze isst, am Ende Schildkröten besiegt und schließlich den Fahnenmast hinunterrutscht, um die Prinzessin zu retten) hat eine Kapazität von nur erstaunlichen 40 KB. Im Vergleich dazu beträgt die Kapazität des SWITCH-Flaggschiffspiels „The Legend of Zelda: Breath of the Wild“ ganze 13,4 GB, was Platz für 335.000 Original-Marios bietet … © Gfycat Erwarten Sie in den ersten Spielen nicht zu viel von der Grafik. Mit der rasanten Entwicklung der Computerindustrie sind Grafikeffekte für Spiele jedoch immer wichtiger geworden. Als sich die Anforderungen an die Computertechnik in Richtung Massenproduktion verlagerten, entstand ein spezieller Computerchip namens Graphics Processing Unit (GPU). Im August 1999 brachte NVIDIA die weltweit erste echte GPU auf den Markt, und die GPU wurde zu einer weiteren wichtigen Recheneinheit im Computer, unabhängig von der CPU. Dies ist der Beginn einer neuen Geschichte. Was ist der Unterschied zwischen GPU und CPU? Um eine unpassende Analogie zu verwenden: Die CPU ist wie ein Koch, der einen Ochsen zerlegt. Es kann sich gut vorwärts, rückwärts und in die Tiefe bewegen, wobei logische Rechenfähigkeiten seine herausragende Fähigkeit sind. Die GPU ist wie ein Fleischwolf in einer Fleischfabrik. Egal ob Drachenkopf, Hals, Löffelstiel oder Zehen, alle nehmen große Fleischklumpen auf und kommen wieder raus. Es eignet sich besonders gut für Datenaufgaben mit hohem Durchsatz.
Am Ende des Jahrhunderts gehörte der Ruhm der RIVA TNT2-Grafikkarte von NVIDIA. ©wiki Die heutigen GPUs werden immer leistungsfähiger und haben in ihrer Rechenleistung herkömmliche CPUs längst übertroffen. Angesichts einer großen Menge zu verarbeitender Daten haben GPUs immer nur eines zu sagen: „Lass mich das machen.“ In den Anfangsjahren leitete Andrew Ng das Google Brain-Team und gab 1 Million Dollar für die Montage von 1.000 Computern aus. Mit einem leistungsstarken Aufgebot von 16.000 CPUs gelang es ihm schließlich, einer künstlichen Intelligenz zu ermöglichen, eine Katze anhand von 10 Millionen Bildern zu erkennen. Nachdem er die CPU durch eine GPU ersetzt hatte, konnte er die gleiche Aufgabe problemlos mit nur 16 Computern und 64 GPUs erledigen. Diese furchterregende GPU stammt von Nvidia, einer Wunderfabrik, die vom chinesischen Unternehmer Huang Renxun im Silicon Valley gegründet wurde.
Das Katzenbild, für dessen Auffinden 16.000 CPUs benötigt wurden. © JIM WILSON/NYTIMES Es gibt ein Sprichwort: „Es gab Renxun, bevor es den Himmel gab“, und mit einer Grafikkarte in der Hand können Sie die Götter besiegen. Zu Beginn des neuen Jahrhunderts, als Intel und AMD noch immer um die wichtigsten Frequenzen kämpften, wagte Huang ein gewagtes Wagnis: Er startete heimlich innerhalb des Unternehmens ein Projekt namens CUDA, in der Hoffnung, damit eine neue Chipwelt zu erschließen und sich selbst als König zu etablieren. Es ist keine Übertreibung zu sagen, dass die Entwicklung von GPUs direkt von den immer höheren Ansprüchen der Spieler an Spieleffekte vorangetrieben wurde. Von Monochrom zu Farbe, von 2D zu 3D, von frühen Flugzeug-Shooter-Spielen, die ein Pixel pro Sekunde verschoben, zu glatten 240 Bildern pro Sekunde ... wo Nachfrage besteht, wird es einen Markt geben. Doch Lao Huangs Vision geht offensichtlich noch weiter. Huang ist der Ansicht, dass eine GPU nicht nur ein Grafikprozessor sein sollte. Im kommenden Zeitalter hoher Rechenleistungsanforderungen ist eine allgemeine parallele Rechenarchitektur der richtige Weg. Kurz nach der Einführung von CUDA nutzte Andrew Ng es zur Katzenjagd. So kam es zu der oben erwähnten Geschichte. Huang und das von ihm gegründete Unternehmen Nvidia erforschen derzeit vor allem, wie sich die leistungsstarken Rechenressourcen von GPUs mit den enormen Datenverarbeitungsanforderungen künstlicher Intelligenz kombinieren lassen. Es gibt in der Branche eine große Zahl von KI-Startups, die sich alle für die von NVIDIA bereitgestellte Hardwareplattform entschieden haben, was die NVIDIA-Aktie lange Zeit „unerreichbar“ machte. „Die Sprache Gottes“ Als Notre Dame de Paris vor zwei Jahren in Brand geriet, gab es Gerüchte, dass das Spiel „Assassin’s Creed“ viele Spielmodelle des Erscheinungsbilds von Notre Dame beibehalten habe, was beim Wiederaufbau dieser alten Kirche helfen könnte.
Notre Dame de Paris im Videospiel Assassin's Creed. © Pinterest Notre Dame wurde noch nicht restauriert und es ist noch nicht bekannt, in welchem Umfang das Spiel zum eigentlichen Wiederaufbauprozess beitragen wird. Solche Gerüchte verdeutlichen jedoch, dass der Grad der Komplexität moderner Spielegrafiken in der Öffentlichkeit seit langem als hohe Leistung gilt. Auch in die Nicht-Gaming-Anwendungen der GPU setzen wir große Erwartungen. Moderne Großspiele stellen nahezu überhöhte Anforderungen an die Echtzeitleistung und Bildqualität. Dies ist nicht nur auf die erstaunliche Geschwindigkeit der Hardware-Entwicklung zurückzuführen, sondern auch auf die Anstrengungen von Programmierern aller Generationen, die dafür ihr Haar geopfert haben. Ein guter Koch kann nicht ohne Reis kochen. Ohne die genialen Algorithmen der frühen Spieleentwickler, die die Rechenleistung sinnvoll nutzten, wäre selbst die erstaunlichste Hardware nichts weiter als Selbstbewunderung. In der binären Welt sind Algorithmen die Sprache Gottes und Programmierer sind Gott. Wenn man über Spielalgorithmen spricht, kommt man an einer Person nicht vorbei: dem magischen Mann, der als „Mozart der Programmierung“ bekannt ist, John D. Carmack II.
John Carmack. © giphy Was hat dieser alte Mann, der jetzt graue Haare hat, getan? Er entwickelte das weltweit erste Ego-Shooter-Spiel (FPS) „Wolfenstein 3D“, das die Spieler aus der in frühen Spielen üblichen „Gottesperspektive“ in die reale Welt zurückführte und ihnen ermöglichte, das Leben zu erfahren. Für die heutigen Gamer klingt das vielleicht nicht nach viel. Doch zuvor wagten nur wenige Menschen, sich vorzustellen, wie man einen 3D-Spielbildschirm auf einem 2D-Spielbildschirm erstellt. Dies ist eine Dimensionsüberschreitung. Wie hat Carmack das gemacht? Einfach ausgedrückt hat Carmack in „Wolfenstein 3D“ eine 2D-Bildgebungstechnologie namens „Ray Casting Algorithmus“ angewendet. Dieser Algorithmus kann dem Computer nicht nur dabei helfen, in der Head-Up-Perspektive zu bestimmen, ob die vom Spieler abgefeuerte Kugel den Feind oder die Wand trifft, sondern auch verhindern, dass der Computer Rechenleistung an Stellen verschwendet, die der Spieler nicht sehen kann. Daher sind nur geringe Rechenleistungsressourcen erforderlich, um ein Pseudo-3D-Bild mit hohem perspektivischem Effekt zu rendern.
© agenda digitale Den Chinesen vertrautere Spiele wie „Half-Life“ und „Medal of Honor“ und in den letzten Jahren sogar das beliebte „Overwatch“ basieren alle auf Carmacks Algorithmus-Konzept. Heutzutage ist der „Ray-Casting-Algorithmus“ nicht mehr nur auf den Einsatz in Spielen beschränkt, sondern wird auch häufig in der Magnetresonanztomographie und Fernerkundungstechnologie eingesetzt. Damit können Verletzungen im menschlichen Körper aufgespürt und die Landschaft der Welt dargestellt werden. Es ist ein typisches Beispiel dafür, wie Spielalgorithmen Nichtspielern zugute kommen. Obwohl Carmack nicht der erste Erfinder dieses Algorithmus war, war er zweifellos der wichtigste Förderer. Darüber hinaus leistete Carmack zwei wichtige Beiträge zur Computergrafik: die binäre Raumpartitionierung und die Carmack-Inversion. Die binäre Raumtrennung klingt schwierig, ist aber tatsächlich eine Technologie, die den dreidimensionalen Effekt von Szenen in Pseudo-3D-Spielen verstärkt. Mithilfe dieser Technologie können Objekte in der Spielszene anhand räumlicher Beziehungen in eine Baumstruktur eingeteilt werden, sodass der Spielbildschirm keinen einheitlichen Schatteneffekt mehr aufweist, sondern unterschiedliche Schattengrade aufweist, um die Beziehung zwischen Nähe und Ferne zu verbessern und so die Tiefenschärfe des Spiels erheblich zu steigern.
© Wiki Carmack hat diese Technologie erstmals im Spiel „Doom“ eingesetzt. Im Spiel sind die Szenen näher am Spieler heller, während die weiter entfernten Szenen dunkler sind, wodurch ein intensiveres dreidimensionales Gefühl entsteht als in „Wolfenstein 3D“.
Screenshot des Spiels „Wolfenstein 3D“. © Fraps Bei der Carmack-Inversion handelt es sich um einen Algorithmus, der schnell die Umkehrung der Quadratwurzel von Daten berechnet. Dadurch kann der Rechenleistungsbedarf bei schwankenden Lichtwinkeln sowie Projektions- und Reflexionseffekten in computergenerierten Bildern erheblich gesenkt werden. Obwohl noch immer nicht bekannt ist, wer diesen Algorithmus erfunden hat (Carmack hat dies ausdrücklich bestritten), hat Carmacks Anwendung dieses Algorithmus in „Quake“ die Aufmerksamkeit der Öffentlichkeit erregt. Das den Chinesen sehr vertraute Spiel „Counter-Strike“ wurde auf Basis dieser Spiel-Engine entwickelt. Im Jahr 1999 wurde Carmack vom Time Magazine zu einer der 50 einflussreichsten Personen im Technologiebereich gewählt und belegte den 10. Platz. Als erfahrener Spieleprogrammierer förderten Carmacks Innovationen im Spielebereich nicht nur die Entwicklung der Computergrafik, sondern auch den sozialen Fortschritt. Da die Algorithmen von Spielprogrammen immer leistungsfähiger werden, werden die virtuellen Welten, die Game-Engines erstellen können, immer realistischer und faszinierender. Die derzeit leistungsstärkste Game-Engine ist die von Epic entwickelte Unreal-Series-Engine. Branchenkenner sind der Ansicht, dass Unreal 5 eine bahnbrechende Spiele-Engine ist, und zwar hauptsächlich aus zwei Gründen. Erstens kann Nabite, eine neue Rendering-Technologie, die in Unreal 5 eingeführt wurde, hochpräzise Modelle auf Film- und Fernsehniveau in Echtzeit direkt im Spiel rendern, was bedeutet, dass es für Benutzer schwierig sein wird, visuell zu unterscheiden, ob der Spielbildschirm aus der Konstruktion oder der Realität stammt, wodurch die räumliche Simulation weiter realisiert wird. © reddit Die zweite ist die dynamische globale Beleuchtungstechnologie Lumen. Diese Technologie ermöglicht es, dass sich Licht und Schatten im Spiel synchron an die Änderungen der eingestellten Lichtquelle (wie Morgen und Abenddämmerung) und die Weiterentwicklung der Spielperspektive anpassen, sodass die Spielwelt aus einer Zeitdimension heraus glaubwürdig erscheint. Mit solch leistungsstarken Funktionen geht der Anwendungsbereich der Unreal Engine 5 natürlich weit über den Gaming-Bereich hinaus. Mehr als die Hälfte der Aufnahmen der letztjährigen beliebten Fernsehserie „The Mandalorian“ wurden mit Hilfe der Unreal Engine 5 produziert. Die NASA untersucht außerdem, wie sich mit der Unreal Engine 5 eine Weltraumsimulationsumgebung erstellen lässt, die Astronauten das Training am Boden erleichtern soll. Arbeite härter als Menschen
© tweaktown Unreal 5 kann in einer Sekunde Milliarden kleiner dreieckiger Gesichter ausspucken und so eine äußerst trügerische simulierte Welt erschaffen. Dies ist ein Sieg der Algorithmen und der Rechenleistung und macht zugleich den Reiz des Spiels aus: die Schaffung einer simulierten Umgebung, mit der interagiert werden kann. Als Simulationsumgebung bieten Spiele naturgemäß nahezu endlose Versuchs- und Irrtumsmöglichkeiten sowie Einflussfaktoren für die Entwicklung künstlicher Intelligenz. Seit ihrer Entstehung waren Spiele ein wilder und unerschlossener Raum für das Experimentieren und Anwenden künstlicher Intelligenz, und das ist auch heute noch so. Im Februar dieses Jahres gab das MIT bekannt, dass man künstlicher Intelligenz das Spielen von Spielen beibringe, um sie für den Umgang mit unsicheren Situationen zu trainieren. Sie essen Pilze in Super Mario und kämpfen gegen Schweine in Angry Birds. Das Uber-Team ließ in „GTA5“ sogar künstliche Intelligenz auf dem Sunset Boulevard fahren, der auf einer simulierten Umgebung basierte. Seine Fahrdaten werden in die reale Forschung zum autonomen Fahren einfließen. Ich weiß nur nicht, ob die künstliche Intelligenz in „GTA5“ eines Tages die Autotür des NPCs öffnen wird, um das Auto zu stehlen. Künstliche Intelligenz ist seit ihrer Entstehung eng mit Spielen verknüpft. Auf der Canadian National Exhibition 1950 in Toronto war eine vier Meter hohe Maschine mit einem riesigen Bildschirm von Ausstellern umringt. Die Maschine spielt ein Tic-Tac-Toe-Spiel namens „Bertie the Brain“, bei dem Menschen und ein Computer hinter dem Bildschirm nacheinander Züge auf einem großen Bildschirm ausführen, der aus kleinen Glühbirnen besteht. Obwohl das Bild einfach ist, gilt es als das früheste Auftreten künstlicher Intelligenz im Massenbereich. Von dem uralten Tic-Tac-Toe-Spiel über den IBM-Elektroingenieur Arthur Samuel, der in einem Dame-Programm Pionierarbeit für das Konzept des „Maschinellen Lernens“ leistete, bis hin zu AlphaGo, das die besten menschlichen Spieler besiegte: Der Zuwachs an künstlicher Intelligenz in Spielen ist schockierend genug für die Welt. Dieser Prozess hat von seinen Anfängen bis heute nur etwa 70 Jahre gedauert. Sie können nur Ke Jies Tränen nach seiner Niederlage auf der Bühne sehen, aber Sie wissen nicht, wie hart AlphaGo hinter den Kulissen gearbeitet hat. Wie schwer ist es? Als AlphaGo mit Lee Sedol Schach spielte, wurden 1.920 CPUs und 280 GPUs verwendet und die durchschnittliche Stromrechnung für jedes Spiel betrug 3.000 US-Dollar. Als es an der Zeit war, sich Ke Jie zu stellen, gab AlphaGo sogar direkt die traditionelle CPU+GPU-Architektur auf und migrierte stattdessen zu einer Prozessorplattform namens „Tensor Processing Unit“, die speziell für maschinelles Lernen und logisches Denken entwickelt wurde. Ke Jies Tränen sind das Ergebnis seines persönlichen Unwillens, aber auch der Freudentränen, die die Menschheit über den Wohlstand von Wissenschaft und Technologie vergießt. * * * Die neue Version AlphaGo Zero, die 2017 veröffentlicht wurde, lernte durch das Schachspielen mit sich selbst und übertraf alle vorherigen Versionen in nur 40 Tagen. Huang glaubt fest an das Potenzial der Grafikinformatik. „Die Welt hat noch nicht vollständig begriffen, dass alles, was wir tun, für die Menschheit von grundlegender Bedeutung ist.“ Carmack wiederum kam bereits 2013 als Chief Technology Officer zu Oculus VR und machte sich auf den Weg zum nächsten Schlachtfeld. Wo ist das nächste Schlachtfeld? Manche sagen, es sei eine Cyberwelt, in der künstliche Intelligenz die menschliche Arbeit fortsetzt, andere sagen, es sei ein aus der NFT-Technologie geborenes Metaversum, und wieder andere sagen, es sei eine neue Zukunft, die alle Menschen über die Mensch-Computer-Schnittstelle verbindet. Wir wissen nicht, welche Vorhersagen wahr werden, aber eines wissen wir sicher: Ohne den unersättlichen Appetit der Gamer würde die gesamte Computerbranche nicht existieren. Von der Computerbranche bis hin zur ganzen Welt unterliegen Spiele weltbewegenden Veränderungen. Von Kokyo Korrekturlesen/Rabbits leichte Schritte Dieser Artikel basiert auf der Creative Commons License (BY-NC) und wird von Kokyo auf Leviathan veröffentlicht Der Artikel spiegelt nur die Ansichten des Autors wider und stellt nicht unbedingt die Position von Leviathan dar |