Tischtennis-KI hat ein mittleres Niveau erreicht! Ist der Umgang mit der komplexen physikalischen Welt nicht mehr menschliches Fachwissen?

Tischtennis-KI hat ein mittleres Niveau erreicht! Ist der Umgang mit der komplexen physikalischen Welt nicht mehr menschliches Fachwissen?

Tischtennis, bekannt als Chinas „Nationalball“, ist ein weltweit beliebter Ballsport. Um gut Tischtennis zu spielen, sind schnelle Reaktionen, präzise Kontrolle und hervorragende strategische Entscheidungen erforderlich. Mit der Entwicklung der Informatik und Technologie hat sich die Forschung an Tischtennisrobotern zu einem hochinteressanten Gebiet entwickelt, doch die hohen Anforderungen an Geschwindigkeit, Genauigkeit und Zielkontrolle sind zu einer großen Herausforderung in der Robotertechnologie geworden. Im Gegensatz zu Strategiespielen wie Schach und Go müssen Roboter über komplexe Mensch-Computer-Interaktionsfähigkeiten verfügen und Aktionen wie Geräteerkennung, Flugbahnvorhersage und Bewegungsentscheidungen innerhalb von Millisekunden ausführen.

Kürzlich gab DeepMind bekannt, dass sein Forschungs- und Entwicklungsteam einen Tischtennisroboter entwickelt hat, der bei Wettkämpfen das Niveau menschlicher Amateur-Tischtennisspieler erreichen kann. Es kann auf Augenhöhe mit fortgeschrittenen Spielern konkurrieren und sogar einen beträchtlichen Anteil der Punkte gewinnen, wenn es gegen fortgeschrittene Spieler antritt. Das Erstaunlichste daran ist seine Lern- und Anpassungsfähigkeit. In der Anfangsphase von Spielen mit Menschen kann es zurückfallen, aber mit zunehmender Anzahl von Spielen kann es den menschlichen Spielstil simulieren und davon lernen, seine Strategie anpassen und den Punktestand näher heranbringen.

Go wurde von KI-Algorithmen erobert. Wie lange können Menschen ihren Vorsprung bei Tischtenniswettbewerben aufrechterhalten?

Zusammengestellt von | Ren

Nachdem AlphaGo die Menschheit im Go-Spiel erobert hat, hat Google DeepMind vor Kurzem einen weiteren großen Schritt auf den Markt gebracht: diesmal einen Roboter, der es im Tischtennis mit menschlichen Amateurspielern aufnehmen kann. Er kann den Ball nicht nur mit der Vorhand und der Rückhand annehmen, sondern er kann auch die Spielstile verschiedener Gegner erlernen und sich daran anpassen, wobei er eine erstaunliche Flexibilität und Lernfähigkeit zeigt.

Dieser Tischtennisroboter hat derzeit noch keinen Namen, aber das Technologiemedium Arstechnica schlug vor, ihn AlphaPong zu nennen.

Tischtennis, eine Sportart, die schnelle Reaktionen, präzise Kontrolle und strategisches Denken erfordert, gilt seit langem als große Herausforderung für KI und Robotik. Im Gegensatz zu reinen Strategiespielen wie Schach und Go erfordern Tischtennisroboter komplexe Mensch-Computer-Interaktionsfähigkeiten und müssen Entscheidungen und Aktionen innerhalb von Millisekunden treffen.

Die neueste Errungenschaft von Google DeepMind stellt einen wichtigen Fortschritt bei der Anwendung von KI bei Sportwettkämpfen dar. „Dies ist der erste Roboteragent, der im Sport auf dem gleichen Niveau wie Menschen antreten kann, was einen wichtigen Meilenstein in der Roboterlern- und -steuerungstechnologie darstellt“, erklärte das Forschungsteam stolz in dem Artikel.

Wie wird ein Tischtennisroboter trainiert?

Der mechanische Teil dieses Tischtennisroboters stammt vom Roboterarm Modell IRB 1100 von ABB. Es handelt sich um einen der kompaktesten und leichtesten Sechsachsenroboter von ABB. Es verfügt über 6 aktive Gelenke und ist auf zwei linearen Schienen installiert, sodass es sich frei in einer 2D-Ebene bewegen und die meisten Bereiche des Tisches abdecken kann. Das Ende des Roboterarms ist mit einem 3D-gedruckten Schlägergriff und einem handelsüblichen Tischtennisschläger aus Gummi ausgestattet. Dieser Aufbau ahmt den horizontalen Griff eines menschlichen Spielers nach und ermöglicht dem Roboter, eine Vielzahl gängiger technischer Tischtennisbewegungen auszuführen.

Das „Gehirn“ des Tischtennisroboters ist ein komplexes KI-System, das zudem mit Hochgeschwindigkeitskameras ausgestattet ist, um die Bewegungen des Spielers und die Flugbahn des Tischtennisballs in Echtzeit zu erfassen. Es wird eine mehrschichtige und modulare Strategiearchitektur übernommen. Diese Architektur besteht hauptsächlich aus zwei Teilen: Low-Level-Controller (LLC) und High-Level-Controller (HLC).

LLC ist eine Reihe neuronaler Netzwerke, die darauf trainiert sind, bestimmte Tischtennisfähigkeiten auszuführen, wie etwa Vorhand- und Rückhandschläge, Returnschläge, Aufschlagreturns usw. Zu LLCs können Cross-Court-Schläge mit der Vorhand, konservative Rückhandschläge und das Returnen von Unterschnittschlägen mit der Vorhand gehören.

LLC sammelt und speichert außerdem detaillierte Fähigkeitsbeschreibungen, um ihre Stärken und Schwächen in verschiedenen Situationen zu veranschaulichen und so eine wichtige Referenz für die Kontrolle durch das obere Management bereitzustellen. LLC verwendet eine Convolutional Neural Network (CNN)-Architektur, die 50-Hz-Gelenkgeschwindigkeitsbefehle direkt aus visuellen Eingaben generieren kann, um eine präzise Bewegungssteuerung zu erreichen.

Der HLC ist der Kommandant, der den LLC koordiniert, um bei jedem Ball die beste strategische Entscheidung basierend auf aktuellen Spielstatistiken, Fähigkeitsbeschreibungen und den Fähigkeiten des Gegners zu treffen. HLC enthält mehrere Schlüsselkomponenten, unter anderem bestimmt die Stilstrategie, ob die Vorhand oder die Rückhand verwendet wird; der Rotationsklassifizierer identifiziert die Rotation des ankommenden Balls; das Spielstatistikmodul verfolgt die Leistung des Gegners und des Roboters; Das Strategiemodul verwendet die vorherigen Komponenten als Eingabe, um eine Liste mit LLC-Kandidaten zu erstellen. und das LLC-Präferenzmodul schätzt die Leistung jedes LLC gegenüber dem aktuellen Gegner und aktualisiert sie nach jedem Schlag, wodurch ein Lernen in Echtzeit und eine Anpassung an die Eigenschaften des Gegners erreicht wird.

Diese mehrschichtige Architektur ermöglicht es dem Roboter, innerhalb von Millisekunden komplexe Entscheidungen zu treffen und so sowohl Reaktionsgeschwindigkeit als auch Handlungsgenauigkeit sicherzustellen.

Von virtuell zu real

Der Trainingsprozess dieses Tischtennis-Robotersystems kombiniert die Vorteile des bestärkenden Lernens und des imitierenden Lernens und verwendet einen innovativen iterativen Ansatz, um die Herausforderungen des Übergangs von der virtuellen Welt zur Realität zu bewältigen.

Zunächst setzte das Forschungsteam den Roboter in der realen Welt ein und sammelte Daten zur Interaktion mit Menschen. Durch iterative Trainingszyklen des Datensatzes, dessen Auswertung in der realen Welt und die Erweiterung des Datensatzes mit annotierten Auswertungsdaten erhielt das Forschungsteam schließlich eine große Menge an Ballstatus- und Aufschlagdaten.

Anschließend verwendeten sie einen Verstärkungslernalgorithmus, um das KI-System in einer sorgfältig entworfenen simulierten Umgebung zu trainieren. Diese Simulationsumgebung verwendet die MuJoCo-Physik-Engine, die es Ihnen ermöglicht, in der Simulation verschiedene Schlägerparameter umzuschalten, um die Topspin- und Backspin-Effekte in der realen Welt zu simulieren.

Nach dem Training wird das KI-System direkt auf einem echten Roboter eingesetzt, um gegen menschliche Spieler anzutreten. Die in diesem Prozess generierten neuen Daten werden zum Aktualisieren des Trainings verwendet und bilden einen iterativen Zyklus: Training – Bereitstellung – Datenerfassung – erneutes Training.

Auf diese Weise werden die Fähigkeiten des Roboters im Prozess der Verknüpfung von Simulation und Realität ständig verbessert und der Wettbewerb schrittweise komplexer.

Ein wesentlicher Vorteil dieses iterativen Ansatzes besteht darin, dass der Roboter im tatsächlichen Kampf Lücken in seinen Fähigkeiten entdecken und diese Defizite dann durch kontinuierliches Training in simulierten Umgebungen ausgleichen kann. Diese Fähigkeit zur Selbstverbesserung ermöglicht es ihm, sich ständig an neue Gegner und Spielstile anzupassen.

Tatsächliche Leistung

Um die tatsächliche Leistung des Roboters zu bewerten, führte das Forschungsteam eine umfassende Benutzerstudie durch. Sie führten zunächst eine Pilotstudie durch, in der ein professioneller Tischtennistrainer das Niveau von 59 Freiwilligen beurteilte und sie in vier Stufen einteilte: Anfänger, Mittelstufe, Fortgeschrittene und Fortgeschrittene+.

In der formellen Benutzerstudie spielten 29 Teilnehmer drei Spiele gegen den Roboter, mit einer optionalen kostenlosen Übungseinheit. Der Hauptindikator der Studie ist die Punktzahl des Roboters im Spiel gegen menschliche Spieler. Darüber hinaus analysierten die Forscher auch die Spielvideos.

Die Ergebnisse waren beeindruckend:

Der Roboter gewann 45 % aller Spiele, 46 % aller Runden und erzielte 49 % aller Punkte.

Beim Spiel gegen Anfänger hat der Roboter eine Gewinnrate von 100 %.

Gegen mittelmäßige Spieler gewann der Roboter 55 % seiner Spiele und 50 % seiner Runden.

Gegen Advanced- und Advanced+-Spieler gewann der Roboter keine Spiele oder Innings, erzielte aber dennoch 34 % der Punkte.

Diese Daten zeigen, dass die Gesamtleistung des Roboters das Niveau von Amateurspielern erreicht hat und er in der Lage ist, auf Augenhöhe mit fortgeschrittenen Spielern zu konkurrieren und sogar einen beträchtlichen Anteil an Punkten gegen fortgeschrittene Spieler zu gewinnen.

Eine der erstaunlichsten Eigenschaften des Roboters ist seine Fähigkeit, sich in Echtzeit anzupassen. Die Forscher stellten fest, dass der Roboter in der Anfangsphase eines Spiels zwar in Rückstand geraten konnte, sich im weiteren Spielverlauf jedoch schnell an das Spiel seines Gegners anpassen und seine Strategie ändern konnte, um den Punktestand zu verkürzen.

Auch das Feedback der Teilnehmer war sehr positiv. Spieler aller Fähigkeitsstufen fanden die Spiele gegen die Bots unterhaltsam und äußerten Interesse, erneut gegen sie zu spielen. In Interviews nach dem Spiel verwendeten die Spieler Wörter wie „lustig“ und „aufregend“, um die Bots zu beschreiben.

Es ist erwähnenswert, dass Spieler mit unterschiedlichen Fähigkeiten Bots etwas anders betrachten. Anfänger und Spieler mit mittlerem Niveau fanden den Bot anspruchsvoller, während fortgeschrittene und fortgeschrittene+ Spieler ihn spannender und unterhaltsamer fanden. Dies zeigt, dass sich die Bots an Gegner mit unterschiedlichen Fähigkeiten anpassen können und so für alle Spielertypen genau das richtige Maß an Herausforderung und Spaß bieten.

Auch hierauf legen die Forscher besonderes Augenmerk. Dieses unterhaltsame, interaktive Erlebnis unterstreicht das Potenzial der KI im Sporttraining und in der Unterhaltung. Stellen Sie sich einen unermüdlichen Trainingspartner vor, der sich Ihrem Niveau anpasst, Sie an Ihre Grenzen bringt und Ihnen dabei immer wieder Spaß bereitet. Solche KI-Trainer könnten die Art und Weise, wie wir Sport lernen und ausüben, revolutionieren.

Einschränkungen und Herausforderungen

Trotz seiner insgesamt beeindruckenden Leistung weist der Roboter noch einige Einschränkungen auf. Der erste Grund besteht darin, dass es noch nicht weiß, wie man dient, und sich nur auf die Dienste von Menschen verlassen kann.

Zweitens stellte das Forschungsteam fest, dass die Leistung beim Umgang mit extrem schnellen Bällen, extrem niedrigen Bällen und hohen Bällen schlecht war und es schwierig war, Bälle mit starkem Spin genau einzuschätzen. Zudem ist seine Rückhandtechnik im Vergleich zur Vorhand noch deutlich verbesserungswürdig.

Eine besonders ausgeprägte Schwäche ist der Umgang mit Unterschnittbällen. Bei Bällen mit Rückwärtsdrall sinkt die Trefferquote des Roboters auf dem Tisch erheblich.

Die Forscher erklärten, dass dies hauptsächlich daran liege, dass es für den Roboter schwierig sei, einen Ball mit niedrigem Bogen und nahe am Tisch präzise zu steuern, um ein Auftreffen auf dem Tisch zu vermeiden. Gleichzeitig gibt es technische Einschränkungen bei der Bestimmung der Spinart des Balls in Echtzeit.

Diese Herausforderungen weisen in die Richtung zukünftiger Forschung. Beispiele hierfür sind die Reduzierung der Latenz durch fortschrittlichere Steuerungsalgorithmen und Hardwareoptimierung, die Entwicklung komplexerer Algorithmen zur Kollisionserkennung und -vermeidung für den Umgang mit niedrigen Bällen, die Erforschung besserer Möglichkeiten zur Strategieformulierung und sogar die Möglichkeit, dass Roboter gegeneinander kämpfen.

Man kann sagen, dass die neuesten Errungenschaften von DeepMind das große Potenzial von KI und Robotik bei komplexen Aufgaben der physischen Welt demonstrieren. Die Anwendung dieser Technologie wird weit über Tischtennis hinausgehen. Es kann auf verschiedene Roboteraufgaben erweitert werden, die eine schnelle Reaktion und Anpassung an unvorhersehbares menschliches Verhalten erfordern, wodurch ein höheres Maß an Mensch-Roboter-Zusammenarbeit erreicht wird.

Ein Forscher auf dem Gebiet der künstlichen Intelligenz und großer Modelle sagte gegenüber FanPu, dass AlphaPong derzeit die Übungsbedürfnisse der meisten Tischtennisbegeisterten erfüllen könne. Aus langfristiger Entwicklungsperspektive müssen mehr Daten gesammelt werden, darunter auch Daten zu verschiedenen menschlichen Fähigkeiten wie Spinbällen und Finten, und dann Menschen durch leistungsstarke KI-Algorithmen besiegt werden. Es ist jedoch noch unbekannt, wie viel es „sehen“ kann. Später steht Alphapong möglicherweise vor der Herausforderung, bestehende Modelle unter anderen Bedingungen zu optimieren.

Stellen Sie sich vor, jeder Sportler hätte einen KI-Trainingspartner, der den Stil der weltbesten Spieler nachahmen und gleichzeitig den Schwierigkeitsgrad an seine persönlichen Eigenschaften anpassen kann. Dadurch wird das Training nicht nur effizienter, sondern die Sportler verstehen und verbessern auch ihre Technik besser.

Mit dem weiteren technologischen Fortschritt können wir davon ausgehen, dass in verschiedenen Bereichen weitere ähnliche KI-Systeme entstehen werden. Sie sind nicht hier, um Menschen zu ersetzen, sondern um uns zu unterstützen, zu inspirieren und herauszufordern und uns dazu zu bringen, die Grenzen des menschlichen Potenzials zu erkunden.

Besondere Tipps

1. Gehen Sie zur „Featured Column“ unten im Menü des öffentlichen WeChat-Kontos „Fanpu“, um eine Reihe populärwissenschaftlicher Artikel zu verschiedenen Themen zu lesen.

2. „Fanpu“ bietet die Funktion, Artikel nach Monat zu suchen. Folgen Sie dem offiziellen Account und antworten Sie mit der vierstelligen Jahreszahl + Monat, also etwa „1903“, um den Artikelindex für März 2019 zu erhalten, usw.

Copyright-Erklärung: Einzelpersonen können diesen Artikel gerne weiterleiten, es ist jedoch keinem Medium und keiner Organisation gestattet, ihn ohne Genehmigung nachzudrucken oder Auszüge daraus zu verwenden. Für eine Nachdruckgenehmigung wenden Sie sich bitte an den Backstage-Bereich des öffentlichen WeChat-Kontos „Fanpu“.

<<:  Stimmt es, dass „Aurora zum ersten Mal in Chongqing erschien“? Der Starfotograf steht Ihnen für Fragen gerne zur Verfügung!

>>:  Honig verdirbt nicht und kann Tausende von Jahren gelagert werden? Mit dieser Wahrheit hätte ich nie gerechnet ...

Artikel empfehlen

Wie trainiert man die Taillenstärke?

Wie man die Taillenstärke effektiv trainiert, ist...

Teilen Sie morgendliche Yoga-Schlankheitsübungen

Beneiden Sie auch die Menschen mit einer guten Fi...

Sieben Techniken für den Flop-Hochsprung

Der Flop ist eine Art Hochsprung, bei dem eine an...

Welche Übungen gibt es zum Schutz der Knie?

Das Knie ist ein wichtiger Knotenpunkt im menschl...

Baojun 510th Anniversary Special Edition erscheint bald

Offiziellen Angaben von Baojun Automobile zufolge...

Welche Vorteile hat regelmäßiges Schwimmen?

Schwimmen ist in unserem Leben zu einer weit verb...

China Passenger Car Association: Marktanalyse für Pickup-Trucks im Mai 2022

Nach Angaben der China Passenger Car Association ...

Könnten diese besonderen Darmbakterien das Geheimnis eines langen Lebens sein?

Der älteste Mensch der Welt, der Japaner Tanaka K...