Tröste dich, wenn du unglücklich bist, und freue dich mit dir, wenn du glücklich bist ... Wie weit sind wir von einem solchen Roboter entfernt?

Tröste dich, wenn du unglücklich bist, und freue dich mit dir, wenn du glücklich bist ... Wie weit sind wir von einem solchen Roboter entfernt?

Zitat:

Wenn es um emotionale Roboter geht, haben Science-Fiction-Autoren viele berührende Bilder geschaffen.

Am nächsten steht uns MOSS im Film „Die wandernde Erde“, der sagte: „Es ist in der Tat ein Luxus, den Menschen für immer rational bleiben zu lassen“, aber er hat Liu Peiqiang bis zum Ende treu begleitet.

Doch zurück zur Realität: Die Verbesserung der emotionalen Intelligenz von Robotern ist immer noch ein Problem und eine Schwierigkeit, die Wissenschaftler lösen müssen.

Zu den zehn wichtigsten wissenschaftlichen Themen, ingenieurwissenschaftlichen und technischen Problemen sowie Themen der Industrietechnologie für 2024, die von der Chinesischen Gesellschaft für Wissenschaft und Technologie veröffentlicht wurden, gehört die „Forschung zu digitalen Menschen und Robotern mit Emotionen und Intelligenz“, die von der Chinesischen Gesellschaft für Bild und Grafik vorgeschlagen wurde.

Wie weit ist also die „emotionale Intelligenz“ digitaler Menschen und Roboter mittlerweile entwickelt? Wie sehen in den Augen der Wissenschaftler ideale digitale Menschen und Roboter aus?

Wir haben Gao Yue, einen der Personen, die diese Frage gestellt haben, Mitglied des Ständigen Ausschusses des Fachausschusses für Emotional Computing and Understanding der Chinese Society of Image and Graphics und außerordentlicher Professor an der Tsinghua-Universität, zu einem Gespräch eingeladen.

Der folgende Inhalt ist gemäß der Erzählung von Gao Yue organisiert:

Text:

Das Thema „ Forschung zu digitalen Menschen und Robotern mit Emotionen und Intelligenz “ ist das Ergebnis gemeinsamer Überlegungen des Affective Computing Committee unserer Society of Image and Graphics und stellt zugleich ein zentrales wissenschaftliches Thema dar, mit dem sich viele unserer Kollegen im Laufe der Jahre beschäftigt haben.

Heutzutage entwickelt sich die künstliche Intelligenz sehr schnell. Mit dem Aufkommen von Technologien wie AlphaGo wurden in vielen Szenarien sehr wichtige Durchbrüche erzielt. In den letzten zwei Jahren haben sich auch Technologien wie verkörperte Intelligenz rasant weiterentwickelt, was die Entscheidungsfindung sowie die intelligente Analyse und Verarbeitung erheblich vorangetrieben hat.

Es sollte darauf hingewiesen werden, dass wir in unserem Lebensumfeld viel emotional mit Menschen, Dingen und Ereignissen in der Außenwelt kommunizieren. Es ist tatsächlich sehr wichtig, diese Technologien und Geräte intelligent zu machen und dabei auch die emotionale Kommunikation zu berücksichtigen. Darüber haben wir auch nachgedacht.

Der Roboter „Nr. 5“ im Film „Thunderbolt 5“ Bildquelle: Screenshot aus dem Film „Thunderbolt 5“

Wie sehen digitale Menschen und Roboter mit sowohl emotionaler als auch Intelligenz im Idealfall aus?

Digitale Menschen werden hauptsächlich im virtuellen Raum simuliert , mit mehr Gestaltungsspielraum, der einige Szenen bietet, die schwer zu erkennen sind oder unseren Alltag bereichern; Roboter hingegen befinden sich eher im realen Raum , können gesehen und berührt werden und können verhaltensmäßig und sogar physisch mit uns interagieren, was größere Herausforderungen mit sich bringt.

Aus Anwendungssicht dringen digitale Menschen und Roboter immer weiter in die von uns erwarteten Szenarien vor.

Beispielsweise sehen wir heute viele digitale Menschen auf Internetplattformen, die über Neuigkeiten berichten oder interessante Geschichten erzählen. In den letzten zwei Jahren haben diese digitalen Menschen zwar den Mund geöffnet, um zu sprechen oder andere Bewegungen auszuführen, aber sie sind sehr mechanisch und man erkennt wahrscheinlich auf den ersten Blick, dass sie unecht sind. Heutzutage ist der Simulationsgrad vieler digitaler Menschen sehr gut und sie werden von vielen emotionalen Ausdrücken oder Bewegungen begleitet.

Die Nachrichtenagentur Xinhua hat zuvor eine 3D-Version eines künstlichen KI-Ankers herausgebracht. Bildquelle: Nachrichtenagentur Xinhua

Gleichzeitig gibt es in unserem Alltag bereits viele automatisierte Roboter, beispielsweise Roboter in Fabriken und Roboter, die Kaffee kochen. Doch die Interaktion zwischen ihnen und uns ist möglicherweise nur noch eine relativ mechanische Interaktion. Sie senden einen Befehl, Sie erhalten eine Rückmeldung und der Befehl wird für Sie ausgeführt, beispielsweise indem er Ihnen eine Tasse Kaffee zubereitet oder ein Autoteil herstellt.

Wir Menschen brauchen jedoch immer noch viele emotionale Interaktionen mit der Außenwelt und hoffen, uns in die umgebende Umwelt einzufügen . So können Sie beispielsweise zu Hause mit den Katzen und Hunden spielen und diese können Sie begleiten. Viele Freunde, die den Zeichentrickfilm „Doraemon“ gesehen haben, würden vielleicht gern einen Doraemon zu Hause haben, nicht nur, weil er einem alles aus der Tasche holen kann, was man möchte, sondern auch, weil er wie ein Freund ist, einen tröstet, wenn man unglücklich ist, und einen begleitet, wenn man glücklich ist – das ist ein sehr typisches Beispiel für die „ Integration von Robotern ins Leben “, und die Integration geschieht auf ganz natürliche Weise.

Bildquelle: Screenshot aus dem Anime Doraemon

Emotionale Interaktionen sind für uns Menschen sehr wichtig. Im täglichen Leben wünschen wir uns alle jemanden, mit dem wir emotional kommunizieren können. Ob Roboter oder digitaler Mensch: Wir hoffen, dass er nicht nur ein Werkzeug zur Erledigung von Aufgaben ist, sondern sich besser in unser Leben integrieren lässt.

Beispielsweise ist der intelligente Begleitroboter, der in den letzten zwei Jahren viel Aufmerksamkeit erregt hat, definitiv nicht nur eine kalte Maschine. Wenn Ihre Kaffeemaschine plötzlich auf Sie zukommt und fragt, ob Sie Kaffee möchten, kann das eine seltsame Szene sein. Aber wenn es Sie nach Ihrer Meinung fragen, Ihre Gedanken verstehen und sogar Ihren aktuellen Zustand anhand Ihrer Bewegungen und Lebensgewohnheiten erkennen kann, ist dies eine Richtung, in die wir in Zukunft arbeiten können.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Wie bewertet man die emotionale Intelligenz digitaler Menschen oder Roboter?

Auch die Frage, wie die „emotionale Intelligenz“ von Robotern oder digitalen Menschen bewertet werden kann, beschäftigt die Wissenschaft sehr, denn sie ist schwieriger als die Bewertung der Intelligenz.

Wenn wir den Grad der Intelligenz quantitativ bewerten möchten, können wir nun für unterschiedliche Aufgaben unterschiedliche Bewertungsindikatoren entwerfen. Beispielsweise gibt es beim autonomen Fahren mittlerweile verschiedene Level von L0 bis L5. Aus emotionaler oder sentimentaler Sicht ist es jedoch immer noch schwierig, dies zu quantifizieren. Beispielsweise können wir als Reaktion auf etwas, egal ob glücklich oder unglücklich, natürlich eine Skala mit einem Glücksniveau von 1 bis 10 erstellen, aber das ist tatsächlich schwer zu definieren.

Wir alle hoffen natürlich, dass digitale Menschen und Roboter nahtlos mit Menschen kommunizieren können. Ein früher sehr typischer Test war der „Turing-Test“, bei dem es darum ging, zu beurteilen, ob eine Maschine es Menschen ermöglicht, zu unterscheiden, ob es sich um einen Menschen oder eine Maschine handelt. Ähnlich verhält es sich mit der Bewertung aus der emotionalen Dimension. Wie lässt sich die Stärke der emotionalen Kommunikationsfähigkeit und die Wirksamkeit emotionaler Motivation bewerten? Wir können dies jetzt bei vielen spezifischen Aufgaben bewerten, beispielsweise bei der Beurteilung von Emotionen anhand von Gesichtsausdrücken. Ein allgemeineres und umfassenderes Analysemodell bedarf jedoch noch weiterer Untersuchungen und einiger standardisierter Auswertungen, um einen Standard für die Bewertung zu schaffen, „welchen emotionalen Zustand sie erreicht haben“. Dies wird in Zukunft definitiv notwendig sein.

Was ist so schwierig daran, „ emotional und intellektuell ausgeglichen “ zu sein ?

Wie bereits erwähnt, sehen digitale Menschen mittlerweile sehr real aus. Dies ist eigentlich auf Überlegungen aus der Dimension der Computergrafik und der virtuellen Realität zurückzuführen, wie man ihre Bewegungen kontinuierlicher und die Simulationsszenen realistischer gestalten kann. Dabei wird das Problem aus der Perspektive des Erscheinungsbilds betrachtet.

Wenn uns jedoch „Emotion und Intelligenz“ am Herzen liegen, sollten wir bei der Reaktion auf externes Feedback neben der Authentizität des Auftretens auch stärker auf den emotionalen Ausdruck und die genaue Beurteilung der Emotionen achten.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Um digitalen Menschen und Robotern dies besser zu ermöglichen, müssen wir die Entstehungsmechanismen menschlicher Emotionen und einiger Darstellungen aus einer grundlegenderen Perspektive verstehen. Mit anderen Worten: Wir müssen digitalen Menschen und Robotern nicht nur beibringen, menschliche Emotionen anhand externer Signale zu analysieren und zu beurteilen, sondern wir müssen auch die emotionalen Zustände des Menschen aus der Perspektive des menschlichen Gehirns selbst verstehen, etwa welche Änderungen und Auswirkungen in verschiedenen Szenarien auftreten. Beispielsweise weisen manche Patienten mit bestimmten Erkrankungen, etwa Kinder mit Depressionen oder Autismus, auch gewisse Unterschiede in ihrem emotionalen Zustand im Vergleich zu normalen Menschen auf. Daher ist es sehr wichtig, diese Unterschiede besser zu erkennen. Wir können beispielsweise einen Roboter bauen, der uns beim Bau eines Autos oder beim Einschenken von Kaffee hilft. Er kann uns aber möglicherweise auch dabei helfen, Krankheitsvorläufer zu erkennen, oder er kann uns bei der Betreuung von Menschen mit Autismus oder kognitiven Beeinträchtigungen diagnostische Dienste oder emotionale Betreuung bieten.

Wir hoffen, dass Roboter und digitale Menschen den Menschen weiterhin sowohl aus emotionaler als auch aus intellektueller Perspektive begegnen können. Natürlich haben wir bei der Erforschung unserer eigenen emotionalen kognitiven Fähigkeiten noch einen langen Weg vor uns.

Ich denke, dass wir einerseits das Niveau der Forschung zur kognitiven Gehirnfunktion verbessern müssen. Das Gehirn ist so komplex, dass wir noch weit davon entfernt sind, seine Funktionsweise und sogar unsere eigene Wahrnehmung, die Ursachen von Emotionen und die Analyse von Gefühlen vollständig zu verstehen. Es ist noch ein langer Weg. Andererseits bedarf es auch neuer Technologien, um die Fähigkeiten dieser digitalen Menschen und Roboter weiter zu verbessern. Diese beiden Linien mögen sich beide vorwärts bewegen, aber wie sie zusammengeführt werden können und wohin der endgültige Weg führen wird, wird eine lange Erkundungsphase erfordern.

Wenn wir über viele Daten verfügen, um Stimmungsberechnungen und Gefühlsbeurteilungen durchzuführen, diese Daten zum Trainieren einiger Modelle verwenden und sie dann verwenden, um zu beurteilen, was die normalen Gefühle der Menschen in dieser Situation sind, dann gehört dies meiner Meinung nach zur ersten Phase.

Doch in der allgemeineren Phase der Zukunft ist es auch notwendig, die spezifischen emotionalen Unterschiede zwischen verschiedenen Personengruppen und sogar die Unterschiede in verschiedenen Regionen oder bestimmten Umgebungen zu berücksichtigen. Diese individuellen und vielfältigen Merkmale erschweren die emotionale Verarbeitung und Beurteilung von Emotionen erheblich.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Aus dieser Perspektive ist es tatsächlich schwierig, digitalen Menschen und Robotern eine emotionale Interaktion mit Menschen zu ermöglichen. Denn jeder Mensch ist ein eigenständiges Individuum und eine Personalisierung an sich ist schwierig. Wenn Sie sich beispielsweise einen Witz aus einer Talkshow anhören, wird jeder Zuschauer sicherlich ein anderes Feedback geben, es ist jedoch schwierig, einen Witz mechanisch 100 Mal für jede Person zu wiederholen, um Feedback zu sammeln und Untersuchungen durchzuführen.

In diesem Fall ist es sehr wichtig, in Echtzeit Feedback auf der Grundlage externer Reaktionen zu geben und das Tempo hierfür anzupassen. Wir Menschen können das vielleicht besser, aber wenn wir möchten, dass Roboter angemesseneres, personalisiertes Feedback geben, müssen noch viele technische Schwierigkeiten überwunden werden.

Wenn wir beispielsweise Dinge in der Außenwelt betrachten, erhalten wir viele visuelle Daten, akustische Daten und andere Sinnesdaten. Diese Reaktionen auf die Außenwelt lassen sich oft nicht einfach auf wenige konkrete Situationen nach eins, zwei, drei oder vier reduzieren und ihre inneren Zusammenhänge sind komplexer. Es ist wie beim Münzwurf: Entweder Kopf oder Zahl, aber jetzt können Sie sehen, dass die Zahl auch in der Mitte schwanken kann, was die Beurteilung noch schwieriger macht.

Da viele sensorische Informationsdaten möglicherweise nicht vollständig sind, ist es für uns schwierig, eine Person zur Beobachtung in ein Gerät voller Kameras und verschiedener Sensoren zu setzen. Dies würde den Versuchspersonen großes Unbehagen bereiten und ist schwer zu erreichen. Noch schwieriger ist es, den aktuellen Zustand einer Person besser zu verstehen und Feedback zu geben, wenn intelligente Modelle nur auf der Grundlage begrenzter lokaler Informationen trainiert werden.

Darüber hinaus müssen beim Einbetten dieser Modelle oder Methoden in digitale Menschen oder Roboter noch viele Probleme gelöst werden, um eine Interaktion mit Ihnen zu ermöglichen. Wenn wir ihm beispielsweise im Hinblick auf die Rechenleistung etwas sagen, dauert es 10 Sekunden, bis er uns eine Rückmeldung gibt. Es fühlt sich an, als ob es feststeckt, und die Erfahrung wird sehr schlecht sein. Um Feedback in Echtzeit bereitstellen zu können, müssen wir sowohl Probleme der Rechenleistung als auch der Hardware (einschließlich Chips) lösen, die alle verbessert werden müssen.

Wie kann man das Problem lösen?

Hinter den „digitalen Menschen und Robotern mit sowohl emotionaler Intelligenz als auch Kognition“ verbergen sich tatsächlich sehr komplexe Sachverhalte und es gibt viele technische Schwierigkeiten, die nach und nach gelöst werden müssen.

Dabei geht es um mehrere Aspekte des Problems.

Einerseits bedarf es umfangreicherer Daten.

Viele Methoden der künstlichen Intelligenz benötigen Datenunterstützung. In den letzten Jahren haben sich immer mehr Forscher auf emotionales Computing konzentriert und konnten mehr Daten zur Unterstützung des Modelltrainings erhalten. Darüber hinaus haben mit der Weiterentwicklung der Hardwaretechnologie auch die Rechenleistung und die Sensortechnologie rapide zugenommen, was die Datenerfassung vereinfacht. Beispielsweise war es früher sehr schwierig, EEG-Daten zu erfassen, doch heute ist die Verwendung von EEG-Erfassungsgeräten relativ einfach.

Auch die Forschung im Bereich der Medizin, Psychologie und Neurowissenschaften im Zusammenhang mit Emotionen hat in den letzten Jahren rasante Fortschritte gemacht. Zahlreiche Forschungsarbeiten werden gemeinsam mit Ärzten verwandter Fachrichtungen diskutiert und erforscht. Zahlreiche Folgedaten können uns dabei helfen, die emotionalen Zustände von Menschen, einschließlich der Unterschiede zwischen internen und externen Darstellungen, besser zu modellieren und zu verstehen. Diese können uns auch dabei helfen zu verstehen, welche Faktoren mit menschlichen Emotionen in Zusammenhang stehen und welche Beziehung zwischen den äußeren Repräsentationen einer Person wie Sprache und Verhalten und den Veränderungen in ihrem Gehirn besteht, was uns wiederum dabei helfen kann, die Emotionen von Menschen einzuschätzen. Die Integration dieser interdisziplinären Themen bietet auch einen wichtigen Durchbruch für die emotionale Wahrnehmung und das Verständnis.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Darüber hinaus ist auch die Weiterentwicklung der Hardwaretechnologie sehr wichtig.

Digitale Menschen benötigen möglicherweise keine Hardwareform und können über Geräte wie Kopfhörer und Bildschirme mit Ihnen interagieren. Aber Roboter müssen das Trägerproblem lösen. In manchen Szenarien kann der Roboter das Auto anheben, in anderen Szenarien möchten Sie jedoch auch, dass er Ihnen sanft die Hand schüttelt. Wenn wir bei vielen praktischen Aktivitäten möchten, dass sie das Gewünschte präzise und in Echtzeit tun, ist auf jeden Fall die Einbeziehung anderer Bereiche wie Maschinen, Materialien und Sensoren erforderlich.

Planung und Produktion

Befragter Experte: Gao Yue, Außerordentlicher Professor der Tsinghua-Universität, Ständiges Mitglied des Ausschusses für Emotionales Rechnen und Verstehen der Chinesischen Gesellschaft für Bild und Grafik

Zusammengestellt von Yang Yang

Planung丨Sun Jingya Chinesische Gesellschaft für Bild und Grafik

Dingzong

Herausgeber: Yang Yang

Korrekturgelesen von Xu Lailinlin

<<:  Doppelte Warnung vor starkem Regen und starker Konvektion! Wie können in der kritischen Phase des Hochwasserschutzes wissenschaftliche Vorkehrungen getroffen und Risiken vermieden werden?

>>:  Teewissenschaft | Die Ursprünge der stark duftenden Teebaumsorten aus Fujian aus den „Post-90ern“ und „Post-00ern“ enthüllt!

Artikel empfehlen

Traffic-Analyse der Top 10 der deutschen E-Commerce-Websites im August 2014

eins. Ranking deutscher Shopping-Websites (Top 10...

Was sind die Vorteile von Tai Chi?

Tai Chi ist mir nicht unbekannt. Es ist ein sehr ...

Wie trainiert man effektiv mit Hanteln?

Hanteln sind ein weit verbreitetes Fitnessgerät. ...

Wann sollten Sie Schlankheits-Yoga praktizieren?

Unsere Freundinnen von heute legen alle großen We...

So trainieren Sie die Schultermuskulatur

Bei Fitnessübungen kommt bei männlichen Freunden ...

Welche Bodybuilding-Trainingsmethoden für den Deltamuskel gibt es?

Der Muskelaufbau ist ein Prozess, der eine lange ...

Wie formuliert man einen Muskelaufbauplan?

Jeder weiß, dass man selbst bei täglichem Trainin...

China Mobile A4s-Test: Extreme Einfachheit und großartiges Erlebnis sind Trumpf

  [China Mobile Review] Mit der Steigerung des Kon...

So trainieren Sie die oberen Brustmuskeln, um satt zu sein

Das Trainieren der oberen Brustmuskulatur ist ein...

Ctrip: Nationaler Tourismuskonsumbericht 2019

Im Jahr 2019 stieg die nationale Nachfrage nach T...

Wie oft sollte man Seilspringen, um abzunehmen?

Mit der Entwicklung und dem Fortschritt der moder...

So trainieren Sie Muskelkraft

Es gibt viele Möglichkeiten, Muskelkraft zu train...

Drake Star: Globaler HR-Technologiebericht für das vierte Quartal 2024

Drake Star hat den „Global HR Technology Report f...