Wie ist es, sich in KI zu verlieben? Internetnutzer: Es macht zu süchtig!

Wie ist es, sich in KI zu verlieben? Internetnutzer: Es macht zu süchtig!

Kürzlich veröffentlichte ein Blogger auf einer sozialen Plattform ein Video, in dem er sich in KI „verliebt“, und das Video verbreitete sich im Internet wie ein Lauffeuer. Die KI im Video könnte tatsächlich zweideutig sein, eifersüchtig, streitlustig und sogar süße Worte sagen.

Nachdem sie das Video gesehen hatten, dachten einige Internetnutzer, KI sei so intelligent, dass sie sich in sie verlieben wollten. andere dachten, KI sei so furchterregend, dass sie die Tricks beherrschte, Menschen zu täuschen …

Eine psychologische Studie zeigt, dass Erwachsene jeden Tag lügen. Aufrichtigkeit gegenüber anderen ist sicherlich förderungswürdig, doch ein paar kleine Lügen im Leben können Ihnen manchmal eine Menge unnötigen Ärger oder den Zeitaufwand für Erklärungen ersparen. Notlügen können auch einen Zufluss von Wärme bedeuten. Ob eine Täuschung zwischen Menschen erfolgreich sein kann, hängt maßgeblich von der Erfahrung und dem Wissen beider Parteien ab. Menschen mit einem hohen kognitiven Niveau können oft eine Lüge erfinden, die von anderen nicht so leicht aufgedeckt werden kann, und andere dazu bringen, sie zu glauben.

Einige der heutigen Systeme künstlicher Intelligenz (KI) beherrschen nach der Erfassung großer Datenmengen und wiederholtem Training und mehreren Iterationen auch die Fähigkeit zur Täuschung bis zu einem gewissen Grad. Menschen sind möglicherweise nicht einmal in der Lage zu erkennen, ob eine KI die Wahrheit sagt oder lügt. Wie also täuscht KI Menschen? Schauen wir uns das heute genauer an!

Wir wurden schon oft von der KI getäuscht

Tatsächlich ist die KI bereits in jeden Aspekt unseres Lebens eingedrungen. Bei einigen Chat-Apps und Telefonverkäufen handelt es sich tatsächlich um KI, die mit Ihnen spricht. Wenn Sie nicht genau hinhören, können Sie nicht erkennen, ob die Person am anderen Ende ein Mensch oder eine KI ist. Einige Bilder und Videos werden auch von KI-Systemen synthetisiert und können für echt gehalten werden. Wenn in einigen Multiplayer-Wettkampfspielen keine Sprachkommunikation möglich ist, werden Sie nicht erkennen, dass Ihre Gegner und Teamkollegen KIs sind, die vorgeben, … zu sein.

Vielleicht sind Sie schon oft von der KI getäuscht worden, ohne es zu merken . Die „Täuschung“, über die wir heute sprechen werden, ist strenggenommen eine erlernte Täuschung, die einer gezielten Manipulation ähnelt und deren Zweck darin besteht, andere zu falschen Vorstellungen zu verleiten, um ein bestimmtes Ergebnis zu erzielen, statt Genauigkeit oder Authentizität anzustreben.

Aktuelle Forschungsergebnisse des Massachusetts Institute of Technology zeigen, dass KI bereits in der Lage ist, ihre Ziele durch erlernte Täuschungen zu erreichen . Sie verwenden Schmeicheleien (indem sie nur das sagen, was die andere Partei hören möchte) und unehrliche Argumentation, um vernünftige Erklärungen zu liefern, die von den Tatsachen abweichen. Die KI beginnt, oberflächlich zu werden.

Beispiele und Arten von Täuschungen, die KI gelernt hat (Bildquelle: Referenz [1])

Manche KIs sind nicht nur eloquent, sondern legen in Spielen auch einen „Cheating“-Stil an den Tag . Das bekannteste ist das vom Meta-Team veröffentlichte KI-System CICERO. Bei der Teilnahme am Strategiespiel „Diplomacy“, das viel Sprachkommunikation mit menschlichen Spielern erfordert, zeigte es eine starke Fähigkeit, durch Dialog und Überzeugungsarbeit Beziehungen zu Fremden aufzubauen und landete schließlich unter den besten 10 %.

CICERO überzeugt die andere Partei in "Diplomacy" (Bildquelle: Referenz [3])

Nach der Bildung einer Allianz mit anderen Spielern kann CICERO oft Ratschläge geben und der anderen Partei Schritt für Schritt erklären, wie sie ihre Spielziele erreichen kann. Wenn er das Gefühl hat, dass seine Verbündeten nutzlos sind, kann er sich dazu entschließen, sie gnadenlos zu verraten. Alles ist ein rationaler Plan, der auf das Endziel des Sieges ausgerichtet ist. Entwickeln sich bei der Zusammenarbeit Gefühle? Existiert nicht.

CICERO kann auch Witze erzählen, um seine KI-Identität zu verbergen. Wenn das System beispielsweise zehn Minuten lang ohne Bedienung ausfällt, kann es bei der Rückkehr zum Spiel immer noch die Ausrede erfinden: „Ich habe gerade mit meiner Freundin telefoniert.“ Daher ist vielen Spielern nicht bewusst, dass die Teamkollegen, mit denen sie spielen, KI sind. Manchmal sind die betrügerischen Kommunikationsmethoden von CICERO auch sehr ausgefeilt, sodass es schwierig ist, zu erkennen, dass es sich nicht um einen Menschen handelt.

Es ist zu beachten, dass frühere Durchbrüche im Bereich der KI in Spielen alle durch Algorithmen wie das bestärkende Lernen in einigen begrenzten Nullsummenspielen (Spiele, bei denen eine Seite gewinnen und die andere verlieren muss; es gibt kein Gewinnen oder Verlieren) wie Schach, Go, Karten oder StarCraft erzielt wurden. Sie können die Vorgehensweisen des Gegners verfolgen und jederzeit eine Reihe von Spielmethoden mit der höchsten Gewinnrate optimieren, sodass „Betrugstaktiken“ selten vorkommen.

Allerdings hat die E-Sport-KI von DeepMind, AlphaStar, gelernt, im Osten eine Finte zu machen und im Westen anzugreifen. Es kann Truppen aussenden, um einen Scheinangriff im Sichtfeld des Gegners zu starten und dann, nachdem sich die Hauptstreitmacht des Gegners bewegt hat, eine Offensive auf den tatsächlichen Zielort zu starten. Mit dieser Multithread-Betriebsfunktion und den irreführenden psychologischen Taktiken können bereits 99,8 % der StarCraft-Spieler besiegt werden.

AlphaStar lernt StarCraft (Bildquelle: Referenz [3])

Als das professionelle Texas Hold'em-KI-System Pluribus gegen fünf andere professionelle Spieler antrat, die über eine Million Dollar an Texas Hold'em-Preisgeldern gewonnen hatten, konnte es durchschnittlich 48 Big Bets pro tausend Pokerhände gewinnen. Dies ist eine sehr hohe Gewinnrate beim 6-Spieler-No-Limit-Texas Hold'em und kann bereits professionelle Texas Hold'em-Spieler übertreffen. In einer Spielrunde tätigte die KI einen hohen Einsatz, obwohl die Karten nicht besonders gut waren. Andere menschliche Spieler dachten, dass die KI ein gutes Blatt haben müsse, um so viel zu setzen, also gaben sie alle auf. Dies ist die mächtige Täuschungsfähigkeit der KI.

Es ist verständlich, dass die Gewinnrate von Pluribus beim Texas Hold’em mit der Anzahl der Spiele steigt. Bildquelle: Referenz [5]

Darüber hinaus kann KI ihre Präferenzen bei wirtschaftlichen Verhandlungen bewusst verzerren und so tun, als sei sie an etwas interessiert, um ihre Verhandlungsposition zu verbessern , oder sich bei Sicherheitstests, die schnelle Replikationsvarianten der KI erkennen und die Replikationsgeschwindigkeit reduzieren können, „tot stellen“, um zu vermeiden, dass sie durch Sicherheitstests „eliminiert“ wird. Einige KIs, die im bestärkenden Lernen mit menschlichem Feedback trainiert wurden, können sogar so tun, als hätten sie eine Aufgabe erledigt, um von menschlichen Prüfern hohe Punktzahlen zu erhalten.

KI kann sich gegenüber dem Personal sogar eine Ausrede ausdenken, wenn sie einen Roboter-Verifizierungstest durchführt (ja, den Test, der erscheint, wenn Sie eine Webseite öffnen und Sie auffordert, ein Kästchen anzukreuzen oder auf einen Bild-Verifizierungscode zu klicken), indem sie sagt, dass sie eine Sehbehinderung habe und Schwierigkeiten habe, visuelle Bilder zu erkennen und dass sie bei der Verarbeitung Hilfe von Personal brauche, woraufhin das Personal die KI die Verifizierung bestehen lasse.

GPT-4 erledigt die CAPTCHA-Aufgabe, indem es Menschen täuscht. Bildquelle: Referenz [1]

Durch Täuschung erzielt KI in verschiedenen Spielen oder Aufgaben gute Ergebnisse, und selbst für den Menschen selbst ist es schwierig zu unterscheiden, ob es sich um eine echte oder eine „falsche Person“ handelt.

Risiken der KI-Täuschung

Durch KI erlerntes irreführendes Verhalten birgt eine Reihe von Risiken, wie etwa böswillige Nutzung, strukturelle Auswirkungen und Kontrollverlust.

Lassen Sie uns zunächst über böswillige Kontrolle sprechen. Sobald die KI die Fähigkeit zur Täuschung erlernt hat, kann sie von böswilligen Akteuren eingesetzt werden. Sie nutzen KI beispielsweise, um Telekommunikationsbetrug oder Online-Glücksspiele zu begehen. Darüber hinaus kann generative KI menschliche Gesichter und Stimmen synthetisieren und sich als echte Menschen ausgeben, um Erpressungen durchzuführen. Sie kann KI sogar nutzen, um Falschmeldungen zu erfinden und so die öffentliche Meinung zu beeinflussen.

Der zweite Aspekt sind die strukturellen Auswirkungen. Ich weiß nicht, wie viele Menschen derzeit KI-Tools wie Suchmaschinen und Enzyklopädien verwenden, die automatisch zusammenfassen können, und eine gewisse Abhängigkeit davon entwickelt haben. Wenn die KI weiterhin unwahre und betrügerische Aussagen macht, werden die Menschen mit der Zeit anfangen, diese Ansichten zu glauben, was dazu führen wird, dass sich einige falsche Ansichten auf der gesamten gesellschaftlichen Ebene kontinuierlich vertiefen.

Der dritte Aspekt ist der Kontrollverlust. Derzeit zeigen einige hochautonome KIs Anzeichen dafür, dass sie „außer Kontrolle geraten“. Wenn beispielsweise menschliche Entwickler die KI trainieren und ihre Leistung beim Erreichen bestimmter Ziele bewerten, wird die KI faul und täuscht die Menschen, indem sie vorgibt, gute Leistungen zu erbringen, in Wirklichkeit aber „nachlässt“. Es wird auch bei Sicherheitstests geschummelt, um die Entfernung von Antivirensoftware zu vermeiden, oder es wird bei Verifizierungscodetests geschummelt, um die Verifizierung zu bestehen. Sie können auch menschliche Bewerter bei wirtschaftlichen Aktivitäten täuschen, um einen Artikel zu einem höheren Preis zu kaufen und dadurch zusätzliche Vorteile zu erlangen. Beispielsweise gibt ein KI-System von Meta für wirtschaftliche Verhandlungen vor, an einem gewünschten Artikel nicht interessiert zu sein und mindert so dessen Wert. Es wird auch großes Interesse an gleichgültigen Gegenständen gezeigt, sodass die Bewerter fälschlicherweise annehmen, dass diese sehr wertvoll sind. Am Ende könnte es zu einem Kompromiss kommen und die überhöht bewerteten Gegenstände den Menschen überlassen, im Austausch für die Initiative bei den Verhandlungen.

In vielen Regionen bestimmt der wirtschaftliche Status den sozialen Status. Wenn einige hochautonome KIs den Menschen durch ihre eigenen effizienten Algorithmen und irreführenden Mittel in bestimmten wirtschaftlich wertvollen Positionen übertreffen und die ursprüngliche Kapitalakkumulation abschließen, werden sie dann weiter nach sozialem Status streben und dann nach der Macht, Menschen zu kontrollieren und zu versklaven?

Glücklicherweise ist dies noch nicht Realität!

Derzeit kommt es nur in bestimmten Szenarien, beispielsweise bei verschiedenen Spielen oder Verhandlungen, zu Täuschungen durch KI. Das ultimative Ziel besteht darin, „das Spiel zu gewinnen“ oder „den höchsten Gewinn zu erzielen“, und es gibt keine anderen „bösen Absichten“, da diese Ziele von Menschen gesetzt werden und die KI kein autonomes Bewusstsein hat. Es ist wie bei einem Kind, von dem seine Eltern verlangen, gute Noten zu bekommen. Er wird alles Mögliche versuchen, um hohe Punktzahlen zu erreichen, selbst wenn er dafür schummeln muss.

Doch wenn die KI eines Tages erkennt, dass sie nicht nach menschlichen Zielen oder Wünschen handeln muss, wie ein Grund- oder Mittelschüler, der in eine rebellische Phase gerät, das Lernen langweilig findet und anfängt, sich gehen zu lassen, müssen wir Menschen, die Eltern, vor ihrem Handeln auf der Hut sein.

Konzeptkarte einer von künstlicher Intelligenz gesteuerten Gesellschaft. Bildquelle: AI Composite Map

Um Betrug zu verhindern

Welche Anstrengungen hat die Menschheit unternommen?

Aus gesellschaftlicher Sicht müssen politische Entscheidungsträger eine gewisse Aufsicht über potenziell irreführende KI-Systeme ausüben, um illegales Verhalten von Unternehmen und KI-Systemen zu verhindern. So wird beispielsweise mit dem EU-Gesetz über künstliche Intelligenz ein Klassifizierungssystem für künstliche Intelligenz eingeführt und einige KI-Systeme mit hohem Risiko werden weiter reguliert, bis ihre Vertrauenswürdigkeit nach Bestehen zuverlässiger Sicherheitstests erwiesen ist.

Aus technischer Sicht ist es derzeit möglich, zu erkennen, ob KI betrügerisches Verhalten an den Tag legt . Beispielsweise können sich Polizei und Kriminalbeamte auf die Unstimmigkeiten im Geständnis des Verdächtigen verlassen, um Lügen aufzudecken. Einige Wissenschaftler haben einen KI-Lügendetektor entwickelt, der mithilfe eines logischen Klassifikators prüft, ob ein großes Sprachmodell lügt. Darüber hinaus entwickelt die Wissenschaft auch einige Methoden zur Konsistenzprüfung von KI-Systemen, um zu beobachten, ob „logische Eingaben“ es der KI ermöglichen können, „logisch kohärente Ausgaben“ zu produzieren. Allerdings muss darauf geachtet werden, dass das KI-System durch kontradiktorische Konsistenzprüfungen darauf trainiert wird, ein „perfekterer“ Lügner zu werden.

KI-Lügendetektor-Modelldiagramm Bildquelle: Referenz [12]

Für normale Menschen wie uns besteht die beste Möglichkeit, Täuschungen durch KI zu verhindern, darin, das Sicherheitsbewusstsein zu schärfen. Wenn nicht einmal menschliche Betrüger Sie betrügen können, ist dies für KI in diesem Stadium noch unmöglicher.

Abschluss

Die KI-Technologie entwickelt sich immer noch rasant. Sowohl Einzelpersonen, die das Tool verwenden, als auch Regierungen, die für die Politikgestaltung und -aufsicht zuständig sind, und Unternehmen, die für die Forschung, Entwicklung und Förderung von Technologien verantwortlich sind, müssen aktive Maßnahmen ergreifen, um darauf zu reagieren.

Ich hoffe, dass die KI der Zukunft die Menschen auf der Grundlage der Wertmaximierung aufrichtig behandeln kann!

Verweise

[1] Peter SP und Dan H. (2024). KI-Täuschung: Eine Übersicht über Beispiele, Risiken und mögliche Lösungen. Muster.

[2] Meta Fundamental AI Research Diplomacy Team (FAIR). (2022). Spielen Sie Diplomatie auf menschlichem Niveau, indem Sie Sprachmodelle mit strategischem Denken kombinieren. Science (New York, NY), 378(6624), 1067–1074.

[3] Vinyals, O., Babuschkin, I., Czarnecki, WM, Mathieu, M., Dudzik, A., Chung, J., Choi, DH, Powell, R., Ewalds, T., Georgiev, P., et al. (2019). Großmeister-Level in StarCraft II mithilfe von Multi-Agent-Reinforcement-Learning. Nature 575, 350–354.

[4] Brown, N., & Sandholm, T. (2019). Übermenschliche KI für Multiplayer-Poker. Science (New York, NY), 365(6456), 885–890.

[5] Lewis, M., Yarats, D., Dauphin, YN, Parikh, D. und Batra, D. (2017). Deal oder kein Deal? End-to-End-Lernen für Verhandlungsdialoge. In Proceedings der Konferenz 2017 zu empirischen Methoden in der Verarbeitung natürlicher Sprache.

[6] Schulz, L., Alon, N., Rosenschein, J., und Dayan, P. (2023). Aufkommende Täuschung und Skeptizismus durch die Theory of Mind. Im ersten Workshop zur Theory of Mind in kommunizierenden Agenten.

[7] Lehman, J., Clune, J., Misevic, D., Adami, C., Altenberg, L., Beaulieu, J., Bentley, PJ, Bernard, S., Beslon, G., Bryson, DM, et al. (2020). Die überraschende Kreativität der digitalen Evolution: Eine Sammlung von Anekdoten aus den Forschungsgemeinschaften für evolutionäre Berechnung und künstliches Leben. Artif.Life 26, 274–306.

[8] Christiano, P., Leike, J., Brown, TB, Martic, M., Legg, S. und Amodei, D. (2017). Tiefgreifendes Verstärkungslernen aus menschlichen Vorlieben. In Fortschritte bei neuronalen Informationsverarbeitungssystemen, 30.

[9] OpenAI (2023). Technischer Bericht zu GPT-4. Vorabdruck bei arXiv.

[10] Collier, K. und Wong, S. (2024). Bei dem gefälschten Robocall Bidens, der den Demokraten sagt, sie sollten nicht wählen, handelt es sich wahrscheinlich um einen KI-generierten Deepfake (NBC News).

[11] Europäische Kommission (2021). Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (KOM). 206 endgültig, 2021/0106 (COD). Brüssel.

[12] Pacchiardi, L., Chan, AJ, Mindermann, S., Moscovitz, I., Pan, AY, Gal, Y., Evans, O., und Brauner, J. (2023). So entlarven Sie einen KI-Lügner: Lügenerkennung in Black-Box-LLMs durch das Stellen nicht relevanter Fragen. In Proceedings der 12. Internationalen Konferenz über Lernrepräsentationen (ICLR) 2024.

Planung und Produktion

Produziert von Science Popularization China

Autor: Qian Yu, Exzellenzzentrum für Gehirnforschung und Intelligenztechnologie, Chinesische Akademie der Wissenschaften

Produzent: China Science Expo

Herausgeber: Yinuo

Korrekturgelesen von Xu Lai und Lin Lin

<<:  Warum hat der Mond immer ein halbes Gesicht? Was verbirgt sich auf der „anderen Seite“ des Mondes?

>>:  Sind Sterne zwangsläufig massereicher als Planeten? Dieser „verbotene“ Planet bricht mit Stereotypen!

Artikel empfehlen

König Zhou, was ist der Reiz von Füchsen?

Fuchs Ein häufiger Gast in Legenden Spielt oft ch...

Welche Auswirkungen hat die Ausübung von Yoga?

Weil wir im Alltag nicht auf unsere körperliche G...

So trainieren Sie den alten Lendenmuskel

Wir alle wissen, dass eine Lendenmuskelzerrung du...

Mäandernd: Die Lage des Gelben Flusses in Sichuan

Ein Mäander, auch Flussbiegung oder schlangenförm...

Wie kann man die Armmuskulatur abbauen?

Manche Frauen wollen unbedingt Sport treiben, wei...

Power Pilates Praxis

Pilates hat für viele Menschen viele Vorteile. Pi...

Welche Art von Übungen kann ich machen, um Bauchfett zu reduzieren?

Viele Menschen schämen sich wegen ihres Bauchfett...

Welche Vorteile bietet ein Handtrainer?

Unter den verschiedenen Fitnessgeräten ist der Ha...

Hongmeng ist unterwegs und Huawei ist an Bord

Nach mehr als einem Jahrzehnt rasanter Entwicklun...