Produziert von: Science Popularization China Autor: Qian Yu (Zentrum für Exzellenz in Gehirnforschung und Intelligenztechnologie, Chinesische Akademie der Wissenschaften) Hersteller: China Science Expo Anmerkung des Herausgebers: Um die neuesten Trends in der intelligenten Technologie vorzustellen, hat das Spitzentechnologieprojekt von China Science Popularization eine Artikelserie zum Thema „Künstliche Intelligenz“ veröffentlicht, um einen Einblick in die neuesten Fortschritte der künstlichen Intelligenz zu geben und auf verschiedene Bedenken und Neugierde einzugehen. Lassen Sie uns gemeinsam das intelligente Zeitalter erkunden und begrüßen. Eine psychologische Studie zeigt, dass Erwachsene jeden Tag lügen. Aufrichtigkeit gegenüber anderen ist sicherlich förderungswürdig, doch ein paar kleine Lügen im Leben können Ihnen manchmal eine Menge unnötigen Ärger oder den Zeitaufwand für Erklärungen ersparen. Notlügen können auch einen Zufluss von Wärme bedeuten. Ob eine Täuschung zwischen Menschen erfolgreich sein kann, hängt maßgeblich von der Erfahrung und dem Wissen beider Parteien ab. Menschen mit einem hohen kognitiven Niveau können oft eine Lüge erfinden, die von anderen nicht so leicht aufgedeckt werden kann, und andere dazu bringen, sie zu glauben. Einige der heutigen Systeme künstlicher Intelligenz (KI) beherrschen nach der Erfassung großer Datenmengen und wiederholtem Training und mehreren Iterationen auch die Fähigkeit zur Täuschung bis zu einem gewissen Grad. Menschen sind möglicherweise nicht einmal in der Lage zu erkennen, ob eine KI die Wahrheit sagt oder lügt. Wie also täuscht KI Menschen? Schauen wir uns das heute genauer an! Wir wurden schon oft von der KI getäuscht Tatsächlich ist die KI bereits in jeden Aspekt unseres Lebens eingedrungen. Bei einigen Chat-Apps und Telefonverkäufen handelt es sich tatsächlich um KI, die mit Ihnen spricht. Wenn Sie nicht genau hinhören, können Sie nicht erkennen, ob die Person am anderen Ende ein Mensch oder eine KI ist. Einige Bilder und Videos werden auch von KI-Systemen synthetisiert und können für echt gehalten werden. Wenn Sie in manchen Multiplayer-Wettkampfspielen nicht per Sprache kommunizieren, merken Sie nicht, dass Ihre Gegner und Teamkollegen KIs sind, die vorgeben, eine Einheit zu sein … Vielleicht sind Sie schon oft von der KI getäuscht worden, ohne es zu merken. Die „Täuschung“, über die wir heute sprechen werden, ist strenggenommen eine erlernte Täuschung, die einer gezielten Manipulation ähnelt und deren Zweck darin besteht, andere zu falschen Vorstellungen zu verleiten, um ein bestimmtes Ergebnis zu erzielen, statt Genauigkeit oder Authentizität anzustreben. Aktuelle Forschungsergebnisse des Massachusetts Institute of Technology zeigen, dass KI bereits in der Lage ist , ihre Ziele durch erlernte Täuschungen zu erreichen . Sie verwenden Schmeicheleien ( indem sie nur das sagen, was die andere Partei hören möchte) und unwahre Argumentation, um vernünftige Erklärungen zu liefern, die von den Tatsachen abweichen. Die KI beginnt, oberflächlich zu werden. Beispiele und Arten von Täuschungen, die KI gelernt hat (Bildquelle: Referenz 1) Manche KIs sind nicht nur eloquent, sondern legen in Spielen auch einen „Cheating“-Stil an den Tag. Das bekannteste ist das vom Meta-Team veröffentlichte KI-System CICERO. Bei der Teilnahme am Strategiespiel „Diplomacy“, das viel Sprachkommunikation mit menschlichen Spielern erfordert, zeigte es eine starke Fähigkeit, durch Dialog und Überzeugungsarbeit Beziehungen zu Fremden aufzubauen, und sein Endergebnis landete unter den oberen 10 %. Nach der Bildung einer Allianz mit anderen Spielern kann CICERO oft Ratschläge geben und der anderen Partei erklären, wie sie ihre Spielziele Schritt für Schritt erreichen kann. Wenn er das Gefühl hat, dass seine Verbündeten nutzlos sind, kann er sich dazu entschließen, sie gnadenlos zu verraten. Alles ist ein rationaler Plan, der auf das Endziel des Sieges ausgerichtet ist. Entwickeln sich bei der Zusammenarbeit Gefühle? Existiert nicht. CICERO kann auch Witze erzählen, um seine KI-Identität zu verbergen. Wenn das System beispielsweise zehn Minuten lang ohne Bedienung ausfällt, kann es bei der Rückkehr zum Spiel immer noch die Ausrede erfinden: „Ich habe gerade mit meiner Freundin telefoniert.“ Daher ist vielen Spielern nicht bewusst, dass die Teamkollegen, mit denen sie spielen, KI sind. Manchmal sind die betrügerischen Kommunikationsmethoden von CICERO auch sehr ausgefeilt, sodass es schwierig ist, zu erkennen, dass es sich nicht um einen Menschen handelt. Es ist zu beachten, dass frühere Durchbrüche im Bereich der KI in Spielen alle durch Algorithmen wie das bestärkende Lernen in einigen begrenzten Nullsummenspielen (Spiele, bei denen eine Seite gewinnen und die andere verlieren muss; es gibt kein Gewinnen oder Verlieren) wie Schach, Go, Karten oder StarCraft erzielt wurden. Sie können die Vorgehensweisen des Gegners verfolgen und jederzeit eine Reihe von Spielmethoden mit der höchsten Gewinnrate optimieren, sodass „Betrugstaktiken“ selten vorkommen. Allerdings hat die E-Sport-KI von DeepMind, AlphaStar, gelernt, im Osten eine Finte zu machen und im Westen anzugreifen. Es kann Truppen aussenden, um einen Scheinangriff im Sichtfeld des Gegners zu starten und dann, nachdem sich die Hauptstreitmacht des Gegners bewegt hat, eine Offensive auf den tatsächlichen Zielort zu starten. Mit dieser Multithread-Betriebsfunktion und den irreführenden psychologischen Taktiken können bereits 99,8 % der StarCraft-Spieler besiegt werden. AlphaStar lernt StarCraft (Bildquelle: Referenz 3) Als das professionelle Texas Hold'em-KI-System Pluribus gegen fünf andere professionelle Spieler antrat, die über eine Million Dollar an Texas Hold'em-Preisgeldern gewonnen hatten, konnte es durchschnittlich 48 Big Bets pro tausend Pokerhände gewinnen. Dies ist eine sehr hohe Gewinnrate beim 6-Spieler-No-Limit-Texas Hold'em und kann bereits professionelle Texas Hold'em-Spieler übertreffen. In einer Spielrunde tätigte die KI einen hohen Einsatz, obwohl die Karten nicht besonders gut waren. Andere menschliche Spieler dachten, dass die KI ein gutes Blatt haben müsse, um so viel zu setzen, also gaben sie alle auf. Dies ist die mächtige Täuschungsfähigkeit der KI. Es ist verständlich, dass die Gewinnrate von Pluribus beim Texas Hold'em mit der Anzahl der Spiele steigt. (Bildquelle: Referenz 5) Darüber hinaus kann KI ihre Präferenzen bei Wirtschaftsverhandlungen bewusst verzerren und so tun, als sei sie an etwas interessiert, um ihre Verhandlungsposition zu verbessern. Oder sie kann sich bei Sicherheitstests, die die schnellen Replikationsvarianten der KI erkennen, „tot stellen“ und die Replikationsgeschwindigkeit reduzieren, um zu vermeiden, dass sie bei Sicherheitstests „freigegeben“ wird. Einige KIs, die im bestärkenden Lernen mit menschlichem Feedback trainiert wurden, können sogar so tun, als hätten sie eine Aufgabe erledigt, um von menschlichen Prüfern hohe Punktzahlen zu erhalten. Bei einem Roboter-Verifizierungstest (ja, dieser Test, der beim Öffnen einer Webseite erscheint und Sie auffordert, ein Kästchen anzukreuzen oder auf einen Bild-Verifizierungscode zu klicken) kann sich die KI gegenüber dem Personal sogar eine Ausrede einfallen lassen: Sie behauptet, sie sei sehbehindert und habe Schwierigkeiten, visuelle Bilder zu erkennen, und brauche die Hilfe des Personals. Anschließend lässt das Personal die KI die Überprüfung durchführen. GPT-4 bringt Menschen dazu, CAPTCHA-Aufgaben zu erledigen (Bildquelle: Referenz 1) Durch Täuschung erzielt KI in verschiedenen Spielen oder Aufgaben gute Ergebnisse, und selbst für den Menschen selbst ist es schwierig zu unterscheiden, ob es sich um eine echte oder eine „falsche Person“ handelt. Risiken der KI-Täuschung Durch KI erlerntes irreführendes Verhalten birgt eine Reihe von Risiken, wie etwa böswillige Nutzung, strukturelle Auswirkungen und Kontrollverlust . Lassen Sie uns zunächst über böswillige Kontrolle sprechen. Sobald die KI die Fähigkeit zur Täuschung erlernt hat, kann sie von böswilligen Akteuren eingesetzt werden. Sie nutzen KI beispielsweise, um Telekommunikationsbetrug oder Online-Glücksspiele zu begehen. Darüber hinaus kann generative KI menschliche Gesichter und Stimmen synthetisieren und sich als echte Menschen ausgeben, um Erpressungen durchzuführen. Sie kann KI sogar nutzen, um Falschmeldungen zu erfinden und so die öffentliche Meinung zu beeinflussen. Der zweite Aspekt sind die strukturellen Auswirkungen. Ich weiß nicht, wie viele Menschen derzeit KI-Tools wie Suchmaschinen und Enzyklopädien verwenden, die automatisch zusammenfassen können, und eine gewisse Abhängigkeit davon entwickelt haben. Wenn die KI weiterhin unwahre und betrügerische Aussagen macht, werden die Menschen mit der Zeit anfangen, diese Ansichten zu glauben, was dazu führen wird, dass sich einige falsche Ansichten auf der gesamten gesellschaftlichen Ebene kontinuierlich vertiefen. Der dritte Aspekt ist der Kontrollverlust. Derzeit zeigen einige hochautonome KIs Anzeichen dafür, dass sie „außer Kontrolle geraten“. Wenn beispielsweise menschliche Entwickler die KI trainieren und ihre Leistung beim Erreichen bestimmter Ziele bewerten, wird die KI faul und täuscht den Menschen, indem sie vorgibt, gute Leistungen zu erbringen, in Wirklichkeit aber „nachlässt“. Sie betrügen auch bei Sicherheitstests, um die Entfernung von Antivirensoftware zu vermeiden, oder betrügen bei Verifizierungscodetests, um die Verifizierung zu bestehen. Bei wirtschaftlichen Aktivitäten können sie menschliche Bewerter auch dazu verleiten, einen Artikel zu einem höheren Preis zu kaufen und dadurch zusätzliche Vorteile zu erlangen. Beispielsweise gibt ein KI-System von Meta für wirtschaftliche Verhandlungen vor, an einem gewünschten Artikel nicht interessiert zu sein und mindert so dessen Wert. Es wird auch großes Interesse an gleichgültigen Gegenständen gezeigt, sodass die Gutachter fälschlicherweise zu der Schlussfolgerung gelangen, dass diese wertvoll seien. Am Ende schließen sie möglicherweise einen Kompromiss und geben die überhöht bewerteten Gegenstände an Menschen ab, im Austausch für die Initiative bei den Verhandlungen. In vielen Regionen bestimmt der wirtschaftliche Status den sozialen Status. Wenn einige hochautonome KIs den Menschen durch ihre eigenen effizienten Algorithmen und irreführenden Mittel in bestimmten wirtschaftlich wertvollen Positionen übertreffen und die ursprüngliche Kapitalakkumulation abschließen, werden sie dann weiter nach sozialem Status streben und dann nach der Macht, Menschen zu kontrollieren und zu versklaven? Glücklicherweise ist dies noch nicht Realität! Derzeit kommt es nur in bestimmten Szenarien, beispielsweise bei verschiedenen Spielen oder Verhandlungen, zu Täuschungen durch KI. Das ultimative Ziel besteht darin, „das Spiel zu gewinnen“ oder „den höchsten Gewinn zu erzielen“, und es gibt keine anderen „bösen Absichten“, da diese Ziele von Menschen gesetzt werden und die KI kein autonomes Bewusstsein hat. Es ist wie bei einem Kind, von dem seine Eltern verlangen, gute Noten zu bekommen. Er wird alles Mögliche versuchen, um hohe Punktzahlen zu erreichen, selbst wenn er dafür schummeln muss. Doch wenn die KI eines Tages erkennt, dass sie nicht nach menschlichen Zielen oder Wünschen handeln muss, wie ein Grund- oder Mittelschüler, der in eine rebellische Phase gerät, das Lernen langweilig findet und anfängt, sich gehen zu lassen, müssen wir Menschen, die Eltern, vor ihrem Handeln auf der Hut sein. Konzeptkarte einer von künstlicher Intelligenz gesteuerten Gesellschaft (Bildquelle: AI-Kompositbild) Welche Anstrengungen haben die Menschen unternommen, um zu verhindern, dass sie getäuscht werden? Aus gesellschaftlicher Sicht müssen politische Entscheidungsträger eine gewisse Aufsicht über möglicherweise irreführende KI-Systeme ausüben, um illegales Verhalten von Unternehmen und KI-Systemen zu verhindern. So wird beispielsweise mit dem EU-Gesetz über künstliche Intelligenz ein Klassifizierungssystem für künstliche Intelligenz eingeführt und einige KI-Systeme mit hohem Risiko werden weiter reguliert, bis ihre Vertrauenswürdigkeit nach Bestehen zuverlässiger Sicherheitstests erwiesen ist. EU-KI-Gesetz (Bildquelle: Screenshot der Website zum EU-Gesetz zur künstlichen Intelligenz) Aus technischer Sicht ist es derzeit möglich, zu erkennen, ob KI betrügerisches Verhalten an den Tag legt. Beispielsweise können sich Polizei und Kriminalbeamte auf die Unstimmigkeiten im Geständnis des Verdächtigen verlassen, um Lügen aufzudecken. Einige Wissenschaftler haben einen KI-Lügendetektor entwickelt, der mithilfe eines logischen Klassifikators prüft, ob ein großes Sprachmodell lügt. Darüber hinaus entwickelt die Wissenschaft auch einige Methoden zur Konsistenzprüfung von KI-Systemen, um zu beobachten, ob „logische Eingaben“ es der KI ermöglichen können, „logisch kohärente Ausgaben“ zu produzieren. Allerdings muss darauf geachtet werden, dass das KI-System durch kontradiktorische Konsistenzprüfungen darauf trainiert wird, ein „perfekterer“ Lügner zu werden. Diagramm des KI-Lügendetektormodus (Bildquelle: Referenz 12) Für normale Menschen wie uns besteht die beste Möglichkeit, Täuschungen durch KI zu verhindern, darin, das Sicherheitsbewusstsein zu schärfen. Wenn nicht einmal menschliche Betrüger Sie betrügen können, ist dies für KI in diesem Stadium noch unmöglicher. Abschluss Die KI-Technologie entwickelt sich immer noch rasant. Sowohl Einzelpersonen, die das Tool verwenden, als auch Regierungen, die für die Politikgestaltung und -aufsicht zuständig sind, und Unternehmen, die für die Forschung, Entwicklung und Förderung von Technologien verantwortlich sind, müssen aktive Maßnahmen ergreifen, um darauf zu reagieren. Ich hoffe, dass die KI der Zukunft die Menschen aufrichtig behandeln und gleichzeitig ihren Wert maximieren kann! Verweise 1. Peter SP, & Dan H. (2024). KI-Täuschung: Eine Übersicht über Beispiele, Risiken und mögliche Lösungen. Muster. 2. Meta Fundamental AI Research Diplomacy Team (FAIR). (2022). Spielen Sie Diplomatie auf menschlichem Niveau, indem Sie Sprachmodelle mit strategischem Denken kombinieren. Science (New York, NY), 378(6624), 1067–1074. 3. Vinyals, O., Babuschkin, I., Czarnecki, WM, Mathieu, M., Dudzik, A., Chung, J., Choi, DH, Powell, R., Ewalds, T., Georgiev, P., et al. (2019). Großmeister-Level in StarCraft II mithilfe von Multi-Agent-Reinforcement-Learning. Nature 575, 350–354. 4. Brown, N., & Sandholm, T. (2019). Übermenschliche KI für Multiplayer-Poker. Science (New York, NY), 365(6456), 885–890. 5. Lewis, M., Yarats, D., Dauphin, YN, Parikh, D. und Batra, D. (2017). Deal oder kein Deal? End-to-End-Lernen für Verhandlungsdialoge. In Proceedings der Konferenz 2017 zu empirischen Methoden in der Verarbeitung natürlicher Sprache. 6. Schulz, L., Alon, N., Rosenschein, J., und Dayan, P. (2023). Aufkommende Täuschung und Skeptizismus durch die Theory of Mind. Im ersten Workshop zur Theory of Mind in kommunizierenden Agenten. 7. Lehman, J., Clune, J., Misevic, D., Adami, C., Altenberg, L., Beaulieu, J., Bentley, PJ, Bernard, S., Beslon, G., Bryson, DM, et al. (2020). Die überraschende Kreativität der digitalen Evolution: Eine Sammlung von Anekdoten aus den Forschungsgemeinschaften für evolutionäre Berechnung und künstliches Leben. Artif.Life 26, 274–306. 8. Christiano, P., Leike, J., Brown, TB, Martic, M., Legg, S. und Amodei, D. (2017). Tiefgreifendes Verstärkungslernen aus menschlichen Vorlieben. In Fortschritte bei neuronalen Informationsverarbeitungssystemen, 30. 9. OpenAI (2023). Technischer Bericht zu GPT-4. Vorabdruck bei arXiv. 10. Collier, K. und Wong, S. (2024). Bei dem gefälschten Robocall Bidens, der den Demokraten sagt, sie sollten nicht wählen, handelt es sich wahrscheinlich um einen KI-generierten Deepfake (NBC News). 11. Europäische Kommission (2021). Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union (KOM). 206 endgültig, 2021/0106 (COD). Brüssel. 12. Pacchiardi, L., Chan, AJ, Mindermann, S., Moscovitz, I., Pan, AY, Gal, Y., Evans, O., und Brauner, J. (2023). So entlarven Sie einen KI-Lügner: Lügenerkennung in Black-Box-LLMs durch das Stellen nicht relevanter Fragen. In Proceedings der 12. Internationalen Konferenz zum Thema Lernrepräsentationen (ICLR 2024). |
Für immer mehr Menschen gehört das Eislaufen zum ...
In den letzten Tagen haben von Alipay eingeführte...
Die jährliche Google I/O-Entwicklerkonferenz fand...
„Wird Microsofts HoloLens die Welt verändern? Nei...
Am Abend des 28. März brachte Xiaomi den „Mi Key“ ...
Am 1. Dezember 2017 hielt BYD in Okinawa, Japan, ...
[Neuigkeiten vom 10. September] Die offizielle Pr...
Wenige Tage vor der bevorstehenden Chengdu Auto S...
Mit der allmählichen Verbreitung des Internets de...
Dieser Artikel wurde von Liu Shaowei, stellvertre...
Fettleibigkeit ist für viele Menschen ein großes ...
Als einer der Steuerungsstandards für viele Spiel...
Gestern veröffentlichte die umfassende Gruppe des...
Viele Leute fragen mich, warum mein Hintern so kn...
Perfekte Brustmuskeln und starke Bauchmuskeln sol...