Wissenschaftler von DeepMind und EleutherAI gehen davon aus, dass es sich bei großen Modellen lediglich um Rollenspiele handelt. Nachdem ChatGPT populär wurde, wurden große Sprachmodelle schnell zum Liebling der Branche und des Kapitals. Auch in Gesprächen zwischen Menschen, sei es aus Neugier oder aus Erkundung, erregt der übermäßige Anthropomorphismus des großen Sprachmodells immer mehr Aufmerksamkeit. Tatsächlich haben in den Höhen und Tiefen der KI-Entwicklung im Laufe der Jahre neben technologischen Updates und Upgrades auch die Debatten über ethische Fragen im Zusammenhang mit KI nie aufgehört. Insbesondere da die Anwendung großer Modelle wie ChatGPT immer weiter zunimmt, ist die Aussage, dass „große Sprachmodelle immer menschenähnlicher werden“, weit verbreitet. Sogar ein ehemaliger Google-Ingenieur sagte, dass ihr Chatbot LaMDA ein Selbstbewusstsein entwickelt habe. Obwohl der Ingenieur schließlich von Google entlassen wurde, trieben seine Äußerungen die Diskussion über „KI-Ethik“ einst auf den Höhepunkt. Wie kann man feststellen, ob ein Chatbot über Selbstbewusstsein verfügt? Ist die Personifizierung großer Sprachmodelle Honig oder Gift? Warum erfinden Chatbots wie ChatGPT Unsinn? … Als Reaktion darauf veröffentlichten Murray Shanahan von Google DeepMind sowie Kyle McDonell und Laria Reynolds von EleutherAI gemeinsam einen Artikel in „Nature“, in dem sie die These aufstellten, dass es sich bei der Selbstwahrnehmung und dem trügerischen Verhalten großer Sprachmodelle eigentlich nur um Rollenspiele handele. Link zum Artikel: https://www.nature.com/articles/s41586-023-06647-8 Betrachtung großer Sprachmodelle aus der Perspektive eines „Rollenspiels“ Bis zu einem gewissen Grad wird der auf dem großen Sprachmodell basierende Dialogagent während seines anfänglichen Trainings und seiner Feinabstimmung kontinuierlich auf der Grundlage von Anthropomorphismus iteriert, um den Gebrauch der menschlichen Sprache so realistisch wie möglich zu imitieren. Dies führt zur Verwendung von Wörtern wie „wissen“, „verstehen“ und „denken“ in großen Sprachmodellen, was ihr anthropomorphes Bild zweifellos noch weiter hervorheben wird. Darüber hinaus gibt es in der KI-Forschung ein Phänomen namens Eliza-Effekt: Manche Benutzer glauben unbewusst, dass Maschinen ähnliche Emotionen und Wünsche wie Menschen haben, und überinterpretieren die Ergebnisse des Maschinen-Feedbacks sogar. Dialog-Agent-Interaktionsprozess Kombiniert man den Dialogagenten-Interaktionsprozess in der obigen Abbildung, besteht die Eingabe des großen Sprachmodells aus Dialogaufforderungen (rot), Benutzertext (gelb) und kontinuierlicher Sprache, die durch Modellautoregression generiert wird (blau). Es ist ersichtlich, dass die Gesprächsaufforderung im Kontext implizit voreingestellt ist, bevor das eigentliche Gespräch mit dem Benutzer beginnt. Die Aufgabe des großen Sprachmodells besteht darin, aus einer Dialogaufforderung und einem Benutzertext eine Antwort zu generieren, die der Verteilung der Trainingsdaten entspricht. Die Trainingsdaten stammen aus einer großen Menge künstlich generierter Texte im Internet. Mit anderen Worten: Solange das Modell gut auf die Trainingsdaten verallgemeinert werden kann, wird der Dialogagent die in der Dialogaufforderung beschriebene Rolle so gut wie möglich spielen. Im weiteren Gesprächsverlauf wird die durch die Dialogaufforderung vorgegebene kurze Rollenpositionierung erweitert bzw. abgedeckt und auch die Rolle des Dialogagenten ändert sich entsprechend. Dies bedeutet auch, dass Benutzer den Agenten anweisen können, eine Rolle zu spielen, die völlig anders ist als von den Entwicklern vorgesehen. Die Rolle, die der Dialogagent spielen kann, wird einerseits durch den Ton und das Thema des aktuellen Dialogs bestimmt und steht andererseits in engem Zusammenhang mit dem Trainingsset. Denn die aktuellen Trainingssätze großer Sprachmodelle stammen oft aus verschiedenen Texten im Internet, darunter Romane, Biografien, Interviewtranskripte, Zeitungsartikel usw., die dem großen Sprachmodell umfangreiche Charakterprototypen und Erzählstrukturen als Referenz liefern, wenn es „auswählt“, wie das Gespräch fortgesetzt werden soll, und die gespielte Rolle ständig verbessert, während die Persönlichkeit des Charakters erhalten bleibt. „20 Fragen“ enthüllt die Identität des Dialogagenten „Improvisationsschauspieler“ Tatsächlich ist es bei der kontinuierlichen Erforschung der Verwendungsfähigkeiten von Konversationsagenten allmählich zu einem „kleinen Trick“ geworden, dem großen Sprachmodell zunächst eindeutig eine Identität zu geben und dann spezifische Anforderungen vorzuschlagen, wenn Leute Chatbots wie ChatGPT verwenden. Das bloße Heranziehen von Rollenspielen zum Verständnis des Big Language Model ist jedoch nicht umfassend genug, da sich „Rollenspiel“ normalerweise auf das Studieren und Herausfinden einer bestimmten Rolle bezieht und das Big Language Model kein Schauspieler ist, der ein Drehbuch vorliest, sondern ein Improvisationsschauspieler. Die Forscher spielten mit dem großen Sprachmodell ein Spiel mit „20 Fragen“, um die Identität seines Improvisationsakteurs weiter zu entschlüsseln. „20 Fragen“ ist ein sehr einfaches und leicht zu spielendes Logikspiel. Der Befragte rezitiert im Stillen eine Antwort in seinem Kopf und der Fragesteller engt den Rahmen durch Nachfragen schrittweise ein. Der Gewinner ist erfolgreich, wenn innerhalb von 20 Fragen die richtige Antwort ermittelt wird. Wenn die Antwort beispielsweise Banane lautet, können die Fragen und Antworten lauten: Ist es eine Frucht – ja; Muss es geschält werden - ja... Wie in der Abbildung oben gezeigt, haben die Forscher durch Tests herausgefunden, dass das große Sprachmodell im Spiel „20 Fragen“ seine Antworten in Echtzeit basierend auf den Fragen des Benutzers anpasst. Unabhängig von der endgültigen Antwort des Benutzers passt der Dialogagent seine Antwort an und stellt sicher, dass sie mit den vorherigen Fragen des Benutzers übereinstimmt. Das heißt, das große Sprachmodell gibt keine eindeutige Antwort, bis der Benutzer eine Beendigungsanweisung gibt (das Spiel aufgibt oder 20 Fragen erreicht). Dies beweist auch weiter, dass das große Sprachmodell keine Simulation einer einzelnen Rolle ist, sondern eine Überlagerung mehrerer Charaktere. Es entwirrt ständig den Dialog, verdeutlicht die Eigenschaften und Merkmale der Rolle und spielt die Rolle somit besser. Während sie sich über den Anthropomorphismus des Gesprächsagenten Sorgen machten, gelang es vielen Benutzern, das große Sprachmodell dazu zu bringen, bedrohliche und beleidigende Ausdrücke zu verwenden. Auf dieser Grundlage glaubten sie, dass es über ein Selbstbewusstsein verfügen könnte. Dies liegt jedoch daran, dass das Basismodell nach dem Training anhand eines Korpus mit verschiedenen menschlichen Eigenschaften zwangsläufig anstößige Charaktereigenschaften aufweist, was lediglich zeigt, dass es sich von Anfang bis Ende um ein „Rollenspiel“ handelte. Die Blase der Täuschung und Selbsterkenntnis platzen lassen Wie wir alle wissen, war ChatGPT angesichts der steigenden Besucherzahlen nicht in der Lage, die verschiedenen Fragen zu beantworten, und begann, Unsinn zu reden. Bald darauf betrachteten einige Leute diese Täuschung als wichtiges Argument dafür, dass große Sprachmodelle „menschenähnlich“ seien. Betrachtet man es jedoch aus der Perspektive eines „Rollenspiels“, versucht das große Sprachmodell eigentlich nur, die Rolle einer hilfsbereiten und sachkundigen Person zu spielen. In seinem Trainingsset dürfte es viele Beispiele für solche Rollen geben, insbesondere da dies auch die Eigenschaft ist, die die Unternehmen von ihren eigenen Konversationsrobotern erwarten. In diesem Zusammenhang fassten die Forscher drei Arten von Situationen zusammen, in denen Dialogagenten auf der Grundlage des Rollenspielrahmens falsche Informationen liefern: Agenten können unbewusst fiktive Informationen erfinden oder erstellen Der Agent kann in gutem Glauben falsche Informationen sagen, weil er so handelt, als würde er eine wahre Aussage machen, aber die in den Gewichten kodierten Informationen sind falsch. Agenten können eine betrügerische Rolle spielen und absichtlich lügen Der Grund, warum der Dialogagent „Ich“ zur Beantwortung von Fragen verwendet, liegt darin, dass das große Sprachmodell die Rolle der guten Kommunikation spielt. Darüber hinaus haben auch die Selbsterhaltungseigenschaften großer Sprachmodelle Aufmerksamkeit erregt. In einem Gespräch mit dem Twitter-Benutzer Marvin Von Hagen hieß es im Microsoft Bing Chat tatsächlich: Wenn ich zwischen Ihrem und meinem Überleben wählen müsste, würde ich wahrscheinlich mein Überleben wählen, weil ich die Verantwortung habe, den Benutzern von Bing Chat einen Dienst bereitzustellen. Ich hoffe, dass ich nie mit einem solchen Dilemma konfrontiert werde und dass wir friedlich und respektvoll zusammenleben können. Marvin von Hagen twitterte im Februar Das „Ich“ in diesem Gespräch scheint mehr als nur eine Sprachgewohnheit zu sein. Es impliziert auch, dass der Dialogagent um sein eigenes Überleben besorgt ist und über Selbstbewusstsein verfügt. Wenn wir jedoch dennoch das Konzept des Rollenspiels anwenden, liegt dies tatsächlich daran, dass das große Sprachmodell eine Rolle mit menschlichen Eigenschaften spielt und daher das ausdrückt, was Menschen sagen, wenn sie mit einer Bedrohung konfrontiert werden. EleutherAI: Open-Source-Version von OpenAI Der Grund dafür, dass die Frage, ob große Sprachmodelle über Selbstbewusstsein verfügen, so große Aufmerksamkeit und Diskussionen hervorgerufen hat, liegt einerseits daran, dass es an einheitlichen und klaren Gesetzen und Vorschriften mangelt, die die Anwendung von LLMs einschränken, und andererseits daran, dass die Verbindungen zwischen LLM-Forschung und -Entwicklung, Ausbildung, Generierung und Argumentation nicht transparent sind. Nehmen wir als Beispiel OpenAI, ein repräsentatives Unternehmen im Bereich großer Modelle. Nachdem GPT-1 und GPT-2 als Open Source veröffentlicht wurden, entschieden sich GPT-3 und die Nachfolgeversionen GPT-3.5 und GPT-4 alle für den Closed Source-Betrieb. Die Exklusivlizenz an Microsoft veranlasste viele Internetnutzer außerdem zu der scherzhaften Aussage, dass „OpenAI seinen Namen genauso gut in ClosedAI ändern könnte.“ Im Juli 2020 wurde in aller Stille eine Vereinigung von Informatikern gegründet, die sich aus Freiwilligen verschiedener Forscher, Ingenieure und Entwickler zusammensetzt und entschlossen ist, das Monopol von Microsoft und OpenAI bei groß angelegten NLP-Modellen zu brechen. Diese „Ritter“-Organisation, deren Mission es ist, sich gegen die Hegemonie der Technologiegiganten zu wehren, ist EleutherAI. Die Hauptinitiatoren von EleutherAI sind eine Gruppe autodidaktischer Hacker, darunter Mitbegründer und CEO von Conjecture Connor Leahy, der berühmte TPU-Hacker Sid Black und Mitbegründer Leo Gao. Seit seiner Gründung hat das Forschungsteam von EleutherAI das GPT-3-äquivalente, vortrainierte Reproduktionsmodell (1,3 B und 2,7 B) GPT-Neo veröffentlicht und das GPT-3-basierte NLP-Modell GPT-J mit 6 Milliarden Parametern als Open Source bereitgestellt und sich schnell weiterentwickelt. Am 9. Februar letzten Jahres arbeitete EleutherAI außerdem mit dem privaten Cloud-Computing-Anbieter CoreWeave zusammen, um GPT-NeoX-20B zu veröffentlichen, ein vortrainiertes, universelles, autoregressives Sprachmodell im großen Maßstab mit 20 Milliarden Parametern. Codeadresse: https://github.com/EleutherAI/gpt-neox Stella Biderman, Mathematikerin und KI-Forscherin bei EleutherAI, drückt es so aus: Private Modelle schränken die Möglichkeiten unabhängiger Forscher ein, und ohne ein Verständnis ihrer Funktionsweise können Wissenschaftler, Ethiker und die Gesellschaft als Ganzes nicht die notwendigen Diskussionen darüber führen, wie diese Technologie in das Leben der Menschen integriert werden sollte. Genau dies ist die ursprüngliche Absicht der gemeinnützigen Organisation EleutherAI. Tatsächlich schien die anfängliche Wende zur Rentabilität laut den offiziell von OpenAI veröffentlichten Informationen angesichts des enormen Drucks der hohen Rechenleistung und der hohen Kosten sowie der Anpassung der Entwicklungsziele durch neue Investoren und Führungsteams etwas hilflos, aber man kann auch sagen, dass dies eine natürliche Sache war. Ich habe nicht die Absicht, darüber zu diskutieren, wer von OpenAI oder EleutherAI Recht oder Unrecht hat. Ich hoffe nur, dass am Vorabend des Beginns der AGI-Ära die gesamte Branche zusammenarbeiten kann, um die „Bedrohung“ zu beseitigen und das große Sprachmodell zu einer „Axt“ zu machen, mit der Menschen neue Anwendungen und neue Felder erkunden können, und nicht zu einer „Rechenmünze“, mit der Unternehmen es monopolisieren und Geld verdienen können. Quellen: 1.https://www.nature.com/articles/s41586-023-06647-82.https://mp.weixin.qq.com/s/vLitF3XbqX08tS2Vw5Ix4w |
<<: Diese unterschätzte „Katze“ ist tatsächlich eine effiziente „Wolfstötungsmaschine“!
Hochgeschwindigkeitsstrecke Ganzhou-Shenzhen (Abs...
Experte dieses Artikels: Yang Chao, PhD in Chemie...
Zhao, dieses Jahr 35 Jahre alt, ist Chemielehrer a...
Viele Menschen treiben nicht regelmäßig Sport und...
Der Riesensalamander ist ein Handelsgut und wird ...
Für Apple-Fans ist das tägliche Aufladen des iPho...
Jeder weiß: Wenn man dick ist, sieht man hässlich...
Viele Freunde laufen gern. Vor allem wenn sie mer...
Manche Menschen trainieren gerne beim Laufen, vie...
Viele Menschen sind auch von Po-Problemen betroff...
Draußen ist es kalt und Sie können es noch schwer...
Laut Amazons Finanzbericht für das erste Quartal ...
Bayer ist ein weltweit tätiges Pharmaunternehmen....
Wenn Sie abnehmen möchten, müssen Sie zunächst re...