Was genau ist ChatGPT? Werden diese Veränderungen in unser Leben bringen↓

Was genau ist ChatGPT? Werden diese Veränderungen in unser Leben bringen↓

Willkommen bei der speziellen Winterferienkolumne „ Hightech-Unterricht für Kinder “ von Science Popularization China!

Künstliche Intelligenz ist eine der modernsten Technologien unserer Zeit und verändert unser Leben mit erstaunlicher Geschwindigkeit. Von intelligenten Sprachassistenten bis hin zu selbstfahrenden Autos, von KI-Malerei bis hin zu maschinellem Lernen eröffnet es uns eine Zukunft voller unendlicher Möglichkeiten. In dieser Kolumne werden Kindern anhand von Videos und Texten die Prinzipien, Anwendungen und tiefgreifenden Auswirkungen künstlicher Intelligenz auf die Gesellschaft auf leicht verständliche Weise erklärt.

Kommen Sie und beginnen Sie diese KI-Reise mit uns!

Ende 2022 geriet der Begriff „ChatGPT“ still und leise in die Öffentlichkeit.

Wenn Sie noch nie davon gehört haben oder es nur für einen Chatbot halten, unterschätzen Sie es.

Viele Branchen, wie beispielsweise Nachrichten, Recht, Bildung, Kundendienstberatung usw., haben ChatGPT in Produktion und Dienstleistungen eingesetzt.

Also, was genau ist ChatGPT? In dieser Ausgabe erfahren wir mehr über ChatGPT und die dahinter stehende Technologie.

Beginnen wir mit dem Namen.

Chat, wörtlich übersetzt „Chat“, kann man sagen, dass Chat GPT eine Chat-Anwendung ist, die wie WeChat oder QQ verwendet wird. Die Person am anderen Ende ist jedoch nicht Ihr Freund, sondern eine KI.

G, P, T ist der wichtigere Teil, die Abkürzung für „Generative Pre-trained Transformer“.

Generativ bedeutet „generativ“, was bedeutet, dass es basierend auf den empfangenen Informationen als Antwort Text generieren kann.

Vortrainiert bedeutet „vortrainiert“, was bedeutet, dass Chat GPT viel Texttraining durchlaufen hat, bevor es mit Ihnen spricht.

Transformer ist ein Deep-Learning-Modell. Man kann sagen, dass der Transformator der Kern des gesamten GPT ist.

Um „ChatGPT“ zu verstehen, müssen wir damit beginnen, wie KI das Sprechen lernt.

Wenn Menschen sprechen, suchen sie Wörter aus dem „Wörterbuch“ ihres Gehirns heraus und bilden Sätze. Wenn wir die KI einfach zufällig Wörter aus dem Wörterbuch auswählen lassen, werden die gebildeten Sätze höchstwahrscheinlich inkohärent und bedeutungslos sein.

Um Computern das Sprechen menschlicher Sprache zu ermöglichen, führte man das Markov-Modell ein. Vereinfacht ausgedrückt kann das Markov-Modell eine Verbindung zwischen einem Wort und den vorhergehenden Wörtern herstellen.

Laut dem Korpus ist beispielsweise die Wahrscheinlichkeit, dass das nächste Wort von „Soda“ „Cookie“ oder „Soda“ ist, viel höher als bei Wörtern wie „Tisch“ oder „Karotte“. Wenn wir weiterhin das Wort „essen“ vor „Soda“ hinzufügen, ist die Wahrscheinlichkeit, „Kekse“ einzufügen, höher als die Wahrscheinlichkeit für „Soda“. Auf diese Weise generierte Sätze kommen der menschlichen Sprache näher als zufällig generierte Sätze.

Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen.

Auf Grundlage dieser Denkweise entstand in den 1970er und 1980er Jahren ein Modell namens „rekurrentes neuronales Netzwerk“. Recurrent Neural Networks, kurz RNN, können die Reihenfolge von Wörtern und den Einfluss vorheriger Wörter auf nachfolgende Wörter berücksichtigen.

RNN weist jedoch auch einige Einschränkungen auf, beispielsweise den Effekt des „verschwindenden Gradienten“. Wenn die Sätze länger werden, vergisst es, was es vorher gesagt hat.

Daher optimierten die Menschen das RNN-Modell und entwickelten das Long-Short-Term-Memory-Modell, abgekürzt LSTM, um das Problem der „Vergesslichkeit“ zu lösen.

Aber das ist nicht genug. Es gibt zwei Probleme mit dem RNN-basierten Modell. Einer ist, dass die Lerngeschwindigkeit zu langsam ist. Zweitens ist das Verständnis der Wortbedeutung nicht gut genug.

Zu diesem Zweck wurde ein neuer Transformator für die Architektur neuronaler Netzwerke entwickelt. Das transformatorbasierte Modell verfügt über eine sehr schnelle Lernrate und kann in kurzer Zeit eine große Menge an Textdaten erlernen.

Derzeit wurde das GPT-Modell, das mit Menschen kommuniziert, mit mindestens 45 TB Textdaten trainiert.

Und im Transformator wird eine Technologie namens „Self Attention“ eingeführt. Dadurch kann die Bedeutung von Wörtern auf Grundlage anderer Vokabeln im Artikel besser verstanden werden und wir können besser nachvollziehen, was wir sagen.

Natürlich wird GPT noch optimiert. Beispielsweise verfügt GPT-4.0 über stärkere logische Denkfähigkeiten und kann sogar den Inhalt von Bildern verstehen. Seine Aussichten sind unermesslich.

Tatsächlich werden Sprachmodelle wie GPT, die extrem komplexe Parameter haben und ein umfangreiches Texttraining erfordern, als große Sprachmodelle bezeichnet. Zu den weiteren Modellen neben GPT gehören Alibabas PLUG, Huaweis Pangu-α, Baidus ERNIE 3.0 usw., allesamt große Sprachmodelle.

Mithilfe dieser großen Sprachmodelle können sich unsere Arbeit und unser Lebensstil möglicherweise enorm verändern.

Sind Sie bereit?

Planung und Produktion

Dieser Artikel ist ein Werk des Science Popularization China-Creation Cultivation Program

Produziert von: Abteilung für Wissenschaftspopularisierung der Chinesischen Vereinigung für Wissenschaft und Technologie

Hersteller: China Science and Technology Press Co., Ltd., Beijing Zhongke Xinghe Culture Media Co., Ltd.

Autor: Beijing Yunyuji Culture Communication Co., Ltd.

Gutachter: Qin Zengchang, Außerordentlicher Professor, Fakultät für Automatisierungswissenschaft und Elektrotechnik, Beihang-Universität

Planung von Fu Sijia

Herausgeber: Fu Sijia

Korrekturgelesen von Xu Lailinlin

<<:  „Immersives Erdbeerpflücken“ ist ein Hit während des Frühlingsfests! Lesen Sie diesen Leitfaden, um Fallstricke zu vermeiden

>>:  #千万IP创科学普# Ich habe online beim Spielen ein Mädchen kennengelernt und wurde um mehr als 20.000 Yuan betrogen! Hüten Sie sich vor diesen Betrügereien, die auf Studenten abzielen!

Artikel empfehlen

Hauptbücher, Hunde und Wildschweine

Wang Youqin, der seit drei Jahren keine gute Ernt...

Die irrationale Zerstörungskraft des „Reisnudeln“-Hypes

Xiaomi war seit seiner Gründung von Kontroversen ...

Kann Schwimmen Muskeln aufbauen?

Schwimmen kann einen guten körperformenden Effekt...

Der diesjährige Nobelpreis für Chemie ist endlich mal kein Wissenschaftspreis!

Dieser Artikel wurde zuerst von „Hunzhi“ (WeChat-...

Was ist die effektive Herzfrequenz für die Fettverbrennung?

Bewegung ist wichtig, um Gewicht zu verlieren, ab...

Männer müssen diese Art von "stark" lernen

Für Männer ist es sehr gesund, Yoga zu praktizier...

Das müssen Frauen beim Sport tragen

Beim Sport schwitzt man stark. Gleichzeitig entst...