Willkommen bei der speziellen Winterferienkolumne „ Hightech-Unterricht für Kinder “ von Science Popularization China! Künstliche Intelligenz ist eine der modernsten Technologien unserer Zeit und verändert unser Leben mit erstaunlicher Geschwindigkeit. Von intelligenten Sprachassistenten bis hin zu selbstfahrenden Autos, von KI-Malerei bis hin zu maschinellem Lernen eröffnet es uns eine Zukunft voller unendlicher Möglichkeiten. In dieser Kolumne werden Kindern anhand von Videos und Texten die Prinzipien, Anwendungen und tiefgreifenden Auswirkungen künstlicher Intelligenz auf die Gesellschaft auf leicht verständliche Weise erklärt. Kommen Sie und beginnen Sie diese KI-Reise mit uns! Ende 2022 geriet der Begriff „ChatGPT“ still und leise in die Öffentlichkeit. Wenn Sie noch nie davon gehört haben oder es nur für einen Chatbot halten, unterschätzen Sie es. Viele Branchen, wie beispielsweise Nachrichten, Recht, Bildung, Kundendienstberatung usw., haben ChatGPT in Produktion und Dienstleistungen eingesetzt. Also, was genau ist ChatGPT? In dieser Ausgabe erfahren wir mehr über ChatGPT und die dahinter stehende Technologie. Beginnen wir mit dem Namen. Chat, wörtlich übersetzt „Chat“, kann man sagen, dass Chat GPT eine Chat-Anwendung ist, die wie WeChat oder QQ verwendet wird. Die Person am anderen Ende ist jedoch nicht Ihr Freund, sondern eine KI. G, P, T ist der wichtigere Teil, die Abkürzung für „Generative Pre-trained Transformer“. Generativ bedeutet „generativ“, was bedeutet, dass es basierend auf den empfangenen Informationen als Antwort Text generieren kann. Vortrainiert bedeutet „vortrainiert“, was bedeutet, dass Chat GPT viel Texttraining durchlaufen hat, bevor es mit Ihnen spricht. Transformer ist ein Deep-Learning-Modell. Man kann sagen, dass der Transformator der Kern des gesamten GPT ist. Um „ChatGPT“ zu verstehen, müssen wir damit beginnen, wie KI das Sprechen lernt. Wenn Menschen sprechen, suchen sie Wörter aus dem „Wörterbuch“ ihres Gehirns heraus und bilden Sätze. Wenn wir die KI einfach zufällig Wörter aus dem Wörterbuch auswählen lassen, werden die gebildeten Sätze höchstwahrscheinlich inkohärent und bedeutungslos sein. Um Computern das Sprechen menschlicher Sprache zu ermöglichen, führte man das Markov-Modell ein. Vereinfacht ausgedrückt kann das Markov-Modell eine Verbindung zwischen einem Wort und den vorhergehenden Wörtern herstellen. Laut dem Korpus ist beispielsweise die Wahrscheinlichkeit, dass das nächste Wort von „Soda“ „Cookie“ oder „Soda“ ist, viel höher als bei Wörtern wie „Tisch“ oder „Karotte“. Wenn wir weiterhin das Wort „essen“ vor „Soda“ hinzufügen, ist die Wahrscheinlichkeit, „Kekse“ einzufügen, höher als die Wahrscheinlichkeit für „Soda“. Auf diese Weise generierte Sätze kommen der menschlichen Sprache näher als zufällig generierte Sätze. Copyright-Bilder in der Galerie. Der Nachdruck und die Verwendung können zu Urheberrechtsstreitigkeiten führen. Auf Grundlage dieser Denkweise entstand in den 1970er und 1980er Jahren ein Modell namens „rekurrentes neuronales Netzwerk“. Recurrent Neural Networks, kurz RNN, können die Reihenfolge von Wörtern und den Einfluss vorheriger Wörter auf nachfolgende Wörter berücksichtigen. RNN weist jedoch auch einige Einschränkungen auf, beispielsweise den Effekt des „verschwindenden Gradienten“. Wenn die Sätze länger werden, vergisst es, was es vorher gesagt hat. Daher optimierten die Menschen das RNN-Modell und entwickelten das Long-Short-Term-Memory-Modell, abgekürzt LSTM, um das Problem der „Vergesslichkeit“ zu lösen. Aber das ist nicht genug. Es gibt zwei Probleme mit dem RNN-basierten Modell. Einer ist, dass die Lerngeschwindigkeit zu langsam ist. Zweitens ist das Verständnis der Wortbedeutung nicht gut genug. Zu diesem Zweck wurde ein neuer Transformator für die Architektur neuronaler Netzwerke entwickelt. Das transformatorbasierte Modell verfügt über eine sehr schnelle Lernrate und kann in kurzer Zeit eine große Menge an Textdaten erlernen. Derzeit wurde das GPT-Modell, das mit Menschen kommuniziert, mit mindestens 45 TB Textdaten trainiert. Und im Transformator wird eine Technologie namens „Self Attention“ eingeführt. Dadurch kann die Bedeutung von Wörtern auf Grundlage anderer Vokabeln im Artikel besser verstanden werden und wir können besser nachvollziehen, was wir sagen. Natürlich wird GPT noch optimiert. Beispielsweise verfügt GPT-4.0 über stärkere logische Denkfähigkeiten und kann sogar den Inhalt von Bildern verstehen. Seine Aussichten sind unermesslich. Tatsächlich werden Sprachmodelle wie GPT, die extrem komplexe Parameter haben und ein umfangreiches Texttraining erfordern, als große Sprachmodelle bezeichnet. Zu den weiteren Modellen neben GPT gehören Alibabas PLUG, Huaweis Pangu-α, Baidus ERNIE 3.0 usw., allesamt große Sprachmodelle. Mithilfe dieser großen Sprachmodelle können sich unsere Arbeit und unser Lebensstil möglicherweise enorm verändern. Sind Sie bereit? Planung und Produktion Dieser Artikel ist ein Werk des Science Popularization China-Creation Cultivation Program Produziert von: Abteilung für Wissenschaftspopularisierung der Chinesischen Vereinigung für Wissenschaft und Technologie Hersteller: China Science and Technology Press Co., Ltd., Beijing Zhongke Xinghe Culture Media Co., Ltd. Autor: Beijing Yunyuji Culture Communication Co., Ltd. Gutachter: Qin Zengchang, Außerordentlicher Professor, Fakultät für Automatisierungswissenschaft und Elektrotechnik, Beihang-Universität Planung von Fu Sijia Herausgeber: Fu Sijia Korrekturgelesen von Xu Lailinlin |
Wang Youqin, der seit drei Jahren keine gute Ernt...
Von der Subventionskampagne in Höhe von einer Mil...
Haarausfall ist für die heutige Jugend zu einem s...
Xiaomi war seit seiner Gründung von Kontroversen ...
Vor nicht allzu langer Zeit brach ein Wildschwein...
Schwimmen kann einen guten körperformenden Effekt...
Peking wird in Schlüsselbereichen und Schlüsselin...
Dieser Artikel wurde zuerst von „Hunzhi“ (WeChat-...
Airlines for America gab am Dienstag bekannt, das...
Bewegung ist wichtig, um Gewicht zu verlieren, ab...
Tesla hat vor Kurzem sein neuestes Modell herausg...
Für Männer ist es sehr gesund, Yoga zu praktizier...
Beim Sport schwitzt man stark. Gleichzeitig entst...
Quelle: Ni Xiaojiang & Jing'an CDC...