Am 13. Oktober veröffentlichte die US-Regierung zwei Berichte: „Vorbereitung auf die Zukunft der künstlichen Intelligenz“ und „Nationaler Strategieplan der USA für Forschung und Entwicklung im Bereich künstliche Intelligenz“. Robin Li von Baidu glaubt, dass künstliche Intelligenz die Zukunft ist. Gleichzeitig veröffentlichte Lao Zhou von 360 kürzlich einen Artikel mit dem Titel „ Wie groß ist die Blase der künstlichen Intelligenz ?“, in dem er die Implementierung künstlicher Intelligenz in den Bereichen Suche und Unterhaltung untersucht. Es besteht kein Zweifel, dass künstliche Intelligenz in dieser Zeit zu einem heißen Thema geworden ist, aber worin besteht der Unterschied zu früher? Handelt es sich hier nur um eine weitere kollektive Illusion oder hat tatsächlich ein gesellschaftlicher und wirtschaftlicher Wandel begonnen? In diesem Artikel wird untersucht, was die wesentlichen Einschränkungen sind. Die Entwicklung der künstlichen Intelligenz ist ein Schneeball Die Entwicklung neuer Technologien ist nie auf die Vorlieben und die Begeisterung der Menschen zurückzuführen, sondern beruht auf positiven Rückkopplungsschleifen zwischen Technologie und Wirtschaft (manchmal auch dem Militär). Die kleinere und leistungsstärkere CPU sowie die kontinuierliche Steigerung der Netzwerkgeschwindigkeit sind tatsächlich das Ergebnis dieses positiven Feedbacks. Die beiden vorherigen Fehlschläge der künstlichen Intelligenz waren sehr hässlich, vor allem, weil sie zwar eine Vision hatten, aber keinen großen kommerziellen Wert erzeugten. Unsere Gesellschaft und Wirtschaft sind in hohem Maße von der menschlichen Intelligenz abhängig. Man kann sagen, dass Intelligenz die Grundlage der menschlichen Zivilisation ist und künstliche Intelligenz ein Ersatz für die menschliche Intelligenz ist. Daher hat es künstlicher Intelligenz nie an Vision gemangelt. Ein Durchbruch in einem beliebigen Bereich, wie etwa der Bilderkennung, kann die Menschen an viele Szenarien erinnern, etwa an die Bewachung des Hauses oder die Kontrolle von Verkehrsverstößen. Was künstlicher Intelligenz immer gefehlt hat, ist die Fähigkeit, nachhaltigen kommerziellen Wert zu generieren. Bei den Beispielen Hausbewachung und Kontrolle von Verkehrsverstößen bedeutet dies, dass die Systeme technisch genau genug sein müssen, um die Fehlalarmrate zu senken, einige menschliche Aufgaben tatsächlich erfüllen und ein gewisses Maß an Benutzerfreundlichkeit erreichen können. Das Erreichen des Usability-Levels kann als Ausgangspunkt für die Implementierung angesehen werden. Was danach nötig ist, sind weitere Investitionen, um den kommerziellen Wert zu steigern. So kann es beispielsweise nicht nur das Haus bewachen, sondern auch Patrouille fahren, nicht nur Verkehrsverstöße kontrollieren, sondern auch beim Fahren assistieren. Wenn beide Voraussetzungen erfüllt sind, nämlich die anfängliche Benutzerfreundlichkeit und die Investition, die den kommerziellen Wert steigern kann, kann eine positive Rückkopplungsschleife zwischen Technologie und Geschäft entstehen. Sobald dieses positive Feedback vorhanden ist, kann der Einsatz dieser Technologie nicht mehr durch menschliche Kraft geändert werden. Die erste Welle der künstlichen Intelligenz war durch den ersten Punkt stärker eingeschränkt. Man schien damals keine besonders guten Anwendungsmöglichkeiten für künstliche Intelligenz zu finden. Die zweite Welle der künstlichen Intelligenz wurde eher am zweiten Punkt gestoppt. In den 1980er Jahren wurden einige Expertensysteme tatsächlich erfolgreich eingesetzt und sparten den Unternehmen zig Millionen Dollar. Beispielsweise wurde das erste erfolgreiche kommerzielle Expertensystem R1 erfolgreich im DEC betrieben. Seitdem hat DEC sukzessive 40 Expertensysteme eingeführt, doch diese Ausweitung brachte offensichtlich keine nachhaltigen Erträge und konnte nicht aufrechterhalten werden. Der Grund, warum diese Welle der künstlichen Intelligenz etwas anders aussieht, liegt darin, dass dieses positive Feedback bereits anfänglich entstanden ist und sein Umfang und seine Tiefe im Vergleich zu den beiden vorherigen Malen stark zugenommen haben: Technisch gesehen hat Deep Learning die Genauigkeit der Spracherkennung erheblich verbessert. Beispielsweise konnte die Spracherkennung von 70 % vor etwa 20 Jahren auf heute über 95 % gesteigert werden. Gleichzeitig hat die kontinuierliche Weiterentwicklung der GPUs zu einer kontinuierlichen Verbesserung der Rechengeschwindigkeit geführt. Laut Angaben von nVidia weisen die für künstliche Intelligenz eingeführten Computerkarten im Vergleich zu herkömmlichen Dual-Core-Xeon-Plattformen eine 60-fach höhere Trainingsgeschwindigkeit und eine 16-fach höhere Inferenzgeschwindigkeit auf. In der Wirtschaft ist maschinelles Lernen zum Standard geworden. DeepMind hat versucht, den Algorithmus von AlphaGo auf den IT-Betrieb von Google anzuwenden, was zu einer Senkung der Betriebskosten um 40 % führte. Apple nutzt maschinelles Lernen, um das Benutzererlebnis in verschiedenen Bereichen zu verbessern, beispielsweise bei der Anti-Mistouch-Funktion des iPad Pro-Stifts. Insgesamt lässt sich sagen, dass die flächendeckende Durchdringung unterschiedlicher Branchen durch KI zu einem grundlegenden Trend geworden ist. An diesem Punkt können wir zumindest sagen, dass die erste Spirale positiver Rückmeldungen in Gang gesetzt wurde. Doch die erste Spirale allein reicht nicht aus, damit das Weiße Haus Maßnahmen ergreift. Es muss also darüber diskutiert werden, was passieren wird, nachdem diese Spirale in Gang gesetzt wurde. Damit dieses positive Feedback anhält, muss etwas Großes passieren. Alle Branchen setzen auf künstliche Intelligenz Tatsächlich kann künstliche Intelligenz in jedem Bereich eingesetzt werden. Wenn wir es klassifizieren müssen, kann es grob in drei grundlegende Kategorien unterteilt werden: Eine ist die Methode der Mensch-Computer-Interaktion (einschließlich Sprachinteraktion und neuer Anzeigemethoden wie AR); eine ist die Front-End-Automatisierung; und eines ist die Back-End-Datenverarbeitung. Die typischsten Beispiele in der Mensch-Computer-Interaktion sind Sprachinteraktion und AR. Das Wort AR kann sehr komplex definiert werden. Dabei kann es sich beispielsweise um die häufig erwähnten Brillen (Microsoft HoloLens, Meta etc.) handeln, oder auch um eine Funktion eines Mobiltelefons wie das Gameplay von Tango, und natürlich kann es auch eine Anwendungsfunktion wie Pokémon sein. Aber ich persönlich glaube, dass AR im Wesentlichen eine Revolution in der Art der Interaktion darstellt. Kernmerkmal dieser Interaktionsmethode ist die Echtzeit-Vermischung von digitalem und realem Raum. Die Kerntechnologie, auf der es basiert, ist der Durchbruch in der künstlichen Intelligenz. Bei bestimmten Produkten handelt es sich um unterschiedliche Anwendungen dieser Interaktionsmethode. Sprachinteraktion ist das, was wir oft als Siri, Echo usw. bezeichnen. Der Grund, warum diese Änderung der Interaktionsmethode wichtig ist, liegt darin, dass sie eine neue universelle Computerplattform hervorbringen wird, die wiederum zu Änderungen im gesamten Ökosystem führen wird. Beispielsweise förderte die Erfindung der Maus den Übergang von DOS zu Windows. Bei der Diskussion der Interaktionsmethode ist der interessante Punkt, dass es sich dabei nicht um eine starre Forderung zu handeln scheint, sondern dass sie tatsächlich den Kern des Ersatzes von Allzweckterminals darstellt und weitreichende Auswirkungen hat. Einer der Gründe für den Wechsel vom PC-Internet zum mobilen Internet ist beispielsweise die Entwicklung von Touchscreens. Der Touchscreen ist nicht präzise positioniert und man kann nicht jeden Link so zielgenau aufrufen wie bei einem PC-Browser. Daher muss das Operationsgebiet groß genug sein. Als Ergebnis wurden verschiedene repräsentative mobile Internet-Apps (Taobao, Meituan, Toutiao usw.) entwickelt, die das herkömmliche Surfen im Internet auf PCs ersetzen sollen. . Die typischsten Beispiele für Front-End-Automatisierung sind autonomes Fahren und Roboter. Vor diesem Durchbruch in der künstlichen Intelligenz konnte jede Automatisierung als Automatisierung unter eingeschränkten Regeln bezeichnet werden. Der grundlegende Unterschied zwischen den beiden Automatisierungsarten lässt sich anhand der Softwareimplementierung leichter erkennen. In der Vergangenheit war Software tatsächlich voller Bedingungen und Verzweigungen wie „wenn (Bedingung A erfüllt ist), dann (führe eine bestimmte Aktion aus)“. Der Grund, warum Software wie Office Word und sogar Windows so leistungsstark erscheinen, liegt darin, dass diese Art der bedingten Auswahl ausreichend verschachtelt ist. Dies ist jedoch bei aktuellen Deep-Learning-basierten Programmen nicht der Fall. Sie trainieren zunächst ein Modell, geben dann neue Eingaben in das Modell ein und überlassen es dem Modell, dies selbst herauszufinden (Inferenz). Das heißt, herkömmliche Programme können präzise gesteuert werden, Deep-Learning-Programme können die Details jedoch nicht steuern. Dieser Unterschied in den Vorgehensweisen führt offensichtlich zu grundlegenden Unterschieden im erreichbaren Automatisierungsgrad beim autonomen Fahren und bei Robotern. In der Produktion beispielsweise kann die erste Art der Programmautomatisierung es bestimmten Robotern nur ermöglichen, bestimmte Produkte wie Autos am Fließband herzustellen, während die zweite Art der Programmautomatisierung Roboter hervorbringen kann, die alles können. Was dieser Roboter letztendlich kann, hängt davon ab, wie Sie ihn trainieren. Der Anwendungsbereich des letztgenannten Roboters ist zweifellos weitaus größer als der des erstgenannten, aber hinsichtlich der Arbeitsgenauigkeit ist der letztgenannte Roboter im Moment tatsächlich nicht so gut wie der erstgenannte. Die weitreichende Auswirkung dieser Automatisierungsverbesserung besteht darin, dass sie nacheinander den unbemannten Betrieb in verschiedenen Bereichen ermöglichen kann. Beispielsweise kann der unbemannte Betrieb von Drohnen und Baggern im Bauwesen realisiert werden (die Richtung, die Skycatch und Komatsu einschlagen), und der unbemannte Betrieb an Produktionslinien in Fabriken kann realisiert werden (die Richtung, die Baxter einschlägt). Eine typische Anwendung in der Back-End-Datenanalyse ist das Big-Data-Analyseprogramm wie IBM Watson. IBM hat sich für das Gesundheitswesen als seinen Durchbruchsbereich entschieden, was tatsächlich sehr sinnvoll ist. Im Allgemeinen sind historische medizinische Daten normalerweise gut beschriftet und Durchbrüche in der Bilderkennungstechnologie können zum Anzeigen verschiedener medizinischer Filme genutzt werden. Das Betrachten medizinischer Filme ist eigentlich gleichbedeutend mit der Erkennung pathologischer Muster in den Bildern, und selbst die erfahrensten Ärzte werden in dieser Hinsicht von der künstlichen Intelligenz überfordert. Natürlich ist diese Art der Datenanalyse keineswegs auf die medizinische Versorgung beschränkt. Dasselbe Modell lässt sich auf die Bereiche Finanzen, Sicherheit, Bauwesen usw. anwenden. Nachdem wir uns die drei wichtigsten Entwicklungsrichtungen der künstlichen Intelligenz angesehen haben, kehren wir zur positiven Rückkopplung zwischen Technologie und Wirtschaft zurück: Erstens hat der Durchbruch von Deep Learning + GPU zu bahnbrechenden Fortschritten bei der Erkennungsrate und Geschwindigkeit von Spracherkennung, Bilderkennung usw. geführt. Dann wird dieser Durchbruch in bestimmten bestehenden Bereichen angewendet, wie etwa der Gesichtserkennung. Natürlich gehen beide mit fortlaufenden Kapitalinvestitionen einher. Dann werden einige größere Bereiche an Bedeutung gewinnen, wie etwa die oben erwähnte Mensch-Computer-Interaktion, autonomes Fahren, Datenanalyse usw., und zu diesem Zeitpunkt werden verschiedene Hauptstädte in größerem Umfang eingreifen. Worauf wir jetzt eigentlich warten müssen, sind echte Fortschritte in diesen wichtigen Bereichen. Sobald sie Fortschritte machen und erfolgreich funktionieren, wird diese Welle der künstlichen Intelligenz vollständig implementiert sein. Dann werden wir in eine Phase eintreten, in der sich der Anwendungsbereich weiter ausdehnt und die Technologie selbst schneller und leistungsfähiger wird. Wenn in diesen wichtigen Bereichen keine Fortschritte erzielt werden, beispielsweise wenn innerhalb von fünf Jahren keine erfolgreichen Projekte zu verzeichnen sind, könnte die Welle der künstlichen Intelligenz wieder abflachen. Das Internet konnte die Immobilienpreise nicht senken, aber künstliche Intelligenz kann das? Wenn sich diese Welle der künstlichen Intelligenz wirklich durchsetzt, wird sie sich definitiv auf die Beschäftigung auswirken. Viele Leute haben darüber diskutiert, deshalb werde ich hier nicht näher darauf eingehen. Stattdessen möchte ich einer zum Nachdenken anregenden Frage nachgehen: Kann die Entwicklung von Technologien wie künstlicher Intelligenz die Immobilienpreise senken? Abgesehen von verschiedenen Einzelheiten liegt der Hauptgrund für den Anstieg der Immobilienpreise darin, dass die Bevölkerung in wenigen Gebieten konzentriert ist und dort das Angebot an Wohnungen begrenzt ist. Daher sind die Immobilienpreise in Gebieten mit Nettoabwanderung der Bevölkerung, wie etwa Liaoning, sehr instabil und der Abwärtstrend ist sogar ziemlich offensichtlich. Die Kernfrage lautet dann: Trägt die Entwicklung der Technologie zur Entstehung zunehmend zentralisierter Großstädte bei oder ermöglicht sie eine Dezentralisierung der Städte? Wenn die Antwort Ersteres lautet, dann ist die Technologie die treibende Kraft hinter den Immobilienpreisen in zentralen Lagen. Trifft Letzteres zu, dann stehen der technologischen Entwicklung hohe Immobilienpreise entgegen. Die bisherige wirtschaftliche Entwicklung hat stets die Zentralisierung gefördert. Je vollständiger die unterstützenden Einrichtungen eines Ortes sind, desto entwickelter ist seine Wirtschaft. Je weiter die Wirtschaft entwickelt ist, desto umfassender sind die unterstützenden Einrichtungen. Man kann sagen, dass zwischen wirtschaftlicher Entwicklung, städtischer Zentralisierung und hohen Immobilienpreisen ein unvermeidlicher Zusammenhang besteht. Doch Technologien wie künstliche Intelligenz scheinen den hohen Immobilienpreisen entgegenzuwirken. Wenn AR wirklich weit genug entwickelt ist, wird Telearbeit möglich, eine qualitativ hochwertige Ausbildung wird nicht länger von den immer knappen Lehrerressourcen abhängig sein und auch eine qualitativ hochwertige medizinische Versorgung wird von der Region losgelöst sein. In diesem Fall können die Menschen überall Arbeit und hochwertige Bildung, medizinische Versorgung und andere soziale Dienste bekommen. Warum müssen sie dann in einer Gegend mit hohen Immobilienpreisen leben? Für die zukünftige Bevölkerungsverteilung gibt es immer zwei Möglichkeiten: Einer davon ist, dass Großstädte wie Peking nach und nach expandieren und zu Megastädten werden, die jeweils 100 bis 200 Millionen Menschen aufnehmen können. Dieser Trend wiederholt sich in allen Provinzen: Jede Provinzhauptstadt wird zu einer lokalen Superstadt, während Städte der dritten und vierten Kategorie sowie ländliche Gebiete nach und nach verschwinden. Einer davon ist, dass die Bevölkerung relativ gleichmäßig verteilt ist und jeder einen Ort finden kann, der ihm gefällt. Obwohl es weit weg vom Trubel liegt, ist das Leben äußerst angenehm. Technologien wie künstliche Intelligenz scheinen eher auf der letzteren Seite zu stehen. Zusammenfassung Was ich oben gesagt habe, ist eigentlich ein Teil dessen, was ich in meinem neuen Buch „ Ultimate Replication: Wie künstliche Intelligenz große soziale Veränderungen vorantreiben wird “ zum Ausdruck bringen möchte. Unsere Zukunft ist in ihren Details noch vage, aber künstliche Intelligenz wird sie mit hundertprozentiger Sicherheit neu definieren. Aus diesem Grund haben sich viele Menschen aus Schulen (wie Yan Shuicheng vom 360 Artificial Intelligence Research Institute der National University of Singapore) und Forschungsinstituten (wie Chen Xiaoliang von Sound Intelligence Technology vom Institute of Acoustics der Chinesischen Akademie der Wissenschaften) dieser Welle angeschlossen. Als Gewinner des Qingyun-Plans von Toutiao und des Bai+-Plans von Baijiahao, des Baidu-Digitalautors des Jahres 2019, des beliebtesten Autors von Baijiahao im Technologiebereich, des Sogou-Autors für Technologie und Kultur 2019 und des einflussreichsten Schöpfers des Baijiahao-Vierteljahrs 2021 hat er viele Auszeichnungen gewonnen, darunter den Sohu Best Industry Media Person 2013, den dritten Platz beim China New Media Entrepreneurship Competition Beijing 2015, den Guangmang Experience Award 2015, den dritten Platz im Finale des China New Media Entrepreneurship Competition 2015 und den Baidu Dynamic Annual Powerful Celebrity 2018. |
<<: Straßenlaternen können in Autoladestationen umgewandelt werden, die WLAN bereitstellen können
>>: Lade- und Akkuwechselmodi: Wer ist zuverlässig und wer betrügt?
Mit dem Ziel, die besten Gaming-Laptops der Welt ...
Wenn wir im Leben nicht auf Bewegung achten und u...
Laut der Prognose des Beijing Ecological Environm...
In den letzten Jahren ist das Thema „Radon-Gesund...
Künstliche Intelligenz könnte laut einer neuen St...
Der Gefrierpunkt von Wasser liegt bei 0 °C und de...
„Kein Sport oder eine Diät nötig, eine Injektion ...
© Emmanuel Lafont Leviathan Press: Die Etymologie...
Das amerikanische Technologieblog The Verge veröff...
Kürzlich in Turpan, Xinjiang Touristen stellten s...
Nach Hangzhou, Qingdao, Peking, Hongkong und Shen...
Bei der Eröffnungszeremonie der 19. Asienspiele i...
Kürzlich berichteten Eltern von Studenten in Yiya...
Die bekannte Fitnesstrainerin KIT ist seit vielen...
Ausländischen Medienberichten zufolge ist die Nac...