Prüfungsexperte: Liu Xiangquan Direktor der Abteilung für Robotiktechnik, Beijing Information Science and Technology University KI-Gesichtsveränderung Sehen heißt nicht mehr glauben! Wie können wir in einem Zeitalter, in dem KI gefälschte Dinge echt aussehen lassen kann, Authentizität gewährleisten? Kürzlich gab die Polizei von Hongkong einen Betrugsfall bekannt, bei dem es um die „Gesichtsveränderung mehrerer Personen“ mittels künstlicher Intelligenz ging. Dabei ging es um einen Betrag von 200 Millionen Hongkong-Dollar. Das Opfer war ein Mitarbeiter der Hongkonger Niederlassung eines multinationalen Unternehmens. Er wurde eingeladen, an einer vom Finanzvorstand der Zentrale initiierten „Mehrpersonen-Videokonferenz“ teilzunehmen und überwies wie gefordert 200 Millionen Hongkong-Dollar in mehreren Raten auf fünf lokale Bankkonten. Quelle | CCTV.com Als der Mitarbeiter dies später bei der Zentrale bestätigte, stellte er fest, dass er betrogen worden war. Nach Ermittlungen stellte die Polizei fest, dass bei dieser Videokonferenz nur ein Mitarbeiter eine echte Person war und alle anderen Teilnehmer von Betrügern mithilfe einer KI-Technologie zur Gesichtsveränderung gefälscht worden waren! Es wird davon ausgegangen, dass die Betrüger das Aussehen und die Stimme der leitenden Angestellten des Unternehmens geschickt nachgeahmt haben, indem sie YouTube-Videos und andere öffentlich zugängliche Medienmaterialien des Unternehmens gestohlen haben. Anschließend verwendeten sie Deep-Fake -Technologie, um betrügerische Videos zu erstellen und den Opfern vorzugaukeln, sie befänden sich in einer Videokonferenz mit mehreren Personen und würden mit anderen echten Menschen kommunizieren. Was ist Deep-Fake-Technologie? Deepfake ist ein Substantiv, das eine Kombination aus Deep Learning und Fake ist. Ursprünglich war diese Art von künstlicher Intelligenztechnologie zum Anpassen von Videos oder Bildern nur ein interessanter neuer Durchbruch. Es kann die Mimik, den Sprachinhalt und die Bewegungen einer Person auf das Bild oder Video einer anderen Person übertragen und es dadurch sehr realistisch wirken lassen. Quelle | CCTV.com Da diese Technologie praktisch, kostengünstig und realistisch ist , hat sie in den Bereichen Kunst, soziale Interaktion und Medizin viele neue Möglichkeiten eröffnet. Da diese Technologie jedoch die Erstellung gefälschter Videos erleichtert, könnten einige Kriminelle sie dazu nutzen, Menschen zu täuschen, falsche Informationen zu verbreiten oder soziale Konflikte zu schüren, was ein großes Risiko für unsere Sicherheit darstellt. Angesichts der KI wurden die Gesetze „Bilder beweisen die Wahrheit“ und „Sehen ist Glauben“ außer Kraft gesetzt. Wie sieht KI-Betrug im Allgemeinen aus? Wenn im Leben Verwandte und Freunde online um Geld bitten, entscheiden sich vorsichtige Menschen im Allgemeinen dafür, mit der anderen Partei einen Sprach- oder Videoanruf zu tätigen und die Identität der anderen Partei zu bestätigen, bevor sie das Geld überweisen. Was aber, wenn die Namen der „Verwandten und Freunde“, die ans Telefon gehen, ebenfalls von Betrügern mithilfe künstlicher Intelligenz gefälscht wurden? Quelle | Nachrichtenagentur Xinhua Betrügereien, bei denen KI-Technologie zum Einsatz kommt, umfassen in der Regel die folgenden Schritte: 1. Stehlen Sie das Social-Media-Konto des Ziels und suchen Sie nach potenziellen Opfern. 2. Einsatz von KI-Robotern, um belästigende Telefonanrufe zu tätigen, die Sprachdaten der Zielperson (die dann zu Verwandten oder Freunden wird) zu sammeln und die Stimme zu fälschen; 3. Sammeln Sie über verschiedene Kanäle Fotos, Videos und andere Informationen von Verwandten und Freunden des Ziels und verkleiden Sie sich durch KI-Gesichtsänderung als Verwandte und Freunde des Ziels. 4. Nutzen Sie KI-basierte Gesichtsveränderungstechnologie, um Videoanrufe mit Opfern zu tätigen, deren Vertrauen zu gewinnen und Betrug zu begehen. Nach diesen drei Schritten ist die bisherige Methode zur Betrugsprävention durch „Senden von Sprache“ oder „Tätigen von Videoanrufen“ angesichts des KI-Betrugs nicht mehr wirksam. Quelle | Das Papier Noch beunruhigender ist die zunehmende Zahl von Betrügern, die KI-Technologie einsetzen. Öffentliche Informationen zeigen, dass es seit 2021 in vielen Provinzen zu Fällen gekommen ist, in denen KI für Betrug und unlautere Profitmacherei eingesetzt wurde. Die Internet Society of China wies außerdem darauf hin, dass es häufig zu illegalen Handlungen wie Betrug und Verleumdung komme, bei denen Technologien wie „KI-Gesichtsveränderung“ und „KI-Stimmveränderung“ zum Einsatz kämen. Lernen Sie ein paar Tricks, um KI-Fälschungen rechtzeitig zu erkennen Wie können wir solche betrügerischen Methoden verhindern, die so echt aussehen? 1. Bitten Sie die Versuchsperson, mit den Händen vor dem Gesicht zu wedeln, die Nase zu kneifen oder die Wangen zu drücken Bei einem Videoanruf stört das Winken die Gesichtsdaten und führt dazu, dass das falsche Gesicht zittrig, blinkend oder anderweitig auffällig erscheint. Daher können wir die andere Partei bitten, zur Identifizierung vor dem Gesicht zu winken. Darüber hinaus können wir die andere Person auch bitten, auf die Nase oder das Gesicht zu drücken und die Veränderungen ihrer Gesichtszüge zu beobachten. Eine echte menschliche Nase verformt sich, wenn man darauf drückt, die KI-generierte Nase hingegen nicht. Da das KI-Training jedoch immer ausgereifter wird, ist das Zuhalten der Nase nicht mehr die sicherste Identifizierungsmethode. Quelle | CCTV.com 2. Stellen Sie Fragen, die nur die andere Person kennt Obwohl das äußere Erscheinungsbild vorgetäuscht werden kann, lassen sich persönliche Erinnerungen und Erlebnisse nicht reproduzieren. Daher können wir während eines Videoanrufs Fragen stellen, die nur die andere Partei kennt, wie etwa nach der Wohnadresse, dem Geburtstag, dem Namen des Haustiers und anderen privaten Informationen. Wenn die Gegenseite zögerlich antwortet oder nicht in der Lage ist, präzise zu antworten, handelt es sich wahrscheinlich um einen Betrug. Quelle|Wenxinyige (Bild von KI gezeichnet) „Wenn Nachrichten, Bilder, Audio, Video – alles gefälscht werden kann, dann ist in dieser Welt nichts real“, sagte Farid, stellvertretender Dekan der School of Information an der University of California, Berkeley. Wir treten in eine Ära ein, in der künstliche Intelligenz gefälschte Dinge echt aussehen lassen kann. Die Herausforderung, die Authentizität sicherzustellen, scheint größer denn je. Allerdings sind wir dieser technologischen Revolution nicht hilflos ausgeliefert. Wir sind überzeugt, dass wir durch technologische Kompetenz, globale Zusammenarbeit und öffentliche Aufklärung die Herausforderungen meistern und die Authentizität und Glaubwürdigkeit der Informationen bewahren können. |
>>: „Ich bin dein Mauerbrecher!“ Luft & Wasser: ...
Produziert von: Science Popularization China Auto...
Obwohl diese Option unsinnig erscheinen mag, ist ...
Ich glaube, dass viele Mädchen keine zu stark aus...
Morgens vom Wecker geweckt Beim Arbeiten fliegen ...
Laut dem chinesischen Büro für bemannte Raumfahrt...
Tencents neues Hauptgebäude in Shenzhen Tencent i...
Der Bizepsbereich ist sehr verletzungsanfällig. M...
Die neue Generation der Trägerraketen vom Typ „La...
Anmerkung des Herausgebers: In der langen Geschic...
Aus der Perspektive des Universums erinnert sich ...
Apropos Essensreihenfolge: Was essen Sie bei jede...
( 20. November 2024 , Huzhou) Heute fand im smart...
Mit dem kontinuierlichen Fortschritt der Gesellsc...
Seilspringen zur Gewichtsabnahme kann tatsächlich...
Auf der kürzlich abgehaltenen Nationalen Wissensc...