Prüfungsexperte: Liu Xiangquan Direktor der Abteilung für Robotiktechnik, Beijing Information Science and Technology University KI-Gesichtsveränderung Sehen heißt nicht mehr glauben! Wie können wir in einem Zeitalter, in dem KI gefälschte Dinge echt aussehen lassen kann, Authentizität gewährleisten? Kürzlich gab die Polizei von Hongkong einen Betrugsfall bekannt, bei dem es um die „Gesichtsveränderung mehrerer Personen“ mittels künstlicher Intelligenz ging. Dabei ging es um einen Betrag von 200 Millionen Hongkong-Dollar. Das Opfer war ein Mitarbeiter der Hongkonger Niederlassung eines multinationalen Unternehmens. Er wurde eingeladen, an einer vom Finanzvorstand der Zentrale initiierten „Mehrpersonen-Videokonferenz“ teilzunehmen und überwies wie gefordert 200 Millionen Hongkong-Dollar in mehreren Raten auf fünf lokale Bankkonten. Quelle | CCTV.com Als der Mitarbeiter dies später bei der Zentrale bestätigte, stellte er fest, dass er betrogen worden war. Nach Ermittlungen stellte die Polizei fest, dass bei dieser Videokonferenz nur ein Mitarbeiter eine echte Person war und alle anderen Teilnehmer von Betrügern mithilfe einer KI-Technologie zur Gesichtsveränderung gefälscht worden waren! Es wird davon ausgegangen, dass die Betrüger das Aussehen und die Stimme der leitenden Angestellten des Unternehmens geschickt nachgeahmt haben, indem sie YouTube-Videos und andere öffentlich zugängliche Medienmaterialien des Unternehmens gestohlen haben. Anschließend verwendeten sie Deep-Fake -Technologie, um betrügerische Videos zu erstellen und den Opfern vorzugaukeln, sie befänden sich in einer Videokonferenz mit mehreren Personen und würden mit anderen echten Menschen kommunizieren. Was ist Deep-Fake-Technologie? Deepfake ist ein Substantiv, das eine Kombination aus Deep Learning und Fake ist. Ursprünglich war diese Art von künstlicher Intelligenztechnologie zum Anpassen von Videos oder Bildern nur ein interessanter neuer Durchbruch. Es kann die Mimik, den Sprachinhalt und die Bewegungen einer Person auf das Bild oder Video einer anderen Person übertragen und es dadurch sehr realistisch wirken lassen. Quelle | CCTV.com Da diese Technologie praktisch, kostengünstig und realistisch ist , hat sie in den Bereichen Kunst, soziale Interaktion und Medizin viele neue Möglichkeiten eröffnet. Da diese Technologie jedoch die Erstellung gefälschter Videos erleichtert, könnten einige Kriminelle sie dazu nutzen, Menschen zu täuschen, falsche Informationen zu verbreiten oder soziale Konflikte zu schüren, was ein großes Risiko für unsere Sicherheit darstellt. Angesichts der KI wurden die Gesetze „Bilder beweisen die Wahrheit“ und „Sehen ist Glauben“ außer Kraft gesetzt. Wie sieht KI-Betrug im Allgemeinen aus? Wenn im Leben Verwandte und Freunde online um Geld bitten, entscheiden sich vorsichtige Menschen im Allgemeinen dafür, mit der anderen Partei einen Sprach- oder Videoanruf zu tätigen und die Identität der anderen Partei zu bestätigen, bevor sie das Geld überweisen. Was aber, wenn die Namen der „Verwandten und Freunde“, die ans Telefon gehen, ebenfalls von Betrügern mithilfe künstlicher Intelligenz gefälscht wurden? Quelle | Nachrichtenagentur Xinhua Betrügereien, bei denen KI-Technologie zum Einsatz kommt, umfassen in der Regel die folgenden Schritte: 1. Stehlen Sie das Social-Media-Konto des Ziels und suchen Sie nach potenziellen Opfern. 2. Einsatz von KI-Robotern, um belästigende Telefonanrufe zu tätigen, die Sprachdaten der Zielperson (die dann zu Verwandten oder Freunden wird) zu sammeln und die Stimme zu fälschen; 3. Sammeln Sie über verschiedene Kanäle Fotos, Videos und andere Informationen von Verwandten und Freunden des Ziels und verkleiden Sie sich durch KI-Gesichtsänderung als Verwandte und Freunde des Ziels. 4. Nutzen Sie KI-basierte Gesichtsveränderungstechnologie, um Videoanrufe mit Opfern zu tätigen, deren Vertrauen zu gewinnen und Betrug zu begehen. Nach diesen drei Schritten ist die bisherige Methode zur Betrugsprävention durch „Senden von Sprache“ oder „Tätigen von Videoanrufen“ angesichts des KI-Betrugs nicht mehr wirksam. Quelle | Das Papier Noch beunruhigender ist die zunehmende Zahl von Betrügern, die KI-Technologie einsetzen. Öffentliche Informationen zeigen, dass es seit 2021 in vielen Provinzen zu Fällen gekommen ist, in denen KI für Betrug und unlautere Profitmacherei eingesetzt wurde. Die Internet Society of China wies außerdem darauf hin, dass es häufig zu illegalen Handlungen wie Betrug und Verleumdung komme, bei denen Technologien wie „KI-Gesichtsveränderung“ und „KI-Stimmveränderung“ zum Einsatz kämen. Lernen Sie ein paar Tricks, um KI-Fälschungen rechtzeitig zu erkennen Wie können wir solche betrügerischen Methoden verhindern, die so echt aussehen? 1. Bitten Sie die Versuchsperson, mit den Händen vor dem Gesicht zu wedeln, die Nase zu kneifen oder die Wangen zu drücken Bei einem Videoanruf stört das Winken die Gesichtsdaten und führt dazu, dass das falsche Gesicht zittrig, blinkend oder anderweitig auffällig erscheint. Daher können wir die andere Partei bitten, zur Identifizierung vor dem Gesicht zu winken. Darüber hinaus können wir die andere Person auch bitten, auf die Nase oder das Gesicht zu drücken und die Veränderungen ihrer Gesichtszüge zu beobachten. Eine echte menschliche Nase verformt sich, wenn man darauf drückt, die KI-generierte Nase hingegen nicht. Da das KI-Training jedoch immer ausgereifter wird, ist das Zuhalten der Nase nicht mehr die sicherste Identifizierungsmethode. Quelle | CCTV.com 2. Stellen Sie Fragen, die nur die andere Person kennt Obwohl das äußere Erscheinungsbild vorgetäuscht werden kann, lassen sich persönliche Erinnerungen und Erlebnisse nicht reproduzieren. Daher können wir während eines Videoanrufs Fragen stellen, die nur die andere Partei kennt, wie etwa nach der Wohnadresse, dem Geburtstag, dem Namen des Haustiers und anderen privaten Informationen. Wenn die Gegenseite zögerlich antwortet oder nicht in der Lage ist, präzise zu antworten, handelt es sich wahrscheinlich um einen Betrug. Quelle|Wenxinyige (Bild von KI gezeichnet) „Wenn Nachrichten, Bilder, Audio, Video – alles gefälscht werden kann, dann ist in dieser Welt nichts real“, sagte Farid, stellvertretender Dekan der School of Information an der University of California, Berkeley. Wir treten in eine Ära ein, in der künstliche Intelligenz gefälschte Dinge echt aussehen lassen kann. Die Herausforderung, die Authentizität sicherzustellen, scheint größer denn je. Allerdings sind wir dieser technologischen Revolution nicht hilflos ausgeliefert. Wir sind überzeugt, dass wir durch technologische Kompetenz, globale Zusammenarbeit und öffentliche Aufklärung die Herausforderungen meistern und die Authentizität und Glaubwürdigkeit der Informationen bewahren können. |
>>: „Ich bin dein Mauerbrecher!“ Luft & Wasser: ...
Ich glaube, dass die meisten Menschen, die sich e...
Heutzutage bleiben immer mehr Menschen lieber zu ...
In dem chinesischen Science-Fiction-Film „Die wan...
„Das Haar ist locker hochgebunden und das Make-up...
Das Jahr des Hasen ist da. „Rabbit Yuanyuan“ ist ...
Eine dicke Fettschicht am Bauch sieht nicht nur n...
Wenn Sie in den Park gehen, sehen Sie überall Men...
Im Jahr 2014 schien das Konzept des Smart Home Re...
„Möchten Sie Ihren Problemen entfliehen? Pigmentf...
Viele Menschen haben im Alltag Schulterschmerzen ...
Gutachter: Zhou Hongzhi, leitender Labortechniker...
Generell fällt es Frauen während der Menstruation...
Es gibt eine Möglichkeit, Ihre Leistung zu den ni...
Der häufigste Grund für die Verwendung eines Mobi...
Ich glaube, jeder weiß, dass man nach dem Trainin...