Wenn Sie an einer Videokonferenz mit mehreren Personen teilnehmen, sind Sie die einzige reale Person! Wie kann KI-Betrug verhindert werden?

Wenn Sie an einer Videokonferenz mit mehreren Personen teilnehmen, sind Sie die einzige reale Person! Wie kann KI-Betrug verhindert werden?

Prüfungsexperte: Liu Xiangquan

Direktor der Abteilung für Robotiktechnik, Beijing Information Science and Technology University

KI-Gesichtsveränderung

Sehen heißt nicht mehr glauben! Wie können wir in einem Zeitalter, in dem KI gefälschte Dinge echt aussehen lassen kann, Authentizität gewährleisten?

Kürzlich gab die Polizei von Hongkong einen Betrugsfall bekannt, bei dem es um die „Gesichtsveränderung mehrerer Personen“ mittels künstlicher Intelligenz ging. Dabei ging es um einen Betrag von 200 Millionen Hongkong-Dollar.

Das Opfer war ein Mitarbeiter der Hongkonger Niederlassung eines multinationalen Unternehmens. Er wurde eingeladen, an einer vom Finanzvorstand der Zentrale initiierten „Mehrpersonen-Videokonferenz“ teilzunehmen und überwies wie gefordert 200 Millionen Hongkong-Dollar in mehreren Raten auf fünf lokale Bankkonten.

Quelle | CCTV.com

Als der Mitarbeiter dies später bei der Zentrale bestätigte, stellte er fest, dass er betrogen worden war.

Nach Ermittlungen stellte die Polizei fest, dass bei dieser Videokonferenz nur ein Mitarbeiter eine echte Person war und alle anderen Teilnehmer von Betrügern mithilfe einer KI-Technologie zur Gesichtsveränderung gefälscht worden waren!

Es wird davon ausgegangen, dass die Betrüger das Aussehen und die Stimme der leitenden Angestellten des Unternehmens geschickt nachgeahmt haben, indem sie YouTube-Videos und andere öffentlich zugängliche Medienmaterialien des Unternehmens gestohlen haben. Anschließend verwendeten sie Deep-Fake -Technologie, um betrügerische Videos zu erstellen und den Opfern vorzugaukeln, sie befänden sich in einer Videokonferenz mit mehreren Personen und würden mit anderen echten Menschen kommunizieren.

Was ist Deep-Fake-Technologie?

Deepfake ist ein Substantiv, das eine Kombination aus Deep Learning und Fake ist.

Ursprünglich war diese Art von künstlicher Intelligenztechnologie zum Anpassen von Videos oder Bildern nur ein interessanter neuer Durchbruch. Es kann die Mimik, den Sprachinhalt und die Bewegungen einer Person auf das Bild oder Video einer anderen Person übertragen und es dadurch sehr realistisch wirken lassen.

Quelle | CCTV.com

Da diese Technologie praktisch, kostengünstig und realistisch ist , hat sie in den Bereichen Kunst, soziale Interaktion und Medizin viele neue Möglichkeiten eröffnet.

Da diese Technologie jedoch die Erstellung gefälschter Videos erleichtert, könnten einige Kriminelle sie dazu nutzen, Menschen zu täuschen, falsche Informationen zu verbreiten oder soziale Konflikte zu schüren, was ein großes Risiko für unsere Sicherheit darstellt.

Angesichts der KI wurden die Gesetze „Bilder beweisen die Wahrheit“ und „Sehen ist Glauben“ außer Kraft gesetzt.

Wie sieht KI-Betrug im Allgemeinen aus?

Wenn im Leben Verwandte und Freunde online um Geld bitten, entscheiden sich vorsichtige Menschen im Allgemeinen dafür, mit der anderen Partei einen Sprach- oder Videoanruf zu tätigen und die Identität der anderen Partei zu bestätigen, bevor sie das Geld überweisen.

Was aber, wenn die Namen der „Verwandten und Freunde“, die ans Telefon gehen, ebenfalls von Betrügern mithilfe künstlicher Intelligenz gefälscht wurden?

Quelle | Nachrichtenagentur Xinhua

Betrügereien, bei denen KI-Technologie zum Einsatz kommt, umfassen in der Regel die folgenden Schritte:

1. Stehlen Sie das Social-Media-Konto des Ziels und suchen Sie nach potenziellen Opfern.

2. Einsatz von KI-Robotern, um belästigende Telefonanrufe zu tätigen, die Sprachdaten der Zielperson (die dann zu Verwandten oder Freunden wird) zu sammeln und die Stimme zu fälschen;

3. Sammeln Sie über verschiedene Kanäle Fotos, Videos und andere Informationen von Verwandten und Freunden des Ziels und verkleiden Sie sich durch KI-Gesichtsänderung als Verwandte und Freunde des Ziels.

4. Nutzen Sie KI-basierte Gesichtsveränderungstechnologie, um Videoanrufe mit Opfern zu tätigen, deren Vertrauen zu gewinnen und Betrug zu begehen.

Nach diesen drei Schritten ist die bisherige Methode zur Betrugsprävention durch „Senden von Sprache“ oder „Tätigen von Videoanrufen“ angesichts des KI-Betrugs nicht mehr wirksam.

Quelle | Das Papier

Noch beunruhigender ist die zunehmende Zahl von Betrügern, die KI-Technologie einsetzen. Öffentliche Informationen zeigen, dass es seit 2021 in vielen Provinzen zu Fällen gekommen ist, in denen KI für Betrug und unlautere Profitmacherei eingesetzt wurde. Die Internet Society of China wies außerdem darauf hin, dass es häufig zu illegalen Handlungen wie Betrug und Verleumdung komme, bei denen Technologien wie „KI-Gesichtsveränderung“ und „KI-Stimmveränderung“ zum Einsatz kämen.

Lernen Sie ein paar Tricks, um KI-Fälschungen rechtzeitig zu erkennen

Wie können wir solche betrügerischen Methoden verhindern, die so echt aussehen?

1. Bitten Sie die Versuchsperson, mit den Händen vor dem Gesicht zu wedeln, die Nase zu kneifen oder die Wangen zu drücken

Bei einem Videoanruf stört das Winken die Gesichtsdaten und führt dazu, dass das falsche Gesicht zittrig, blinkend oder anderweitig auffällig erscheint. Daher können wir die andere Partei bitten, zur Identifizierung vor dem Gesicht zu winken.

Darüber hinaus können wir die andere Person auch bitten, auf die Nase oder das Gesicht zu drücken und die Veränderungen ihrer Gesichtszüge zu beobachten. Eine echte menschliche Nase verformt sich, wenn man darauf drückt, die KI-generierte Nase hingegen nicht.

Da das KI-Training jedoch immer ausgereifter wird, ist das Zuhalten der Nase nicht mehr die sicherste Identifizierungsmethode.

Quelle | CCTV.com

2. Stellen Sie Fragen, die nur die andere Person kennt

Obwohl das äußere Erscheinungsbild vorgetäuscht werden kann, lassen sich persönliche Erinnerungen und Erlebnisse nicht reproduzieren.

Daher können wir während eines Videoanrufs Fragen stellen, die nur die andere Partei kennt, wie etwa nach der Wohnadresse, dem Geburtstag, dem Namen des Haustiers und anderen privaten Informationen. Wenn die Gegenseite zögerlich antwortet oder nicht in der Lage ist, präzise zu antworten, handelt es sich wahrscheinlich um einen Betrug.

Quelle|Wenxinyige (Bild von KI gezeichnet)

„Wenn Nachrichten, Bilder, Audio, Video – alles gefälscht werden kann, dann ist in dieser Welt nichts real“, sagte Farid, stellvertretender Dekan der School of Information an der University of California, Berkeley.

Wir treten in eine Ära ein, in der künstliche Intelligenz gefälschte Dinge echt aussehen lassen kann. Die Herausforderung, die Authentizität sicherzustellen, scheint größer denn je.

Allerdings sind wir dieser technologischen Revolution nicht hilflos ausgeliefert. Wir sind überzeugt, dass wir durch technologische Kompetenz, globale Zusammenarbeit und öffentliche Aufklärung die Herausforderungen meistern und die Authentizität und Glaubwürdigkeit der Informationen bewahren können.

<<:  Ein 54-jähriger Archäologe gab seine „Professorenlast“ auf und wurde Food-Blogger. Was ist passiert?

>>:  „Ich bin dein Mauerbrecher!“ Luft & Wasser: ...

Artikel empfehlen

So verlieren Sie Gewicht an den Beinmuskeln

Ich glaube, dass viele Mädchen keine zu stark aus...

Chinas erste Weltraumstunde auf der Raumstation war so aufregend!

Laut dem chinesischen Büro für bemannte Raumfahrt...

Wie behandelt man eine Bizepsverletzung?

Der Bizepsbereich ist sehr verletzungsanfällig. M...

Welche Merkmale weist die neue Generation der Trägerrakete „Langer Marsch“ auf?

Die neue Generation der Trägerraketen vom Typ „La...

Die Erde "erinnert" sich an jeden unserer Namen

Aus der Perspektive des Universums erinnert sich ...

Was sind die Missverständnisse über Aufwärmübungen für Fitness

Mit dem kontinuierlichen Fortschritt der Gesellsc...

Hilft Seilspringen dabei, die Brustgröße zu reduzieren?

Seilspringen zur Gewichtsabnahme kann tatsächlich...

Warum ist Huawei verwirrt? Ren Zhengfei sagte, dass niemand den Weg weist

Auf der kürzlich abgehaltenen Nationalen Wissensc...