Früher störten KI-gestützte Gesichtsveränderungen nur Prominente, doch jetzt wirken sie sich direkt auf die Sicherheit des Eigentums von ganz normalen Menschen wie uns aus. Es gibt viele Nachrichtenberichte über falsche Gesichter, die Konten stehlen und Geld überweisen sollen. Im August dieses Jahres wurden zwei Verdächtige von der Polizei festgenommen, weil sie mithilfe von Mobiltelefonsoftware dynamische Gesichtserkennungsvideos erstellt und sich als Benutzer „getarnt“ hatten, die sich in die Online-Konten anderer Personen einloggten, um Geld zu stehlen. In einer anderen Nachricht hieß es, dass der Preis eines Videos aufgrund der einfachen Produktion nur 2 bis 10 Yuan betrage und die „Kunden“ oft Hunderte oder Tausende davon kauften, so dass ein riesiger Spielraum für Gewinne bestehe. | Quelle: Beijing Youth Daily Nachrichtenberichten und Gerichtsurteilen zufolge belaufen sich die illegalen Gewinne in solchen Fällen auf mehrere Tausend bis mehrere Hunderttausend Yuan, und im ganzen Land sind zahlreiche ähnliche Fälle aufgetreten. Einige Kriminelle nutzten sogar die Gesichtserkennungsfunktion der Bank aus und verwendeten dann Trojaner, um SMS-Verifizierungscodes abzufangen und so Einlagen zu stehlen. Der Gesamtbetrag überstieg 2 Millionen Yuan. Wenn Sie die Leute nicht täuschen können, können Sie die Kamera täuschen! Die KI-basierte Gesichtsveränderung, auch als Deepfake bekannt, ist eine Technologie, die Deep Learning und Fake kombiniert und mithilfe von KI das Gesicht einer Person durch das Foto/Video einer anderen Person ersetzt. Es gibt eine ganze Reihe „krimineller Anwendungen“ rund um die Gesichtsveränderung durch KI, darunter, aber nicht beschränkt auf: Gesichtsüberprüfung angreifen : Die Informationen anderer Personen fälschen und direkt über Alipay, WeChat Wallet oder sogar Kreditsoftware auszahlen lassen; · Erstellen gefälschter pornografischer Bilder/Videos: um andere zu betrügen, zu erpressen oder ihren Ruf zu schädigen; Anrufe mit Gesichtsveränderung in Echtzeit : Hacken von Konten und Betrügen von Verwandten und Freunden der Kontoinhaber; · Falsche Informationen erstellen: Politiker, Richter, Investoren usw. täuschen; Veröffentlichung von Fake News: Aufwiegelung der Öffentlichkeit, Verursachen von Chaos und Panik, Angriffe auf Geschäftskonkurrenten, Verursachen von Turbulenzen an den Börsen usw. Darunter ist die Gesichtserkennung für den Normalbürger am relevantesten, da sie die Identität einer Person bestätigt. Sobald diese Informationen verletzt werden, ist die Sicherheit Ihrer Vermögenswerte und Informationen gefährdet und Sie können im Internet leicht „nackt“ sein. Neben der Deepfake-Technologie gibt es viele weitere Möglichkeiten, die Gesichtserkennungsauthentifizierung zu manipulieren, beispielsweise durch die Erstellung einer „gefälschten KI-Brille“: Quelle: Beihilfe zu einem Verbrechen: Echte und heimliche Angriffe auf hochmoderne Gesichtserkennung. In einem klassischen Artikel auf dem Gebiet der Bilderkennung haben Forscher mithilfe mathematischer Berechnungen eine spezielle „Brille“ (mittleres Bild) entwickelt, mit deren Hilfe eine Person (linkes Bild) durch KI-Gesichtserkennung als eine andere Person (rechtes Bild) erkannt werden kann. Eine weitere Möglichkeit, Erkennungsgeräte zu täuschen, ist eine 3D-Maske. Bildquelle: businessinsider & kneron Dies ist ein Produkt der Firma Kneron. Ende 2019 kündigten sie an, dass Menschen bei der Gesichtserkennung an Bahnhöfen Masken tragen und sich als jemand anderes verkleiden können, um durch die Face-Swiping-Zahlungen mit WeChat und Alipay sowie durch die Gesichtserkennungsschleusen zu gelangen. Was ist das Besondere an der Gesichtsveränderung durch KI? Normale Menschen müssen sich über die oben genannten Technologien keine allzu großen Sorgen machen, da sie verschiedene Mängel aufweisen. Beispielsweise zielen „gefälschte KI-Brillen“ hauptsächlich auf die statische Bilderkennung ab und können die dynamische Gesichtserkennung nicht durchbrechen. „Gesichtsmasken“ müssen individuell angefertigt werden, sind teuer und erfordern komplexe Produktionsprozesse. Für den Normalbürger sind sie nicht kosteneffizient. Doch KI hat alles verändert und die Kosten für Produktfälschungen auf ein Schnäppchenniveau gesenkt. Je kürzer das Video, je niedriger die Pixelanzahl, je geringer die Echtzeitanforderung (ist es notwendig, das Gesicht in Echtzeit zu ändern oder kann das Video vor dem Senden produziert werden), je geringer die Wachsamkeit des getäuschten Ziels und je mehr verfügbare Materialien (d. h. Fotos und Videos der Zielperson aus mehreren Winkeln) vorhanden sind, desto geringer sind die Kosten des Betrugs. Beispielsweise spricht dieselbe Person, aber die KI ersetzt das Gesicht einer anderen Person. Das sofort einsetzbare KI-Modell kann dies mit NVIDIA GTX1080 Ti erreichen. Die Bewegung ist relativ flüssig, aber das „Plastikgefühl“ ist stark und man erkennt auf den ersten Blick, dass es sich nicht um ein Realpersonenvideo handelt. Bildquelle: Youtube @Matthias Niessner Das über einen langen Zeitraum (Stunden oder sogar Tage) trainierte KI-Modell der NVIDIA RTX 3090 Ti kann durchaus realistische Effekte erzeugen. Vielleicht werden Sie erst nach aufmerksamem und wiederholtem Ansehen feststellen: Wie? Sind die Falten auf der Stirn dieser Person gerade aufgetaucht? Bildquelle: Youtube@Druuzil Tech & Games Für die „Gesichtserkennung“ ist Deepfake viel günstiger; Denn um die „Gesichtserkennung“ zu knacken, bedarf es nicht der „ausgeklügeltsten“ und arbeitsintensivsten Deepfake-Technologie, sondern nur weniger Sekunden Video mit durchschnittlicher Klarheit. Die aufwendigeren und teureren Videos können dann für andere betrügerische Zwecke verwendet werden. Darüber hinaus ist diese Art von Betrug ein „profitables“ Geschäft. Sobald die Ausrüstung und die Algorithmen fertig sind, können gefälschte Videos je nach Situation und Bedarf in Massen produziert werden. Was können normale Menschen tun? Wenn die Gesichtsveränderung durch KI in das Leben der einfachen Leute Einzug hält, was können wir tun, um mit den damit verbundenen illegalen Aktivitäten umzugehen? Wie kann man die Maschine mit Gesichtsveränderung „austricksen“? Für Szenarien wie das Scannen eines Gesichts zur Identitätsüberprüfung muss das gefälschte Video die automatische Überprüfung des Gesichtserkennungssystems bestehen oder, anders ausgedrückt, die Maschine „austricksen“. Das erforderliche Video ist kurz (weniger als ein paar Sekunden), die Dynamik ist einfach (nur eine kleine Anzahl fester Aktionen, und einige Systeme erkennen sogar nur Bilder) und es gibt keine Echtzeitanforderungen. Aus technischer Sicht ist es relativ einfach und die Erkennung unterliegt nicht der Kontrolle echter Menschen. In solchen Fällen können normale Menschen ihre persönlichen Daten (einschließlich Gesichtsinformationen) schützen und versuchen, eine Kombination aus mehreren Methoden zur Identitätsauthentifizierung zu verwenden. Passwort, Fingerabdruck, Handynummer, alle möglichen Verifizierungsmethoden stehen zur Auswahl. Obwohl dies mehr Ärger verursacht, ist es gleichbedeutend mit einer besseren Absicherung und die Möglichkeit, dass alle gleichzeitig gehackt werden, ist viel geringer. Sollte Ihre Kreditkarte unglücklicherweise gestohlen worden sein, rufen Sie umgehend die Polizei und arbeiten Sie mit dieser zusammen, um die Täter ausfindig zu machen und den unrechtmäßig erbeuteten Gewinn zurückzuerhalten. Melden Sie es gleichzeitig der Plattform, damit diese weitere Informationen erhält, um Schlupflöcher zu schließen und das System zu aktualisieren. Was tun, wenn Sie eine reale Person dazu „austricksen“ möchten, ihr Gesicht zu verändern? Die Gesichtsveränderung durch KI, die echte Menschen täuscht, wie etwa Erpressung und Betrug gegenüber Einzelpersonen und Falschmeldungen gegenüber der Öffentlichkeit, ist verdeckter und vielfältiger. Grundsätzlich sollten normale Menschen mit dem Aufkommen der KI-Technologie zur Gesichtsveränderung vorsichtiger mit Bildinformationen umgehen und nicht blind glauben, dass „Sehen Glauben ist“. Wenn Sie jemand mit gefälschten Nacktfotos oder unanständigen Videos erpresst, reagieren Sie nicht darauf, sondern rufen Sie direkt die Polizei. Bei dieser Art von Verbrechen ist das Opfer das Ziel der KI-gestützten Gesichtsveränderung. Solange die Leute, die das Video sehen, wissen, dass sie solche Fotos oder Videos nicht selbst aufgenommen haben, können sie davon ausgehen, dass es sich um ein gefälschtes Video handelt. Die größte Schwierigkeit besteht darin, nicht die Fassung zu verlieren und aus Angst kein Geld an Kriminelle zu übergeben. Wenn Sie beispielsweise durch ein gefälschtes Video betrogen werden, stiehlt ein Betrüger die Nummer Ihres Freundes und verwendet KI, um Ihr Gesicht zu verändern und in Echtzeit mit Ihnen zu sprechen, um Ihnen Geld zu leihen. Derzeit ist die Verifizierung über mehrere Kanäle, einschließlich verschiedener sozialer Plattformen, E-Mail, Textnachrichten und Telefonanrufe, sehr wichtig. Senden Sie nicht gedankenlos Geld, nur weil die andere Partei besorgt wirkt. Überprüfen Sie beim Ansehen von Nachrichten oder Videos im Internet, ob die Nachrichtenquelle zuverlässig ist. Insbesondere für die Reden von Biden und Musk gibt es zu viele Trainingsdatensätze dieser Prominenten, die für maschinelles Lernen verwendet werden können, und es ist leicht, hochpräzise Videos zu imitieren. Tipps zum Erkennen von Deepfakes Darüber hinaus gibt es einige Tipps, mit denen Sie besser beurteilen können, ob es sich bei einem Video um eine künstliche Gesichtsveränderung durch eine KI handelt (wenn Sie den 10-stufigen Schönheitsfilter einschalten, sind diese Methoden nicht sehr zuverlässig. Schließlich kann der 10-stufige Schönheitsfilter auch als eine Art künstliche Gesichtsveränderung durch eine KI angesehen werden): Konzentrieren Sie sich auf die Gesichtsform Achten Sie mehr auf die Größe, Form und Kieferpartie des Gesichts, insbesondere auf die Art und Weise, wie es sich bewegt, um zu sehen, ob es mit der Person selbst übereinstimmt. Sorge um Falten Schließlich ist der Hautzustand und die Faltenneigung bei jedem Menschen unterschiedlich. Für das KI-Modell ist es schwierig, auf Grundlage einiger (und nicht unbedingt aktueller) Fotos exakt dieselben Falten wie die Person zu erzeugen. Ist die Haut einer Person zu glatt, weist sie zu viele Fältchen auf, ist der Hautzustand des gesamten Gesichts uneinheitlich (zum Beispiel hat die Stirn viele Fältchen, aber die Wangen sind glatt), oder ist das Alter in einem Video uneinheitlich (sieht mal jung aus, mal alt), können das alles Merkmale eines gefälschten Videos sein. Konzentrieren Sie sich auf den Hintergrund Überprüfen Sie, ob dieser Hintergrund der Hintergrund ist, den diese Person normalerweise verwendet, ob die Verbindung zwischen dem Hintergrund und der Person natürlich ist, ob der Hintergrund selbst deformiert ist usw. Fokus auf Licht und Schatten Durch KI-basierte Gesichtsveränderung erstellte Videos folgen nicht den physikalischen Regeln von Licht und Schatten in der realen Welt, sodass Gesichtsschatten, Reflexionen von Brillengläsern usw. auf gefälschte Videos hinweisen können. Achten Sie auf die Position und Größe der Gesichtszüge Auf von KI erstellten Videos können Gesichtszüge zu sehen sein, die manchmal groß und manchmal klein sind und manchmal ihre Position verändern. Konzentrieren Sie sich auf einzigartige Gesichtszüge Wenn die Person Muttermale, Tätowierungen oder Narben im Gesicht hat, scheinen diese an der richtigen Stelle zu sein? Konzentrieren Sie sich auf Haare Sehen Haarvolumen und Haaransatz echt aus? Sehen die Haarränder natürlich aus? Folgen Sie den Trends Ob beispielsweise die Häufigkeit und Art des Blinzelns normal sind, ob die Bewegungen der Augenbrauen und des Mundes dem üblichen Aussehen der Person entsprechen, ob beim Drehen des Kopfes (insbesondere bei einer 90-Grad-Drehung zur Seite) eine Deformation auftritt und ob die Sichtbehinderung bei verdecktem Gesicht deutlich sichtbar ist, sind alles wichtige Punkte zur Identifizierung von KI-gefälschten Videos. Einige leicht zu verratende Züge | Bildquelle: metaphysic & VFXChris Ume Zusätzlich zu den oben genannten theoretischen Kenntnissen können Sie auch versuchen, diese Website zu besuchen ( Solange ein hohes Potenzial für illegale Gewinne besteht, werden Kriminelle nicht zögern, ihre Investitionen zu erhöhen, um noch exquisitere und „echtere“ gefälschte Videos zu produzieren, mit denen sie normale Menschen, große Unternehmen, große Institutionen und sogar Regierungen täuschen können. Daher sollten neben dem, was der Einzelne tun kann, auch die Regierung und die Unternehmen ihre Politik, ihre Vorschriften und ihre technologische Konstruktion weiter verbessern und stärken, damit der technologische Fortschritt der Menschheit wirklich zugutekommt und nicht zu einem kriminellen Werkzeug wird, um anderen zu schaden. Verweise [1]http://epaper.ynet.com/html/2022-04/14/content_396257.htm?div=-1 [2]https://www.theverge.com/2019/12/13/21020575/china-facial-recognition-terminals-fooled-3d-mask-kneron-research-fallibility [3]Knerons Edge-KI- und Gesichtserkennungsumfrage bringt die Branche voran | Kneron – Full Stack Edge-KI. (2020). Abgerufen am 25. Oktober 2022 von https://www.kneron.com/news/blog/85/ [4]Forscher fanden heraus, dass eine gedruckte Maske ausreicht, um die Gesichtserkennung an Flughäfen und Grenzübergängen zu täuschen. (2022). Abgerufen am 25. Oktober 2022 von https://www.businessinsider.com/facial-recognition-fooled-with-mask-kneron-tests-2019-12 [5]Um einen Deepfake-Videoanruf zu entlarven, bitten Sie den Anrufer, sich zur Seite zu drehen – Metaphysic.ai. (2022). Abgerufen am 25. Oktober 2022 von https://metaphysic.ai/to-uncover-a-deepfake-video-call-ask-the-caller-to-turn-sideways/ [6]Das Erkennen von Deepfakes durch genaues Hinsehen zeigt eine Möglichkeit, sich vor ihnen zu schützen. (2022). Abgerufen am 25. Oktober 2022 von https://phys.org/news/2019-06-deepfakes-reveals.html [7]Europol-Bericht stellt fest, dass Deepfake-Technologie zum Hauptwerkzeug der organisierten Kriminalität werden könnte | Europol. (2022). Abgerufen am 25. Oktober 2022 von https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organized-crime [8]Projektübersicht ‹ DeepFakes erkennen: Wie man durch KI erzeugten Fehlinformationen entgegenwirkt – MIT Media Lab. (2022). Abgerufen am 25. Oktober 2022 von https://www.media.mit.edu/projects/detect-fakes/overview/ [9]Sharif, M., Bhagavatula, S., Bauer, L., & Reiter, MK (2016, Oktober). Mittäterschaft bei einem Verbrechen: Echte und heimliche Angriffe auf modernste Gesichtserkennung. In Proceedings der ACM SIGSAC-Konferenz 2016 zur Computer- und Kommunikationssicherheit (S. 1528–1540). [10]Thies, J., Zollhöfer, M., Theobalt, C., Stamminger, M. & Nießner, M. (2018). Headon: Echtzeit-Nachstellung von Videos menschlicher Porträts. ACM Transactions on Graphics (TOG), 37(4), 1-13. [11]Li, Y., Yang, X., Wu, B. & Lyu, S. (2019). Gesichter vor aller Augen verstecken: Störung der KI-Gesichtssynthese durch feindliche Störungen. arXiv-Vorabdruck arXiv:1906.09288. [12]Westerlund, M. (2019). Die Entstehung der Deepfake-Technologie: Ein Überblick. Überprüfung des Technologie-Innovationsmanagements, 9(11). [13]Mirsky, Y., & Lee, W. (2021). Die Erstellung und Erkennung von Deepfakes: Eine Umfrage. ACM Computing Surveys (CSUR), 54(1), 1-41. [14]Li, C., Wang, L., Ji, S., Zhang, X., Xi, Z., Guo, S. & Wang, T. (2022). Sehen ist Leben? Neuüberlegungen zur Sicherheit der Gesichtserkennung im Zeitalter von Deepfakes. CoRR abs/2202.10673. [15]Nguyen, TT, Nguyen, QVH, Nguyen, DT, Nguyen, DT, Huynh-The, T., Nahavandi, S., ... & Nguyen, CM (2022). Deep Learning zur Erstellung und Erkennung von Deepfakes: Eine Umfrage. Computer Vision und Bildverständnis, 223, 103525. Autor: Luo Wan Herausgeber: Emeria, You Shiyou Guokr (ID: Guokr42) Wenn Sie einen Nachdruck benötigen, wenden Sie sich bitte an [email protected] Willkommen in deinem Freundeskreis Quelle: Guokr |
<<: Wie können Sie sich mit wissenschaftlichen Mitteln zu besserer Laune zwingen?
Worauf sollten wir achten, bevor wir Yoga praktiz...
Wie verwende ich das Sit-Up-Board am besten? 1. D...
Moderne Menschen legen Wert auf einen gesunden Le...
Zusätzlich zu den üblichen Winterblumen, Pflaumen...
Körperliche Bewegung ist wichtig, um die körperli...
Ich werde in meinen einleitenden Bemerkungen nich...
Langhanteln, ich glaube, Leute, die regelmäßig tr...
Vor dem frühen 20. Jahrhundert war die „Fixierung...
Vor mehr als 5.000 Jahren wurde das weise Volk de...
Der kalte Winter ist da und für die Tiere ist es ...
Mit der kontinuierlichen Verbesserung der materie...
Der renommierte Physiker Stephen Hawking trat kürz...
Galerie berühmter Künstler | Albert Marche, einer...
Langhanteltraining ist eine moderne und beliebte ...
Bei Mädchen, die gerne essen, aber keinen Sport t...