Tom Cruise? Nein, es ist ein Deep Fake des US-Schauspielers. Die Technologie könnte auch für Treasury-Abteilungen gefährlich werden.

TikTok

25.08.21
Risiko Management

Deep Fakes reifen zum Problem heran

Die Deep-Fake-Technologie entwickelt sich rasant. Die Stimm- und Videofälschungen sind mittlerweile täuschend echt – und könnten die nächste Entwicklungsstufe des Fake President sein.

Deep Fakes: Das sind durch künstliche Intelligenz (KI) erstellte Videos oder Stimmen. Sie klingen täuschend echt nach den realen Personen oder sehen aus wie diese. Im Internet kursieren Video- und Stimmfälschungen von Tom Cruise und Angela Merkel, die sich nur in Nuancen von den Originalen unterscheiden.

Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC sieht die Technologie daher als geeignet an, um auch Fake Presidents durchzuführen. „Deep Fakes tauchten 2017 erstmals auf, seitdem entwickelt sich die Technologie rasant“, erklärt der Sicherheitsexperte. Derzeit würde die Masche genutzt werden, um Politiker zu „fälschen“ und so Informationen abzuziehen. „Bei einer größeren Runde fallen Deep Fakes kaum noch auf.“

Deep Fake: Wenige Audio-Mitschnitte reichen

Viel brauchten Kriminelle nicht, um stimmen- oder videobasierte Deep Fakes zu erstellen: „Es genügen 20 bis 40 hochwertige Audiodateien oder etwa 50 Minuten Videomitschnitte. Die Präsentation der Quartalszahlen oder eine Rede des CFOs bei einer Veranstaltung können ausreichen“, schätzt Experte Müller. „Es kann aber sein, dass professionelle Banden für die Erstellung eines passablen Deep Fakes schon deutlich weniger benötigen.“

Die Fälschungen würden in den kommenden Jahren auf jeden Fall immer realistischer. Der Vertrauensschadensversicherer Euler Hermes geht fest davon aus, dass zahlreiche Unternehmen in den kommenden Jahren Opfer eines Deep Fakes werden: „Deep Fakes wird ein Einfallstor. Wir rechnen mit einer enormen Steigerung der Fälle“, sagt Betrugsexperte Rüdiger Kirsch. „Wenn jemand die Stimme seines CFOs hört und im Home Office vielleicht eine Störkulisse hat, der hat fast keine Chance, den Unterschied zwischen Original und Fälschung zu hören“, sagt er.

Es komme mittlerweile auch vor, dass Deep-Fake-Sprachnachrichten versendet würden. „Viele Mitarbeiter haben die Privatnummer ihres Chefs nicht, deshalb werden sie bei einer fremden Nummer nicht skeptisch, solange sie die Stimme ihres CFOs wiedererkennen“, so Kirsch.

Gibt es einen Schutz?

Wie können sich Treasury-Abteilungen nun vor Deep Fakes schützen? Die beiden Experten raten zu einer Grundskepsis gegenüber digitalen Kanälen. „Fragwürdige Vorgänge muss man immer über einen zweiten, unabhängigen Kanal - sei es E-Mail oder Telefon – verifizieren“, sagt AISEC-Experte Müller.

„Man muss heutzutage leider alles und jeden hinterfragen“, sagt auch Euler-Hermes-Manager Kirsch. „Das ist erschreckend.“

Eich[at]derTreasurer.de