Erfolgsfaktor: Management-Systeme
Deepfakes sind eine ernsthafte Bedrohung für Unternehmen. Mithilfe täuschend echter Videos, Bilder oder Stimmen lassen sich Mitarbeitende manipulieren, Zahlungen auslösen oder vertrauliche Informationen entlocken. Unternehmen stehen vor der Herausforderung, ihre Sicherheitsstrukturen in Anbetracht der neuen Technologien grundlegend neu zu denken, um sich gegen diese Form der gezielten Desinformation zu wappnen. Nach aktuellen Einschätzungen von Sicherheitsbehörden ist die Zahl Deepfake basierter Betrugsfälle zuletzt deutlich gestiegen. Laut Sumsub Identity Fraud Report 2025/26 nahmen Deepfake‑Verifikationsversuche in Deutschland 2025 um 53 Prozent zu. Doch wie kann das gelingen?
Deepfakes markieren einen tiefgreifenden Wandel im Umgang mit Wahrheit, Vertrauen und digitaler Kommunikation. Deepfakes werden als „manipulierte oder synthetische Audio- oder Video-Inhalte verstanden, die authentisch erscheinen und in denen (eine) Person(en) etwas zu sagen oder zu tun scheint (scheinen), was sie nie gesagt oder getan hat (haben), und die mithilfe von KI-Techniken, einschließlich maschinellem Lernen und Deep Learning, hergestellt wurden“ (van Huijstee et al., 2021). Im Kontext der Desinformation sind sie besonders brisant: Sie verbinden mehrere Formen der Täuschung gleichzeitig.
Deepfake, die neue Qualität der Desinformation
In der Literatur werden sieben verschiedene Arten von Desinformation unterschieden: Satire und Parodie, falsche Verknüpfung, irreführender Inhalt, falscher Kontext, betrügerischer Inhalt, manipulierter Inhalt oder erfundener Inhalt (vgl. Schulz und Neelsen in: Meißner und Schach 2025, S. 190ff). Deepfakes vereinen insbesondere die letztgenannten Kategorien in einer besonders wirkungsvollen Form. Manipuliert, erfunden, falsch und betrügerisch – und das Dank KI in einer nie dagewesenen Realitätsnähe – falls Realität und Fake überhaupt noch zu unterscheiden sind. Genau darin liegt die Gefahr der Deepfakes.
Damit nicht genug: Sobald Desinformationen in Umlauf geraten, verbreiten sie sich etwa sechsmal schneller als wahre Informationen (Vosoughi et al. 2018, S. 1146). Das berichtete schon im März 2018 das Science Magazin unter Bezug auf die Studie „The spread of true and false news online“, in der ein Datensatz von rund 126.000 Meldungen aus den Jahren 2006 bis 2017 analysiert wurde.
Warum uns Deepfakes so fesseln
Ist das echt? Ein zentrales Merkmal von Deepfakes ist ihre Ambivalenz. Nutzer bleiben an ihnen hängen, weil sie häufig nicht eindeutig einzuordnen sind. Diese Unsicherheit erzeugt Neugier – und führt dazu, dass Inhalte häufiger geteilt werden.
Ein prominentes und auch prägnantes erstes Beispiel eines KI erzeugten Deepfake ist das viral verbreitete Bild des mittlerweile verstorbenen Papst Franziskus in einem auffälligen weißen Designer Daunenmantel. Das Bild (Quelle: Bloomberg) wirkte auf den ersten Blick abwegig, aber nicht völlig unmöglich. Genau diese Mischung aus Zweifel und Plausibilität machte es so erfolgreich. Hinzu kam: Der Papst war bekannt für unkonventionelle Auftritte und symbolische Handlungen. So signierte er für den guten Zweck einst einen weißen Lamborghini Huracan. Dadurch erschien selbst ein ungewöhnliches Bild nicht völlig abwegig.
Deepfakes funktionieren also besonders gut, wenn sie an bestehende Narrative oder bekannte Eigenheiten von Personen anknüpfen. Ihr Ursprung ist nicht vollkommen frei erfunden, sondern baut auf dem auf, was Menschen bereits glauben oder für möglich halten.
Desinformation im Krieg: kein neues Phänomen, aber eine neue Dimension
Krieg und Sex: Technologische Entwicklungen werden häufig durch zwei Branchen vorangetrieben, in denen es vor allen Dingen um wirtschaftliche Interessen geht – die Kriegs- und die Sexindustrie. Beide eint eine große Nachfrage, finanzielle und technologische Ressourcen und ein starker Innovationsdruck. Das Ergebnis: eine rasante Weiterentwicklung. Wer wissen will, wo die „Reise“ hingeht, sollte sich diese beiden Industrien genauer ansehen!
Der Einsatz von Desinformation ist historisch keineswegs neu. In kriegerischen Auseinandersetzungen wurden immer schon gezielt falsche Informationen zur Beeinflussung von Gegnern eingesetzt. Im Zweiten Weltkrieg zum Beispiel perfektionierten die Alliierten die Kunst der Täuschung. Mit der Operation Fortitude ließen sie eine komplette Schein-Armee aus Attrappen, Funkverkehr und falschen Truppenbewegungen entstehen, um eine Landung bei Calais vorzutäuschen. So lenkten sie deutsche Verbände vom tatsächlichen Invasionsort Normandie ab – eine meisterhafte Inszenierung von Desinformation, lange bevor es Deepfakes gab. Heute allerdings kann das schon eine einzelne Person dank KI.
Ein Beispiel ist ein Deepfake-Video des ukrainischen Präsidenten Wolodymyr Selenskyj, in dem er zur Kapitulation gegen Russland aufruft (Quelle: Inside Edition auf Youtube). Obwohl das Video von KI-Epterten zügig als Fälschung entlarvt wurde, zeigt es die neue Dimension digitaler Manipulation: Visuelle Beweise verlieren ihre Verlässlichkeit. Prüfstellen der Medienhäuser gewinnen an Relevanz, um Visuelles überhaupt verifizieren zu können.
Deepfakes als digitales Machtinstrument
Deepfakes dienen nicht nur der Täuschung, sondern auch der Machtdemonstration. Ein bewusst erstellter Deepfake zeigte Donald Trump beim Hissen der US-Flagge in Grönland – ein Bild, das vollständig mithilfe künstlicher Intelligenz generiert wurde und nicht auf einem realen Ereignis basiert (Quelle: Instagram Donald Trump; mittlerweile gelöscht).
Solche Inhalte werden oft ohne Kennzeichnung veröffentlicht, um politische Narrative zu inszenieren. Dabei verschwimmen die Grenzen zwischen legitimer Kommunikation, Propaganda und gezielter Desinformation. Deepfakes werden zu einem wirkungsvollen Werkzeug im digitalen Machtkampf.
Der Verlust visueller Gewissheit
Die vielleicht gravierendste Folge von Deepfakes ist der rasante Verlust von Vertrauen in visuelle Inhalte. Bilder, Videos und Audios galten lange als „Beweis“, als objektiver Beleg der Realität. Diese Annahme existiert nicht mehr. Das bestätigt auch Michael Ruprecht, Vorsitzender des Verbandes deutscher Archivarinnen und Archivare (VdA) in einem Interview mit „Die Welt“: „Früher galt der Satz: Bilder lügen nicht. Das ist vorbei.“
Unternehmen im Fadenkreuz
Deepfakes rücken zunehmend auch im Unternehmenskontext in den Fokus. Sie bergen ein besonders hohes Schadensausmaß, wenn technisches Deepfake-Know-How auf Insiderwissen und kriminelle Energie trifft:
- Der britische Ingenieurkonzern Arup wurde laut n-tv.de Opfer eines hochentwickelten Deepfake-Angriffs: Ein Mitarbeiter glaubte, in einem Video-Call mit dem Finanzvorstand und anderen Kollegen zu sprechen, und überwies daraufhin umgerechnet 23 Millionen Euro an Betrüger. Dieser Fall zeigt, wie Deepfakes gezielt menschliche Schwachstellen ausnutzen und selbst gut geschulte Mitarbeitende in kritischen Situationen manipulieren können.
- Ein weiteres Beispiel aus der Unternehmenswelt bildet Retool im Jahr 2024: Bei einem Angriff auf die Softwarefirma nutzten Betrüger Deepfake-Technologie, um mittels Audio-Phishing Mitarbeitende zu täuschen. Wie bei ibm.com nachzulesen ist, gaben sich die Angreifer über manipulierte Stimmen als Führungskräfte aus und forderten sensible Informationen an. Im Anschluss an den Angriff verlor ein einziger Kryptowährungskunde des Unternehmens Vermögenswerte in Höhe von 15 Millionen US-Dollar.
- Opfer eines Deepfakes wäre laut sueddeutsche.de fast auch die legendäre Sportwagenmarke Ferrari im Jahr 2024 geworden. Betrüger nutzten einen Stimmklon des CEO Benedetto Vagnas, um Mitarbeitende per Anruf zu täuschen und Anweisungen für Transaktionen zu erteilen. Der Angriff konnte gestoppt werden, weil ein aufmerksamer Manager eine Fangfrage stellte und so die Manipulation erkannte.
Angriffsszenarien im Unternehmenskontext
Im Kontext von Unternehmen existieren verschiedene Deepfake-Angriffsszenarien, denen sich Mitarbeitende ausgesetzt sehen können. Neben dem Begriff Deepfake ist auch ein weiterer Begriff im Unternehmenskontext relevant, der sogenannte CEO Fraud – auch bekannt als „Geschäftsführer-Betrug“, „Fake President Fraud“, „Boss Scam“ oder „Business E-Mail Compromise (BEC)“. Er ist eine Form des Social Engineerings, bei der sich Kriminelle als CEO oder andere Führungskraft ausgeben und Mitarbeitende, meist aus der Finanzbuchhaltung, zu angeblich dringenden und streng vertraulichen Überweisungen ins Ausland drängen. Typisch ist, dass Täter vorab umfassend recherchieren, zum Beispiel über LinkedIn oder die Unternehmenswebsite, um Tonfall, Hierarchien und interne Abläufe möglichst glaubhaft nachzuahmen. Die Kontaktaufnahme erfolgt häufig über gefälschte E-Mail-Adressen (Spoofing) oder per Anruf, zunehmend auch mit Deepfake-Stimmen, die den Chef oder die Chefin originalgetreu imitieren sollen. Begleitet werden diese Nachrichten von erheblichem Zeitdruck und einem ausdrücklichen Verbot, Rückfragen zu stellen oder andere Personen einzubeziehen. Ziel ist fast immer die Freigabe hoher Geldbeträge auf ausländische Konten, die später kaum noch zurückgeholt werden können und schnell Schäden in Millionenhöhe verursachen.
Hier einige Beispiele:
- Gefälschte Chef-Anweisungen (CEO Fraud): Mit einer künstlich erzeugten Stimme oder einem Video des Geschäftsführers werden Mitarbeitende zu dringenden Überweisungen oder der Herausgabe sensibler Daten gedrängt.
- Manipulierte Video-Calls: In Online-Meetings tritt ein Angreifer mit Deepfake-Gesicht und -Stimme als angeblicher Kollege, Dienstleister oder Berater auf, erschleicht sich Vertrauen und Zugangsdaten.
- Rufschädigende Fake-Videos: Es werden kompromittierende oder beleidigende Deepfake-Clips von Führungskräften veröffentlicht, um Vertrauen von Kundschaft, Partnern oder Investoren zu zerstören.
- Umgehung von Sicherheits-Checks: Deepfake-Videos oder -Audios werden genutzt, um Gesichtserkennung oder Stimm-Biometrie zu täuschen und so auf geschützte Systeme, Konten oder Gebäude zuzugreifen.
Fazit: Sehr „erfolgreiche“ Angriffe auf Unternehmen setzen detaillierte Kenntnisse über interne Abläufe, Kommunikationsstrukturen oder Entscheidungsträger voraus. Darum ist es empfehlenswert, die sogenannten Innentäter zu betrachten – insbesondere die enttäuschten aktuellen oder ehemaligen Mitarbeitenden. Sie einen das Insiderwissen zum Unternehmen, das gepaart mit krimineller Energie und technologischen Know-How zunehmend zur Gefahr für Unternehmen wird.
Problematisch in diesem Zusammenhang ist auch, dass viele Unternehmen in den vergangenen Jahren gezielt Inhalte ihrer CEOs veröffentlicht haben, um die Sichtbarkeit zu erhöhen – etwa im Rahmen von SEO-Strategien oder Öffentlichkeitsarbeit. Dieses Material, veröffentlicht auf frei zugänglichen Kanälen, kann nun spielend leicht genutzt werden, um täuschend echte Deepfakes zu erstellen. Je mehr Bild-, Audio- und Videomaterial eines CEOs verfügbar ist, desto größer das Risiko.
Der Faktor Mensch als Schwachstelle
Ein zentrales Element vieler Deepfake-Angriffe ist nicht nur die Technologie selbst, sondern auch der Faktor „Mensch“. Täuschend echte Bilder, Videos und Stimmen von Führungskräften können Mitarbeitende dazu bringen, sensible Informationen preiszugeben oder Zahlungen auszulösen. Der Mensch ist eine relevante Schwachstelle!
Prävention: Maßnahmen gegen Deepfakes
Wie kann das Risiko Deepfake-Angriff auf Unternehmen gesteuert werden? Was kann gegen solche Angriffe helfen? Es gibt verschiedene Präventionsmaßnahmen, die sinnvoll sind:
- Mitarbeitenden-Sensibilisierung: Regelmäßige Workshops und Trainings helfen Mitarbeitenden, verdächtige Anrufe, Videos oder Bild-/Text-Nachrichten kritisch zu prüfen, etwa durch Rückfragen oder Rückruf unter bekannten Nummern. In einer Welt, in der jedes Bild, jedes Logo, jeder Briefbogen, jedes Video oder jede Stimme potenziell manipuliert sein kann, gewinnen u.a. auch verifizierte Unternehmenskommunikationskanäle an Bedeutung. Kam die Nachricht über einen Unternehmenskanal oder per WhatsApp? Wie sind Kommunikationswege definiert? Direkte Kommunikation, das Vier-Augen-Prinzip, die Experten-Prüfung und -Einordnung von Inhalten und auch Save-Words werden immer relevanter, um die Echtheit und Glaubwürdigkeit von Informationen sicherzustellen. Organisationen können sich schützen, indem sie klare Vertretungs- und Abwesenheitsregelungen definieren, ein konsequentes Vier-Augen-Prinzip insbesondere für Zahlungen etablieren und Mitarbeitende regelmäßig für neueste Betrugsmaschen sensibilisieren. Einfache, aber wirksame Routine ist – Stichwort CEO-Fraud – zudem, bei ungewöhnlichen Zahlungsanweisungen des Chefs immer einen zweiten Kommunikationsweg zu nutzen – etwa einen direkten Rückruf unter der bekannten Nummer des Vorgesetzten. Ebenso wichtig ist es, E-Mail-Adressen sehr genau zu prüfen, auf kleine Abweichungen zu achten und technische Schutzmaßnahmen zu nutzen.
- Technische Detektion: KI mit KI bekämpfen ist ebenfalls eine Möglichkeit. KI-Tools können Manipulationen in Audio, Video und Bildern erkennen. Eigene Inhalte können zudem durch digitale Signaturen, Wasserzeichen und Verschlüsselungen ergänzt werden. Weitere technische Lösungen, etwa KI-Bots, sind in der Entwicklung, etwa zur Kennzeichnung oder Erkennung von KI-generierten Inhalten während Online-Meetings.
- Prozessuale Regeln: Wer das Szenario Deepfake durchdenkt, stellt fest, dass Mitarbeitende einen Handlungsleitfaden brauchen. Unternehmensrichtlinien helfen im Umgang mit Deepfakes bzw. dem Verdacht auf Deepfakes. Wann sollte eine Prüfstelle hinzugezogen werden? Wann braucht es eine doppelte Verifikation oder Mehrfaktor-Prüfung? Geregelt werden sollten auch verbindliche Kommunikationsrichtlinien. Weitere wirksame Maßnahmen sind interne Codewörter oder Rückrufmechanismen, um Anweisungen zu verifizieren. Ethik-Gremien, die die interne Nutzung von KI überwachen, können diesen Prozess zusätzlich unterstützen.
- Rechtliche und kommunikative Absicherung: Unternehmen sollten Compliance-Frameworks aufbauen, um im Falle eines Deepfakes schnell handeln zu können und Haftungsrisiken zu minimieren. Langfristig gewinnt die Frage nach externen Prüfstellen oder Zertifizierungen an Bedeutung.
Zwischen Risiko- und Krisenmanagement
Risikomanagement bedeutet, alles dafür zu tun, dass das Risiko vermieden oder vermindert wird. Sprich, sich im Vorfeld vorzubereiten, Prozesse zu definieren, Systeme abzusichern, Mitarbeitende zu schulen und etliche weitere Maßnahmen zu ergreifen, um Deepfakes keine Chance zu geben.
Krisenmanagement muss dann greifen, wenn sich das Risiko trotz aller Maßnahmen in einem Schaden manifestiert. Und auch der Fall ist sehr wahrscheinlich, denn die Deepfakes und CEO Frauds werden immer besser. Die Kompetenz der eigenen Mitarbeitenden wird voraussichtlich den kreativen und kriminellen Fertigkeiten der Täter immer hinterherhinken.
Hat ein Angriff bereits stattgefunden, geht es um schnelle Reaktion, transparente Kommunikation und die Begrenzung von Schäden. Für Unternehmen, die Ziel eines Deepfakes werden, ist entscheidend, dass Richtigstellungen schnell erfolgen – idealerweise über eigene, verifizierte Kanäle und je nach Fall auch unterstützt durch reichweitenstarke Medien –, um die Verbreitung falscher Inhalte effektiv einzudämmen. Geschwindigkeit und Reichweite sind entscheidende Faktoren zur Richtigstellung von Deepfakes.
Eins ist klar: Deepfakes werden nicht wieder verschwinden – im Gegenteil. Sie werden realistischer, einfacher von Einzelnen zu erstellen und damit potenziell immer gefährlicher für Unternehmen.
Deepfakes stehen exemplarisch für eine Entwicklung, in der technologische Möglichkeiten schneller wachsen als gesellschaftliche und organisatorische Schutzmechanismen. Der Umgang mit ihnen wird daher zu einer zentralen Herausforderung – für Politik, Medien, Gesellschaften und Unternehmen gleichermaßen.
Quellen:
Van Huijstee, M., van Boheemen, P., Das, D., Nierling, L., Jahnel, J., Karaboga, M., Fatun, M., Kool, L. & Gerritsen, J. (2021). Tackling deepfakes in European policy. European Parliament.
Sumsub Identity Fraud Report 2025/26: https://www.security-insider.de/ki-basierte-betrugsangriffe-deepfakes-deutschland-anstieg-a-59270f4a60df5661d5ade94918f54fd9/)
Meißner, Jana, und Annika Schach, Hrsg. 2025. Professionelle Krisenkommunikation: Basiswissen, Impulse und Handlungsempfehlungen für die Praxis. 2. Auflage. Wiesbaden: Springer Gabler
Vosoughi, Soroush; Roy, Deb; Aral, Sinan 2018. The spread of true and false news online. In: Science (New York, N.Y.) 359 (6380), S. 1146–1151. DOI: .https://doi.org/10.1126/science.aap9559
Inside Edition auf Youtube (https://www.youtube.com/watch?v=enr78tJkTLE)
Instagram Donald Trump (https://www.instagram.com/realdonaldtrump/?hl=de)
Die Welt, Früher galt der Satz: Bilder lügen nicht. Das ist vorbei., online veröffentlicht am 23.02.2026, https://www.welt.de/geschichte/article697b597c393ebaf886c77e56/ki-fotos-frueher-galt-der-satz-bilder-luegen-nicht-das-ist-vorbei.html
n-tv.de, Geklonter Finanzvorstand ordnet Millionenbetrug an., online veröffentlicht am 17.05.2024, https://www.n-tv.de/wirtschaft/Geklonter-Finanzvorstand-ordnet-Millionenbetrug-an-article24948651.html
ibm.com, Wie eine neue Welle von Deepfake-gesteuerter Cyberkriminalität auf Unternehmen abzielt., https://www.ibm.com/de-de/think/insights/new-wave-deepfake-cybercrime
sueddeutsche.de, Hier spricht der Ferrari-Chef – nicht., online veröffentlicht am 29.08.2024, https://www.sueddeutsche.de/wirtschaft/deepfakes-ceo-fraud-betrug-ferrari-lux.D6i4WqmRwWhL9iT8spKGrG