Skip to main content

Erfolgsfaktor: Krisenprävention

Ein Video, das zahlreiche Hollywood-Stars und Größen wie Scarlett Johansson und Mark Zuckerberg zeigt, ruft seit Tagen zum Protest gegen den Rapper Kanye West auf, der sich zuvor als „Nazi“ bezeichnet und ein T-Shirt mit Hakenkreuz in seinem Onlineshop angeboten hatte. Doch was ist dran?

Der Clip, initiiert vom israelischen Unternehmer Ori Bejerano, zeigt die Prominenten mit der Botschaft „Enough is enough“ . Auf ihren T-Shirts sind ein ausgestreckter Mittelfinger, ein Judenstern und der Name Kanye West zu sehen. Doch… die gezeigten Stars haben dem Video nie zugestimmt – es ist eine Fälschung, ein Deepfake. Während es rechtliche Fragen aufwirft, findet es gleichzeitig Anerkennung als künstlich geschaffene, aber von vielen gewünschte Form des sichtbaren Protests gegen Antisemitismus. Für mich ist das Video einmal mehr ein Beleg für neue Risiken, in diesem Fall „Deepfakes“. Was steckt hinter dieser Technologie, welche Herausforderungen bergen Deepfakes und was ist zu tun? Darum geht es in diesem Beitrag.

Deepfakes sind eine gefährliche Bedrohung für Unternehmen

Ein Deepfake-Video, das zahlreiche Hollywood-Stars im Kampf gegen Antisemitismus und eindeutiger Stellungnahme zu Kanye West zeigt und keiner der Stars war beteiligt oder hat je seine Zustimmung erteilt? Fakt ist: Das Antisemitismus-Deepfake-Video „Enough is enough“ geht viral, es wirkt echt und ein solcher Deepfake könnte jeden treffen – auch den Chef des internationalen Konzerns XY – dann aber womöglich mit einer anderen Botschaft. Ein Aufreger-Deepfake-Statement genügt und die Lawine rollt! Aufhalten? Unmöglich! Sich darauf vorbereiten schon!

Ein Deepfake ist ein mit Hilfe künstlicher Intelligenz erstelltes Bild oder Video, das authentisch wirkt, es aber nicht ist. Verwendet werden Machine Learning und speziell Deep Learning. Mit den heutigen technologischen Möglichkeiten sind visuelle Deepfakes und auch Audio Deepfakes von echten Bildern und echten Tonspuren kaum bis gar nicht mehr zu unterscheiden. Wir können unseren Augen und Ohren nicht mehr trauen und da es so viele Merkwürdigkeiten an tatsächlich getätigten Aussagen politischer und wirtschaftlicher Größen in dieser Welt gibt (leider alle keine Fakes!), halten wir Empfänger heute auch viel mehr für möglich als früher.

Deepfakes sind eine gefährliche Bedrohung für Unternehmen geworden. Sie sind ein TOP Risiko und eine immense Herausforderung für Krisenstäbe, Juristen, die IT-Sicherheit und Krisenkommunikatoren, wenn jemand auf diese Weise einer Person oder einem Unternehmen gezielt und bewusst einen Schaden zufügen will. Dann geht es nämlich um die Durchsetzung von (Wirtschafts-)Interessen und um Macht. Um das klar zu sagen: Bei diesen Deepfakes handelt es sich um einen Angriff auf eine Person oder das Unternehmen zum Zweck, ihr oder ihm langfristig einen größtmöglichen (Reputations-)Schaden zuzufügen. Es geht um justiziable Vorgänge – auch im Fall des Antisemitismus-Deepfakes „Enough is enough“ gegen Kanye West! Es geht um die eindeutige Zuschreibung von Rechtsradikalismus, um Separation und Ausschluss und den Anstrich „Persona non grata“. Dabei verfängt das Deepfake-Video gegen Kanye West besonders gut, weil antisemitische Zuschreibungen längst da sind. Obwohl als Deepfake enttarnt, bleibt es hängen. Es wirkt und es hat weltweite Sichtbarkeit. Werbepartner nehmen Abstand. Rote-Teppich-Veranstaltungen und Preise dürften weniger werden. Der Angriff auf die Person Kanye West – ganz ungeachtet seines eigenen Verhaltens – ist in vollem Gang.

Dass Deepfakes ein Bedrohungsszenario der neuen Generation für Unternehmen darstellen, zeigen auch drei relevante Autorenbeiträge zum Thema KI und Deepfakes in meinem Springer Gabler Fachbuch „Professionelle Krisenkommunikation“, 2. Auflage 2024, auf. Die Autoren sagen:

  • Schulz und Neelsen, S. 192: „Veränderte Fotos oder Videos waren bisher für das geübte Auge recht einfach zu identifizieren. Jetzt bekommen sie durch moderne Technologien eine völlig neue Di­mension.“
  • Kruse und Dickel, S. 102: „In Kombination mit KI gestützter Video- und Bilderzeugung kann Fake Content für ausgeklügelte Deepfake-Phishing-Kampagnen aber auch für Desinformation, Betrug und Cybermobbing erstellt werden.“
  • Von Manikowsky und Staschik, S. 86: „Deepfakes, bei denen Cyber­kriminelle beispielsweise Vorgesetze imitieren, um mithilfe von Social Engineering in ein Unternehmen eindringen, werden immer überzeugender, breitflächig verfügbar und stellen nur ein potenzielles neues Bedrohungsszenario der neuen Generation dar.“

7 Tipps für den Umgang mit diesem Risiko:

Krisenstäbe, Juristen, IT-Sicherheit und Krisenkommunikatoren müssen sich auf Deepfakes vorbereiten. Hier ein paar Tipps:

  1. Sensibilisieren Sie insbesondere Krisenstäbe und Ihre Unternehmenskommunikation für Deepfake-Szenarien in den eigenen Unternehmen.
  2. Definieren Sie Prozesse und Sofortmaßnahmen für Deepfake-Szenarien und hinterlegen Sie relevante Expertenkontakte in den Bereichen Recht, IT-Sicherheit und Kommunikation.
  3. Implementieren Sie Frühwarnsysteme! Beobachten Sie soziale Medien und andere Kommunikationskanäle um frühzeitig auf Deepfakes aufmerksam zu werden.
  4. Prüfen Sie Verdachtsfälle. Ist das Video oder Audio verifiziert? Stimmen Sie sich intern ohne Verzögern ab. Schalten Sie ggf. Ihre Sicherheitsberater hinzu oder nutzen Sie moderne Technologien zur Erkennung von Deep Fakes. Tools können helfen, gefälschte Videos und Audios zu identifizieren.
  5. Aktivieren Sie Ihren Krisenstab! Deepfakes können massive Auswirkungen auf die Reputation der Person oder des Unternehmens haben. Nehmen Sie die Lage ernst, nehmen Sie eine Auswirkungsanalyse vor und klären Sie, welche Interessen hinter dem Deepfake stecken.
  6. Prüfen Sie juristische Maßnahmen. Schalten Sie im Ereignisfall umgehend juristische Expertise im Medienrecht und Strafrecht hinzu, um juristisch gegen den Deepfake vorzugehen und diesen entfernen zu lassen und lassen Sie weitere juristische Maßnahmen prüfen.
  7. Kommunizieren Sie umgehend! Seien Sie schnell. Stellen Sie den Sachverhalt richtig, ordnen sie den Deepfake in seinen Kotext ein, stellen Sie Ihren juristischen Standpunkt dar – auf Ihren eigenen internen und externen Kanälen – um Ihre eigene Sicht der Dinge zu kommunizieren. Da sich Fake News leider schneller als Wahrheiten verbreiten, ist das ein Kampf gegen Windmühlen, aber „links liegenlassen“ ist gar keine Option.
Jana Meißner Resilienz-Expertin
Autor

Jana Meißner

Kommentar schreiben