Skip to main content

Erfolgsfaktor: Krisenkommunikation

Künstliche Intelligenz bieten Organisationen viele Chancen – vor allem auch in der Krisenkommunikation. Doch der Einsatz dieser Technologien bringt auch erhebliche Risiken mit sich, die Unternehmen kennen und aktiv managen müssen. Im Folgenden stellen wir die wichtigsten Risiko-Themenfelder vor, die bei der Nutzung von KI-Anwendungen beachtet werden sollten.

1. Faktencheck bleibt unverzichtbar

KI-generierte Texte können Fehler enthalten oder Fakten erfinden. ChatGPT gibt unter anderem Quellen falsch wieder oder erfindet sie. Deshalb müssen Nutzer:innen die Ausgaben genau auf Wahrheitsgehalt und belegbare Quellen prüfen. Auch KI-erstellte Berichterstattung kann frei erfunden sein und falsche Informationen verbreiten. Kontrolle ist unerlässlich!

2. Gefahr von Desinformation und Deep-Fakes

KI ermöglicht die Erstellung täuschend echter Manipulationen in Texten, Bildern, Audio und Videos – sogenannte Deep-Fakes. Kriminelle können diese nutzen, um falsche Informationen zu streuen, Organisationen zu schaden und deren Ruf anzugreifen. Organisationen müssen Desinformations- und Deep-Fake-Angriffe frühzeitig erkennen und sowohl kommunikativ als auch rechtlich effektiv gegensteuern.

3. Schutz sensibler Daten

Bei der Nutzung von ChatGPT und ähnlichen Systemen besteht die Gefahr, dass vertrauliche oder firmeninterne Informationen eigeninitiiert in die Datenbasis der KI gelangen und später durch Dritte weiterverwendet werden. Solange keine expliziten Einstellungen das verhindern, fließen eingegebene Daten in Trainingsprozesse ein. Unternehmen sollten daher keine sensiblen oder personenbezogenen Daten in KI-Systeme eingeben, wenn nicht klar ist, wie diese geschützt sind. Entsprechende unternehmensinterne Richtlinien sind unerlässlich.

4. Diskriminierungsrisiken durch Trainingsdaten

Die Antworten von KI-Modellen basieren stark auf den Daten, mit denen sie trainiert wurden. Wenn diese vor allem aus westlichen Ländern stammen, können Minderheiten und andere Bevölkerungsgruppen unzureichend berücksichtigt oder auch diskriminiert werden. Unternehmen müssen sich dieser Bias-Risiken bewusst sein und KI-Ausgaben kritisch prüfen.

5. Urheberrechtsfragen bleiben unklar

KI-generierte Texte und Bilder sind derzeit rechtlich nicht eindeutig geschützt. Da eine KI kein Urheberrecht besitzt, gelten die üblichen Rechte für menschliche Schöpfer nicht automatisch. Gleichzeitig können KI-Anwendungen unbeabsichtigt urheberrechtlich geschützte Werke reproduzieren und so zu Plagiaten führen. Verantwortung für die Rechtskonformität liegt bei den Nutzern – besonders im kommerziellen Einsatz.

6. Datenschutz und Jugendschutz

Regulatorische Anforderungen an Datenschutz und Jugendschutz sind noch in der Entwicklung. ChatGPT wurde z. B. in Italien zeitweise verboten, weil die Nutzung durch Kinder unter 13 Jahren nicht ausreichend verhindert wurde. Unternehmen müssen sicherstellen, dass bei der KI-Nutzung Datenschutzrichtlinien eingehalten und sensible Informationen geschützt werden.

7. Risiken für demokratische Informationsprozesse

KI-Tools können massenhaft Fake News und manipulierte Inhalte erstellen, die demokratische Debatten stören und das Vertrauen in Medien und Politik untergraben. Politische Entscheidungsträger:innen und Institutionen stehen zunehmend im Fokus von KI-gestützten Angriffen und Desinformationskampagnen.

8. Cyberkriminalität mit KI

Kriminelle nutzen KI, um Schadsoftware (Malware) zu entwickeln, Phishing-Attacken zu perfektionieren und vertrauliche Daten auszuspähen. Durch KI lassen sich Angriffe auf Unternehmens-APIs effektiver planen und durchführen. Auch die technische Ausbildung von Hackern wird durch KI beschleunigt. Unternehmen müssen ihre IT-Sicherheitsstrategien laufend an diese neuen Bedrohungen anpassen.

Fazit

Der Einsatz von KI eröffnet enorme Potenziale – gleichzeitig stellen die genannten Risiken Unternehmen vor neue Herausforderungen. Ein verantwortungsvoller Umgang mit KI erfordert kontinuierliche Kontrolle, transparente Prozesse und den Schutz sensibler Daten. Nur so lässt sich die Chance der Technologie nutzen und zugleich die Sicherheit von Organisationen gewährleisten.

Kommentar schreiben