Deepfakes:

Wie gefälschte Medieninhalte Ihrem Unternehmen schaden können

Inhalt

Fälschungen hat es in der Geschichte immer gegeben, und schon immer sind Menschen darauf hereingefallen. Doch heute eröffnen sich durch Künstliche Intelligenz (KI) ungeahnte Möglichkeiten auch für untalentierte Fälscher. Die Fälschungen der neuesten Generation werden als deepfakes bezeichnet. Mit digitaler Technik können einzelne oder bewegte Bilder, Stimmen und Texte so manipuliert werden, dass sie völlig echt wirken. Das kann ein harmloser Spaß sein, aber auch eine Bedrohung für Sicherheitssysteme, die Grundlage für Betrug und sogar für Desinformation und Rufschädigung sein. Unternehmen kommen also nicht darum herum, sich im Rahmen ihres IT-Risikomanagements auch mit Gefahren durch deepfakes zu beschäftigen.

Ein Firmenchef ruft einen Mitarbeiter an und verlangt die sofortige Anweisung eines größeren Geldbetrags; aber es ist gar nicht der Chef, obwohl es seine Stimme zu sein scheint. Ein biometrisches System gewährt einem anscheinend Autorisierten Zugang zu geschützten Firmendaten; es handelt sich aber um eine fremde Person. In den sozialen Medien kursiert ein Video, das einen bekannten Wirtschaftslenker in einer peinlichen Situation zeigt, und der Aktienkurs des Unternehmens bricht ein; das Video ist jedoch gefälscht. Die Beispiele zeigen, was deepfakes anrichten können. So kann auch ein Markenimage beschädigt oder zerstört werden. Deepfakes sind veränderte mediale Daten durch Systeme der KI. Sie können große Datenmengen so verarbeiten, dass der Empfänger meint, etwas vor sich zu haben, das in Wirklichkeit nicht existiert.

Manipulationen immer schwerer zu entlarven

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt: „Manipulierte Bilder, Videos und Stimmen werden durch die kontinuierliche Qualitätssteigerung der
öffentlich zugänglichen Werkzeuge immer authentischer und dadurch schwerer zu entlarven.“ Das Schwachstellenmanagement in Unternehmen und Behörden stehe
„vor noch nie dagewesenen Herausforderungen“. Die Gefahr durch deepfakes kann grundsätzlich vermindert werden. Gefälschte Bilder oder Stimmen lassen sich in vielen Fällen noch erkennen. Wird das Gesicht eines Menschen, der geschädigt werden soll, in den Kopf eines anderen eingesetzt, so bleiben die Ränder dieses Gesichts häufig ein wenig sichtbar. Mitunter verwaschen scharfe Konturen in einem solchen Gesicht. Oder es treten Fehler auf wie eine unstimmige Beleuchtung oder eine unnatürliche Mimik. Eine Stimme kann leicht verfremdet oder monoton klingen, einzelne Wörter können falsch betont sein, oder die charakteristische Sprechweise der Person kann nicht ganz getroffen sein. Der Betrachter, beziehungsweise Zuhörer muss allerdings wissen, worauf er zu achten hat, und benötigt eine gewisse Übung.

Eine digitale Signatur kann vor deepfakes schützen

Man kann sich vor deepfakes schützen, indem man bei der Aufnahme von Bildern oder Tönen eine digitale Signatur erstellt, die sicherstellt, dass das Material nicht nachträglich verfälscht werden kann. Die EU-Kommission bereitet außerdem eine Regulierung vor, die vorschreibt, dass alle mit deepfake-Technologie erstellten Dateien künftig als solche gekennzeichnet werden müssen. Es gibt außerdem die Möglichkeit, deepfakes durch automatisierte Analyse, ebenfalls mit Hilfe von KI, aufzudecken. Einen vollständigen Schutz stellt das aber laut BSI nicht dar. Die Fälschungen werden immer perfekter; das erfordert, dass auch die Analysemethoden immer mehr verfeinert werden müssen. Außerdem kann ein Schädiger diese Abwehr auch austricksen.

Erstellen Sie einen Krisenplan

Allgemein empfiehlt sich zum Image- und Markenschutz:

  • Halten Sie sich auf dem Laufenden und behalten Sie die sozialen Netzwerde
    und das Internet im Blick, damit Sie Bedrohungen frühzeitig bemerken und
    reagieren können.
  • Treffen Sie Vorsichtsmaßnahmen, vor allem bei Inhalten, die für die
    Öffentlichkeit bestimmt sind. Versuchen Sie, die Gefahr durch KI-Angriffe so
    klein wie möglich zu halten. Sprechen Sie auch mit wichtigen Kunden darüber.
  • Schaffen Sie Vertrauen in Ihre Medienaktivitäten, indem Sie offenlegen, auf
    welche Weise und über welche Kanäle Sie informieren.
  • Erstellen Sie einen Krisenplan, damit Sie nicht erst nach einem erfolgreichen
    Angriff überlegen müssen, was zu tun ist.
  • Ist klar, wie und über welche Kanäle deepfakes verbreitet wurden, kommt
    auch Rechtsschutz infrage. Wer Fehlinformationen bewusst verbreitet, kann
    dafür haftbar gemacht werden.