Wirtschaftliche Folgen von Desinformationen: Ein Blick auf DaaS und DaaP
Bild: Ideogram
Desinformationen betreffen lange schon nicht mehr nur die Politik oder soziale Netzwerke: Sie sind auch als Werkzeug gegen Unternehmen angekommen. Mit Desinformation as a Service (DaaS) hat sich im Darknet ein neues Geschäftsfeld entwickelt, welches wir in diesem Blog genauer betrachten und zeigen, welches Auswirkungen DaaS / DaaP für Unternehmen, ihre Reputation und Werbeanzeigen haben.
Dieser Blog ist Teil einer Serie über Fakes im Netz. In diesem Beitrag haben wir bereits alle gängigen Fragen zu den Auswirkungen von Fake Shops auf E-Commerce-Unternehmen ausführlich beantwortet.
Desinformation as a Service (DaaS) / Desinformation as a Product (DaaP)
Genauso wie Kundinnen und Kunden online Produkte kaufen können, können Sie auch im Darknet Desinformationen erwerben. In diesem Absatz schauen wir auf die Typen DaaS und DaaP und arbeiten die Unterschiede für Sie heraus:
Das Konzept Desinformation as a Service (DaaS) hat sich zu einem lukrativen Geschäftsmodell im Darknet entwickelt, bei dem spezialisierte Anbieter:innen maßgeschneiderte Kampagnen zur Rufschädigung von Unternehmen oder politischen Akteur:innen offerieren. Diese Dienstleistungen umfassen die Erstellung gefälschter Social-Media-Profile – sogenannter Sockenpuppen-Accounts –, die über Monate hinweg authentisches Verhalten simulieren, um anschließend gezielt Falschmeldungen zu verbreiten. Typischerweise kombinieren DaaS-Anbieter:innen wahre Kernaussagen mit erfundenen Details, um die Glaubwürdigkeit zu erhöhen, und nutzen Bot-Netzwerke, um die Reichweite der Posts algorithmisch zu verstärken. Analysen zeigen, dass bereits einfache Kampagnen jährliche volkswirtschaftliche Schäden von über 78 Milliarden US-Dollar verursachen können, insbesondere durch Kurseinbrüche, Kundenverlust oder regulatorische Sanktionen. Die Europäische Union reagiert auf diese Bedrohung mit dem Digital Services Act (DSA), der sehr große Online-Plattformen zur Risikoanalyse und Gegenmaßnahmen verpflichtet, allerdings ohne Desinformation per se zu verbieten.
Im Gegensatz zum dienstleistungsbasierten DaaS-Modell zielt Desinformation as a Product (DaaP) auf den Vertrieb standardisierter Falschinformationen ab, die – ähnlich physischen Waren – in digitalen Märkten gehandelt werden. Hierbei handelt es sich um vorkonfigurierte Narrative, Deepfake-Videos oder manipulierte Datensätze, die beispielsweise Wahlbeeinflussung, Produktdiskreditierung oder ideologische Propaganda ermöglichen. Ein paradigmatisches Beispiel sind KI-generierte Texte, die mittels Natural-Language-Processing-Tools journalistische Artikel imitieren und in seriös wirkenden Online-Medien platziert werden. Derartige Produkte zeichnen sich durch ihre Wiederverwendbarkeit und Skalierbarkeit aus – Eigenschaften, die im Data-as-a-Product-Ansatz (DaaP) ursprünglich für legitime Datenprodukte entwickelt wurden.
Soziale Medien als Angriffsraum
Die aktuellen Statistiken zeigen eine strake Zunahme gefälschter Social-Media-Profile, die gezielt zur Unterwanderung von Unternehmenskommunikation eingesetzt werden. Diese Fake-Accounts imitieren oft offizielle Unternehmensprofile oder Führungspersönlichkeiten, um durch pseudolegitime Beiträge Markenschädigung zu betreiben. Besonders kritisch zeigt sich die Situation in Österreich, wo 2022 bereits 11 % aller Cyberangriffe auf solche Identitätsdiebstähle zurückgingen. Die Angreifer nutzen hierbei psychologische Schwachstellen aus, indem sie scheinbar harmlose Humor-Beiträge mit subtilen Falschinformationen kombinieren.
Eine unter der „Doppelgänger-Kampagne“ bekannt gewordene Technik verbindet aktuell das Erscheinungsbild von Medienhäusern mit Bildern von Prominenten aus den unterschiedlichsten Sektoren, um Klicks auf Desinformationskampagnen zu generieren. Unserer Erfahrung nach geht es in den meisten als Anzeigen veröffentlichten Geschichten um Politikerinnen, Moderatoren und Schauspieler. Die Identifikation dieser Anzeigen ist hierbei noch relativ leicht mit Blick auf das Profil – meistens verstecken sich hier übernommene Accounts oder Imitate zu echten Marken.
Ad-Fraud durch KI-generierte Desinformationen
Die Kombination aus automatisiert erstellten reißerischen Falschinformationen und programmatischer Werbung ermöglicht betrügerische Geschäftsmodelle, bei denen KI-generierte Fake News-Seiten durch Clickbait-Traffic Werbeeinnahmen erschleichen – ein Phänomen, das sich durch den Einsatz von Generative Adversarial Networks (GANs) zur Erstellung täuschend echter Websites noch verstärkt.
Doch was bedeutet das genau? Wenn Sie Online-Werbung bei den gängigen Anbietern schalten, kann nicht immer ausgeschlossen werden, dass Ihre Werbung auch bei einer angeblich seriösen Nachrichtenseite landet, die sich mit dieser Leistung zusätzlich einen Nebenverdienst aufbaut.
Einerseits schmückt sich eine Desinformations-Website mittels Ihrer Werbung als seriöser Anbieter, andererseits werden Werbeanzeigen gerne auch doppelt übereinander ausgespielt, um das doppelte Budget abzugreifen. Der Schaden liegt bei den schaltenden Unternehmen, deren Werbe-Performance unter diesen Tricks leidet.
Unser Tipp: Nutzen Sie für diesen Fall Opt-Out-Sammlungen. Hierbei handelt es sich um eine Liste von Websites, auf denen Sie keine Werbung schalten möchten – diese reichen Sie gängigerweise bei Google und Co. während der Erstellung der Anzeigen ein.
Wirtschaftliche Auswirkungen von Desinformationen
Wenn wir von den Auswirkungen von Desinformationen reden, dann beschränken diese sich schon lange nicht mehr nur auf Reputationsschäden bei Marken, sondern gehen auch in die Finanzmärkte:
Finanzmärkte reagieren besonders empfindlich auf gezielte Desinformation. Analysen der KPMG-Studie belegen, dass kursmanipulierende Fake News innerhalb von vergleichsweise kurzer Zeit Börsenwertverluste von bis zu 5 % auslösen können. Für den DAX-30-Raum entspräche dies einem volatilen Schadenspotenzial von rund 75 Mrd. Euro pro Incident. Langfristige Reputationsschäden durch wiederholte Falschmeldungen potenzieren diese Effekte zusätzlich, wobei Mittelstandsunternehmen im DACH-Raum durchschnittlich 23 % höhere Risikoaufschläge bei Kreditverhandlungen verzeichnen.
Das spannende und Gefährliche bei diesen Ergebnissen ist, dass die Schäden (Wertverlust) mittels Fakes durch Richtigstellungen im Durchschnitt nicht mehr gutgemacht werden können, wie mehrere Studien errechnet haben. Dies bedeutet konkret: Wenn ein Unternehmen betroffen ist, gelingt meistens nur noch eine Schadensbegrenzung – eine Abwehr ist nicht mehr möglich.
Kleine Tipp: Das Exzellenzcluster ECONtribute der Uni Bonn recherchiert fortlaufend an dem Thema und forscht speziell an den wirtschaftlichen Auswirkungen. Hier ein Artikel der Pressestelle.
WORKSHOP: KI & Fake’s – Chancen nutzen, Risiken minimieren
Die Context-Verify Workshops bilden Sie und ihr Team optimal für aktuelle und aufkommende Gefahren durch Fakes und KI aus. Profitieren Sie von unserem Fachwissen direkt aus der Entwicklungsbranche. Leicht verständlich, persönlich durchgeführt, vor Ort und digital.