So bedrohen Fake News ihr Unternehmen

In diesem Blog schauen wir auf die Auswirkungen von Fakes News auf Firmen in Österreich und Deutschland. Dabei gibt das Team von Context Verify umfangreiche Einblicke in aktuelle Entwicklungen und teilt Erfahrungen sowie aktuellste Statistiken.

Systemische Risiken durch Desinformationskampagnen

Soziale Medien als Angriffsraum
Die aktuelle Bedrohungsanalyse offenbart eine exponentielle Zunahme gefälschter Social-Media-Profile, die gezielt zur Unterwanderung von Unternehmenskommunikation eingesetzt werden. Diese Fake-Accounts imitieren oft offizielle Unternehmensprofile oder Führungspersönlichkeiten, um durch pseudolegitime Beiträge Markenschädigung zu betreiben. Besonders kritisch zeigt sich die Situation in Österreich, wo 2022 bereits 11 % aller Cyberangriffe auf solche Identitätsdiebstähle zurückging. Die Angreifer nutzen hierbei psychologische Schwachstellen aus, indem sie scheinbar harmlose Humor-Beiträge mit subtilen Falschinformationen kombinieren.

Eine unter der „Doppelgänger-Kampagne“ bekannt gewordene Technik verbindet aktuell das Erscheinungsbild von Medienhäusern mit Bildern von Prominenten aus den unterschiedlichsten Sektoren, um Klicks auf Fake-News-Artikel zu generieren. Unserer Erfahrung nach geht es in den meisten als Anzeigen veröffentlichten Geschichten um Politikerinnen, Moderatoren und Schauspieler. Die Identifikation dieser Anzeigen ist hierbei noch relativ leicht mit Blick auf das Profil – meistens verstecken sich hier übernommene Accounts oder Imitate zu echten Marken.

Ökonomische Auswirkungen manipulativer Marktinterventionen
Wenn wir von den Auswirkungen von Fake News und Fake Shops reden, dann beschränken diese sich schon lange nicht mehr nur auf Reputationsschäden bei Marken, sondern gehen auch in die Finanzmärkte:

Finanzmärkte reagieren besonders empfindlich auf gezielte Desinformation. Analysen der KPMG-Studie belegen, dass kursmanipulierende Fake News innerhalb von Sekunden Börsenwertverluste von bis zu 5 % auslösen können. Für den DAX-30-Raum entspräche dies einem volatilen Schadenspotenzial von rund 75 Mrd. Euro pro Incident. Langfristige Reputationsschäden durch wiederholte Falschmeldungen potenzieren diese Effekte zusätzlich, wobei Mittelstandsunternehmen im DACH-Raum durchschnittlich 23 % höhere Risikoaufschläge bei Kreditverhandlungen verzeichnen.

Das spannende und Gefährliche bei diesen Ergebnissen ist, dass die Schäden (Wertverlust) mittels Fakes durch Richtigstellungen im Durchschnitt nicht mehr gutgemacht werden können, wie mehrere Studien errechnet haben. Dies bedeutet konkret: Wenn ein Unternehmen betroffen ist, gelingt meistens nur noch eine Schadensbegrenzung – eine Abwehr ist nicht mehr möglich.

Desinformation as a Service (DaaS) und Desinformation as a Product (DaaP)
Genauso wie das Verkaufen von Werbung könnten Nutzer im Darknet auch Fake-News-Kampagnen in versteckten Foren erwerben. In diesem Absatz schauen wir auf die Typen DaaS und DaaP und arbeiten die Unterschiede für Sie heraus:

Das Konzept Desinformation as a Service (DaaS) hat sich zu einem lukrativen Geschäftsmodell im Darknet entwickelt, bei dem spezialisierte Anbieter:innen maßgeschneiderte Kampagnen zur Rufschädigung von Unternehmen oder politischen Akteur:innen offerieren. Diese Dienstleistungen umfassen die Erstellung gefälschter Social-Media-Profile – sogenannter Sockenpuppen-Accounts –, die über Monate hinweg authentisches Verhalten simulieren, um anschließend gezielt Falschmeldungen zu verbreiten. Typischerweise kombinieren DaaS-Anbieter:innen wahre Kernaussagen mit erfundenen Details, um die Glaubwürdigkeit zu erhöhen, und nutzen Bot-Netzwerke, um die Reichweite der Posts algorithmisch zu verstärken. Analysen zeigen, dass bereits einfache Kampagnen jährliche volkswirtschaftliche Schäden von über 78 Milliarden US-Dollar verursachen können, insbesondere durch Kurseinbrüche, Kundenverlust oder regulatorische Sanktionen. Die Europäische Union reagiert auf diese Bedrohung mit dem Digital Services Act (DSA), der sehr große Online-Plattformen zur Risikoanalyse und Gegenmaßnahmen verpflichtet, allerdings ohne Desinformation per se zu verbieten.

Im Gegensatz zum dienstleistungsbasierten DaaS-Modell zielt Desinformation as a Product (DaaP) auf den Vertrieb standardisierter Falschinformationen ab, die – ähnlich physischen Waren – in digitalen Märkten gehandelt werden. Hierbei handelt es sich um vorkonfigurierte Narrative, Deepfake-Videos oder manipulierte Datensätze, die beispielsweise Wahlbeeinflussung, Produktdiskreditierung oder ideologische Propaganda ermöglichen. Ein paradigmatisches Beispiel sind KI-generierte Texte, die mittels Natural-Language-Processing-Tools journalistische Artikel imitieren und in seriös wirkenden Online-Medien platziert werden. Derartige Produkte zeichnen sich durch ihre Wiederverwendbarkeit und Skalierbarkeit aus – Eigenschaften, die im Data-as-a-Product-Ansatz (DaaP) ursprünglich für legitime Datenprodukte entwickelt wurden. Diese technologische Konvergenz erschwert die Unterscheidung zwischen authentischen und manipulierten Inhalten, zumal moderne KI-Systeme wie GPT-4 Halluzinationen produzieren, die selbst für Expert:innen kaum von menschlichen Texten zu unterscheiden sind.

 

WORKSHOP: KI & Fake’s – Chancen nutzen, Risiken minimieren

Zu unseren Workshops

Die Context-Verify Workshops bilden Sie und ihr Team optimal für aktuelle und aufkommende Gefahren durch Fakes und KI aus. Profitieren Sie von unserem Fachwissen direkt aus der Entwicklungsbranche. Leicht verständlich, persönlich durchgeführt, vor Ort und digital.


 

Fakeshops und domainbasierte Angriffsvektoren


Fake Shops sind nicht nur für Kunden ein echtes Ärgernis, sie können auch Marken und Unternehmen umfangreich schaden. Dabei sprechen wir von mangelnder Qualität gefälschter Produkte und gehen bis zu Zahlungsausfällen oder dem Abgreifen von persönlichen Daten zum Identitätsdiebstahl. In diesem Absatz beleuchten wir das Thema aus den unterschiedlichen Perspektiven.

Technische Infiltrationstrategien
Moderne Fakeshops operieren nicht mehr als isolierte Webpräsenzen, sondern infiltrieren systematisch legitime Online-Strukturen. Wie polizeiliche Untersuchungen zeigen, nutzen Cyberkriminelle in 68 % der Fälle kompromittierte Subdomains etablierter Unternehmen für ihre Betrugsaktivitäten – diese sind häufig durch kleine Fehler zu erkennen, die den normalen Nutzer im Alltag aber nicht auffallen.

Besonders betroffen sind hierbei ehemalige Vereinsdomains oder nicht mehr aktive Firmenwebsites, deren Sicherheitslücken durch veraltete CMS-Versionen ausgenutzt werden. Eine aktuelle Fallstudie aus Wien dokumentierte, wie Angreifer eine stillgelegte Architektenwebsite in einen vollfunktionalen Luxusuhren-Shop transformierten, der über Monate hinweg täglich 12.000 Euro Umsatz generierte.

Egal ob Unternehmen oder Privatperson: Ein regelmäßiger Blick auf die Listen der Watchlist Internet Österreich kann schon früh potenzielle Gefahren erkennen oder Schäden verhindern. Zusätzlich können wir den Einsatz des Fake-Shop-Detectors als Browser-Plugin empfehlen, welcher kostenlos und für alle gängigen Systeme verfügbar ist.

Monetarisierungsmechanismen und Folgeschäden
Die ökonomischen Auswirkungen solcher Fakeshops gehen weit über direkte Betrugsschäden hinaus. Markeninhaber sehen sich mit durchschnittlich 14.000 Euro Kosten pro Rechtsverletzung konfrontiert, wobei die Löschung eines einzigen gefälschten Online-Shops im DACH-Raum bis zu 6 Wochen beanspruchen kann.

Betrüger nutzen in diesen Fällen die einfachen Skalierungsmöglichkeiten des Internets. Wenn eine Website von dem betroffenen Unternehmen erkannt und seitens der RTR, der Regulierungsbehörde in Österreich, blockiert wurde, wird lediglich eine neue Domain bei ausländischen Hostern erworben und die Website wieder aktiviert. Dieses Katz- und Mausspiel kennen wir bereits aus dem Finanzbetrug mittels ominöser Trading-Plattformen.

Ad-Fraud durch KI-generierte Fake-News-Websites
Die Kombination aus automatisiert erstellten Desinformationsprodukten und programmatischer Werbung ermöglicht betrügerische Geschäftsmodelle, bei denen KI-generierte Fake-News-Seiten durch gefälschten Traffic Werbeeinnahmen erschleichen – ein Phänomen, das sich durch den Einsatz von Generative Adversarial Networks (GANs) zur Erstellung täuschend echter Websites noch verstärkt.

Doch was bedeutet das genau? Wenn Sie Online-Werbung bei den gängigen Anbietern schalten, kann nicht immer ausgeschlossen werden, dass Ihre Werbung auch bei einem Fake Shop landet, der sich mit dieser Leistung zusätzlich einen Nebenverdienst aufbaut.

Einerseits schmückt sich eine Fake-Website mittels Ihrer Werbung als seriöser Anbieter, andererseits werden Werbeanzeigen gerne auch doppelt übereinander ausgespielt, um das doppelte Budget abzugreifen. Der Schaden liegt bei den schaltenden Unternehmen, deren Werbe-Performance unter diesen Tricks leidet.

Unser Tipp: Nutzen Sie für diesen Fall Opt-out-Sammlungen. Hierbei handelt es sich um eine Liste von Websites, auf denen Sie keine Werbung schalten möchten – diese reichen Sie gängigerweise bei Google und Co. während der Erstellung der Anzeigen ein.


 

KI-basierte Bedrohungsszenarien und Deepfake-Eskalation


Deepfakes, also die Möglichkeit, täuschend echte Bilder und Videos von Inhalten zu erstellen, werden auch zunehmend für Unternehmen zur Gefahr. Was zunächst lediglich Promis aus den Staaten betraf, ist mittels des CEO-Frauds zu einer ernsten Cyber-Attacke geworden.

Generativ-adversarische Angriffsmuster
Künstliche Intelligenz revolutioniert die Produktion täuschend echter Fake-Inhalte. Aktuelle Deepfake-Algorithmen können mittlerweile 98,7 % der menschlichen Wahrnehmungsschwelle überschreiten, wie Tests am Karlsruher Institut für Technologie (KIT) ergaben. Besonders besorgniserregend zeigt sich der Einsatz generativer KI in CEO-Fraud-Kampagnen, bei denen synthetisierte Stimmen und Video-Avatare von Führungskräften zur Autorisierung unrechtmäßiger Überweisungen missbraucht werden. Das Europäische Zentrum für Cybersicherheit (ECCS) registrierte 2024 einen Anstieg solcher Angriffe um 340 % im Vergleich zum Vorjahr.

Politisch-ökonomische Hybridkriegsführung
Desinformationskampagnen entwickeln sich zunehmend zu geopolitischen Waffen. Untersuchungen des German-Austrian Digital Media Observatory (GADMO) belegen, dass 43 % aller gegen europäische Unternehmen gerichteten Fake-News-Wellen auf staatlich gesteuerte Akteure zurückgehen. Diese hybriden Angriffe kombinieren klassische Wirtschaftsspionage mit psychologischer Manipulationstechnologie, wobei KI-gesteuerte Bot-Netzwerke gezielt Marktpaniken auslösen. Ein Paradebeispiel bildet die manipulierte Berichterstattung über angebliche Produktrückrufe deutscher Automobilhersteller, die 2023 zu temporären Börsenstopps an der Frankfurter Wertpapierbörse führten.


 

Regulatorische Gegenmaßnahmen und Compliance-Herausforderungen

Der Digital Services Act (DSA) als europäischer Rahmen
Seit Inkrafttreten des DSA im Februar 2024 sind große Online-Plattformen verpflichtet, systemische Risiken durch Desinformation aktiv zu evaluieren und mittels risikobasierter Gegenstrategien zu minimieren. Konkret bedeutet dies für VLOPs (Very Large Online Platforms), automatisierte Erkennungssysteme für KI-generierte Inhalte zu implementieren und monatliche Transparenzberichte vorzulegen. Die ersten Sanktionen unter dem DSA-Rahmen verdeutlichen die regulatorische Schwerpunktsetzung: Im Januar 2025 verhängte die EU-Kommission gegen einen führenden Social-Media-Konzern eine Geldstrafe von 8,6 Mio. Euro wegen unzureichender Fake-News-Filter.


 

Zusammenfassung

  • Fake News, Deepfakes und Fake Shops verursachen in Österreich, dem DACH-Raum und Europa erhebliche wirtschaftliche Schäden, indem sie durch manipulierte Social-Media-Kampagnen und Identitätsdiebstahl systemische Risiken auslösen.

  • Analysen zeigen, dass sowohl Desinformation as a Service (DaaS) als auch Desinformation as a Product (DaaP) zu unmittelbaren Markteinbrüchen, massiven finanziellen Verlusten und langfristigen Reputationsschäden führen.

  • Um diesen Bedrohungen entgegenzuwirken, setzt die Europäische Union mit dem Digital Services Act (DSA) regulatorische Maßnahmen um, die große Online-Plattformen verpflichten, Risiken zu analysieren, Gegenmaßnahmen zu ergreifen und regelmäßige Transparenzberichte vorzulegen.

Jennik Pickert

Mit 12 Jahren beim Fernsehen / Radio angefangen, mit 16 sich selbstständig gemacht und mit 19 nach Österreich ausgewandert. Medien und Kommunikation sind sein Spezialgebiet - 4 Jahre lang war er das Gesicht des Deutschen Gründerpreis für Schüler:innen (DGPS), hat Dr. Richard Lutz (DB Vorstandsvorsitzender) zum Interview getroffen und den Westermann-Verlag in der Online-Kommunikation beraten. Neben einem Redaktionsaustausch in Russland hat ihn die Corona-Pandemie zu seinem Projekt „Context-verify“ bewegt, welches Finalist des Social Impact Awards und Teilnehmer des INiTS Hightech Inkubator in Wien ist.

https://www.context-verify.eu/jennik-pickert
Zurück
Zurück

Durchbruch in der Forschung: KI kann Gedanken lesen

Weiter
Weiter

KI-Agents: Der digitale Mitarbeiter für Österreichs Unternehmen