KI-Betrug: Deutsche Firmen im Visier der Deepfake-Mafia
Laut Gartner-Studie erlebten 62 Prozent der Firmen Deepfake-Angriffe, die zu Millionenverlusten führten. Neue Betrugsmethoden nutzen CAPTCHA-Fallen und gefälschte Video-Konferenzen.
Zwei Drittel aller Unternehmen wurden bereits attackiert. Eine neue Studie enthüllt das erschreckende Ausmaß: KI-gestützte Cyberattacken haben sich zu einer Milliardenbedrohung entwickelt. Besonders perfide sind dabei gefälschte Video-Konferenzen mit vermeintlichen Geschäftsführern.
Die Zahlen sind alarmierend: 62 Prozent der Unternehmen erlebten im vergangenen Jahr mindestens eine Deepfake-Attacke. Das zeigt eine aktuelle Gartner-Erhebung, die diese Woche veröffentlicht wurde. Von Audio-Imitationen bis hin zu kompletten Video-Fälschungen reicht das Arsenal der Cyberkriminellen.
Akif Khan, Senior Director bei Gartner Research, warnt vor einer gefährlichen Entwicklung: „Angreifer kombinieren Deepfakes zunehmend mit Social Engineering.“ Dabei geben sie sich als Vorstandsvorsitzende aus und verleiten Mitarbeiter zu betrügerischen Geldtransfers.
CAPTCHA-Fallen auf beliebten Plattformen
Noch raffinierter wird es bei einer neuen Betrugsmasche, die Sicherheitsforscher von Trend Micro aufgedeckt haben. Kriminelle nutzen KI-Entwicklungsplattformen wie Vercel, Netlify und Lovable, um gefälschte CAPTCHA-Seiten zu hosten.
Der Trick funktioniert perfekt: Nutzer erhalten dringende E-Mails wie „Passwort-Reset erforderlich“ und landen auf scheinbar harmlosen Verifizierungsseiten. Nach der vermeintlichen Bestätigung werden sie unbemerkt zu Phishing-Websites weitergeleitet, die Microsoft 365- oder Google-Zugangsdaten abgreifen.
Warum ist diese Methode so erfolgreich? Die CAPTCHA-Seiten wirken vertrauenswürdig und umgehen automatische Sicherheitsscanner, die nur die harmlose Eingabeseite erkennen.
Anzeige: Apropos Phishing und gefälschte Login-Seiten: Viele Angriffe treffen heute direkt das Smartphone. Der kostenlose Ratgeber „Die 5 wichtigsten Schutzmaßnahmen für Ihr Android-Smartphone“ zeigt Schritt für Schritt, wie Sie WhatsApp, Online‑Banking und Google‑Konto vor Datendieben, Fake‑Websites und Schad‑Apps schützen – ohne teure Zusatz‑Apps. Jetzt das kostenlose Android‑Sicherheitspaket anfordern
21 Millionen Euro per Videocall gestohlen
Die finanziellen Schäden erreichen Rekordniveau. Voice-Phishing-Angriffe stiegen zwischen Anfang 2024 und Mitte 2025 um über 400 Prozent an. Mit wenigen Sekunden Audio aus Social-Media-Posts können Kriminelle überzeugende Stimmen-Klone erstellen.
Ein spektakulärer Fall aus dem Jahr 2024 verdeutlicht die Dimension: Ein Finanzangestellter überwies 21 Millionen Euro nach einer Videokonferenz mit seinem vermeintlichen Finanzvorstand. Alle Teilnehmer waren KI-generierte Deepfakes.
Das FBI und die American Bankers Association reagierten bereits mit einer gemeinsamen Warnung: Ein erheblicher Teil der 42 Milliarden Euro Betrugsschäden seit 2020 geht auf Deepfake-Attacken zurück.
Regulierung und Gegenmaßnahmen
Die Finanzaufsicht Singapurs (MAS) veröffentlichte diese Woche neue Richtlinien für Banken zum Deepfake-Schutz. Deutsche Unternehmen sollten aufhorchen: Die Bedrohung durch biometrische Manipulation und Marktmanipulation wächst exponentiell.
„Mitarbeiter stehen wirklich an vorderster Front beim Erkennen ungewöhnlicher Aktivitäten“, betont Gartner-Experte Khan. Automatische Verteidigungen allein reichen nicht mehr aus.
Unternehmen rüsten auf: Deepfake-Erkennungssoftware für Teams und Zoom, realistische Schulungssimulationen und verschärfte Prozesse mit Mehr-Faktor-Authentifizierung bei Finanztransaktionen werden zum Standard.
Wettrüsten zwischen Angriff und Verteidigung
78 Prozent der IT-Sicherheitschefs spüren bereits massive Auswirkungen von KI-Bedrohungen auf ihre Organisationen. Immerhin: Über 60 Prozent fühlen sich inzwischen ausreichend vorbereitet – ein deutlicher Anstieg zum Vorjahr.
Der Grund für diesen Optimismus? KI-gestützte Abwehrlösungen, die menschliche Sicherheitsteams unterstützen sollen.
Doch die Bedrohung entwickelt sich weiter: Cyberkriminelle nutzen generative KI nicht nur für Phishing-E-Mails und Deepfakes, sondern auch zum Schreiben von Schadcode und Aufspüren von Schwachstellen. Die nächste Welle hyperrealistischer, personalisierter Betrugsversuche steht bereits vor der Tür.