Schockanruf mit KI – Das Landeskriminalamt (LKA) und die Verbraucherzentrale Rheinland-Pfalz schlagen Alarm: Immer häufiger setzen Kriminelle Künstliche Intelligenz (KI) gezielt ein, um Menschen zu täuschen und finanziell oder emotional zu schädigen.

Täuschend echte Stimmen, Bilder und Videos

Dank moderner KI-Technologien können Betrüger Stimmen, Gesichter, Videos und Texte realitätsnah imitieren – teilweise sogar in Echtzeit. Mit diesen Methoden erschleichen sie das Vertrauen ihrer Opfer, um an Geld oder sensible persönliche Daten zu gelangen.

Gefährdung für alle Altersgruppen

Kinder, Jugendliche und Erwachsene können gleichermaßen zum Ziel werden. Besonders junge Menschen geraten über soziale Netzwerke ins Visier, wenn Täter mithilfe künstlich erzeugter Inhalte falsche Identitäten annehmen oder versuchen, sie unter Druck zu setzen – etwa durch sogenannte „Sextortion“, also sexuelle Erpressung mit manipulierten Bildern oder Videos.

Doch auch Erwachsene sind zunehmend betroffen. Klassische Betrugsmaschen wie Schockanrufe, der sogenannte Enkeltrick oder Liebesbetrug („Love Scamming“) gewinnen durch KI eine neue Dimension. Mit täuschend echten Stimmen oder Videos simulieren Täter Notlagen oder emotionale Bindungen, um ihre Opfer zu Geldüberweisungen zu bewegen.

Typische KI-Methoden bei Betrugsversuchen

  • Stimmen-Imitation:
    Moderne KI-Technologien können aus kurzen Sprachaufnahmen Stimmen nahezu perfekt nachahmen. Die Systeme analysieren die Klangfarbe, Betonung, Sprechgeschwindigkeit und Sprachmelodie einer Person und erzeugen daraus synthetische Sprachsequenzen, die sehr realistisch klingen. Betrüger nutzen diese Technik, um Angehörige oder Freunde vorzutäuschen und so Vertrauen zu gewinnen. Ein typisches Beispiel ist der sogenannte Schockanruf: Opfer hören die Stimme eines vermeintlich nahestehenden Menschen, der in einer Notlage ist, und werden so unter Druck gesetzt, Geld zu überweisen.
  • Manipulierte Nachrichten und Bilder
    Betrüger nutzen Künstliche Intelligenz, um E-Mails, Chatverläufe, Nachrichten oder Fotos so zu erstellen, dass sie auf den ersten Blick echt wirken. Dabei können Absenderadressen gefälscht, Logos originalgetreu nachgebildet und Schreibstil oder Sprachmuster der angeblichen Kontaktperson imitiert werden. Auch Bilder werden mithilfe von KI bearbeitet oder komplett erzeugt, sodass Opfer denken, sie hätten es mit realen Personen oder Situationen zu tun. Solche manipulierten Inhalte dienen dazu, Vertrauen zu erschleichen, Opfer zu emotionalen Entscheidungen zu bewegen oder sie dazu zu bringen, sensible Daten preiszugeben. Besonders perfide: In Kombination mit Deepfake-Videos oder Stimmen-Imitationen wirken diese Nachrichten nahezu ununterscheidbar von der Realität, wodurch die Gefahr für Betroffene deutlich steigt.

  • Gefälschte Videos und Deepfakes:
    Betrüger imitieren zunehmend Personen aus dem direkten Umfeld der Opfer – etwa die eigene Mutter, das Kind oder enge Freundinnen und Freunde. Sind Stimmen oder Bilder einmal online verfügbar, zum Beispiel in Sozialen Medien, Sprachnachrichten oder durch vorherige Anrufe (etwa unter dem Vorwand einer Umfrage), nutzen KI‑Tools diese Vorlagen, um realistisch klingende Audio‑ und Videoaufsnahmen zu erzeugen. Das macht die Manipulation besonders perfide: Ein Anruf oder ein Clip, in dem vermeintlich das eigene Kind um Hilfe bittet oder die Mutter dringend Geld fordert, wirkt deutlich glaubwürdiger und setzt Betroffene massiv unter Druck. Kommen Deepfake‑Video und synthetische Stimme kombiniert zum Einsatz, steigt die Wahrscheinlichkeit, dass Opfer den Täuschungen glauben. Gegenmaßnahmen sind daher konkret: Inhalte nicht unreflektiert teilen oder auf Social Media frei zugänglich machen, Sprachnachrichten und Privatfotos nur eingeschränkt veröffentlichen, skeptisch bleiben bei unerwarteten Hilfegesuchen und Rückfragen über bekannte, unabhängige Kanäle stellen — etwa durch direkten Rückruf über die sonst genutzte Nummer.

Prävention: So schützen Sie sich vor KI-Betrug

  • Lassen Sie sich nicht unter Druck setzen – auch nicht bei vermeintlich vertrauter Stimme oder bekanntem Bild.

  • Beenden Sie bei Zweifeln das Gespräch und kontaktieren Sie die Person selbst über eine bekannte Nummer.

  • Geben Sie niemals spontan sensible Daten oder Zugangsdaten weiter – weder telefonisch noch online.

  • Veröffentlichen Sie nur sparsam persönliche Informationen, Fotos oder Videos in sozialen Medien.

  • Sprechen Sie mit Familie und Freunden über aktuelle Betrugsmaschen. Vereinbaren Sie Notfallkennwörter oder gezielte Rückfragen, um Echtheit zu prüfen.

  • Überweisen Sie kein Geld, ohne die Angaben unabhängig überprüft zu haben.

Im Ernstfall: Polizei und Verbraucherzentrale informieren

Wer Opfer eines KI-gestützten Betrugs wird, sollte umgehend Anzeige bei der Polizei erstatten. Auch die Verbraucherzentrale Rheinland-Pfalz nimmt Hinweise zu aktuellen Betrugsfällen entgegen und bietet Beratung zum sicheren Umgang mit digitalen Risiken an.