Polizei-News Mainz, 08.10.25: Achtung vor Betrugsmaschen mit Künstlicher Intelligenz

Die Polizei informiert über einen aktuellen Fall von Betrug in Mainz. Was ist heute passiert?

Erstellt von - Uhr

Die Polizei informiert über ein aktuelles Delikt (Symbolbild). (Foto) Suche
Die Polizei informiert über ein aktuelles Delikt (Symbolbild). Bild: picture alliance / dpa / Marijan Murat

Das Landeskriminalamt und die Verbraucherzentrale Rheinland-Pfalz verdeutlichen die Gefahr vor einer wachsenden Zahl von Betrugsfällen, bei denen Täter Künstliche Intelligenz (KI) gezielt einsetzen, um Menschen zu täuschen und zu schädigen.

Durch moderne KI-Technologien sind Kriminelle in der Lage, Stimmen, Bilder, Videos und Texte täuschend echt zu imitieren - oft in Echtzeit. Ziel ist es, das Vertrauen von Betroffenen zu erschleichen, um an Geld oder sensible persönliche Daten zu gelangen.

Schutz für alle Altersgruppen: Digitale Risiken erkennen und sicher handeln

Kinder, Jugendliche und Erwachsene können durch KI-gestützte Betrugsmaschen ins Visier von Kriminellen geraten.Besonders junge Menschen werden über soziale Netzwerke kontaktiert - etwa durch Täter, die sich mithilfe künstlich erzeugter Inhalte als Gleichaltrige ausgeben oder versuchen, sie unter Druck zu setzen, etwa über sexuelle Erpressung (sogenannte Sextortion).

Aber auch Erwachsene geraten zunehmend ins Visier. Betrugsmaschen wie Schockanrufe, der sogenannte Enkeltrick oder Liebesbetrug ("Love Scamming") werden mit KI-Unterstützung noch glaubwürdiger inszeniert. Die Täter simulieren Notlagen oder emotionale Nähe, um ihre Opfer zur Überweisung von Geldbeträgen zu bewegen.

Typische Methoden KI-gestützter Betrügereien:

  • Stimmen-Imitation: KI kann aus kurzen Sprachaufnahmen Stimmen täuschend echt nachahmen. So wird beispielsweise vorgetäuscht, ein nahestehender Mensch sei in einer Notlage und benötige dringend Hilfe.

  • Manipulierte Nachrichten und Bilder: Mit KI erzeugte E-Mails, Chatverläufe oder Fotos wirken authentisch, stammen jedoch von Betrügern.

  • Gefälschte Videos: KI-generierte Videos können zur Manipulation oder zur Erpressung eingesetzt werden. Kriminelle nutzen so zum Beispiel Deepfakes mit Promis, um gefälschte Finanz- und Gesundheitsangebote glaubwürdig erscheinen zu lassen.

So schützen Sie sich:

  • Lassen Sie sich nicht unter Druck setzen - auch nicht bei vermeintlich vertrauter Stimme oder bekanntem Bild.

  • Bei Zweifeln: Gespräch beenden und die Person über eine bekannte Nummer selbst kontaktieren.

  • Geben Sie keine sensiblen Daten oder Zugangsdaten spontan weiter

    • weder telefonisch noch online.
  • Seien Sie zurückhaltend mit der Veröffentlichung privater Informationen, Fotos oder Videos in sozialen Medien.

  • Sprechen Sie in der Familie über mögliche Betrugsmaschen. Notfallkennwörter und

+++ Redaktioneller Hinweis: Dieser Artikel basiert auf einer Meldung des Landeskriminalamt Rheinland-Pfalz vom 08.10.2025 gegen 10:00 Uhr. Die Originalmeldung aus dem Blaulichtreport des Presseportals finden Sie hier. Um Sie schnellstmöglich zu informieren, werden diese Texte datengetrieben aktualisiert und stichprobenartig kontrolliert. Bei Anmerkungen oder Rückfragen wenden Sie sich bitte an hinweis@news.de. +++

Mainz - Aktuelle Meldungen aus der Region:

/news.de

Erfahren Sie hier mehr über die journalistischen Standards und die Redaktion von news.de.