Ein Deepfake-Video zeigt Personen (z. B. Prominente), wie sie sprechen oder handeln aber es handelt sich dabei um Fälschungen.
Beispiel: Ein Deepfake-Video zeigte angeblich Elon Musk, der in einem Interview für eine Kryptowährung warb. Aber das war ein Fake, um Leute übers Ohr zu hauen.
Beim Voice‑Cloning wird, mittels KI, die Stimme einer Person kopiert. Kriminelle nutzen die Stimmer dann zu Erpressungs- oder Täuschungszwecken um an das Geld ihrer Opfer zu gelangen.
Beispiel: Eine Frau in Florida wurde mit der Stimmer ihrer Tochter hereingelegt: Mit der von der KI geklonten die Stimme der Tochter, die vermeintich in Not war, forderten die Erpresser 15 000 $ von der Mutter und bekamen das Geld.
Mit KI können täuschend echte E‑Mails geschieben werden. Sie sehen aus wie echte Nachrichten von Banken oder Freunden, enthalten aber Viren oder verlangen Daten.
Beispiel: Gefälschte E‑Mails sehen echt aus wie z. B. von der Bank die dich fordern, dein Passwort einzugeben.
KI kann Bilder von Menschen oder Orten machen, die es gar nicht gibt und komplett erfunden sind.
Beispiel: Viele Social‑Media‑Profile zeigen eigentlich nicht existierende Personen – mit Bildern, die komplett von KI generiert wurden (allgemeine Beobachtungen, viele Fake-Profile).
Manche KI‑Programme „freunden“ sich mit dir an oder folgen dir in sozialen Medien. Selbst Influencer können KI‑Figuren sein – mit großem Publikum.
Beispiel: Die KI-Influencerin Mia Zelu täuschte viele Menschen mit täuschend echten, aber computergenerierten Bildern.
KI kann komplette Bewerbungen oder Lebensläufe erstellen. Manche Menschen stellen sich so einfach „falsch“ dar.
Beispiel: Durch den Einsatz von KI werden zunehmend gefälschte Lebensläufe erstellt – inklusive erfundener Abschlüsse und beruflicher Stationen. So erschleichen sich Bewerber mitunter Positionen, für die sie nicht qualifiziert sind. Das birgt erhebliche Risiken für Unternehmen.
Gesicht bewegt sich komisch (z. B. Lippen passen nicht zur Stimme).
Licht und Schatten im Gesicht sind unnatürlich.
Blinzeln fehlt oder wirkt komisch oft bei Fake-Videos.
Hintergrund flackert oder wirkt unscharf.
Stimme klingt „blechern“ oder „roboterhaft“.
Die Person spricht langsam oder wiederholt Wörter.
Bei Notfällen am Telefon:
Immer ein Codewort mit der Familie vereinbaren (z. B. „Zebra“) – nur echte Personen kennen es.
Rufe zurück, falls du unsicher bist – z. B. deinen Sohn oder deine Tochter direkt!
E-Mail kommt von einer komischen Adresse (nicht @sparkasse.de, sondern z. B. @sicherheit-konto.ru).
Es steht: „Klicken Sie hier schnell!“ oder „Sie haben gewonnen!“ – sei vorsichtig.
Es werden persönliche Daten gefragt (Passwort, IBAN, Ausweis).
Augen wirken unnatürlich oder schauen in verschiedene Richtungen.
Zähne sind verschwommen oder ungleichmäßig.
Kleidung oder Hintergrund ist unscharf oder seltsam verdreht.
Das Profil hat keine echten Freunde, keine privaten Fotos.
Alle Bilder wirken zu perfekt, wie aus einem Werbekatalog.
Sie antworten sehr schnell oder wiederholen oft die gleichen Wörter.
Text wirkt zu perfekt, ohne Fehler.
Die Person hat viele Jobs in kurzer Zeit oder ungewöhnlich viele Abschlüsse.
Tipp für Lehrer oder Firmen: Rückfragen stellen – z. B. „Was genau haben Sie bei Firma XY gemacht?“
→ Bei Lügen kommen oft unsichere oder seltsame Antworten.