
Deepfakes können faszinierende kreative Werkzeuge sein, bergen aber auch erhebliche Risiken. Gerade weil KI-generierte Bilder und Videos immer realistischer werden, können sie das Vertrauen in digitale Inhalte erschüttern und Betroffene stark belasten. Wer ungefragt in gefälschten Aufnahmen erscheint, kann sich plötzlich mit Rufschädigung, Mobbing, Erpressung oder sexualisierter Gewalt konfrontiert sehen. Deshalb ist ein bewusster Umgang mit solchen Technologien besonders wichtig: Inhalte sollten kritisch geprüft, Quellen hinterfragt und verdächtige Bilder oder Videos nicht weiterverbreitet werden. Ebenso entscheidend ist es, die Persönlichkeitsrechte anderer zu respektieren und KI nicht dafür einzusetzen, Menschen zu täuschen, zu verletzen oder unter Druck zu setzen.
Hier einige prominente Beispiele zu Deepfake:
| Nr. | Titel | Erläuterung |
| 1 | Taylor-Swift-Deepfakes | 2024 verbreiteten sich sexualisierte KI-Bilder von Taylor Swift massiv auf X. Die Plattform blockierte zeitweise Suchanfragen zu ihrem Namen. Ein prominentes Beispiel, das Jugendlichen zeigt: Auch bekannte Personen sind betroffen, aber dieselbe Technik kann ebenso gegen Mitschülerinnen oder Mitschüler eingesetzt werden. |
| 2 | Selenskyj-Kapitulationsvideo | 2022 kursierte ein gefälschtes Video, in dem der ukrainische Präsident Wolodymyr Selenskyj angeblich zur Kapitulation aufrief. Er widersprach kurz darauf öffentlich. Ein gutes Beispiel für politische Desinformation: Deepfakes können genutzt werden, um Angst, Unsicherheit oder falsche Entscheidungen auszulösen. |
| 3 | Papst Franziskus im weißen Daunenmantel | 2023 ging ein KI-generiertes Bild viral, das Papst Franziskus in einem auffälligen weißen Puffer-Mantel zeigte. Viele hielten das Bild zunächst für echt. Ein weniger drastisches Beispiel, das sich gut für Übungen eignet: Quelle prüfen, Bilddetails ansehen, Plausibilität hinterfragen, Rückwärtssuche nutzen. |
| 4 | „Fake Drake“ und The Weeknd – KI-Song | Der Song „Heart on My Sleeve“ nutzte KI-generierte Stimmen, die wie Drake und The Weeknd klangen. Er wurde nach Beschwerden von Streamingplattformen entfernt. Spannend für Jugendliche, weil es um Musik, Kreativität, Urheberrecht und die Frage geht: Wem gehört eine Stimme? |
Umso wichtiger ist Aufklärung: Kinder, Jugendliche, Eltern und pädagogische Fachkräfte sollten wissen, wie Deepfakes entstehen, woran man sie erkennen kann und welche Folgen ihre Verbreitung haben kann. Informationsangebote wie klicksafe und SCHAU HIN! unterstützen dabei, Medienkompetenz zu stärken und Risiken besser einzuschätzen. Besonders hilfreich sind altersgerechte Materialien, die junge Menschen spielerisch sensibilisieren und ihnen zeigen, wie sie Bilder und Videos kritisch hinterfragen können. So lernen sie, nicht alles ungeprüft zu glauben, verdächtige Inhalte einzuordnen und verantwortungsvoll mit KI-generierten Medien umzugehen. Klicksafe hat in Kooperation mit ZDF Logo! ein Quiz hierzu entwickelt.
Auch im schulischen Kontext ist das Thema Deepfakes eng mit Desinformation verbunden. Unterrichtsmaterialien der Digitalen Helden können Schülerinnen und Schüler dabei unterstützen, manipulierte Inhalte besser einzuordnen und die Mechanismen digitaler Verbreitung zu verstehen. Wenn Jugendliche lernen, wie Algorithmen Aufmerksamkeit lenken, warum falsche Informationen besonders schnell geteilt werden und welche Merkmale auf KI-generierte Bilder hinweisen können, stärkt das ihre Urteilsfähigkeit im Netz. So werden sie befähigt, digitale Inhalte kritischer zu prüfen, Quellen zu hinterfragen und verantwortungsvoll mit Informationen umzugehen.
Darüber hinaus bietet die medienpädagogische Arbeit wichtige Orientierung, um junge Menschen im Umgang mit KI nicht allein zu lassen. Die Handreichung des JFF – Jugend Film Fernsehen e. V. zeigt, wie pädagogische Fachkräfte das Thema künstliche Intelligenz verständlich aufgreifen und Jugendliche reflektiert begleiten können. Neben rechtlichen Fragen geht es dabei auch um Chancen, Grenzen und verantwortungsvolle Nutzungsmöglichkeiten. So kann KI nicht nur als Risiko, sondern auch als Lern- und Gestaltungsfeld verstanden werden, in dem junge Menschen eigene Erfahrungen sammeln und zugleich für Datenschutz, Persönlichkeitsrechte und mögliche Manipulationen sensibilisiert werden.
Auch Beratungsangebote der Länder leisten einen wichtigen Beitrag zur Einordnung digitaler Risiken. Die Beratungsstelle „Jugend und Medien Hessen“ greift Deepfakes im Zusammenhang mit Fake News, Verschwörungsmythen und Filterblasen auf und macht deutlich, dass manipulierte Medien Teil größerer Desinformationsstrategien sein können. Gerade in sozialen Netzwerken verbreiten sich solche Inhalte schnell und können Meinungen, Ängste oder Vorurteile verstärken. Deshalb ist es wichtig, Jugendliche dafür zu sensibilisieren, Informationen nicht isoliert zu betrachten, sondern Quellen, Absichten und Verbreitungswege kritisch zu prüfen.
Redaktion:
Stadt Langenselbold
Kontakt für Rückfragen:
Marco Meid
06184 802-138
E-Mail senden
Digitalisierungsbeauftragter
Die genannte Kontaktperson steht für Rückfragen zum Inhalt zur Verfügung.
Die redaktionelle Gesamtverantwortung liegt bei der Stadt Langenselbold.
– redaktionell geprüft –
Stadt Langenselbold
Schloßpark 2
63505 Langenselbold
