Carsten Trinitis & Stefan Ullrich
Generiert? Oder doch gefälscht? KI-Bilder tummeln sich nicht nur auf persönlichen Blogs, sondern auch auf behördlichen Websites und Profilen. Dieses Fallbeispiel zeigt, wie schnell dies negative Reaktionen hervorrufen kann.
Alexander hat gerade seinen Master in Informatik mit Schwerpunkt Bildverarbeitung abgeschlossen. In einer Vorlesung zu Informatik und Gesellschaft wurde ein Künstler vorgestellt, der bereits in den 1960er-Jahren mithilfe von Computern generative Bilder erzeugte. Schon damals gab es daraufhin Diskussionen über mögliche Folgen für den Kunstmarkt und die Arbeitswelt. Diese Vorlesungsreihe war ausschlaggebend für seinen Wunsch, mithilfe seiner im Studium erworbenen Fähigkeiten der Gesellschaft etwas zurückzugeben. Wenn der Computer das Leben schon massiv verändert, dann doch zum Guten hin, sagte er sich.
Diesem Wunsch folgend schlägt er eine Laufbahn im höheren Dienst einer Landespolizei ein. Weil er ja „was mit KI“ studiert habe, wird er dort beauftragt, ein neu lizenziertes Transkriptionssystem für Berichte zu verbessern. Die früher eingesetzte Software war zwar passabel, jedoch wurde ein neues Softwaresystem eingesetzt, das endlich „KI“ habe, wie man Alexander mitteilt. Es funktioniere „quasi magisch“.
Ein Blick auf die neue Software zeigt, dass sie lediglich ein Web-Interface für freie Sprachmodelle darstellt, wie Alexander es auch als Hobby an einem Wochenende aufgesetzt hat.
Der Vorteil dieses neuen Systems ist die Erweiterungsmöglichkeit. So programmiert Alexander einen „Kritzel-Assistenten“, der Absätze von Polizeiberichten und Pressemitteilungen als Prompt für eine Bildgenerierung nimmt, wobei der Stil an Bleistiftzeichnungen und Phantombilder erinnern soll. Dieser Assistent ist es auch, der die Neugier seiner Kollegin Nancy weckt. Alexander wird eingeladen, in eine Social-Media-Gruppe namens „Freunde der Polizei“ einzutreten, wo er mit Nancy und anderen Kolleg*innen zusammen die Öffentlichkeit für Belange der Sicherheitskräfte sensibilisieren soll.
Zuletzt häuften sich bei Einsätzen leider immer mehr Übergriffe gegen Kolleg*innen, die zum Teil in gewalttätigen Auseinandersetzungen enden. Nancy schlägt daher vor, eine Kampagne ins Leben zu rufen, um die Öffentlichkeit aufzurütteln. Die beiden suchen nach Berichten mit Fotos des letzten gewaltvollen Einsatzes und werden fündig. Auf dem dazugehörigen Bild sitzt ein offensichtlich verletzter Kollege in einem Einsatzwagen und hält sich eine Kompresse an die Wange. „Das ist für Social Media total ungeeignet“, meint Nancy, „das klappt als Share Pic nicht und wirkt auch irgendwie …“, sie sucht nach einem richtigen Wort, „unemotional. Aber vielleicht können wir den Bericht in deine Software geben?“ Der „Kritzel-Assistent“ von Alexander generiert mit dem Prompt des Einsatzberichts eine Bleistiftzeichnung von Polizisten in Helmen auf der einen und vermummten Personen auf der anderen Seite. „Okay, das taugt auch nicht so viel“, gibt Alexander zu, „aber ich kann an der Temperatur schrauben und einen fotorealistischen Filter drüberlegen.“ Gesagt, geklickt – und so erstellen sie schließlich ein Bild eines im Einsatz verletzten Polizeibeamten, der mit Platzwunde am Kopf von Kollegen gestützt weggetragen wird. Mit einem Grafikprogramm platzieren sie die Zeile „KI-generiertes Symbolbild“ – fertig ist das Bild zum Bericht. „Ein angenehmer Nebeneffekt ist der Datenschutz“, freut sich Alexander, „da müssen wir nicht erst um Erlaubnis fragen“. „Ja, und außerdem funktioniert es wirklich viel besser“, bestätigt Nancy. Sie nutzen dieses Bild als Aufhänger für die Social-Media-Kampagne, die erfreulicherweise viral geht.
Nach kurzer Zeit kommen die ersten Rückmeldungen aus der Bevölkerung über das Kontaktformular der Pressestelle der Polizei, nicht nur über die Social-Media-Kanäle der „Freunde der Polizei“. Viele begrüßen die Aktion, da sie eindringlich auf ein reales Problem hinweist. Es kommen jedoch auch sehr kritische Rückmeldungen, insbesondere, da das Bild KI-generiert, also gefälscht sei.
„Ach Quatsch, gefälscht“, meint Nancy, „die Berichte sind echt. Das Bild ist klar als Symbolbild gekennzeichnet.“ Alexander stimmt ihr zu, er hatte bei seinem „Kritzel-Assistenten“ die Phantomzeichner der Polizei als Vorbild, die ja auch aufgrund von echten Beschreibungen eine fiktive Zeichnung anfertigen, die einer real existierenden Person möglichst ähnlich sehen soll. Für die offizielle Pressemitteilung tauschen sie schließlich das Bild aus, behalten es aber für den Social-Media-Kanal. Mit dieser Lösung sind alle zufrieden.
Am Abend schaut Alexander noch die Nachrichten und sieht in einem Bericht, wie staatstreue Medien in autokratischen Ländern politische Gegner mithilfe von KI-generierten Bildern lächerlich machen. Der Folgebericht zeigt den bewaffneten Einsatz in einem solchen Land, wo die Gewalt angeblich von den Demonstrierenden ausging, das leidende Opfer aufseiten der Sicherheitskräfte war jedoch ganz klar KI-generiert.
Alexander kann sogar das Wasserzeichen der KI-Software erkennen. „Was für eine manipulative Unverschämtheit dieses Unrechtsregimes!“, sagt er zu sich selbst, fertigt einen Screenshot an und postet genau dies im Social-Media-Kanal der „Freunde der Polizei“. „Wenn es keine echten Opfer gibt, muss man sich wohl welche KI-generieren“, schreibt er und erntet trotz später Stunde ein paar augenrollende Emojis als Reaktion.
Fragen:
- Rechtfertigen Datenschutz und Persönlichkeitsrechte, gefälschte Bilder zu veröffentlichen, um den gewünschten Effekt zu erzielen? Macht es einen Unterschied, ob dies durch Amtspersonen geschieht?
- Angenommen, der Bericht entspricht den Tatsachen und nur die Bebilderung war KI-generiert: Würden Sie dennoch von einer Fälschung sprechen?
- Macht es einen Unterschied, ob das KI-generierte Bild wie eine Bleistiftzeichnung aussieht oder fotorealistisch ist?
- Nancy möchte Emotionen für die Sensibilisierung eines wichtigen Themas nutzen. Wie ist das ethisch zu bewerten?
- Hätte Alexander seine Vorgesetzten darüber aufklären müssen, dass KI lediglich eine Software und keine Magie ist?
- Sowohl im journalistischen Bericht als auch im Social-Media-Post wurden KI-generierte Medien auch als solche gekennzeichnet. Worin besteht dann das Problem?
Erschienen in .inf 13, Das Informatik-Magazin, Frühjahr 2026.

Beiträge als RSS abonnieren
Kommentare