Aktuelle
Ausgabe:
Geburt
11/12/25

KI generierte Bilder und Inhalte in den Medien erkennen

KI generierte Bilder und Inhalte in den Medien erkennen
Foto: Shutterstock
  • Teile mit:
  • Veröffentlicht: 22.08.2025
  • Drucken

Fotos und Bilder, die von einer künstlichen Intelligenz generiert wurden, prägen neben KI gestützten Inhalten aus den Medien zunehmend unseren Blick auf die Welt. Warum es Bewusstsein und Regeln braucht.

Können wir unseren Augen noch trauen?

Text von Alexandra Grill

Echt oder Fake? Bilder aus KI-Systemen wie Midjourney, Dall-E oder Stable Diffusion lassen die Grenzen zwischen Wahrheit und Lüge immer mehr verschwimmen. Selbst KI-Expert:innen wie Boris Eldagsen antworten mit einem klaren Nein auf die Frage, ob es noch möglich ist, jedes Fake- Bild als solches zu identifizieren. „Wer sich auskennt, kann Bilder absolut so generieren, dass es nicht auffällt“, sagt der Künstler, der 2023 mit der Einreichung eines generierten Bildes beim renommierten Fotowettbewerb Sony World Photography Award eine intensive Diskussion anregte. Eldagsen empfiehlt die differenzierende Bezeichnung Promptografie für Bilder, die mithilfe von KI-Systemen erstellt wurden. Seit einem Jahr ist diese Kunstform zunehmend in Ausstellungen zu sehen. Problematisch wird die Nutzung generierter Bilder im journalistischen Kontext.

Das Vertrauen in die Medien schwindet, so Judith Simon, Mitglied des Deutschen Ethikrates: „In Anbetracht der steigenden Qualität KI-generierter Bilder wird das Erkennen tatsächlich immer schwieriger, das kann Vertrauensprobleme verursachen. So kann ich fälschlich vertrauen, wenn ich einer Falschmeldung aufsitze, wie den Bildern vom Papst im Daunenmantel oder von einem verhafteten Donald Trump. Aber auch das Gegenteil ist möglich: Ich vertraue einer wahren Information nicht, weil ich sie für ein Fake halte. Und drittens ist es dann möglich, dass Menschen prinzipiell das Vertrauen in Medien, Politik, aber auch ihre eigenen Fähigkeiten verlieren, Wahrheit von Täuschung zu unterscheiden.“

Zunehmend mehr Fotos und Bilder von KI generiert

Generierte Bilder sind heute bereits weit verbreitet, nur ist dies nicht allen Betrachter:innen bewusst. „Es gab vor zwei Monaten diesen viralen Post, wo jemand ein Tier gegoogelt hat und die Hälfte der Vorschaubilder in Google war bereits generiert“, erzählt Boris Eldagsen. Die Schätzungen, bis wann der Großteil der bildlichen Internetinhalte Fake sein wird, variieren. Auch der Bereich Bewegtbild zieht im Eiltempo nach. Professionell erstellte Avatare mit echten menschlichen Stimmen können nicht mehr von Realpersonen unterschieden werden.

„KI prägt unser Leben zunehmend“, konstatiert die feministische Wissenschaftlerin Eva Gengler und verweist auf die Diskriminierung von Frauen durch KI. „Aktuell verstärken KI- Systeme oft stereotype weibliche Darstellungen. Gerade in der Bildgenerierung werden Frauen überwiegend als jung, schön und in traditionellen Rollen dargestellt, während diverse, realistische oder mächtige Darstellungen unterrepräsentiert sind. Wenn wir die Missstände nicht adressieren, verstärken KI-Systeme patriarchale, rassistische und andere diskriminierende Strukturen.“ Feministische KI, wie Gengler sie fordert, ist ein Ansatz, um diese Systeme gerechter, inklusiver und für alle zugänglicher zu machen.

Der vom EU-Parlament beschlossene AI Act sieht unter anderem die Unterteilung von KI- Systemen in verschiedene Risikogruppen vor. Doch KI-Fotos einer Markierungspflicht zu unterziehen oder sie gar auszusortieren, ist schwierig und auch technisch nicht lösbar. Judith Simon, Professorin für Ethik in der Informationstechnologie an der Universität Hamburg, hält nur ein Paket an Maßnahmen für sinnvoll. „Eine Kennzeichnungspflicht für Deepfakes ist in der KI- Grundverordnung bereits verankert. Das ist wichtig, wird aber natürlich nicht alle Probleme lösen, da – wie bei allen Gesetzen – sich nicht alle daran halten werden. Daher benötigen wir zusätzlich technologische Unterstützung, beispielsweise zum Nachweis von Deepfakes oder auch Wasserzeichen zum Kennzeichnen von geprüften Informationen. Vor allem brauchen wir auch Bildung in dieser Thematik und somit Kompetenzen, die Vertrauenswürdigkeit von Quellen besser beurteilen zu können“, meint Judith Simon.

Die Erstellung von Bildmaterial mit KI-Systemen wie Midjourney ist ein Kinderspiel. Auch Stockfoto-Agenturen nutzen die neuen Technologien, um kostengünstig Unmengen an Bildern zu generieren. Diese werden etwa bei Adobe Stock von folgendem Hinweis begleitet: „Generiert mit KI – die redaktionelle Nutzung darf nicht irreführend oder täuschend sein.“ Und darum sollte es letztendlich gehen: in allen Bereichen mit offenen Karten zu spielen, generierte Bilder auch als solche zu bezeichnen und damit der allgemeinen Verwirrung und Verunsicherung entgegenzuwirken.

„Feministische KI ist dringend notwendig, um KI-Systeme gerechter und inklusiver zu machen.“
Eva Gengler
Foto: Shutterstock

Was macht KI mit den Medien?

Warum wir Qualitätsjournalismus in Zeiten künstlicher Intelligenz umso dringender brauchen.

Text von Sabine Kronberger

Eine der rasantesten technologischen Innovatio­nen unserer Zeit beeinflusst seit dem öffentlichen Hype um ChatGPT auch die Medienlandschaft: künstliche Intelligenz. Noch eben in der digitalen Transformation befindlich, werden Redaktionen und ihre Produktionsabläufe seither mit Wucht von dieser Entwicklung getroffen. Der Hype vermittelt, man müsse mit der Technologie arbeiten. Die Hoffnung: Sie könne einer ganzen Branche zu mehr Effizienz verhelfen.

KI als Arbeitserleichterung für Medien

Texte überarbeiten, Podcasts in eine andere Sprache transferieren, Inhalte redigieren oder ewiglange Inter­views transkribieren: Die künstliche Intelligenz hat in den Redaktionen des Landes längst Einzug gehalten. War sie anfangs gefürchtet, weil man ihr attestierte, die Zukunft zu ersetzen, hat man in kürzester Zeit verstanden, dass es nicht mehr ohne sie geht. Journalist:innen­kongresse, Tagungen oder Branchenevents – im letzten Jahr waren sie ohne das Thema künstliche Intelli­genz undenkbar. So wurde etwa angepriesen, dass ein dreistündiges Interview in nur wenigen Sekunden von einer Audiodatei in einen verschriftlichten Dialog transferiert werden kann, während man gleichzeitig mehrere Titelvorschläge sowie eine Kurzversion für das Web oder soziale Medien ausgespuckt bekommt. Parallel dazu wurden Redakteur:innen darüber informiert, dass für gesprochene Texte nur noch wenige Sekunden ihrer Stimme benötigt werden, um künftig auch weitere Sprachsequenzen abgekoppelt von der Person generieren zu können. Und aus dem Layout einer Printseite weitere Magazinseiten zu erstellen oder Bilder zu einer Geschichte generieren zu lassen, galt nur noch als „Kinderspiel“.

Das Spektrum der KI­-Anwendungen im Journalismus erstreckt sich damit mittlerweile auf verschiedene Bereiche des redaktionellen Prozesses. Einerseits helfen Algorithmen zur Mustererkennung, große Mengen an Daten schnell zu sichten und auf Relevanz zu überprüfen. Andererseits wird die Erstellung von Texten durch KI­-gestützte Programme revolutioniert, indem beispielsweise Wetterberichte oder Sportergebnisse automatisiert generiert werden. Diese Entwicklung befreit Journalist:innen in Zeiten der Personalnot von monotonen Aufgaben und trägt dazu bei, Ressourcen für die verstärkte Konzentration auf investigative und kreative Aspekte des Journalismus bereitzustellen.

Es braucht den kritischen Diskurs

Doch die Implementierung von KI­-Technologien er­möglicht nicht nur Effektivitätssteigerungen innerhalb journalistischer Tätigkeiten, sondern wirft gleichzeitig Fragen nach dem menschlichen Beitrag im Journalis­mus auf. Wer wird etwa die Balance zwischen mensch­licher Expertise und maschineller Effizienz finden? Wie kann eine professionelle Distanz und kritische Reflexion gegenüber automatisierten Prozessen gewahrt bleiben, um die Authentizität und Glaubwürdigkeit der Bericht­erstattung zu sichern?

Trotz der vielfältigen Chancen, die KI­-Technolo­gien für den Journalismus bieten, müssen nämlich im Speziellen auch die damit verbundenen Risiken und ethischen Implikationen sorgfältig bedacht werden. Hierzu zählt vor allem das Problem des Bias (Vor­eingenommenheit in der Denkweise) und der Diskri­minierung, das durch den Einsatz verzerrter Daten entstehen kann. Wer eine KI etwa stetig mit männlichen Daten füttert, erhält auch nur auf Männer bezogene Informationen.

Um diese Herausforderungen sinn­voll anzugehen, ist eine Diversifizierung der genutzten Datenquellen sowie ein Prozess des De­-Biasing, also eingefahrene Denkmuster zu durchbrechen, innerhalb der KI­-Modelle notwendig. Ferner ist die Entwicklung klarer ethischer Rahmenbedingungen und Standards notwendig, wenn künftig alle Medienunternehmen KI einsetzen. Kurzum: Redaktionen anerkannter Medien, die nach Standards und mit einem ethischen Verständnis handeln, werden für Konsument:innen dieser Informationen weiter glaubwürdig bleiben, weil sie auf manipulative Generierungen verzichten und den Ein­satz von anerkannten oder in der Produktion hilfreichen Werkzeugen kennzeichnen werden. Darüber hinaus haben Qualitätsmedien sowie der öffentlich­rechtliche Medienbereich klare Regelwerke aufgesetzt, um einen Rahmen für die Journalist:innen und Leser:innen zu bieten und Missbrauch auszuschließen. Ganz anders ist das bei sozialen Medien oder unseriösen Quellen.

„Wer mündig in die Zukunft gehen will, muss sich mit den Grundzügen der KI beschäftigen.“
Sabine Kronberger

Fehlinformationen und Deepfakes, die durch KI er­ zeugt werden, können durch die Veröffentlichung ohne menschliche Instanz am Ende des Prozesses unendlich multipliziert werden. KI­-Technologien werden etwa heute bereits genutzt, um in sozialen Medien täuschend echte, aber falsche Inhalte zu erstellen, die Menschen beeinflussen, sie durch Avatare (unechte Darstellungen von Personen) in psychische Ausnahmesituationen bringen und schließlich auch die Glaubwürdigkeit von Medien gefährden.

Das führt zu folgendem Fazit: Wer mündig und in Selbstermächtigung in die Zukunft gehen will, muss sich mit den Grundzügen der künstlichen Intelligenz beschäftigen, um sie zu durchschauen und klug ein­setzen zu können. Und wer glaubwürdig informiert werden will, kommt an Qualitätsmedien und ethisch gefestigten JournalistInnen nicht vorbei.

Sabine Kronberger hat sich in ihrer Masterthesis mit dem Thema KI im Journalismus befasst und erkannt: Es wird der Mensch sein, der als Qualitätskontrollinstanz für die KI für immer wichtig bleibt.

 

Post aus der Redaktion

Mit unserem Newsletter bekommen Sie regelmäßig Einblicke hinter die Kulissen, persönliche Empfehlungen und das Beste aus der Redaktion direkt in Ihr Postfach.

Jetzt abonnieren