KI-Bildgeneratoren werden durch eine überraschende Strategie überzeugender: Sie ahmen gezielt die Unzulänglichkeiten von Smartphone-Kameras nach. Statt perfekt wirkender Bilder erzeugen die neuesten Modelle Aufnahmen mit typischen Fehlern echter Handyfotos.
Allison Johnson erklärt für The Verge, dass frühe KI-Bilder leicht zu erkennen waren. Sie zeigten offensichtliche Fehler wie zusätzliche Finger oder gummiartige Gliedmaßen. Moderne Systeme haben diese Probleme weitgehend beseitigt. Doch die Bilder wirkten oft zu glatt und künstlich.
Googles Imagen 3 Modell in der Gemini App zeigt den Wandel hin zu mehr Realismus. Das System imitiert Merkmale von Smartphone-Fotografie. Dazu gehören aggressive Bildschärfung, aufgehellte Schatten und die flache Beleuchtung computerbasierten Fotografierens. Ben Sandofsky, Mitgründer der Kamera-App Halide, sagt: „Google könnte das Uncanny Valley umgangen haben.“
Andere Unternehmen ziehen nach. Adobe Firefly bietet eine Steuerung für „Visual Intensity“, um künstlichen Glanz zu reduzieren. Meta hat einen „Stylization“-Regler zur Anpassung des Realismus eingebaut. Videogeneratoren wie OpenAI Sora 2 imitieren sogar körniges Material von Überwachungskameras.
Der Trend wirft Fragen zur Unterscheidung echter und gefälschter Bilder auf. Der Content Credentials Standard der C2PA bietet durch kryptografische Signaturen eine Lösung. Googles Pixel 10 Smartphones kennzeichnen bereits alle Bilder mit ihrer Herkunft. Die flächendeckende Einführung bleibt jedoch begrenzt. Solange die meisten Geräte und Plattformen solche Standards nicht nutzen, wird die Identifikation authentischer Bilder zunehmend schwierig.
