Google hat die Gemini-App aktualisiert. Sie kann jetzt Bilder auf Basis persönlicher Daten aus verknüpften Google-Diensten erstellen. Die Funktion verbindet Personal Intelligence mit dem Bildmodell Nano Banana 2 und optional mit der Google-Photos-Bibliothek der Nutzer.
Bisher mussten Nutzer ausführliche Prompts schreiben und Referenzfotos manuell hochladen, um relevante Ergebnisse zu erhalten. Das kann mit dieser Funktion entfallen. Gemini zieht Kontext aus verknüpften Google-Apps und kann einfache Anfragen eigenständig interpretieren. Ein Prompt wie „Entwirf mein Traumhaus“ soll automatisch den persönlichen Geschmack des Nutzers widerspiegeln, den die App aus vorhandenen Daten ableitet.
Wer Google Photos mit Personal Intelligence verknüpft, ermöglicht Gemini den Zugriff auf bereits beschriftete Fotos von Personen und Haustieren. So kann ein Prompt wie „Erstelle ein Knetanimations-Bild von mir und meiner Familie bei unserer Lieblingsaktivität“ ein spezifisches, personalisiertes Ergebnis erzeugen – ohne manuelles Hochladen.
Google räumt ein, dass die Funktion beim ersten Versuch nicht immer das richtige Foto auswählt. Nutzer können über eine Schaltfläche namens Sources sehen, welches Bild das Ergebnis beeinflusst hat, ein anderes Referenzfoto wählen oder das Ergebnis per Follow-up-Prompt korrigieren.
Zum Thema Datenschutz erklärt Google, dass die Gemini-App ihre Modelle „nicht direkt“ mit privaten Google-Photos-Bibliotheken trainiert. Die Verknüpfung von Google-Apps mit Gemini ist ein Opt-in und lässt sich jederzeit in den Einstellungen ändern.
Die Funktion wird derzeit für Google-AI-Plus-, Pro- und Ultra-Abonnenten in den USA ausgerollt.
Quellen: Google, 9to5Google
Bleib auf dem Laufenden
KI für Contentprofis: die neuesten Tools, Tipps und Trends. Alle 14 Tage in deine Inbox:
