Gemini liest Ihre Gmail und Fotos, um ohne Hinweise zu zeichnen. Hier ist, wo es fehlschlägt

Google hat Personal Intelligence um die Bildgenerierung erweitert: Jetzt extrahiert Gemini automatisch den Kontext aus verbundenen Diensten. Das Problem liegt nicht darin, dass er sich irren kann – sondern darin, wo die Grenze zwischen „Verwendung" und „Training" verläuft.

80
Teilen:
Ілюстративне фото: Depositphotos

Die Suchanfrage „erstelle mein Traumhaus" lieferte früher etwas Durchschnittliches. Jetzt wird Gemini vor der Generierung in deinem Gmail, Google Photos und Calendar nachsehen – und versuchen zu erraten, was du genau meinst. Das ist praktisch. Und deshalb lohnt es sich zu verstehen, wie es funktioniert.

Was sich technisch geändert hat

Google hat die Bildgenerierung auf Basis von Nano Banana zur Funktion Personal Intelligence hinzugefügt, die es Gemini ermöglicht, persönlichen Kontext aus Gmail, Photos, Calendar, Drive und anderen Services zu abrufen. Wenn in Google Photos Tags von Personen oder Tieren vorhanden sind, kannst du schreiben „zeichne mich und meine Familie bei meiner Lieblingsbeschäftigung" – und Gemini generiert das Bild, ohne Referenzfotos hochzuladen.

Der technische Vorteil, auf den sich Google bezieht, besteht darin, dass Nano Banana das Sprachverständnis des Gemini-Modells nutzt, um die Anfrage präziser zu interpretieren – im Gegensatz zu separaten Bildgeneratoren, bei denen Sprache und Bild getrennt sind.

Wer hat Zugang und wann

Die Bildgenerierungsfunktion ist für Abonnenten von Google AI Plus, Pro und Ultra in den USA verfügbar – und wird in den nächsten Tagen bei ihnen ausgerollt. Google plant auch, sie später auf die Browser-Version von Gemini in Chrome und andere Nutzer zu erweitern. Die Funktion bleibt in der EU, Großbritannien und Japan aufgrund strengerer Datenschutzbestimmungen nicht verfügbar.

Wo Google die Grenze zieht – und wie klar sie ist

Die Schlüsselfrage ist nicht „ist es praktisch", sondern „was genau macht Google mit den Fotos". Die Antwort ist offiziell, aber mit einer Nuance.

„Die Gemini-App trainiert das Modell nicht direkt auf deiner privaten Google Photos-Bibliothek. Wir trainieren auf begrenzte Informationen – insbesondere auf spezifische Anfragen in Gemini und Antworten des Modells."

– offizielle Aussage von Google

Der technische Unterschied zwischen „auf Daten trainieren" und „Daten für Inference nutzen" ist real – aber das bedeutet nicht, dass Daten nicht verarbeitet werden. Wenn du Google Photos mit einem anderen Google-Service verbindest, gilt für diese Verbindung die Richtlinie dieses Service, nicht die von Photos – und Google kann innerhalb dieser Verbindung auf bestimmte Daten trainieren.

Parallel entwickelt Google lokale Bildgenerierung mit Gemini Nano auf Pixel- und Android-Geräten – ohne Datenübertragung in die Cloud. Das ist ein anderer Ansatz: schnell, privat, ohne Server. Aber vorerst nur in Aussicht.

Was du jetzt schon kontrollieren kannst

  • Die Verbindung von Google Photos mit Personal Intelligence ist optional, nicht automatisch.
  • Der Button „Quellen" zeigt, welches Foto Gemini als Referenz für die Generierung ausgewählt hat.
  • Google warnt davor, dass Gemini den falschen Kontext auswählen könnte, und bietet einen Feedback-Mechanismus an.
  • Du kannst Aktivitäten im Abschnitt Gemini Apps Activity löschen – aber das hebt bereits verarbeitete Anfragen nicht auf.

Der echte Test für diese Funktion kommt nicht, wenn sie das „richtige" Traumhaus zeichnet. Sondern wenn sie etwas zeichnet, das der Nutzer nicht erwartet hat – und dann wird klar, welche Daten darin geflossen sind. Wenn Google die komplette Kette zeigt: welches Signal, aus welcher Quelle, mit welchem Gewicht – das wäre ein echtes Argument für Vertrauen. Wenn nicht, bleibt der Unterschied zwischen „liest" und „trainiert" rein rhetorisch.

Weltnachrichten