Запрос «создай дом моей мечты» раньше выдавал что-то среднестатистическое. Теперь Gemini перед генерацией зайдет в ваш Gmail, Google Photos и Calendar — и попытается угадать, что именно вы имеете в виду. Это удобно. И именно поэтому стоит разобраться, как это работает.
Что изменилось технически
Google добавила генерацию изображений на базе Nano Banana к функции Personal Intelligence, которая позволяет Gemini подтягивать личный контекст из Gmail, Photos, Calendar, Drive и других сервисов. Если в Google Photos есть метки людей или животных, можно написать «нарисуй меня и мою семью за любимым занятием» — и Gemini сформирует изображение без загрузки референсных фото.
Техническое преимущество, на которое ссылается Google, заключается в том, что Nano Banana использует языковое понимание модели Gemini для более точной интерпретации запроса — в отличие от отдельных генераторов изображений, где язык и картинка разделены.
Кому доступно и когда
Функция генерации изображений доступна подписчикам Google AI Plus, Pro и Ultra в США — и появится у них в течение ближайших дней. Google также планирует расширить её на браузерную версию Gemini в Chrome и других пользователей позже. Функция остаётся недоступной в ЕС, Великобритании и Японии из-за более строгого регулирования конфиденциальности.
Где Google проводит границу — и насколько она чёткая
Ключевой вопрос не «удобно ли», а «что именно Google делает с фотографиями». Ответ официальный, но с нюансом.
«Приложение Gemini не обучает модели непосредственно на вашей приватной библиотеке Google Photos. Мы обучаем на ограниченной информации — в частности на конкретных запросах в Gemini и ответах модели.»
— официальное заявление Google
Техническая разница между «обучением на данных» и «использованием данных для inference» является реальной — но она не означает, что данные не обрабатываются. Если вы подключаете Google Photos к другому сервису Google, к этому подключению применяется политика этого сервиса, а не Photos — и Google может обучать на определённых данных в рамках этого соединения.
Параллельно Google разрабатывает локальную генерацию изображений с помощью Gemini Nano на устройствах Pixel и Android — без передачи данных в облако. Это другой подход: быстро, приватно, без серверов. Но пока что — только в перспективе.
Что можно контролировать уже сейчас
- Подключение Google Photos к Personal Intelligence — опционально, не автоматично.
- Кнопка «Источники» показывает, какое именно фото Gemini выбрал в качестве референса для генерации.
- Google предупреждает, что Gemini может выбрать не тот контекст, и предлагает механизм обратной связи.
- Удалить активность можно в разделе Gemini Apps Activity — но это не отменяет уже обработанные запросы.
Реальный тест для этой функции наступит не тогда, когда она нарисует «правильный» дом мечты. А тогда, когда нарисует что-то, чего пользователь не ожидал — и станет ясно, какие именно данные легли в основу. Если Google покажет полную цепочку: какой сигнал, из какого источника, с каким весом — это будет настоящим аргументом в пользу доверия. Если нет, разница между «читает» и «обучается» останется риторической.