Gemini читает ваш Gmail и Photos, чтобы рисовать без подсказок. Вот где это ломается

Google расширила Personal Intelligence на генерацию изображений: теперь Gemini сам извлекает контекст из подключенных сервисов. Проблема не в том, что он может ошибиться — а в том, где проходит граница между «использует» и «обучается».

84
Поделиться:
Ілюстративне фото: Depositphotos

Запрос «создай дом моей мечты» раньше выдавал что-то среднестатистическое. Теперь Gemini перед генерацией зайдет в ваш Gmail, Google Photos и Calendar — и попытается угадать, что именно вы имеете в виду. Это удобно. И именно поэтому стоит разобраться, как это работает.

Что изменилось технически

Google добавила генерацию изображений на базе Nano Banana к функции Personal Intelligence, которая позволяет Gemini подтягивать личный контекст из Gmail, Photos, Calendar, Drive и других сервисов. Если в Google Photos есть метки людей или животных, можно написать «нарисуй меня и мою семью за любимым занятием» — и Gemini сформирует изображение без загрузки референсных фото.

Техническое преимущество, на которое ссылается Google, заключается в том, что Nano Banana использует языковое понимание модели Gemini для более точной интерпретации запроса — в отличие от отдельных генераторов изображений, где язык и картинка разделены.

Кому доступно и когда

Функция генерации изображений доступна подписчикам Google AI Plus, Pro и Ultra в США — и появится у них в течение ближайших дней. Google также планирует расширить её на браузерную версию Gemini в Chrome и других пользователей позже. Функция остаётся недоступной в ЕС, Великобритании и Японии из-за более строгого регулирования конфиденциальности.

Где Google проводит границу — и насколько она чёткая

Ключевой вопрос не «удобно ли», а «что именно Google делает с фотографиями». Ответ официальный, но с нюансом.

«Приложение Gemini не обучает модели непосредственно на вашей приватной библиотеке Google Photos. Мы обучаем на ограниченной информации — в частности на конкретных запросах в Gemini и ответах модели.»

— официальное заявление Google

Техническая разница между «обучением на данных» и «использованием данных для inference» является реальной — но она не означает, что данные не обрабатываются. Если вы подключаете Google Photos к другому сервису Google, к этому подключению применяется политика этого сервиса, а не Photos — и Google может обучать на определённых данных в рамках этого соединения.

Параллельно Google разрабатывает локальную генерацию изображений с помощью Gemini Nano на устройствах Pixel и Android — без передачи данных в облако. Это другой подход: быстро, приватно, без серверов. Но пока что — только в перспективе.

Что можно контролировать уже сейчас

  • Подключение Google Photos к Personal Intelligence — опционально, не автоматично.
  • Кнопка «Источники» показывает, какое именно фото Gemini выбрал в качестве референса для генерации.
  • Google предупреждает, что Gemini может выбрать не тот контекст, и предлагает механизм обратной связи.
  • Удалить активность можно в разделе Gemini Apps Activity — но это не отменяет уже обработанные запросы.

Реальный тест для этой функции наступит не тогда, когда она нарисует «правильный» дом мечты. А тогда, когда нарисует что-то, чего пользователь не ожидал — и станет ясно, какие именно данные легли в основу. Если Google покажет полную цепочку: какой сигнал, из какого источника, с каким весом — это будет настоящим аргументом в пользу доверия. Если нет, разница между «читает» и «обучается» останется риторической.

Новости мира

Финансы

24 июля банк официально уведомил Москву о новом инвестиционном споре. На ответ — шесть месяцев, далее — международный суд. Сумму убытков не раскрывают, но крымский прецедент показал, как это работает: $1,1 млрд после семи лет тяжб.

46 минут назад
Технологии

Дефицит оперативной памяти, вызванный гонкой AI-дата-центров, ударил по VR-гарнитурам Meta — и уже коснулся Samsung, Microsoft, Sony. Цены на потребительскую электронику будут расти еще как минимум до 2026 года.

1 час назад