Запит «створи будинок моєї мрії» раніше давав щось середньостатистичне. Тепер Gemini перед генерацією зайде у ваш Gmail, Google Photos і Calendar — і спробує вгадати, що саме ви маєте на увазі. Це зручно. І саме тому варто розібратися, як це працює.
Що змінилося технічно
Google додала генерацію зображень на базі Nano Banana до функції Personal Intelligence, яка дозволяє Gemini підтягувати особистий контекст із Gmail, Photos, Calendar, Drive та інших сервісів. Якщо в Google Photos є мітки людей або тварин, можна написати «намалюй мене і мою родину за улюбленим заняттям» — і Gemini сформує зображення без завантаження референсних фото.
Технічна перевага, на яку посилається Google, полягає в тому, що Nano Banana використовує мовне розуміння моделі Gemini для точнішої інтерпретації запиту — на відміну від окремих генераторів зображень, де мова і картинка розділені.
Кому доступно і коли
Функція генерації зображень доступна підписникам Google AI Plus, Pro та Ultra у США — і з'явиться в них протягом найближчих днів. Google також планує розширити її на браузерну версію Gemini в Chrome та інших користувачів пізніше. Функція залишається недоступною в ЄС, Великій Британії та Японії через суворіше регулювання конфіденційності.
Де Google проводить межу — і наскільки вона чітка
Ключове питання не «чи зручно», а «що саме Google робить із фотографіями». Відповідь офіційна, але з нюансом.
«Застосунок Gemini не навчає моделі безпосередньо на вашій приватній бібліотеці Google Photos. Ми навчаємо на обмеженій інформації — зокрема на конкретних запитах у Gemini та відповідях моделі.»
— офіційна заява Google
Технічна різниця між «навчатися на даних» і «використовувати дані для inference» є реальною — але вона не означає, що дані не обробляються. Якщо ви підключаєте Google Photos до іншого сервісу Google, до цього підключення застосовується політика цього сервісу, а не Photos — і Google може навчати на певних даних у рамках цього з'єднання.
Паралельно Google розробляє локальну генерацію зображень за допомогою Gemini Nano на пристроях Pixel і Android — без передачі даних у хмару. Це інший підхід: швидко, приватно, без серверів. Але поки що — лише в перспективі.
Що можна контролювати вже зараз
- Підключення Google Photos до Personal Intelligence — опціональне, не автоматичне.
- Кнопка «Джерела» показує, яке саме фото Gemini обрав як референс для генерації.
- Google попереджає, що Gemini може обрати не той контекст, і пропонує механізм зворотного зв'язку.
- Видалити активність можна в розділі Gemini Apps Activity — але це не скасовує вже оброблені запити.
Реальний тест для цієї функції настане не тоді, коли вона намалює «правильний» будинок мрії. А тоді, коли намалює щось, чого користувач не очікував — і стане зрозуміло, які саме дані лягли в основу. Якщо Google покаже повний ланцюжок: який сигнал, з якого джерела, з якою вагою — це буде справжнім аргументом на користь довіри. Якщо ні, різниця між «читає» і «навчається» залишиться риторичною.