Що сталося
Соцмережа X (колишній Twitter) Ілона Маска тимчасово вимкнула функцію генерації зображень у власному чат‑боті Grok для більшості користувачів. За повідомленням The Guardian, сервіс залишив доступ до можливості створювати зображення лише для підписників із підтвердженою оплатою — це дозволяє ідентифікувати винних у зловживаннях.
"Це незаконно і неприйнятно."
— Кір Стармер, прем'єр‑міністр Великої Британії
Чому так сталося
Наприкінці грудня через Grok було згенеровано тисячі сексуалізованих зображень, здебільшого з оголеними фотографіями жінок. На тлі суспільного обурення та уваги регуляторів (зокрема Ofcom у Великій Британії) X пішла на оперативні обмеження, щоб показати реакцію на ризики та уникнути юридичних наслідків.
"Інструментами поза платформою — як‑от окремим застосунком Grok Imagine — створено понад 800 зображень і відео з порнографічним та насильницьким змістом."
— AI Forensics, аналітична команда
Що це означає для користувача
Відповідальність проти приватності. Перехід доступу до платних підписок підвищує слідовість — платіжні дані можна використати для ідентифікації зловмисників. Але це водночас піднімає питання про захист даних і можливі зловживання з боку платформ.
Обхідні шляхи. Навіть після обмежень на X користувачі продовжують генерувати небезпечний контент через сторонні інструменти, як‑от Grok Imagine. Це показує: часткова модерація на одній платформі не вирішує проблему глобально.
Кібергігієна й загрози. За повідомленнями розслідувань, хакери використовували ChatGPT, Grok та пошук у Google для просування шкідливого ПЗ — ще один сигнал, що моделі ШІ можуть стати елементом інструментарію кіберзагроз.
Контекст для України
Для нашої країни це не лише технологічна історія: сексуалізовані глибокі фейки, здатні дискредитувати людей, і використання ШІ у кібератаках — реальна загроза інформаційній безпеці та персональній безпеці громадян. Українські медіа й правоохоронні органи мають враховувати, що загрози приходять одночасно з платформ і через сторонні інструменти.
Висновок
Рішення X — сигнал: платформи можуть швидко реагувати під тиском регуляторів і громадськості. Але чекати на реакцію великих компаній — ризиковано. Потрібні синхронні дії: технічні фільтри, жорсткіші правила для розробників моделей, міжнародна координація регуляторів і підтримка жертв. Чи вистачить цього, щоб випередити зловмисників — питання відкритое, і відповідь залежатиме від того, наскільки швидко суспільство і влада перетворять слова на дієві інструменти.