Что случилось
Социальная сеть X (бывший Twitter) Илона Маска временно отключила функцию генерации изображений в собственном чат‑боте Grok для большинства пользователей. По сообщению The Guardian, сервис оставил доступ к возможности создавать изображения только для подписчиков с подтвержденной оплатой — это позволяет идентифицировать виновных в злоупотреблениях.
"Это незаконно и неприемлемо."
— Кир Стармер, премьер‑министр Великобритании
Почему так произошло
В конце декабря через Grok было сгенерировано тысячи сексуализированных изображений, в основном с обнаженными фотографиями женщин. На фоне общественного возмущения и внимания регуляторов (в частности Ofcom в Великобритании) X пошла на оперативные ограничения, чтобы показать реакцию на риски и избежать юридических последствий.
"Инструментами вне платформы — таких как отдельное приложение Grok Imagine — создано более 800 изображений и видео с порнографическим и насильственным содержанием."
— AI Forensics, аналитическая команда
Что это значит для пользователя
Ответственность против приватности. Перевод доступа к платным подпискам повышает отслеживаемость — платежные данные можно использовать для идентификации злоумышленников. Но это одновременно поднимает вопросы о защите данных и возможных злоупотреблениях со стороны платформ.
Обходные пути. Даже после ограничений на X пользователи продолжают генерировать опасный контент через сторонние инструменты, такие как Grok Imagine. Это показывает: частичная модерация на одной платформе не решает проблему глобально.
Кибергигиена и угрозы. По сообщениям расследований, хакеры использовали ChatGPT, Grok и поиск в Google для распространения вредоносного ПО — еще один сигнал, что модели ИИ могут стать элементом инструментария киберугроз.
Контекст для Украины
Для нашей страны это не просто технологическая история: сексуализированные глубокие фейки, способные дискредитировать людей, и использование ИИ в кибератаках — реальная угроза информационной безопасности и персональной безопасности граждан. Украинские медиа и правоохранительные органы должны учитывать, что угрозы приходят одновременно с платформ и через сторонние инструменты.
Вывод
Решение X — сигнал: платформы могут быстро реагировать под давлением регуляторов и общественности. Но ждать реакции крупных компаний — рискованно. Нужны синхронные действия: технические фильтры, более жесткие правила для разработчиков моделей, международная координация регуляторов и поддержка жертв. Хватит ли этого, чтобы опередить злоумышленников — вопрос открытый, и ответ будет зависеть от того, насколько быстро общество и власть превратят слова в действенные инструменты.