Grok ограничил генерацию изображений после скандала с обнажёнными фото — что это меняет для онлайн‑безопасности

X отключила функцию генерации изображений в Grok для большинства пользователей и разрешила её только платным подписчикам. Это решение — ответ на волну сексуализированного контента, но в то же время ставит новые вопросы о приватности, ответственности платформ и возможностях злоумышленников.

865
Поделиться:

Что случилось

Социальная сеть X (бывший Twitter) Илона Маска временно отключила функцию генерации изображений в собственном чат‑боте Grok для большинства пользователей. По сообщению The Guardian, сервис оставил доступ к возможности создавать изображения только для подписчиков с подтвержденной оплатой — это позволяет идентифицировать виновных в злоупотреблениях.

"Это незаконно и неприемлемо."

— Кир Стармер, премьер‑министр Великобритании

Почему так произошло

В конце декабря через Grok было сгенерировано тысячи сексуализированных изображений, в основном с обнаженными фотографиями женщин. На фоне общественного возмущения и внимания регуляторов (в частности Ofcom в Великобритании) X пошла на оперативные ограничения, чтобы показать реакцию на риски и избежать юридических последствий.

"Инструментами вне платформы — таких как отдельное приложение Grok Imagine — создано более 800 изображений и видео с порнографическим и насильственным содержанием."

— AI Forensics, аналитическая команда

Что это значит для пользователя

Ответственность против приватности. Перевод доступа к платным подпискам повышает отслеживаемость — платежные данные можно использовать для идентификации злоумышленников. Но это одновременно поднимает вопросы о защите данных и возможных злоупотреблениях со стороны платформ.

Обходные пути. Даже после ограничений на X пользователи продолжают генерировать опасный контент через сторонние инструменты, такие как Grok Imagine. Это показывает: частичная модерация на одной платформе не решает проблему глобально.

Кибергигиена и угрозы. По сообщениям расследований, хакеры использовали ChatGPT, Grok и поиск в Google для распространения вредоносного ПО — еще один сигнал, что модели ИИ могут стать элементом инструментария киберугроз.

Контекст для Украины

Для нашей страны это не просто технологическая история: сексуализированные глубокие фейки, способные дискредитировать людей, и использование ИИ в кибератаках — реальная угроза информационной безопасности и персональной безопасности граждан. Украинские медиа и правоохранительные органы должны учитывать, что угрозы приходят одновременно с платформ и через сторонние инструменты.

Вывод

Решение X — сигнал: платформы могут быстро реагировать под давлением регуляторов и общественности. Но ждать реакции крупных компаний — рискованно. Нужны синхронные действия: технические фильтры, более жесткие правила для разработчиков моделей, международная координация регуляторов и поддержка жертв. Хватит ли этого, чтобы опередить злоумышленников — вопрос открытый, и ответ будет зависеть от того, насколько быстро общество и власть превратят слова в действенные инструменты.

Новости мира

Бизнес

Навроцкий лично предостерегал от российской дезинформации о дронах над Польшей. В тот же день, когда NASK подавал жалобу на YouTube-канал Свинарского за эту же дезинформацию, президент готовил ему место в Совете новых медиа.

36 минут назад
Политика

17 апреля Тегеран объявил об открытии Ормузского пролива в рамках перемирия. 18 апреля ИРГК сообщила, что «восстановила контроль до предыдущего состояния» — из-за того, что американская блокада иранских портов продолжается. Трамп заранее предупредил: блокада останется, пока соглашение не подписано.

37 минут назад
Бизнес

Пока через Ормузский пролив проходит только 6 судов в день вместо 130, Анкара продвигает два сухопутных маршрута — один через нестабильный Ирак, другой через Каспий. Деньги есть, маршруты есть. Но есть ли время?

1 час назад