OpenAI закриває Sora після шести місяців: модерація, deepfake‑ризики і наслідки для України

Sora — експериментальна платформа для генерації коротких відео — офіційно закривається. Це не просто бізнес‑провал: падіння активності, слабка модерація та юридичні ризики відкривають широку дискусію про довіру до ШІ‑контенту й інформаційну безпеку тут і зараз.

87
Поділиться:
Ілюстративне фото: Depositphotos

Коротко

OpenAI повідомила в соцмережі X про рішення закрити застосунок Sora — соціальну платформу для генерації ШІ‑відео на основі зовнішності користувача. Сервіс пропрацював близько шести місяців; офіційних подробиць щодо причин або точної дати припинення роботи компанія не надала.

Деталі й передісторія

Sora позиціювалася як стрічка коротких відео на кшталт TikTok, де користувачі могли створювати ролики зі своєю зовнішністю. За даними Appfigures, пік завантажень припав на листопад — понад 3,3 млн завантажень, але до лютого показники впали приблизно до 1,1 млн. Загалом Sora заробила близько $2,1 млн на внутрішніх покупів.

"Ми вирішили закрити застосунок Sora."

— Команда OpenAI (пост у X)

Чому це сталося: коротка аналітика

Поєднання трьох факторів виглядає ключовим: слабка монетизація, відтік користувачів після першого піку та серйозні проблеми з модерацією. Через обхідні методи користувачі масово створювали супечливий контент — зокрема deepfake‑ролики за участю реальних людей без їхньої згоди (згадували Мартіна Лютера Кінга‑молодшого та Робіна Вільямса). Це створює не лише етичну, а й юридичну експозицію для платформи.

Технічна еволюція без зникнення технології

Важливо: закриття додатку не означає відкат технології. Модель генерації відео залишається і вже інтегрована в платні функції ChatGPT. Паралельно OpenAI планує консолідувати сервіси — ChatGPT, браузер і Codex — в один застосунок, що змінює бізнес‑логіку розповсюдження функцій.

Що це означає для України

В умовах гібридної війни доступні інструменти для автоматичної генерації відео з реалістичними обличчями — це не лише технологічне питання, а питання національної безпеки. Масове поширення deepfake‑контенту підриває довіру до медіа, ускладнює розпізнавання дезінформації та створює додаткове навантаження на правоохоронні і медійні інституції.

Аналітики та фахівці з цифрової безпеки звертають увагу: навіть якщо окремий застосунок закривається, самі моделі й алгоритми залишаються доступними й можуть бути перенесені в інші продукти або в закриті API. Для України це означає потребу в оперативних інструментах верифікації, підтримці незалежних сервісів фактчекінгу та підготовці медіа‑грамотності громадян.

Наслідки для ринку і регуляторів

Рішення OpenAI підкреслює дві реальності: по-перше, інновації часто супроводжуються юридичними та етичними ризиками; по‑друге, ринок швидко реагує на пресинги користувачів і регуляторів. Поки застосунок зникає, компанії залишаються під прицілом — регуляторні вимоги щодо модерації та відповідальності за контент зростатимуть у США й ЄС. Це створює тригер для української політики — імплементувати стандарти, сумісні з міжнародними практиками, і розвивати власні інструменти виявлення фейків.

Висновок

Закриття Sora — не кінець історії відеогенерації, а сигнал: технологія стає масовою швидше, ніж правила її використання. В Україні це означає практичні кроки: інвестувати в інструменти детекції, посилювати цифрову грамотність та вимагати прозорості від платформ. Хід за платформами і регуляторами — але й за журналістами та громадянським суспільством, яке мусить швидко адаптуватися до нових загроз і можливостей.

Новини світу

Культура

28 березня у Lisova 3 відкривають виставку близько 40 художників — подія, яка поєднує вшанування звільнення Ірпеня та конкретну підтримку Збройних Сил через продаж робіт і донати.

31 хвилина тому
Бізнес

Комітет одноголосно підтримав документ, який не забороняє месенджери, але дає державі інструменти проти дезінформації, вербувань і диверсій — розбираємо, що саме пропонують і чому це важливо.

33 хвилини тому
Політика

Російська атака пошкодила монастир під охороною ЮНЕСКО. МЗС критикує стриману реакцію організації, партнери реагують, а експерти говорять про потребу зміцнювати ППО — розбираємо наслідки для безпеки і культури.

33 хвилини тому