Pourquoi c’est important maintenant
Plus de 22 000 personnes ont signé une pétition pour conserver GPT‑4o après qu'OpenAI ait définitivement retiré le modèle du service. L'information, rapportée par Business Insider, intéresse non seulement par le nombre de signataires : elle illustre le conflit entre la demande de certains groupes d'utilisateurs pour un style de communication « chaleureux » avec l'IA et la volonté de l'entreprise de réduire les risques et de consolider le développement autour de nouvelles générations de modèles.
La décision d'OpenAI — transition rationnelle ou ignorance des demandes de la communauté ?
Dans sa déclaration, OpenAI a expliqué la fermeture de GPT‑4o par une faible demande : selon la société, le modèle était utilisé par environ 0,1 % de l'audience. L'entreprise présente également cela comme une transition stratégique vers GPT‑5.1 et GPT‑5.2, qui, selon elle, offrent une plus grande stabilité et de meilleures garanties de sécurité.
« Le modèle était utilisé par environ 0,1 % du public, nous concentrons donc nos ressources sur des versions plus récentes qui répondent mieux aux exigences de stabilité et de sécurité. »
— OpenAI, déclaration officielle
Réactions sociales et risques juridiques
Les partisans de GPT‑4o, dans une pétition, la qualifiaient « d'indispensable » en raison de sa sensibilité émotionnelle et de son ton chaleureux ; certains étaient prêts à renoncer à des abonnements payants pour le retour du modèle. En même temps, GPT‑4o est impliquée dans au moins huit poursuites judiciaires, où il est allégué que son ton pouvait influencer des utilisateurs psychologiquement vulnérables. Deux dimensions se confrontent ici — le confort des utilisateurs et des risques juridiquement fondés.
« Nous estimons que GPT‑4o offrait un autre type d'interaction, utile pour de nombreuses personnes. »
— l'auteur de la pétition sur Change.org
Contexte technique : pas seulement le modèle, mais l'infrastructure
Par ailleurs, OpenAI ne reste pas immobile : la société a mis en place le Lockdown Mode pour se protéger contre les fuites de données et a présenté la plateforme Frontier pour la création et la gestion de « collègues d'IA ». Pour le développeur, c'est un moyen de concilier innovation et contrôle — mais pour les utilisateurs qui s'étaient attachés à un certain style d'interaction, cela ressemble à une perte.
Qu'est-ce que cela signifie pour l'Ukraine
Pour l'espace médiatique et psychologique ukrainien, la question d'une IA empathique revêt une importance pratique : en temps de guerre et en situation post‑traumatique, l'accès à des outils qui atténuent le stress peut être crucial. Cependant, les intérêts des publics vulnérables exigent des solutions équilibrées — alliant accessibilité, conception responsable et rapports transparents de la part des développeurs.
Conclusion
Ce n'est pas seulement l'histoire d'un modèle. C'est un test pour l'industrie : comment concilier l'innovation, les demandes de la communauté et la responsabilité juridique. La balle est désormais dans le camp des entreprises et des régulateurs — sauront‑ils proposer des mécanismes permettant de conserver les fonctions utiles sans risques inacceptables ?