OpenAI débranche Sora : la fin du mirage vidéo et le retour au réalisme

Par: Michael Korgs | Mise à jour aujourd'hui, 19:33
Logo OpenAI symbolisant un changement de stratégie vers les outils professionnels Logo OpenAI symbolisant un changement de stratégie vers les outils professionnels. Source: AI

Il n'aura fallu que six mois pour qu'OpenAI décide de ranger ses jouets. L'entreprise vient d'annoncer la fermeture de Sora, son application et ses modèles de génération vidéo, mettant un terme brutal à l'un des « hypes » les plus intenses de l'année passée. Si l'annonce a surpris les technophiles qui voyaient déjà Hollywood s'effondrer sous le poids des algorithmes, elle s'inscrit dans une logique implacable : celle d'une entreprise qui prépare son entrée en Bourse et qui n'a plus le temps pour les expérimentations non rentables ou les réseaux sociaux sans humains.

Le virage pragmatique vers l'entreprise

Le retrait de Sora n'est pas un aveu d'échec technique, mais plutôt un changement de cap stratégique majeur. Sous l'impulsion de Fidji Simo, qui gère désormais les opérations quotidiennes, OpenAI semble vouloir se débarrasser de son image de laboratoire d'idées pour devenir une machine de guerre dédiée aux outils de productivité. L'objectif est limpide : séduire les investisseurs avant une potentielle introduction en Bourse en se concentrant sur les secteurs qui rapportent réellement, comme les outils de programmation et les solutions pour les grandes entreprises.

L'application Sora, perçue par certains comme une usine à « bouillie numérique » (slop) sans âme, n'était visiblement plus une priorité. En interne, on préfère désormais miser sur ce qui a fait le succès de ChatGPT : des outils qui apportent une valeur concrète et mesurable aux utilisateurs professionnels, plutôt que de courir après des contrats de divertissement incertains.

Un « reality check » pour l'industrie

Ce coup d'arrêt n'est pas un cas isolé et sonne comme un rappel à l'ordre pour tout le secteur. ByteDance, la maison mère de TikTok, aurait également retardé le lancement mondial de son modèle vidéo Seedance 2.0. Les raisons ? Des défis d'ingénierie persistants et, surtout, des obstacles juridiques liés à la protection de la propriété intellectuelle. Il semblerait que l'idée de générer un long-métrage simplement en tapant quelques lignes de texte se heurte à une réalité bien plus complexe que prévu.

La décision de fermer Sora est un signe de maturité qu'il est agréable de voir dans un laboratoire d'IA.
— Kirsten Korosec, TechCrunch

Pourtant, les enjeux financiers étaient colossaux. On évoque un accord avec Disney qui aurait pu représenter jusqu'à 1 000 000 000$ (945 000 000€). Mais entre les coûts de calcul astronomiques et les risques légaux de « deepfakes » ou de violation de droits d'auteur, OpenAI a préféré couper les ponts. Ce mouvement prouve que même avec des ressources quasi illimitées, la « révolution » vidéo automatisée reste un gouffre financier difficile à justifier devant des banquiers d'affaires.

La fin de l'ère du « move fast and break things »

Pendant des mois, les évangélistes de l'intelligence artificielle ont crié sur tous les toits que le cinéma traditionnel était condamné. La réalité est plus nuancée : entre les problèmes de droits d'auteur et la difficulté de maintenir une cohérence visuelle sur de longues séquences, le chemin est encore long. En fermant Sora, OpenAI admet implicitement que le produit n'était pas prêt pour une exploitation commerciale massive sans risquer de brûler des ressources précieuses pour un résultat incertain.

Pour les observateurs du marché, ce retrait est perçu comme une preuve de maturité. Au lieu de s'acharner sur un produit qui ne trouve pas son modèle économique, l'entreprise préfère pivoter rapidement. C'est une leçon de gestion de produit, même si elle laisse un goût amer à ceux qui espéraient voir la vidéo générative transformer le divertissement dès cette année. Alors que certains acteurs de l'IA font face à des choix stratégiques drastiques, d'autres se retrouvent au cœur de débats juridiques sur la sécurité, comme l'illustre l'affaire Anthropic vs Trump, où la justice a refusé de qualifier l'IA de risque national, soulignant la complexité réglementaire croissante du secteur.