Bonjour, chers lecteurs. Joyeux Thanksgiving en retard et Black Friday !
Cette année, j’ai eu l’impression de vivre dans une Dev Divas permanente. Chaque semaine, certains laboratoires proposent un nouveau modèle, un nouveau framework d’agent ou une nouvelle démo “ça change tout”. C’est écrasant. Mais c’était aussi la première année où je sentais que l’IA se diversifiait enfin – pas seulement un ou deux modèles pionniers dans le cloud, mais tout un écosystème : ouvert et fermé, géant et minuscule, occidental et chinois, cloud et local.
Donc, pour cette édition de Thanksgiving, je suis vraiment reconnaissant pour l’IA en 2025 – des versions qui semblent importantes dans 12 à 24 mois, pas seulement dans le cycle de battage médiatique de cette semaine.
1. OpenAI maintient des livraisons solides : GPT-5, GPT-5.1, Atlas, Sora 2 et Open Weight
L’entreprise qui a inauguré l’ère de « l’IA générative » avec son produit à succès viral ChatGPT fin 2022, OpenAI avait sans doute l’une des tâches les plus difficiles de toute entreprise d’IA en 2025 : poursuivre sa trajectoire de croissance même si des concurrents bien financés comme Google proposent leurs propres startups comme son modèle Gemini et d’autres startups compétitives.
Heureusement, OpenAI a relevé le défi et plus encore. Son titre principal était GPT-5, dévoilé en août sous le nom de Next Frontier Reasoning Model, suivi de GPT-5.1 en novembre avec de nouvelles variantes Instant et Thinking qui ajustent dynamiquement le « temps de réflexion » qu’ils consacrent à chaque tâche.
En pratique, le lancement de GPT-5 a été cahoteux – VentureBeat a documenté les premiers échecs de mathématiques et de codage et les commentaires de la communauté moins que prévu dans « Le déploiement de GPT-5 d’OpenAI ne se déroule pas sans problème », mais cela a été rapidement rectifié sur la base des commentaires des utilisateurs et, en tant qu’utilisateur quotidien de ce modèle, j’en suis personnellement satisfait et j’en suis satisfait.
Dans le même temps, les entreprises utilisant ces modèles enregistrent de solides bénéfices. Zendesk mondialPar exemple, les agents basés sur GPT-5 résolvent désormais plus de la moitié des tickets des clients, certains clients obtenant des taux de résolution de 80 à 90 %. C’est une bonne histoire : ces modèles ne peuvent pas toujours influencer les classes bavardes dans X, mais ils commencent à faire évoluer de vrais KPI.
En termes d’outils, OpenAI offre enfin aux développeurs un ingénieur IA sérieux avec GPT-5.1-Codex-Max, un nouveau modèle de codage capable de piloter de longs flux de travail agents et qui constitue déjà la valeur par défaut dans l’environnement Codex d’OpenAI. VentureBeat l’a couvert en détail “OpenAI lance le modèle de codage GPT-5.1-Codex-Max et a déjà effectué 24 heures de travail en interne.”
Ensuite, il y a ChatGPT Atlas, un navigateur complet avec ChatGPT intégré à Chrome : résumés dans la barre latérale, analyses sur la page et recherche étroitement intégrées à la navigation régulière. C’est toujours un signe clair que « l’assistant » et le « navigateur » sont sur une trajectoire de collision.
Du côté des médias, Sora 2 transforme la démo vidéo originale de Sora en un modèle vidéo et audio complet avec une physique améliorée, un son et des dialogues synchronisés, et plus de contrôle sur le style et la structure des plans, ainsi qu’une application Sora dédiée avec un composant de réseau social complet, permettant à n’importe quel utilisateur. Créer son propre réseau de télévision dans sa poche.
Enfin – et peut-être le plus symboliquement – OpenAI a publié Gpt-oss-120B et gpt-oss-20B, des modèles logiques MoE à poids ouvert sous une licence de style Apache 2.0. Quoi que vous pensiez de leur qualité (et les premiers utilisateurs open source ont exprimé leurs plaintes), c’est la première fois depuis GPT-2 qu’OpenAI accorde une attention sérieuse aux biens communs publics.
2. La vague open source chinoise se généralise
Si 2023-24 est consacrée aux lamas et aux mistrals, 2025 appartient à l’écosystème d’eau libre de la Chine.
C’est ce que révèle une étude du MIT et de Hugging Face. La Chine est désormais légèrement en avance sur les États-Unis en matière de téléchargements mondiaux de modèles ouvertsPrincipalement grâce à Dipsik et à la famille Kuen d’Alibaba
Points forts:
-
DeepSeek-R1 En concurrence avec l’o1 d’OpenAI en tant que modèle de raisonnement open source, se trouve une famille de poids sous licence MIT et de petits modèles distillés. VentureBeat a suivi l’histoire de la variante R1 optimisée en termes de performances depuis sa sortie jusqu’à son impact sur la cybersécurité.
-
Pensez Km K2 De Moonshot, un modèle open source « penseur » qui raisonne avec des outils étape par étape, en grande partie dans le moule o1/R1, et se classe jusqu’à présent comme le meilleur modèle de raison ouvert au monde.
-
Z.ai GLM-4.5 et GLM-4.5-Air ont été livrés sur GitHub en tant que modèles « agentiques », base open source et variantes de raisonnement hybride.
-
celui de Baidu ERNIE 4.5 La famille est arrivée sous Apache 2.0 en tant que suite MoE multimodale entièrement open source, comprenant des modèles et des graphiques denses de 0,3 milliard, des variantes de « réflexion » visuelle axées sur les STEM et l’utilisation d’outils.
-
d’Alibaba Qwen3 La gamme – comprenant le Qwen3-Coder, le grand modèle logique et la série Qwen3-VL lancée au cours des mois d’été et d’automne 2025 – continue de placer la barre haute en matière de codage, de traduction et de pondérations ouvertes dans la logique multimodale, ce qui m’a amené à déclarer l’été dernier comme “”
L’été de la reine.”
VentureBeat suit ces changements avec des modèles mathématiques et logiques chinois comme le Light-R1-32B et le minuscule VibeThinker-1.5B de Weibo, qui dépassent les références de DeepSeek avec des budgets de formation restreints.
Si vous vous souciez des écosystèmes ouverts ou des options sur site, cette année, la scène chinoise ouverte a cessé d’être une curiosité et est devenue une option sérieuse.
3. Les modèles petits et locaux sont grands
Une autre chose pour laquelle je suis reconnaissant : nous y parvenons enfin Bien Des petits modèles, pas seulement des jouets.
Liquid AI a passé 2025 à promouvoir ses variantes de langage de vision Liquid Foundation Model (LFM2) et LFM2-VL, conçues dès le premier jour pour des déploiements à faible latence et sensibles aux appareils – boîtiers de périphérie, robots et serveurs de périphérie, pas seulement des clusters massifs. plus récent LFM2-VL-3B ROSCon cible la robotique embarquée et l’autonomie industrielle avec des démos prévues.
Du côté des grandes technologies, la gamme Gemma 3 de Google démontre clairement que les « minuscules » peuvent encore en être capables. Gemma 3 s’étend de 270 M de paramètres à 27B, le tout avec un poids ouvert et un support multimodal dans des variantes plus grandes.
Le modèle le plus remarquable est le Gemma 3 270M, un modèle compact conçu pour les tâches de réglage fin et de texte structuré (pensez aux formateurs, routeurs et chiens de garde personnalisés) couvrant à la fois le blog des développeurs de Google et les discussions communautaires dans les cercles LLM locaux.
Ces modèles ne seront peut-être jamais tendance dans X, mais ils sont exactement ce dont vous avez besoin pour les charges de travail sensibles à la confidentialité, les flux de travail hors ligne, les appareils clients légers et les « essaims d’agents » pour lesquels vous ne voulez pas que chaque appel d’outil atteigne une frontière géante LLM.
4. Meta + Midjourney : l’esthétique en tant que service
L’un des rebondissements les plus étranges de cette année : la méta s’est associée à Midjourney au lieu d’essayer de la battre.
En août, Meta a annoncé un accord pour licencier la « technologie esthétique » de Midjourney – sa pile de génération d’images et de vidéos – et l’intégrer dans les futurs modèles et produits de Meta, des flux Facebook et Instagram aux fonctionnalités Meta AI.
VentureBeat a couvert le partenariat dans « Meta s’associe à Midjourney et accordera une licence sur sa technologie pour les futurs modèles et produits », soulevant la question évidente : cela ralentit-il ou remodèle-t-il la propre feuille de route de l’API de Midjourney ? Nous attendons toujours une réponse, mais malheureusement, les plans annoncés pour une sortie d’API ne se sont pas encore concrétisés, ce qui suggère que c’est le cas.
Pour les créateurs et les marques, cependant, l’impact immédiat est simple : les visuels de mi-parcours commencent à apparaître sur les outils sociaux grand public au lieu d’être enfermés dans les robots Discord. Cela pourrait normaliser l’art de l’IA de haute qualité pour un public plus large – et forcer des concurrents comme OpenAI, Google et Black Forest Labs à relever la barre.
5. Gemini 3 et Nano Banana Pro de Google
Google a tenté de répondre au GPT-5 avec le Gemini 3, présenté comme son modèle le plus performant à ce jour, avec un meilleur raisonnement, un meilleur codage et une meilleure compréhension multimodale, ainsi qu’un nouveau mode de réflexion approfondie pour les problèmes plus lents et plus difficiles.
La couverture de VentureBeat, « Google dévoile Gemini 3, revendique son leadership en mathématiques, en sciences, en IA multimodale et agentique », l’a présenté comme une photo directe des références de pointe et des flux de travail agentiques.
Mais la surprise est Nano Banana Pro (Gemini 3 Pro Image), le nouveau générateur d’images phare de Google. Il se spécialise dans les infographies, les diagrammes, les scènes multi-sujets et le texte multilingue qui s’affichent clairement dans les résolutions 2K et 4K.
Dans le monde de l’IA d’entreprise – où les graphiques, les schémas de produits et les diagrammes « expliquant ce système visuellement » sont plus importants que les dragons fantastiques – c’est un gros problème.
6. Je garde un œil sur le joker
Je suis reconnaissant pour quelques révélations supplémentaires, même si elles ne rentrent pas parfaitement dans un seul seau :
-
Laboratoires de la Forêt-Noire Flux.2 Image Models, qui a lancé le Nano Banana Pro et le Midjourney plus tôt cette semaine avec l’ambition de remettre en question la qualité et le contrôle. VentureBeat “Black Forest Labs lance le modèle d’image AI Flux.2 pour défier Nano Banana Pro et Midjourney.”
-
Claude d’Anthropique Opus 4.5Un nouveau produit phare destiné à un codage moins cher et plus performant et à une exécution de tâches à long terme, qui comprend « Cloud Opus 4.5 d’Anthropic : une IA bon marché, un chat infini et des compétences de codage qui peuvent battre les humains. »
-
Un rythme constant de modèles mathématiques/raisonnement ouverts – de Light-R1 à VibeThinker et autres – montrant que vous n’avez pas besoin de 100 millions de dollars en formation pour faire avancer les choses.
Pensées finales (pour l’instant)
Si 2024 a été l’année d’un « grand modèle dans le cloud », 2025 est l’année où la carte a explosé : de multiples frontières au sommet, la Chine leader des modèles ouverts, des systèmes petits et efficaces qui mûrissent rapidement et des écosystèmes créatifs comme Midjourney qui s’intègrent dans la pile des grandes technologies.
Je suis reconnaissant non seulement pour un modèle en particulier, mais pour la vérité que nous avons maintenant alternative – fermé et ouvert, local et hébergé, logique d’abord et média d’abord. Pour les journalistes, les créateurs et les entreprises, cette diversité est la véritable histoire de 2025.
Bonnes vacances et bonne chance à vous et à vos proches !






