Startup chinoise d’intelligence artificielle dipsique Dimanche, la société a dévoilé deux nouveaux modèles d’IA puissants qui, selon elle, correspondent ou dépassent les capacités d’OpenAI. GPT-5 Et celui de Google Gémeaux-3.0-Pro – une évolution qui pourrait remodeler le paysage concurrentiel entre les géants américains de la technologie et leurs challengers chinois.

Lancé par une société basée à Hangzhou DeepSeek-V3.2Avec DeepSeek-V3.2-Speciale, une variante haute performance qui a remporté une médaille d’or dans quatre compétitions internationales d’élite : l’Olympiade internationale de mathématiques 2025, l’Olympiade internationale d’informatique, la finale mondiale de l’ICPC et la China Olipsi Mathematical.

Cette publication a de profondes implications pour le leadership technologique américain. Dipsic a une fois de plus prouvé qu’il pouvait construire des systèmes d’IA frontaliers malgré les contrôles américains à l’exportation Restreindre l’accès de la Chine aux puces avancées de Nvidia – et il l’a fait en rendant ses modèles disponibles gratuitement sous une licence open source MIT.

“Les gens pensaient que Dipsic était un succès ponctuel, mais nous sommes revenus bien plus gros”, a-t-il écrit. Chen Fangqui s’est identifié comme contributeur au projet sur X (anciennement Twitter). La publication a déclenché une réaction violente en ligne, un utilisateur déclarant : “Repose en paix, ChatGPT

Comment les progrès de l’attention dispersée de Dipsic réduisent les coûts informatiques

Au cœur de la nouvelle version Attention rare et dipsiqueou DSA – une nouvelle innovation architecturale qui réduit considérablement la charge de calcul liée à l’exécution de modèles d’IA sur des documents longs et des tâches complexes.

Les mécanismes d’attention traditionnels de l’IA, la technologie de base qui permet aux modèles de langage de comprendre le contexte, s’adaptent mal à mesure que la longueur des entrées augmente. Le double traitement d’un document nécessite généralement quatre fois le calcul. L’approche de Dipsik brise cette limitation avec ce que l’entreprise appelle un « indexeur éclair » qui identifie uniquement les éléments de contexte les plus pertinents pour chaque requête, ignorant le reste.

Selon Rapport technique DipsicDSA réduit le coût d’estimation de près de moitié par rapport aux modèles précédents lors du traitement de longues séquences. L’architecture “réduit considérablement la complexité de calcul tout en préservant les performances du modèle”, indique le rapport.

Le traitement de 128 000 jetons – soit à peu près l’équivalent d’un livre de 300 pages – coûte désormais environ 0,70 $ par million de jetons pour le décodage, contre 2,40 $ auparavant. Modèle V3.1-Terminus. Cela représente une réduction de 70 % des coûts estimés.

Les modèles de 685 milliards de paramètres prennent en charge des fenêtres contextuelles de 128 000 jetons, ce qui les rend adaptés à l’analyse de documents longs, de bases de code et d’articles de recherche. de Dipsik Rapport technique Notez qu’une évaluation indépendante du benchmark à contexte long montre que la version 3.2 est égale ou meilleure que son prédécesseur “malgré l’inclusion d’un mécanisme de distraction de l’attention”.

Des résultats de référence qui placent Dipsic dans la même ligue que GPT-5

Les affirmations de Dipsik concernant la parité avec les principaux systèmes d’IA américains reposent sur des tests approfondis portant sur des tâches de mathématiques, de codage et de raisonnement – ​​et les chiffres sont impressionnants.

sur AIME 2025Un prestigieux concours américain de mathématiques, DeepSeek-V3.2-Spécial GPT-5 a obtenu un taux de réussite de 96,0 %, contre 94,6 % pour High et 95,0 % pour Gemini-3.0-Pro. sur Tournoi de mathématiques Harvard-MITLa variante Special a obtenu un score de 99,2 %, battant les 97,5 % du Gemini.

valeur Modèle V3.2Optimisé pour un usage quotidien, il a obtenu un score de 93,1 % en AIME et de 92,5 % en HMMT – légèrement en dessous des modèles marginaux mais obtenu avec considérablement moins de ressources de calcul.

Les résultats du concours sont des plus intéressants. DeepSeek-V3.2-Spécial A obtenu 35 points sur 42 Olympiade mathématique internationale 2025Obtenez le statut de médaille d’or. UN Olympiade internationale d’informatiqueIl a obtenu 492 points sur 600 – plus l’or, se classant 10e au classement général. Le modèle a résolu 10 problèmes sur 12 Finales mondiales du CIPCplacé deuxième.

Ces résultats sont arrivés sans accès à Internet ni équipement pendant les tests. Le rapport Dipsic indique que « les examens respectent strictement les limites de temps et d’efforts des concurrents ».

Dans Benchmark de codage, DeepSeek-V3.2 Correction de 73,1 % des bogues logiciels réels Vérifié SWECompétitif avec GPT-5-High à 74,9 %. sur Banc de terminaux 2.0En mesurant les flux de travail de codage complexes, Dipsic a obtenu un score de 46,4 %, soit un score supérieur aux 35,2 % de GPT-5-High.

La société reconnaît les limites. “L’efficacité des jetons reste un défi”, note le rapport technique, notant que DipSeq “nécessite généralement des trajectoires de génération plus longues” pour correspondre à la qualité de sortie de Gemini-3.0-Pro.

Pourquoi apprendre à l’IA à réfléchir lors de l’utilisation d’outils change tout

au-delà de la raison, DeepSeek-V3.2 Introduit la « réflexion sur l’outil utilisé » : la capacité de résoudre des problèmes tout en exécutant du code, en recherchant sur le Web et en manipulant des fichiers.

Les modèles d’IA précédents étaient confrontés à une limitation frustrante : chaque fois qu’ils appelaient un outil externe, ils perdaient le fil de leurs pensées et devaient redémarrer la logique à partir de zéro. L’architecture de DeepSeek préserve les traces logiques sur plusieurs appels d’outils, permettant une résolution fluide des problèmes en plusieurs étapes.

Pour former cette capacité, la société a développé un énorme pipeline de données synthétiques, générant plus de 1 800 environnements de tâches distincts et 85 000 instructions complexes. Il s’agit notamment de plans de voyage sur plusieurs jours avec des contraintes budgétaires, de corrections de bugs logiciels dans huit langages de programmation et de recherches sur le Web nécessitant des dizaines de recherches.

Un exemple est décrit dans le rapport technique : planifier un voyage de trois jours au départ de Hangzhou avec différentes contraintes de coûts d’attraction en fonction des prix des hôtels, des notes des restaurants et des préférences d’hébergement. De telles tâches sont « difficiles à résoudre mais faciles à vérifier », ce qui les rend idéales pour former des agents IA.

dipsique La formation utilise des outils du monde réel (de véritables API de recherche sur le Web, des environnements de codage et des blocs-notes Jupyter) tout en générant des invites synthétiques pour garantir la diversité. Le résultat est un modèle qui se généralise aux équipements et environnements invisibles, une capacité importante pour les déploiements dans le monde réel.

Le pari open source de Dipsic pourrait bouleverser le modèle économique de l’industrie de l’IA

Contrairement à OpenAI et Anthropic, qui protègent leurs modèles les plus puissants en tant qu’actifs propriétaires, Dipsic a publié les deux V3.2 Et V3.2-Spécial L’un des frameworks open source les plus sous licence disponibles – sous la licence MIT.

Tout développeur, chercheur ou entreprise peut télécharger, modifier et déployer les modèles de 685 milliards de paramètres sans restriction. Les poids complets du modèle, le code de formation et la documentation sont disponibles Les câlins sont disponibles sur le visageLa plateforme leader de partage de modèles d’IA.

Les implications stratégiques sont importantes. En rendant disponibles gratuitement des modèles compatibles Frontier, Dipsic mine les concurrents qui facturent des prix API plus élevés. La carte modèle Hugging Face indique que les scripts et les cas de test Dipsic Python « démontrent comment encoder des messages dans un format compatible OpenAI », facilitant ainsi la transition depuis les services concurrents.

Pour les entreprises clientes, la proposition de valeur est convaincante : des performances de pointe à des coûts considérablement réduits, avec une flexibilité de déploiement. Mais les problèmes de résidence des données et l’incertitude réglementaire pourraient limiter l’adoption dans les applications sensibles, en particulier compte tenu des origines chinoises de Dipsic.

Des murs réglementaires s’élèvent contre Dipsic en Europe et en Amérique

L’expansion mondiale de DeepSeek se heurte à une résistance croissante. En juin, le commissaire berlinois à la protection des données, Meik Kamp, a annoncé que Dipsik avait transféré les données des utilisateurs allemands vers la Chine.illégal“En vertu des règles de l’UE, Apple et Google sont invités à envisager de bloquer des applications.

Les autorités allemandes ont exprimé leur inquiétude quant au fait que « les autorités chinoises disposent d’un accès étendu aux données personnelles liées à l’influence des entreprises chinoises ». L’Italie a commandé Dipcic Bloquer son application En février, les législateurs américains ont emménagé Interdire le service D’après le dispositif officiel, citant des problèmes de sécurité nationale.

Des questions se posent également sur les contrôles américains à l’exportation destinés à limiter les capacités de la Chine en matière d’IA. En août, Dipsic a laissé entendre que la Chine allait bientôt «prochaine génération« Des puces de fabrication nationale pour prendre en charge ses modèles. La société a indiqué que ses systèmes fonctionnent avec des puces de fabrication chinoise. Huawei Et Cambricon sans configuration supplémentaire.

Le modèle V3 original de DeepSeek aurait été formé sur environ 2 000 anciens Puces Nvidia H800 — Matériel limité à l’exportation vers la Chine. La société n’a pas révélé ce qui alimentait la formation V3.2, mais ses progrès continus suggèrent que les contrôles à l’exportation ne peuvent à eux seuls arrêter les progrès de l’IA chinoise.

Ce que la divulgation de Dipsic signifie pour l’avenir de la concurrence en IA

La sortie arrive à un moment important. Après des années d’investissements massifs, certains analystes se demandent si une bulle de l’IA est en train de se former. La capacité de Dipsic à s’aligner sur le modèle américain à une fraction du coût remet en question l’hypothèse selon laquelle le leadership en matière d’IA nécessite d’énormes dépenses en capital.

de la société Rapport technique révèle que l’investissement post-formation dépasse désormais 10 % des coûts de pré-formation – une allocation importante à l’amélioration du raisonnement. Mais Dipsic reconnaît l’écart : « La couverture mondiale des connaissances dans Dipsic-v3.2 est toujours à la traîne par rapport aux principaux modèles propriétaires », indique le rapport. L’entreprise prévoit de résoudre ce problème en mettant à l’échelle le calcul de pré-formation.

DeepSeek-V3.2-Spécial Il sera disponible via une API temporaire jusqu’au 15 décembre, date à laquelle ses fonctionnalités seront intégrées dans la version standard. La variante spéciale est conçue exclusivement pour la logique profonde et ne prend pas en charge l’appel d’outil – une limitation des adresses de modèle standard.

Pour l’instant, la course à l’IA entre les États-Unis et la Chine est entrée dans une nouvelle phase. La publication de Dipsic montre que les modèles open source peuvent atteindre des performances de pointe, que les innovations en matière d’efficacité peuvent réduire considérablement les coûts et que les systèmes d’IA les plus puissants pourraient bientôt être disponibles gratuitement pour toute personne disposant d’une connexion Internet.

Comme l’a dit un commentateur sur X : “Deepsyk enfreint simplement ces normes historiques établies par Gemini.”

La question n’est plus de savoir si l’IA chinoise peut rivaliser avec la Silicon Valley. Les entreprises américaines peuvent-elles conserver leur leadership alors que leurs rivales chinoises offrent gratuitement une technologie comparable ?

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici