Publié le
La société chinoise d’intelligence artificielle DeepSeek a présenté en avant-première son nouveau grand modèle de langage, V4, alors que la course mondiale à l’IA avance.
PUBLICITÉ
PUBLICITÉ
DeepSeek est devenue l’année dernière l’une des sociétés d’IA les plus suivies après avoir lancé en janvier 2025 des modèles qui ressemblaient à Offrez des performances solides à un coût inférieur à celui de nombreux concurrents américains..
La startup basée à Hangzhou a lancé le modèle sous les noms DeepSeek V4-Pro et DeepSeek V4-Flash. Le V4-Pro est un modèle plus grand destiné aux tâches plus exigeantes, tandis que le V4-Flash est une version plus petite conçue pour répondre plus rapidement et coûter moins cher à exécuter.
“Dans les benchmarks mondiaux de connaissances, DeepSeek V4-Pro est nettement en tête des autres modèles open source et n’est que légèrement dépassé par le modèle fermé de premier plan Gemini-3.1-Pro”, a déclaré DeepSeek.
La société a déclaré que le nouveau modèle d’IA prend en charge une « longueur de contexte d’un million de jetons », ce qui signifie qu’il peut accepter des invites beaucoup plus volumineuses, telles que des documents ou des codes longs, avant de produire une réponse.
En IA, la longueur du contexte désigne la quantité de texte, mesurée en jetons, qu’un modèle peut prendre en compte en même temps. Une fenêtre contextuelle plus grande permet à un modèle d’IA de traiter des entrées plus longues et d’inclure plus d’informations dans chaque sortie. selon IBM.
“Bienvenue dans l’ère du contexte rentable d’un million de dollars”, a déclaré la société dans un communiqué sur Hugging Face, une plateforme d’intelligence artificielle open source.
DeepSeek a également déclaré que la V4 offre « un contexte long de premier plan avec des coûts de calcul et de mémoire considérablement réduits ».
DeepSeek a comparé le V4-Pro aux modèles concurrents d’OpenAI, Anthropic et Google, bien que le Gemini-3.1-Pro de Google ait obtenu des résultats plus élevés dans certains tests.
Le nouveau modèle peut être utilisé avec des agents d’IA populaires tels que Claude Code, OpenClaw et OpenCode, permettant aux développeurs d’utiliser le modèle pour des tâches logicielles en dehors du chatbot de DeepSeek.
Connu pour son approche plus ouverte que ses concurrents avec des modèles d’IA fermés, DeepSeek a également rendu la V4 disponible pour téléchargement, test et adaptation gratuits sur Hugging Face.
La startup chinoise a fait tourner les têtes fin 2024 avec son modèle open source V3, qui a surpris l’industrie de l’IA avec de solides performances à moindre coût et en utilisant des puces moins puissantes que de nombreux concurrents américains, dont OpenAI et Google.
La course mondiale à l’IA
La société a attiré l’attention du monde entier en janvier 2025 lorsqu’elle a lancé R1, un modèle de raisonnement d’IA qui, selon la société, était moins cher et performant, ainsi que les grands modèles de langage de son rival OpenAI, ChatGPT.
Cependant, certains pays agences gouvernementales interdites l’année dernière à propos de l’utilisation de DeepSeek, notamment en Italie, aux États-Unis et en Corée du Sud, invoquant des problèmes de sécurité nationale.
L’Allemagne a également interdit DeepSeek des magasins d’applications Apple et Google en 2025, invoquant le transfert illégal de données utilisateur vers la Chine.
Le lancement de la V4 intervient un jour après que le géant américain de l’IA OpenAI a également lancé son dernier modèle d’IA, GPT-5.5, qu’il a qualifié de « le plus intelligent et le plus intuitif » à ce jour.
Cette publication intervient également un jour après que la Maison Blanche a accusé la Chine d’avoir volé la propriété intellectuelle des laboratoires américains d’intelligence artificielle à l’échelle industrielle en utilisant des milliers de comptes proxy.
OpenAI, Anthropic et Google prévenu cette année que les sociétés chinoises d’IA, dont DeepSeek, menaient des attaques d’extraction de modèles (MEA), également connues sous le nom de « distillation ».
La méthode alimente le modèle plus large en milliers de questions, collecte ses réponses et les utilise pour apprendre à un nouveau modèle plus petit à penser de la même manière.
