Un nouveau modèle d’IA chinois, DeepSeek-R1-0528, débarque en open source avec des performances qui talonnent celles des géants payants. De quoi pimenter la course à l'intelligence artificielle !
Vous pensiez que le monde de l'intelligence artificielle se résumait à un match entre les titans américains comme OpenAI et Google ? Accrochez-vous, car un challenger venu de Chine pourrait bien changer la donne. DeepSeek, une jeune pousse issue de la société d'analyse quantitative High-Flyer Capital Management, vient de lancer DeepSeek-R1-0528, une mise à jour majeure de son modèle d’IA. Et la particularité de cette IA, c’est qu’elle est open source : autrement dit, son code est accessible à tous, gratuitement.
Souvenez-vous, début 2025, DeepSeek avait déjà fait des vagues avec la première version de son modèle R1, spécialisé dans le raisonnement. Eh bien, la « baleine » – c’est un peu leur emblème – est de retour avec une version survitaminée. L'objectif affiché ? Offrir des capacités de raisonnement complexes en maths, sciences, business et programmation qui se rapprochent de ce que proposent les modèles payants comme o3 d'OpenAI ou Gemini 2.5 Pro de Google.
Concrètement, qu'est-ce que le raisonnement pour une IA ? Imaginez une IA qui ne se contente pas de répéter des informations piochées sur le web, mais qui est capable de « réfléchir » à un problème complexe, un peu comme un humain (ou presque !). C’est cette capacité à analyser, déduire et résoudre des tâches ardues que DeepSeek a voulu booster.
Autre article : Assistant Google : la fin d'une ère, Gemini et l'IA prennent le relais malin
L'un des aspects les plus excitants de DeepSeek-R1-0528, c'est sa nature open source. C'est un peu comme si un grand chef étoilé décidait de partager la recette de son plat signature avec le monde entier. Le modèle est disponible sous la licence MIT, une sorte de contrat qui autorise son utilisation commerciale et permet aux développeurs de l'adapter à leurs propres besoins. Les « poids » du modèle, c’est-à-dire les paramètres qui constituent son intelligence, sont accessibles sur la communauté de partage de code d’IA Hugging Face. Cette ouverture est une aubaine pour les chercheurs et les entreprises qui veulent explorer les frontières de l'IA sans forcément passer par la case portefeuille des géants du secteur.
Les améliorations de DeepSeek-R1-0528 ne sont pas que théoriques. Selon les informations publiées par DeepSeek sur sa « model card » (une sorte de carte d’identité du modèle) sur HuggingFace, les performances sont au rendez-vous. Par exemple, sur le test AIME 2025, une compétition de mathématiques, la précision du modèle a bondi de 70 % à 87,5 %. Pour y parvenir, l'IA "réfléchit" plus intensément : elle utilise en moyenne 23 000 « tokens » (des petits morceaux de mots ou de code) par question, contre 12 000 auparavant. Côté code, sur le banc d'essai LiveCodeBench, la justesse est passée de 63,5 % à 73,3 %. Des chiffres qui commencent à faire de l'ombre aux solutions propriétaires.
Au-delà des performances brutes, DeepSeek a bichonné les développeurs. Le modèle supporte désormais la sortie en format JSON (un format de données très utilisé en programmation) et l'appel de fonctions, ce qui simplifie son intégration dans des applications existantes. Fini aussi le besoin d'un « token » spécial pour activer le mode « réflexion » : une petite révolution pour ceux qui déploient le modèle. Et cerise sur le gâteau, le taux d'« hallucination » – ces moments où l'IA invente des informations – aurait été réduit, rendant les réponses plus fiables.
Un développeur du nom de Haider, connu sur X (anciennement Twitter) sous le pseudo « @slow_developer », a partagé son enthousiasme, expliquant que DeepSeek-R1-0528 est « tout simplement incroyable en codage ». Il raconte comment l'IA a généré du code propre et des tests fonctionnels pour un défi de système de notation de mots, le tout fonctionnant parfaitement du premier coup. Une performance que, selon lui, seul o3 d'OpenAI avait réussi à égaler auparavant.
Autre article : Alerte Zéro Clic : Comment l'IA de Google transforme les clics en mirages
Conscient que tout le monde ne dispose pas de serveurs surpuissants, DeepSeek a aussi pensé à une version allégée : DeepSeek-R1-0528-Qwen3-8B. C’est ce qu’on appelle un modèle « distillé » : une version plus compacte, mais qui conserve l'essentiel de l'intelligence de son grand frère. Un peu comme un expresso très concentré par rapport à un grand café filtre. Ce modèle de 8 milliards de paramètres (contre des centaines pour les plus gros) obtiendrait des résultats de pointe parmi les modèles open source sur des tâches comme AIME 2024.
Selon le site Modal, faire tourner un tel modèle en « demi-précision » (FP16), une technique pour réduire son appétit en mémoire, nécessite environ 16 Go de mémoire GPU. Cela signifie qu'une bonne carte graphique de gamer, comme une NVIDIA RTX 3090 ou 4090, suffit. Pour des versions encore plus compressées (« quantifiées »), des cartes avec 8 à 12 Go de VRAM, type RTX 3060, pourraient faire l'affaire. De quoi démocratiser l'accès à une IA de pointe pour la recherche académique ou des applications industrielles à plus petite échelle.
Le saviez-vous ?
La « réflexion » d'une IA se mesure aussi en « tokens » ! Pour chaque question complexe du test AIME 2025, DeepSeek-R1-0528 mouline en moyenne 23 000 de ces unités de texte, presque le double de sa version précédente. Une vraie pipelette numérique au service de la logique !
L'arrivée de DeepSeek-R1-0528 est plus qu'une simple mise à jour technique. C'est un signal fort : l'innovation en IA ne se limite pas à quelques acteurs richissimes. En misant sur l'open source et des performances de haut vol, DeepSeek se positionne comme un concurrent sérieux et accessible. Les réactions sur les réseaux sociaux ne s'y trompent pas, certains commentateurs estiment que DeepSeek « vise le roi » et que cette version se rapproche dangereusement des performances d'o3 et Gemini 2.5 Pro. Certains spéculent même que cette mise à jour pourrait annoncer l'arrivée prochaine d'un modèle « R2 », encore plus puissant.
DeepSeek-R1-0528 illustre une tendance passionnante : la montée en puissance des modèles d'IA open source capables de rivaliser avec les solutions fermées et payantes. C'est une excellente nouvelle pour l'innovation, la recherche et la création de nouvelles applications, en rendant ces technologies de pointe plus accessibles.
Alors, la prochaine révolution IA viendra-t-elle d'un garage ou d'un laboratoire ouvert plutôt que d'une tour de verre ? L'avenir nous le dira, mais une chose est sûre : le match est loin d'être terminé, et c'est tant mieux pour nous !
Auteur : Jérôme Chaudier
Expert en développement web, référencement et en intelligence artificielle, mon expérience pratique dans la création de systèmes automatisés remonte à 2009. Aujourd'hui, en plus de rédiger des articles pour décrypter l'actualité et les enjeux de l'IA, je conçois des solutions sur mesure et j'interviens comme consultant et formateur pour une IA éthique, performante et responsable.