AMD, Google, Qualcomm… Dans les puces pour l’intelligence artificielle, la concurrence à Nvidia émerge (lentement)
-
OpenAI qui va se fournir en puces AMD, Anthropic qui va utiliser celles de Google, Qualcomm qui séduit l’Arabie saoudite : un vent nouveau souffle sur le marché des puces pour l’intelligence artificielle, ultra-dominé par Nvidia. Une concurrence attisée par la diversification des technologies et le marché de l’inférence.
Résumé:
- Nvidia conserve un quasi-monopole grâce à son avance technologique et logicielle.
- AMD et Qualcomm cherchent à briser cette domination.
- Les géants du cloud développent leurs propres puces pour plus d’autonomie.
- Le marché se diversifie avec l’essor des accélérateurs d’inférence.
La Chine reste freinée par les restrictions américaines.
Plus de 80% de parts de marché sur les puces pour l’IA, et même 94% pour les seules GPU (puces graphiques) selon le cabinet d’analyse Jon Peddie Research. L’américain Nvidia est le leader incontesté du marché des semi-conducteurs dédiés à l’intelligence artificielle. Un marché où souffle pourtant un vent nouveau. Spécialiste des processeurs pour les smartphones, le géant Qualcomm a dévoilé, lundi 27 octobre, ses deux premières puces dédiées à l’IA. Destinées à équiper les centres de données et prévues pour 2026 et 2027, elles ont déjà trouvé un premier client : l’Arabie saoudite, dont les investissements dans l’IA s’accélèrent.
Début octobre, c’est AMD, le numéro deux des GPU qui plafonne à 5% de parts de marché, qui avait signé deux gros contrats. La société californienne va fournir pour six gigawatts de GPU à OpenAI, l’un des leaders de l’IA générative, et 50000 GPU au géant Oracle pour l’un de ses futurs clusters d’IA. Une belle victoire pour cette entreprise fondée en 1969, qui a pris plus tardivement que Nvidia le virage vers l’IA et les datacenters. «Avec les puces de sa série MI400, AMD montre sa capacité à sortir des produits équivalents à ceux de Nvidia, juge John Lorenz, directeur de l’activité Calcul et mémoire du cabinet Yole group, spécialisé dans les semi-conducteurs. Désormais, son objectif va être de confirmer cette inflexion de marché.»
Julia Hess, chercheuse sur les semi-conducteurs au sein du think tank européen Interface, salue elle aussi «le signe positif d’une plus forte concurrence dans les puces». Mais elle nuance le rattrapage d’AMD. «S’il peut être un concurrent crédible en terme de performance des puces, sur la partie logicielle il n’est pas encore au niveau de Nvidia, malgré tous les efforts engagés ces dernières années.»
L’écosystème logiciel Cuda, la force de Nvidia
La partie logicielle, c’est la grande force de Nvidia. Et la clé pour comprendre son quasi-monopole. «Nvidia a compris avant toute autre entreprise que les GPU seraient essentiels pour l’IA et il a investi des milliards dans le développement d’un écosystème logiciel appelé Cuda, qui facilite le développement de systèmes d’IA, rappelle l’historien Chris Miller, auteur du livre de référence “La guerre des semi-conducteurs”. Aujourd’hui, la plupart des modèles d’IA dans le monde sont développés à partir de Cuda.»
De la même manière, Nvidia a voulu simplifier la vie des grands fournisseurs de cloud, que sont les hyperscalers Google, AWS (Amazon) et Microsoft. «Grâce à sa position de précurseur, Nvidia n’a pas seulement innové au niveau du GPU, il a eu le temps et les moyens financiers de réfléchir à son intégration avec tous les autres composants, comme le serveur, le rack, la connectivité et la partie stockage des données. Il a ainsi construit son propre écosystème de produits, devenu la norme dans les centres de données grâce à une stratégie de partenariats engagée très tôt avec les hyperscalers», observe Julia Hess. Voilà ce qui a poussé les développeurs d’IA et les hyperscalers à se ruer sur du Nvidia. Avant de réaliser leur dépendance et de vouloir en sortir.
OpenAI veut sa première puce maison en 2026
Pour ce faire, OpenAI a aussi signé un contrat avec Broadcom, une société qui facilite le design des puces. Le père de ChatGPT, l’agent conversationnel désormais utilisé par plus de 800 millions de personnes chaque semaine, entend ainsi disposer de sa première puce maison en 2026, selon les informations du Financial Times. Cette démarche a déjà été celle des hyperscalers. Google a développé une puce appelée TPU (Tensor Processing Unit), celles d’Amazon se nomment Trainium et Inferentia. «Meta et Microsoft disposent également de leurs propres puces, éclaire Chris Miller. Toutes ces puces ne sont pas vendues à des clients externes, seulement utilisées en interne et par les partenaires proches, comme Anthropic pour les puces d’AWS.»
Mais pour l’historien, «ces projets internes représentent une concurrence sérieuse» à Nvidia car ils répondent en partie aux besoins de ses grands clients : ce sont donc autant de puces qu’il ne vend pas. Surtout, la tendance montre que les hyperscalers louent de plus en plus les capacités de calcul de ces puces via leur plateforme cloud. En témoigne le contrat signé fin octobre par Anthropic, une autre start-up de l’IA générative, avec Google pour l’utilisation d’un million de puces TPU. Un contrat qui se chiffre en dizaines de milliards de dollars.
Le nouveau marché des accélérateurs d’inférence
«La logique des hyperscalers, c’est de vendre de la puissance de calcul à leurs clients, donc de leur offrir le choix de la meilleure puce pour leur usage, sans gâcher de puissance, contextualise John Lorenz de Yole Group. On s’oriente donc vers une diversification des technologies.» Une référence au fait que de plus en plus de puces pour l’IA sont conçues pour un type d’applications spécifique. C’est ce qu’on appelle les ASICs (application-specific integrated circuit), dont font par exemple partie les TPU de Google. Une catégorie particulièrement intéressante pour l’inférence de l’IA, la phase qui suit l’entraînement et qui correspond aux calculs faits par les modèles en fonctionnement.
«Les GPU de Nvidia et d’AMD sont capables de tout faire, mais ce n’est pas toujours optimal, considère également Eric Eppe, directeur technologique du calcul avancé chez Eviden. De plus en plus de start-up développent donc des puces dites accélérateurs d’inférence, un marché qui devrait rapidement être plus important que celui de l’entraînement.» On y trouve par exemple la start-up californienne Groq, fondée en 2016 par un ancien de Google, considéré comme le père de TPU. Et de plus jeunes acteurs, comme Tsavorite, dont les accélérateurs d’inférence devraient arriver sur le marché en 2026, et Tenstorrent, fondée au Canada et dirigée par Jim Keller, un grand nom des semi-conducteurs passé par Apple, Tesla et AMD.
Les start-up européennes lorgnent aussi ce marché en pleine ébullition. A l’image de la hollandaise Axelera, de l’allemande SpiNNcloud, de l’espagnole OpenChip et de la française Vsora. Fondée par Khaled Maalej, cette dernière propose une puce dont l’architecture intègre un maximum de mémoire, habituellement séparée du calcul. Elle a démarré sa production fin octobre chez le fondeur taïwanais TSMC et vise une mise sur le marché en 2026. Crédibles, ces acteurs n’en sont pas moins très petits. Et ne rattraperont pas Nvidia avant au moins une décennie.
En Chine, des progrès limités par les capacités de production
Pour freiner le développement technologique de son grand rival, Washington interdit les exportations de puces avancées vers la Chine, qu’elle prive aussi de machines de fabrication de pointe. Forçant Pékin à innover. Au point que le PDG de Nvidia, Jensen Huang, a estimé que la Chine est «à quelques nanosecondes derrière» les États-Unis dans la fabrication de puces. Une affirmation nuancée par Chris Miller. «Huawei est l’entreprise chinoise la plus crédible, mais elle n’est pas en mesure de produire des puces à l’échelle requise, juge l’historien. Elle n’a pas accès aux capacités de fabrication avancées de TSMC, ce qui la place plusieurs années en retard dans ce domaine. Son écosystème logiciel est aussi considéré comme beaucoup moins performant.» Les contraintes de fabrication freinent aussi Alibaba et ByteDance qui, comme les hyperscalers américains, conçoivent leurs propres puces. Et la start-up Cambricon Technologies, régulièrement citée comme une start-up chinoise prometteuse dans les puces pour l’IA.