Comment Nvidia a pris le devant sur Intel dans l’IA: Analyse approfondie

Nvidia et Intel : pourquoi le succès de l’un et les difficultés de l’autre ?
Nvidia versus Intel : la bataille des GPU
Lors du GTC 2025, l’ancien PDG d’Intel, Pat Gelsinger, a réitéré l’assertion souvent répétée selon laquelle le PDG de Nvidia, Jensen Huang, aurait ‘eu de la chance’ avec la révolution de l’IA. Les GPU ont pris le devant de la scène en matière d’innovation en intelligence artificielle, faisant de Nvidia l’une des entreprises les plus valorisées au monde, tandis qu’Intel peine. Mais cela n’a pas toujours été le cas. Il y a quinze à vingt ans, les CPU Intel dominaient le secteur informatique en traitant toutes les charges de travail majeures. À cette époque, Intel a manqué ses opportunités en matière d’IA et de calcul hautes performances avec Larrabee, un projet visant à construire un GPU utilisant l’ISA des CPU x86.
“Le CPU était le roi de la colline [au milieu des années 2000], et je salue Jensen pour sa ténacité à dire simplement, ‘Non, je n’essaie pas de construire l’un de ceux-là ; je veux répondre aux charges de travail en commençant par les graphiques’, a déclaré Gelsinger, ancien CTO et PDG d’Intel, lors du GTC 2025 de Nvidia.”Vous savez, cela a pris cette vision plus large. Et puis il a eu de la chance avec l’IA, et une fois, lors d’un débat avec lui, il a dit, ‘Non, j’ai vraiment eu de la chance avec la charge de travail en IA car elle demandait ce type d’architecture.’ C’est là que se situe le centre du développement d’applications en ce moment.”
L’échec de Larrabee et le tournant vers le Xeon Phi
L’une des raisons pour lesquelles Larrabee a été annulé en tant que GPU en 2009 était qu’il n’était pas compétitif en tant que processeur graphique par rapport aux solutions graphiques d’AMD et de Nvidia à l’époque. En partie, cela était dû au désir d’Intel pour que Larrabee présente une programmabilité ultime, ce qui a conduit à son manque de parties GPU à fonction fixe cruciales telles que les unités d’opérations de trames.
“J’avais un projet bien connu dans l’industrie appelé Larrabee et qui essayait de combler la programmabilité du CPU avec une architecture orientée vers le débit [d’un GPU], et je pense qu’en restant sur cette voie, l’avenir aurait pu être différent”, a déclaré Gelsinger lors d’une webdiffusion. “Je donne beaucoup de crédit à Jensen car il est resté fidèle à ce calcul orienté vers le débit ou cette vision accélérée.”
Le destin du Xeon Phi et l’avenir de Intel
Contrairement aux GPU d’AMD et de Nvidia, qui utilisent des architectures d’ensemble d’instructions (ISA) propriétaires, Larrabee d’Intel utilisait l’ISA x86 avec des extensions spécifiques à Larrabee. Cela a fourni un avantage pour les charges de travail de calcul général parallélisées, mais a été un désavantage pour les applications graphiques.
Au final, L’histoir de Larrabee et de ses successeurs dans la gamme Xeon Phi a échoué parce qu’ils étaient basés sur un ISA de CPU qui ne se prêtait pas bien aux graphiques, à l’IA ou au HPC. L’échec de Larrabee a été initié au milieu des années 2000 lorsque les CPU étaient encore dominants, et les responsables techniques d’Intel pensaient que x86 était la voie à suivre. Aujourd’hui, les tentatives d’Intel d’adopter une conception de GPU plus conventionnelle pour l’IA ont largement échoué, la société ayant récemment annulé ses GPU Falcon Shores pour les centres de données.
À la place, l’entreprise fonde ses espoirs sur sa prochaine génération de Jaguar Shores, qui n’est pas prévue avant l’année prochaine.
Source : www.tomshardware.com