Amazon se prépare à lancer sa dernière puce d'intelligence artificielle (AI) alors que le grand conglomérat technologique cherche à récolter les rendements de ses milliards de dollars d'investissements semi-conducteurs et à réduire sa dépendance à l'égard du leader du marché Nvidia.
Les dirigeants de la division Cloud Computing d'Amazon investissent massivement dans des puces personnalisées, espérant améliorer l'efficacité de ses dizaines de centres de données et, finalement, réduire les coûts pour eux-mêmes et les clients AWS d'Amazon.
Ce travail est dirigé par Annapurna Labs, une startup de puce basée à Austin, qu'Amazon a acquise pour 350 millions de dollars début 2015. Les dernières réalisations d'Annapurna devraient être présentées en décembre, lorsque Amazon annoncera la disponibilité généralisée de "Trainium 2", qui, qui, qui serafait partie d'une série de puces AI conçue pour former les modèles les plus importants.
Trainium 2 est déjà en cours de test par Anthropic (le concurrent d'Openai, qui a reçu 4 milliards de dollars de soutien d'Amazon), ainsi que Vnet, Deutsche Telekom, Ricoh Japan et Stockmark.
Amazon AWS et Annapurna visent à rivaliser avec Nvidia, qui est devenue l'une des sociétés les plus précieuses du monde en raison de sa position dominante sur le marché des puces d'IA.
Nous espérons être le meilleur endroit pour gérer les puces Nvidia ", a déclaré Dave Brown, vice-président de l'informatique et des services de réseau à Amazon AWS. Mais en même temps, nous pensons que l'adoption de solutions alternatives est bénéfique", a déclaré Amazon, déclarant que c'estD'autres puces d'IA professionnelles «Inferentia» ont réduit les coûts d'exploitation de 40% et peuvent être utilisés pour les modèles d'IA génératifs réactifs.
Amazon s'attend maintenant à des dépenses en capital d'environ 75 milliards de dollars en 2024, la majorité allant à l'infrastructure technologique.Lors de la dernière conférence téléphonique sur les résultats de la société, le PDG Andy Jassy a déclaré qu'il s'attend à ce que l'entreprise ait plus de dépenses en 2025.
Il s'agit d'une augmentation par rapport à la dépense de l'année complète de 48,4 milliards de dollars américains en 2023. Les plus grands fournisseurs de cloud, dont Microsoft et Google, investissent massivement dans l'intelligence artificielle, et cette tendance montre peu de signe d'affaiblissement.
Amazon, Microsoft et Meta sont tous des principaux clients de NVIDIA, mais ils conçoivent également leurs propres puces de centre de données pour jeter les bases de la vague de croissance de l'IA qu'ils prévoient.
Daniel Newman de Futurum Group a déclaré: "Chaque grand fournisseur de cloud se déplace avec ferveur vers plus de verticalité, et si possible, se dirigeant vers une pile de« technologie de puce »homogène et intégrée
Newman a souligné que "d'Openai à Apple, tout le monde cherche à construire ses propres puces" parce qu'ils recherchent "des coûts de production plus bas, des marges bénéficiaires plus élevées, une plus grande disponibilité et plus de contrôle".
Après avoir commencé à construire la puce de sécurité "nitro" pour AWS, Annapurna a développé plusieurs générations de Graviton, une unité centrale de traitement (CPU) basée sur ARM (CPU) qui fournit une alternative de faible puissance aux mainframes du serveur traditionnel fourni par Intel ou AMD.
L'analyste de TechInsights, G Dan Hutcheson, a déclaré: «Un avantage majeur d'AWS est que leurs puces peuvent utiliser moins d'énergie, et leurs centres de données peuvent être plus efficaces», réduisant ainsi les coûts.Il a dit que si l'unité de traitement graphique de Nvidia (GPU) est un puissant outil à usage général (pour des voitures comme les wagons de station), Amazon peut optimiser ses puces pour des tâches et services spécifiques (tels que des voitures compactes ou à hayon).
Cependant, jusqu'à présent, AWS et Annapurna n'ont guère affaibli la position dominante de Nvidia dans l'infrastructure d'IA.
Les revenus des ventes de puces du centre de données de l'IA de NVIDIA ont atteint 26,3 milliards de dollars au deuxième trimestre de l'exercice 2024. Ce chiffre est le même que les revenus de l'ensemble de la division AWS annoncée par Amazon à son deuxième trimestre.Il est signalé que seule une petite partie peut être attribuée aux clients exécutant des charges de travail en IA sur l'infrastructure Annapurna.
Quant aux performances brutes des puces AWS et des puces Nvidia, Amazon évite les comparaisons directes et ne soumet pas leurs puces à des références de performances indépendantes.
Patrick Moorhead, le consultant de Moor Insights & Strategy Chip, estime que la revendication d'Amazon d'une amélioration des performances de 4 fois entre Trainium 1 et Trainium 2 est exacte, car il examine l'entreprise depuis des années.Mais les données sur les performances peuvent ne pas être aussi importantes que de simplement fournir aux clients plus de choix.
Les gens apprécient toutes les innovations apportées par Nvidia, mais personne ne veut voir Nvidia occuper 90% de la part de marché ", a-t-il ajouté".Cette situation ne durera pas trop longtemps