Le service cloud d'Amazon présente de nouveaux serveurs d'intelligence artificielle et affirme qu'Apple utilisera ses puces information fournie par Reuters 03/12/2024 à 18:37
((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
(Ajout de détails sur l'annonce aux paragraphes 3 à 9) par Stephen Nellis et Greg Bensinger
L'unité cloud d'Amazon.com
AMZN.O a présenté mardi de nouveaux serveurs de centre de données équipés de ses propres puces d'intelligence artificielle qui défieront Nvidia NVDA.O , avec Apple AAPL.O comme client pour les utiliser.
Les nouveaux serveurs, basés sur 64 puces Trainium2 d'Amazon Web Services, seront assemblés dans un supercalculateur massif comprenant des centaines de milliers de puces, avec l'aide de la startup d'IA Anthropic, qui sera la première à l'utiliser. Benoît Dupin, cadre d'Apple, a également déclaré qu'Apple utilisait les puces Trainium2.
Avec plus de 70 % de parts de marché, Nvidia domine la vente de puces d'IA, et ses rivaux traditionnels de l'industrie des puces, tels qu'Advanced Micro Devices AMD.O , s'empressent de rattraper leur retard.
Mais certains des concurrents les plus redoutables de Nvidia sont aussi ses clients: Meta Platforms META.O , Microsoft
MSFT.O et Alphabet's Google GOOGL.O ont tous leurs propres puces d'IA personnalisées. Alors que la puce de Meta alimente les opérations internes, Amazon et Google utilisent leurs puces en interne mais les commercialisent également auprès de clients payants.
Matt Garman, directeur général d'AWS, a également déclaré que Trainium3, la prochaine génération de puce d'IA de l'entreprise, sera lancée l'année prochaine.
Les nouvelles offres "sont spécialement conçues pour les charges de travail exigeantes de la formation et de l'inférence de l'IA générative de pointe", a déclaré M. Garman lors de l'événement qui s'est déroulé mardi à Las Vegas.
Les nouveaux serveurs, qu'AWS appelle Trn2 UltraServers, seront en concurrence avec le serveur phare de Nvidia qui embarque 72 de ses dernières puces "Blackwell". Les deux entreprises proposent également une technologie propriétaire pour connecter les puces, mais Gadi Hutt, qui dirige le développement commercial des puces d'IA chez AWS, a déclaré qu'AWS serait en mesure de connecter un plus grand nombre de puces que Nvidia.
"Nous pensons qu'avec Trainium2, les clients de obtiendront plus de puissance de calcul que ce qui est disponible chez Nvidia aujourd'hui, et ils pourront réduire les coûts", a déclaré M. Hutt lors d'un entretien avec Reuters, ajoutant que certains modèles d'IA peuvent être formés à un coût inférieur de 40 % à celui des puces de Nvidia.
Les dirigeants d'AWS ont déclaré que les nouveaux serveurs et l'énorme supercalculateur seraient mis en service l'année prochaine, mais n'ont pas donné de date précise. AWS et Nvidia s'empressent de commercialiser leurs produits phares dans un contexte de forte demande, bien que les livraisons de Nvidia aient été limitées par des contraintes liées à la chaîne d'approvisionnement .
Nvidia et AWS utilisent Taiwan Semiconductor Manufacturing
2330.TW pour fabriquer leurs puces.
"Du point de vue de l'approvisionnement, nous sommes en assez bonne forme sur l'ensemble de la chaîne d'approvisionnement", a déclaré M. Hutt à Reuters. "Lorsque nous réalisons les systèmes, le seul élément pour lequel nous ne pouvons pas avoir une double source d'approvisionnement est la puce Trainium