Microsoft a construit sa propre puce d'IA personnalisée qui peut être utilisée pour former de grands modèles de langage et potentiellement éviter une dépendance coûteuse à l'égard de Nvidia. Microsoft a également construit son propre processeur basé sur Arm pour les charges de travail cloud. Les deux puces de silicium personnalisées sont conçues pour alimenter ses centres de données Azure et préparer l’entreprise et ses entreprises clientes à un avenir plein d’IA. Microsoft a indiqué qu'elles ne sont donc pas destinées à la vente. Microsoft et d’autres entreprises technologiques ont été confrontées au coût élevé de la fourniture de services d’IA, qui peut coûter 10 fois plus cher que des services tels que les moteurs de recherche. Mercredi, lors de la conférence Microsoft Ignite, Microsoft a annoncé deux puces personnalisées conçues pour accélérer les charges de travail d'IA en interne via son service de cloud computing Azure : Microsoft Azure Maia 100 AI Accelerator et le processeur Microsoft Azure Cobalt 100.
Microsoft a conçu Maia spécifiquement pour exécuter de grands modèles de langage tels que GPT 3.5 Turbo et GPT-4, qui sous-tendent ses services Azure OpenAI et Microsoft Copilot (anciennement Bing Chat). Maia possède 105 milliards de transistors fabriqués selon un processus TSMC de 5 nm. Pendant ce temps, Cobalt est un processeur ARM à 128 cœurs conçu pour effectuer des tâches informatiques conventionnelles telles que l’alimentation de Microsoft Teams. Microsoft n'a pas l'intention de vendre l'un ou l'autre, les préférant uniquement pour un usage interne :
Un choix stratégique...
Le H100, annoncé l’année dernière, est la dernière puce IA phare de Nvidia, succédant à l’A100, une puce d’environ 10*000 $ qui a été qualifiée de « bête de somme » pour les applications IA.
Les développeurs utilisent le H100 pour créer des modèles de langage étendus (LLM), qui sont au cœur des applications d'IA comme ChatGPT d'OpenAI. L’exécution de ces systèmes coûte cher et nécessite des ordinateurs puissants pour traiter des téraoctets de données pendant des jours ou des semaines à la fois. Ils s’appuient également sur une puissance de calcul importante pour que le modèle d’IA puisse générer du texte, des images ou des prédictions.
La formation de modèles d’IA, en particulier les plus grands comme GPT, nécessite que des centaines de GPU Nvidia haut de gamme travaillent ensemble.
La puce Azure Maia AI de Microsoft et le processeur Azure Cobalt alimenté par Arm arriveront en 2024, à la suite d'une augmentation de la demande cette année pour les GPU H100 de Nvidia. La demande pour ces GPU est telle que certains ont même atteint plus de 40 000 $ sur eBay.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Nvidia H100 GPUs going for $40k on eBay. <a href="https://t.co/7NOBI8cn3k">pic.twitter.com/7NOBI8cn3k</a></p>— John Carmack (@ID_AA_Carmack) <a href="https://twitter.com/ID_AA_Carmack/status/1646676148657569792?ref_src=twsrc%5Etfw">April 14, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]
« Microsoft a en fait une longue histoire dans le développement du silicium », explique Rani Borkar, responsable des systèmes et infrastructures matériels Azure chez Microsoft.
Microsoft a collaboré sur le silicium pour la Xbox il y a plus de 20 ans et a même co-conçu des puces pour ses appareils Surface. « Ces efforts s'appuient sur cette expérience », explique Borkar....
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.