IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Azure Maia 100 : Microsoft présente sa première puce IA conçue sur mesure et optimisée pour l'IA générative
Tandis que l'entreprise cherche à réduire sa dépendance coûteuse à Nvidia

Le , par Stéphane le calme

61PARTAGES

4  0 
Azure Maia 100 : Microsoft présente sa première puce IA conçue sur mesure et optimisée pour l'IA générative,
tandis que l'entreprise cherche à réduire sa dépendance coûteuse à Nvidia

Microsoft a construit sa propre puce d'IA personnalisée qui peut être utilisée pour former de grands modèles de langage et potentiellement éviter une dépendance coûteuse à l'égard de Nvidia. Microsoft a également construit son propre processeur basé sur Arm pour les charges de travail cloud. Les deux puces de silicium personnalisées sont conçues pour alimenter ses centres de données Azure et préparer l’entreprise et ses entreprises clientes à un avenir plein d’IA. Microsoft a indiqué qu'elles ne sont donc pas destinées à la vente. Microsoft et d’autres entreprises technologiques ont été confrontées au coût élevé de la fourniture de services d’IA, qui peut coûter 10 fois plus cher que des services tels que les moteurs de recherche.

Mercredi, lors de la conférence Microsoft Ignite, Microsoft a annoncé deux puces personnalisées conçues pour accélérer les charges de travail d'IA en interne via son service de cloud computing Azure : Microsoft Azure Maia 100 AI Accelerator et le processeur Microsoft Azure Cobalt 100.

Microsoft a conçu Maia spécifiquement pour exécuter de grands modèles de langage tels que GPT 3.5 Turbo et GPT-4, qui sous-tendent ses services Azure OpenAI et Microsoft Copilot (anciennement Bing Chat). Maia possède 105 milliards de transistors fabriqués selon un processus TSMC de 5 nm. Pendant ce temps, Cobalt est un processeur ARM à 128 cœurs conçu pour effectuer des tâches informatiques conventionnelles telles que l’alimentation de Microsoft Teams. Microsoft n'a pas l'intention de vendre l'un ou l'autre, les préférant uniquement pour un usage interne :

Citation Envoyé par Microsoft
Les puces commenceront à être déployées au début de l’année prochaine dans les centres de données de Microsoft, alimentant dans un premier temps les services de l’entreprise tels que Microsoft Copilot ou Azure OpenAI Service. Ils rejoindront une gamme croissante de produits de partenaires industriels pour aider à répondre à la demande croissante de puissance de calcul efficace, évolutive et durable et aux besoins des clients désireux de profiter des dernières avancées en matière de cloud et d'IA.
Les puces représentent la dernière pièce du puzzle permettant à Microsoft de fournir des systèmes d'infrastructure - qui incluent tout, depuis les choix de silicium, les logiciels et les serveurs jusqu'aux racks et systèmes de refroidissement - qui ont été conçus de fond en comble et peuvent être optimisés en gardant à l'esprit les charges de travail internes et client.

Un choix stratégique...

Le H100, annoncé l’année dernière, est la dernière puce IA phare de Nvidia, succédant à l’A100, une puce d’environ 10*000 $ qui a été qualifiée de « bête de somme » pour les applications IA.

Les développeurs utilisent le H100 pour créer des modèles de langage étendus (LLM), qui sont au cœur des applications d'IA comme ChatGPT d'OpenAI. L’exécution de ces systèmes coûte cher et nécessite des ordinateurs puissants pour traiter des téraoctets de données pendant des jours ou des semaines à la fois. Ils s’appuient également sur une puissance de calcul importante pour que le modèle d’IA puisse générer du texte, des images ou des prédictions.

La formation de modèles d’IA, en particulier les plus grands comme GPT, nécessite que des centaines de GPU Nvidia haut de gamme travaillent ensemble.

La puce Azure Maia AI de Microsoft et le processeur Azure Cobalt alimenté par Arm arriveront en 2024, à la suite d'une augmentation de la demande cette année pour les GPU H100 de Nvidia. La demande pour ces GPU est telle que certains ont même atteint plus de 40 000 $ sur eBay.

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Nvidia H100 GPUs going for $40k on eBay. <a href="https://t.co/7NOBI8cn3k">pic.twitter.com/7NOBI8cn3k</a></p>— John Carmack (@ID_AA_Carmack) <a href="https://twitter.com/ID_AA_Carmack/status/1646676148657569792?ref_src=twsrc%5Etfw">April 14, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

« Microsoft a en fait une longue histoire dans le développement du silicium », explique Rani Borkar, responsable des systèmes et infrastructures matériels Azure chez Microsoft.

Microsoft a collaboré sur le silicium pour la Xbox il y a plus de 20 ans et a même co-conçu des puces pour ses appareils Surface. « Ces efforts s'appuient sur cette expérience », explique Borkar. « En 2017, nous avons commencé à concevoir l'architecture de la pile matérielle cloud et nous avons commencé ce voyage qui nous a mis sur la bonne voie pour créer nos nouvelles puces personnalisées ».

La nouvelle puce Azure Maia AI et le processeur Azure Cobalt sont tous deux construits en interne chez Microsoft, combinés à une refonte en profondeur de l'ensemble de sa pile de serveurs cloud pour optimiser les performances, la puissance et les coûts. « Nous repensons l'infrastructure cloud pour l'ère de l'IA et optimisons littéralement chaque couche de cette infrastructure », explique Borkar.


Rani Borkar, vice-président d'entreprise pour Azure Hardware Systems and Infrastructure (AHSI) chez Microsoft

... qui prend également en compte la pénurie de puces

Dans un contexte de pénuries de puces qui ont fait grimper les prix des GPU Nvidia AI très recherchés, plusieurs entreprises ont conçu ou envisagent de concevoir leurs propres puces accélératrices d'IA, notamment Amazon, OpenAI, IBM et AMD. Microsoft a également ressenti le besoin de créer un silicium personnalisé pour mettre ses propres services au premier plan.

Lors de son annonce, la société a expliqué :

Citation Envoyé par Microsoft
Les puces sont les bêtes de somme du cloud. Ils commandent des milliards de transistors qui traitent les vastes flux de uns et de zéros circulant dans les centres de données. Ce travail vous permet finalement de faire à peu près tout sur votre écran, de l'envoi d'un e-mail à la génération d'une image dans Bing avec une simple phrase.

Tout comme la construction d'une maison vous permet de contrôler chaque choix et chaque détail de conception, Microsoft considère l'ajout de puces développées en interne comme un moyen de garantir que chaque élément est adapté aux charges de travail Microsoft Cloud et IA. Les puces seront nichées sur des cartes de serveur personnalisées, placées dans des racks sur mesure qui s'intègrent facilement dans les centres de données Microsoft existants. Le matériel fonctionnera main dans la main avec les logiciels – conçus conjointement pour débloquer de nouvelles capacités et opportunités.
Faire co-évoluer hardware et software

Le nouvel accélérateur d’IA Maia 100 de la société alimentera certaines des plus grandes charges de travail d’IA internes exécutées sur Microsoft Azure. De plus, OpenAI a fourni des commentaires sur Azure Maia et les informations approfondies de Microsoft sur la manière dont les charges de travail d’OpenAI s’exécutent sur une infrastructure adaptée à ses grands modèles de langage contribuent à éclairer les futures conceptions de Microsoft.

«*Depuis notre premier partenariat avec Microsoft, nous avons collaboré pour co-concevoir l'infrastructure d'IA d'Azure à chaque couche pour nos modèles et nos besoins de formation sans précédent », a déclaré Sam Altman, PDG d'OpenAI. « Nous étions enthousiasmés lorsque Microsoft a partagé pour la première fois ses conceptions pour la puce Maia, et nous avons travaillé ensemble pour l'affiner et la tester avec nos modèles. L’architecture d’IA de bout en bout d’Azure, désormais optimisée jusqu’au silicium avec Maia, ouvre la voie...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !