IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft prépare un nouveau modèle d'IA pour concurrencer Google et OpenAI. MAI-1 est décrit comme étant « bien plus grand » que les précédents modèles open source de Microsoft

Le , par Stéphane le calme

127PARTAGES

6  0 
Microsoft a annoncé le développement d’un nouveau modèle d’IA, nommé MAI-1, qui promet de rivaliser avec les géants du secteur tels que Google et OpenAI. Ce nouveau modèle, supervisé par Mustafa Suleyman, co-fondateur de Google DeepMind et ancien PDG de la startup Inflection, représente une avancée significative pour Microsoft dans la course à l’IA. MAI-1 est décrit comme étant « bien plus grand » que les précédents modèles open source développés par Microsoft, selon un rapport, ce qui implique une puissance de calcul et des coûts accrus.

Avec environ 500 milliards de paramètres, MAI-1 sera nettement plus grand que les modèles open source précédents de Microsoft (tels que Phi-3), ce qui nécessitera plus de puissance de calcul et de données d'entraînement. Cela place MAI-1 dans une ligue similaire à GPT-4 d'OpenAI, qui aurait plus de 1 000 milliards de paramètres (dans une configuration de mélange d'experts) et bien au-dessus de modèles plus petits comme Meta et les modèles de 70 milliards de paramètres de Mistral.

Pour mémoire, le mois dernier, Microsoft a présenté Phi-3-mini, un modèle de langage de 3,8 milliards de paramètres entraîné sur 3,3 trillions de tokens, dont les performances globales, mesurées à la fois par des benchmarks académiques et des tests internes, rivalisent avec celles de modèles tels que Mixtral 8x7B et GPT-3.5 (par exemple, Phi-3-mini atteint 69 % sur MMLU et 8,38 sur MT-bench), bien qu'il soit suffisamment petit pour être déployé sur un téléphone.

L'innovation réside entièrement dans l'ensemble de données pour l'entraînement de Microsoft, une version agrandie de celle utilisée pour Phi-2, composée de données web fortement filtrées et de données synthétiques. Le modèle est également aligné en termes de robustesse, de sécurité et de format de discussion. Microsoft fournit également quelques résultats initiaux de mise à l'échelle des paramètres avec des modèles 7B et 14B entraînés pour 4,8T tokens, appelés Phi-3-small et Phi-3-medium, tous deux significativement plus performants que Phi-3-mini (par exemple, respectivement 75 % et 78 % sur MMLU, et 8,7 et 8,9 sur MT-bench).

Le développement de MAI-1 suggère une double approche de l'IA au sein de Microsoft, qui se concentre à la fois sur de petits modèles de langage exécutés localement pour les appareils mobiles et sur de plus grands modèles de pointe alimentés par le cloud. Apple serait en train d'explorer une approche similaire. Il souligne également la volonté de l'entreprise d'explorer le développement de l'IA indépendamment d'OpenAI, dont la technologie alimente actuellement les fonctions d'IA générative les plus ambitieuses de Microsoft, y compris un chatbot intégré à Windows.

Le but exact de MAI-1 n’a pas encore été déterminé et dépendra de ses performances lors des tests. Microsoft pourrait présenter ce nouveau modèle lors de sa conférence pour développeurs Build, plus tard ce mois-ci.


Des courriels révèlent que l'investissement d'un milliard de dollars de Microsoft dans OpenAI a été déclenché par les craintes de Google

Microsoft a investi 1 milliard de dollars dans OpenAI en 2019 parce qu'elle était « très inquiète » que Google ait des années d'avance dans l'intensification de ses efforts en matière d'IA. Un courriel interne, intitulé « Thoughts on OpenAI », entre le directeur technique de Microsoft Kevin Scott, le PDG Satya Nadella et le cofondateur Bill Gates révèle certaines des discussions de haut niveau autour d'une opportunité d'investissement dans les mois qui ont précédé la révélation du partenariat par Microsoft.

L'email a été publié mardi dans le cadre de l'affaire antitrust en cours du ministère américain de la Justice contre Google.

« Nous avons plusieurs années de retard sur la concurrence en termes d'échelle d'apprentissage automatique », a écrit Scott dans son courriel du 12 juin 2019 à Nadella et Gates. Il détaille comment il a fallu six mois aux ingénieurs de Microsoft pour reproduire le modèle linguistique...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de _toma_
Membre éclairé https://www.developpez.com
Le 07/05/2024 à 12:55
Concours de bite.
3  0 
Avatar de sami_c
Membre averti https://www.developpez.com
Le 07/05/2024 à 13:20
Je n'ai pas bien compris : MS investi beaucoup d'argent dans OpenAI et exploite ses solutions, mais en même temps développe sa propre AI ... pourquoi ?

Puis franchement, n'est-il pas trop tard ? Google est un des pionnier de l'AI et ce depuis plusieurs années, est-ce que MS peut rattraper ce retard en quelques années ? Pour rappel MS a manqué le virage du mobile, a acheté Nokia pour se rattraper mais s'est cassé la gueule et a fini par laisser tomber .... pourquoi ça sera différent avec l'AI ?
2  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 07/05/2024 à 13:39
2  0