
Début août, OpenAI a dévoilé la dernière version tant attendue de son chatbot basé sur l'intelligence artificielle (IA), GPT-5, affirmant qu'il offre une expertise de niveau doctorat. Présenté comme « plus intelligent, plus rapide et plus utile », Sam Altman, a salué le nouveau modèle de l'entreprise comme marquant le début d'une nouvelle ère pour ChatGPT.
Sam Altman a déclaré que le nouveau modèle d'OpenAI souffrirait de moins d'hallucinations (phénomène par lequel les grands modèles de langage inventent des réponses) et serait moins trompeur. En outre, OpenAI présente également GPT-5 aux codeurs comme un assistant compétent, suivant ainsi une tendance parmi les principaux développeurs américains d'IA, notamment Anthropic, dont Claude Code cible le même marché.
En collaboration avec OpenAI, Microsoft a récemment déployé la prise en charge de GPT-5 le jour même de son lancement, afin que vous puissiez l'utiliser, le développer et l'intégrer immédiatement à vos applications. Voici un aperçu axé sur le développement : disponibilité de GPT-5, nouvelles fonctionnalités et étapes de démarrage rapide.
Récapitulatif de l'annonce de GPT-5
- Meilleur raisonnement et pensée structurée, avec une précision améliorée et des réponses plus rapides
- Reconnaissance contextuelle renforcée pour les workflows complexes du monde réel
- Fonctionnalités unifiées pour le chat, les agents, le codage, le multimodal et les mathématiques avancées
- Disponible dès maintenant dans ChatGPT et dans l'API
Microsoft a annoncé la prise en charge de GPT-5 le jour même de sa sortie dans ses produits et services pour développeurs, et continue à étendre ces services, par exemple avec l'intégration de GPT-5 mini dans tous les plans Copilot.
Vous trouverez ci-dessous un résumé des intégrations de GPT-5 dans les produits et services Microsoft, sur la base du déploiement de GPT-5.
GitHub Copilot
GitHub Copilot intègre GPT-5 à votre éditeur et à vos workflows GitHub pour vous offrir des suggestions de code et des discussions plus riches, en particulier pour les modifications et les refactorisations importantes impliquant plusieurs fichiers. Comme il est intégré aux outils que vous utilisez déjà, vous pouvez explorer les capacités de GPT-5 sans interrompre votre flux de travail. La disponibilité peut varier selon l'EDI et le plan pendant la période de prévisualisation.
- Capacités de codage améliorées avec GPT-5 pour les tâches plus longues et plus complexes.
- Intégré à VS Code et aux workflows GitHub.
- Journal des modifications VS Code : GPT-5 mini dans Copilot pour VS Code
- Version VS Code : GitHub Copilot dans VS Code – Version de juillet (v1.103)
- Autres EDI : OpenAI GPT-5 est désormais disponible en préversion publique dans Visual Studio, les EDI JetBrains, Xcode et Eclipse
Boîte à outils IA dans Visual Studio Code
Utilisez la boîte à outils IA dans VS Code pour tester les modèles GPT-5 : connectez-vous à GitHub Models ou Azure AI Foundry, exécutez des playgrounds et créez des intégrations dans votre espace de travail. Elle fonctionne à la fois avec des points de terminaison cloud et des backends OSS/locaux, ce qui vous permet de créer des prototypes et de les livrer à partir du même éditeur.
- Modèles GPT-5 disponibles via la boîte à outils IA pour l'expérimentation et l'intégration.
- Prend en charge le développement GPT OSS et cloud/local.
- Annonce/documentation : la famille de modèles GPT-5 et GPT OSS sont désormais disponibles dans AI Toolkit pour VS Code
Azure AI Foundry
L'accès à gpt-5 dans Azure AI Foundry nécessite une inscription. gpt-5-mini, gpt-5-nano et gpt-5-chat ne nécessitent pas d'inscription. Les modèles GPT-5 sont actuellement disponibles dans les zones Est des États-Unis 2 et Centre de la Suède (zones standard et de données mondiales).
- Modèles GPT-5 disponibles avec une sécurité et un routage de modèles de niveau entreprise.
- Prise en charge des tâches agenturielles de longue durée avec des sorties structurées et des capacités de raisonnement.
- Disponibilité régionale : les modèles GPT-5 sont actuellement disponibles dans les zones East US 2 et Sweden Central (Global Standard & Data Zones). Voir Modèles Azure OpenAI : GPT-5.
- Accès : inscription requise pour gpt-5 ; gpt-5-mini, gpt-5-nano et gpt-5-chat ne nécessitent pas d'inscription.
- Fonctionnalités complètes : modèles de raisonnement Azure OpenAI.
- Annonce/documentation : Microsoft intègre le GPT-5 d'OpenAI dans ses offres destinées aux consommateurs, aux développeurs et aux entreprises.
Modèles GitHub
- Prend en charge gpt-5, gpt-5-mini, gpt-5-nano, gpt-5-chat.
- Marketplace : Modèles · GitHub Marketplace
Microsoft Copilot Studio
- Les créateurs peuvent sélectionner des modèles GPT-5 pour l'orchestration des agents.
- Prend en charge GPT-5 Chat et GPT-5 Reasoning avec routage automatique.
- Annonce / documentation : Disponible dès aujourd'hui : GPT-5 dans Microsoft Copilot Studio.
Microsoft 365 Copilot
- GPT-5 optimise Copilot Chat grâce à une orchestration plus intelligente, un raisonnement amélioré et des capacités multimodales.
- Les utilisateurs peuvent s'inscrire via le bouton « Essayer GPT-5 ».
- Annonce / documentation : Disponible dès aujourd'hui : GPT-5 dans Microsoft 365 Copilot
SDK OpenAI .NET
- La bibliothèque .NET officielle prend en charge GPT-5 via l'API Responses, y compris le streaming et le raisonnement avec un effort de raisonnement configurable.
- Guide : Comment utiliser les réponses avec le streaming et le raisonnement
- NuGet : OpenAI
Exemple C# : streaming avec effort de raisonnement
Code C# : | Sélectionner tout |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | using OpenAI.Responses; OpenAIResponseClient client = new( model: "gpt-5", apiKey: Environment.GetEnvironmentVariable("OPENAI_API_KEY") ); await foreach (var update in client.CreateResponseStreamingAsync( userInputText: "Explain beta-reduction in lambda calculus.", new ResponseCreationOptions { ReasoningOptions = new ResponseReasoningOptions { ReasoningEffortLevel = ResponseReasoningEffortLevel.High, }, })) { if (update is StreamingResponseContentPartDeltaUpdate delta) { Console.Write(delta.Text); } } |
Exemple Python : effort de raisonnement et verbosité
Cet exemple illustre le comportement de réponse contrôlable de GPT-5 à l'aide des nouveaux paramètres reasoning_effort et verbosity, qui permettent aux développeurs d'ajuster la profondeur de réflexion du modèle et la quantité d'informations qu'il fournit.
Code Python : | Sélectionner tout |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 | import os import openai from azure.identity import DefaultAzureCredential, get_bearer_token_provider client = openai.AzureOpenAI( api_version=os.environ["AZURE_OPENAI_VERSION"], azure_endpoint=os.environ["AZURE_OPENAI_ENDPOINT"], azure_ad_token_provider=get_bearer_token_provider(DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"), ) response = client.chat.completions.create( model=os.environ["AZURE_OPENAI_DEPLOYMENT"], messages=[ {"role": "user", "content": "Explain beta-reduction in lambda calculus."}, ], reasoning_effort="minimal", verbosity="low" ) print(response.choices[0].message. Content) |
Exemple JavaScript : sortie structurée GPT-5 (schéma JSON)
Cet exemple JavaScript met en évidence la capacité de GPT-5 à renvoyer un JSON structuré et conforme au schéma à l'aide du nouveau paramètre response_format avec un schéma JSON personnalisé, ce qui facilite l'extraction des étapes de raisonnement et des réponses finales avec une sécurité de type totale. Il démontre également une intégration transparente avec les points de terminaison Azure Foundry pour des déploiements sécurisés et de qualité production.
Code JavaScript : | Sélectionner tout |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 | import { AzureOpenAI } from "openai"; import dotenv from "dotenv"; dotenv.config(); const endpoint = process.env.AZURE_INFERENCE_ENDPOINT; // Foundry project endpoint const key = process.env.AZURE_INFERENCE_KEY; // API key const deployment = process.env.AZURE_OPENAI_DEPLOYMENT || "gpt-5"; const client = new AzureOpenAI({ endpoint, apiKey: key, apiVersion: "2025-01-01-preview", deployment, }); const schema = { name: "math_explanation", schema: { type: "object", properties: { steps: { type: "array", items: { type: "string" } }, answer: { type: "number" }, }, required: ["steps", "answer"], additionalProperties: false, }, strict: true, }; const result = await client.chat.completions.create({ model: deployment, messages: [ { role: "system", content: "Return JSON only." }, { role: "user", content: "What is 23 * 7? Show your steps." }, ], response_format: { type: "json_schema", json_schema: schema }, }); const content = result.choices[0].message?.content ?? "{}"; const data = JSON.parse(content); console.log("Steps:", data.steps); console.log("Answer:", data.answer); |
Sortie :
Code JSON : | Sélectionner tout |
1 2 3 4 5 6 7 8 9 | Example output for "What is 23 * 7? Show your steps.": Steps: [ 'Break 23 into 20 and 3: (20 + 3) * 7', 'Multiply: 20 * 7 = 140', 'Multiply: 3 * 7 = 21', 'Add the results: 140 + 21 = 161' ] Answer: 161 |
Python : exemple de chat RAG
Vous recherchez un exemple complet ? Découvrez l'application de chat Azure Search + OpenAI RAG en Python : application de chat RAG avec Azure OpenAI et Azure AI Search (Python). Elle comprend un backend Python et un frontend React, des exemples de données et des chemins de démarrage rapide (Codespaces, Dev Containers ou azd) pour vous permettre de la déployer et de la tester rapidement. La documentation couvre également l'évaluation et le renforcement de la production.
Elle a été mise à jour pour GPT-5 : changez le modèle et la version du chat via les variables d'environnement, puis redéployez. Consultez les sections « Utilisation de différents modèles de complétion de chat » et « Utilisation de modèles de raisonnement » dans la documentation de l...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.