
une semaine après qu'un fabricant de produits technologiques et d'armes a annoncé utiliser GPT-4 Turbo d'OpenAI
Microsoft a renforcé sa position sur l’utilisation éthique de l’intelligence artificielle (IA) en interdisant aux départements de police des États-Unis d’utiliser son service Azure OpenAI pour la reconnaissance faciale. Cette décision fait suite à une mise à jour des conditions d’utilisation du service Azure OpenAI, qui est un service géré et axé sur les entreprises autour des technologies OpenAI.
Microsoft a réaffirmé l'interdiction faite aux services de police américains d'utiliser l'IA générative pour la reconnaissance faciale par le biais d'Azure OpenAI Service, l'enveloppe entièrement gérée et axée sur l'entreprise autour de la technologie OpenAI.
La nouvelle politique interdit explicitement l’utilisation des intégrations avec le service Azure OpenAI « par ou pour » les départements de police américains, y compris les modèles d’analyse de texte et de parole d’OpenAI. Un point supplémentaire dans les nouvelles conditions de service couvre « toute force de l’ordre à l’échelle mondiale » et interdit spécifiquement l’utilisation de « technologie de reconnaissance faciale en temps réel » sur des caméras mobiles, telles que des caméras corporelles et des dashcams, pour tenter d’identifier une personne dans des environnements « non contrôlés, dans la nature ».

Cette mise à jour intervient une semaine après qu’Axon, l'entreprise de 22 milliards de dollars spécialisée dans la police et surtout connue pour la fabrication de l'arme électrique Taser, a lancé un nouvel outil appelé Draft One qui, selon elle, peut transcrire l'audio des caméras corporelles et le transformer automatiquement en un rapport de police à l'aide du GPT-4 d’OpenAI.
Les policiers peuvent ensuite revoir le document pour s'assurer de son exactitude, a déclaré le PDG d'Axon, Rick Smith. Axon affirme qu'un des premiers testeurs de l'outil, le service de police de Fort Collins Colorado, a constaté une diminution de 82 % du temps passé à rédiger des rapports. « Si un agent passe la moitié de sa journée à rédiger des rapports et que nous pouvons réduire ce temps de moitié, nous avons la possibilité de libérer 25 % du temps de l'agent pour qu'il puisse à nouveau faire son travail de policier », a déclaré Rick Smith.
Cependant, ces rapports sont souvent utilisés comme preuves dans les procès pénaux, et les critiques craignent que le recours à l'IA ne mette les gens en danger en dépendant de modèles de langage connus pour leurs « hallucinations » ou leurs inventions, ainsi que pour leurs préjugés raciaux, qu'ils soient flagrants ou inconscients.
Les critiques ont rapidement souligné les écueils potentiels.
« C'est une sorte de cauchemar », a déclaré Dave Maass, directeur des enquêtes sur les technologies de surveillance à l'Electronic Frontier Foundation. « La police, qui n'est pas spécialisée dans l'IA et qui ne sera pas non plus spécialisée dans la reconnaissance des problèmes liés à l'IA, va utiliser ces systèmes pour générer un langage susceptible d'affecter des millions de personnes dans le cadre de leur implication dans le système de justice pénale. Qu'est-ce qui pourrait mal tourner ? »
Smith reconnaît qu'il y a des dangers. « Lorsque l'on parle de partialité dans l'IA, il s'agit en fait d'une question d'équité : est-ce que cela va exacerber le racisme en prenant des données d'entraînement qui vont traiter les gens différemment ? », a-t-il déclaré. « C'était le principal risque ».
Selon Smith, Axon recommande aux policiers de ne pas utiliser l'IA pour rédiger des rapports sur des incidents aussi graves qu'une fusillade, où des informations vitales pourraient être omises. « Une fusillade impliquant un officier est probablement un scénario où elle ne serait pas utilisée, et je déconseillerais probablement aux gens de l'utiliser, simplement parce qu'il y a tellement de complexité, les enjeux sont tellement élevés ». Il a précisé que certains des premiers clients n'utilisent Draft One que pour des délits mineurs, alors que d'autres rédigent des « incidents plus importants », y compris des cas de recours à la force. Axon n'aura toutefois aucun contrôle sur l'utilisation des outils par les différents services de police.
Les nouveaux termes laissent une marge de manœuvre à Microsoft
Il n’est pas clair si Axon utilisait GPT-4 via le service Azure OpenAI, et si oui, si la politique mise à jour était en réponse au lancement du produit d’Axon. OpenAI avait auparavant restreint l’utilisation de ses modèles pour la reconnaissance faciale via ses API.
Les nouveaux termes laissent une marge de manœuvre à Microsoft. L’interdiction complète de l’utilisation du service Azure OpenAI ne concerne que les États-Unis, et non la police à l'internationale. Et cela ne couvre pas la reconnaissance faciale effectuée avec des caméras fixes dans des environnements contrôlés, comme...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.