Microsoft a réaffirmé l'interdiction faite aux services de police américains d'utiliser l'IA générative pour la reconnaissance faciale par le biais d'Azure OpenAI Service, l'enveloppe entièrement gérée et axée sur l'entreprise autour de la technologie OpenAI.
La nouvelle politique interdit explicitement l’utilisation des intégrations avec le service Azure OpenAI « par ou pour » les départements de police américains, y compris les modèles d’analyse de texte et de parole d’OpenAI. Un point supplémentaire dans les nouvelles conditions de service couvre « toute force de l’ordre à l’échelle mondiale » et interdit spécifiquement l’utilisation de « technologie de reconnaissance faciale en temps réel » sur des caméras mobiles, telles que des caméras corporelles et des dashcams, pour tenter d’identifier une personne dans des environnements « non contrôlés, dans la nature ».
Envoyé par Microsoft
Cette mise à jour intervient une semaine après qu’Axon, l'entreprise de 22 milliards de dollars spécialisée dans la police et surtout connue pour la fabrication de l'arme électrique Taser, a lancé un nouvel outil appelé Draft One qui, selon elle, peut transcrire l'audio des caméras corporelles et le transformer automatiquement en un rapport de police à l'aide du GPT-4 d’OpenAI.
Les policiers peuvent ensuite revoir le document pour s'assurer de son exactitude, a déclaré le PDG d'Axon, Rick Smith. Axon affirme qu'un des premiers testeurs de l'outil, le service de police de Fort Collins Colorado, a constaté une diminution de 82 % du temps passé à rédiger des rapports. « Si un agent passe la moitié de sa journée à rédiger des rapports et que nous pouvons réduire ce temps de moitié, nous avons la possibilité de libérer 25 % du temps de l'agent pour qu'il puisse à nouveau faire son travail de policier », a déclaré Rick Smith.
Cependant, ces rapports sont souvent utilisés comme preuves dans les procès pénaux, et les critiques craignent que le recours à l'IA ne mette les gens en danger en dépendant de modèles de langage connus pour leurs « hallucinations » ou leurs inventions, ainsi que pour leurs préjugés raciaux, qu'ils soient flagrants ou inconscients.
Les critiques ont rapidement souligné les écueils potentiels.
« C'est une sorte de cauchemar », a déclaré Dave Maass, directeur des enquêtes sur les technologies de surveillance à l'Electronic Frontier Foundation. « La police, qui n'est pas spécialisée dans l'IA et qui ne sera pas non plus spécialisée dans la reconnaissance des problèmes liés à l'IA, va utiliser ces systèmes pour générer un langage susceptible d'affecter des millions de personnes dans le cadre de leur implication dans le système de justice pénale. Qu'est-ce qui pourrait mal tourner ? »
Smith reconnaît qu'il y a des dangers. « Lorsque l'on parle de partialité dans l'IA, il s'agit en fait d'une question d'équité : est-ce que cela va exacerber le racisme en prenant des données d'entraînement qui vont traiter les gens différemment ? », a-t-il déclaré. « C'était le principal risque ».
Selon Smith, Axon recommande aux policiers de ne pas utiliser l'IA pour rédiger des rapports sur des incidents aussi graves qu'une fusillade, où des informations vitales pourraient être omises. « Une fusillade impliquant un officier est probablement un scénario où elle ne serait pas utilisée, et je déconseillerais probablement aux gens de l'utiliser, simplement parce qu'il y a tellement de complexité, les enjeux sont tellement élevés ». Il a précisé que certains des premiers clients n'utilisent Draft One que pour des délits mineurs, alors que d'autres rédigent des « incidents plus importants », y compris des cas de recours à la force. Axon n'aura toutefois aucun contrôle sur l'utilisation des outils par les différents services de police.
Les nouveaux termes laissent une marge de manœuvre à Microsoft
Il n’est pas clair si Axon utilisait GPT-4 via le service Azure OpenAI, et si oui, si la politique mise à jour était en réponse au lancement du produit d’Axon. OpenAI avait auparavant restreint l’utilisation de ses modèles pour la reconnaissance faciale via ses API.
Les nouveaux termes laissent une marge de manœuvre à Microsoft. L’interdiction complète de l’utilisation du service Azure OpenAI ne concerne que les États-Unis, et non la police à l'internationale. Et cela ne couvre pas la reconnaissance faciale effectuée avec des caméras fixes dans des environnements contrôlés, comme un back-office (bien que les termes interdisent toute utilisation de la reconnaissance faciale par la police américaine).
Quoiqu'il en soit, cela s’aligne sur l’approche récente de Microsoft et de son partenaire proche OpenAI en matière de contrats liés à l'IA avec les forces de l'ordre et de défense. En janvier, un reportage de Bloomberg a révélé qu’OpenAI travaille avec le Pentagone sur un certain nombre de projets, y compris des capacités de cybersécurité - un changement de direction si l'on tient compte de l’interdiction antérieure de la startup de fournir son IA aux militaires. Ailleurs, Microsoft a proposé d’utiliser l’outil de génération d’images d’OpenAI, DALL-E, pour aider le Département de la Défense (DoD) à construire des logiciels pour exécuter des opérations militaires, d'après le quotidien The Intercept.
Le service Azure OpenAI est devenu disponible dans le produit Azure Government de Microsoft en février, ajoutant des fonctionnalités de conformité et de gestion supplémentaires adaptées aux agences gouvernementales, y compris les forces de l’ordre. Dans un article de blog, Candice Ling, vice-présidente senior de la division de Microsoft axée sur le gouvernement, Microsoft Federal, a promis que le service Azure OpenAI serait « soumis à une autorisation supplémentaire » pour les charges de travail soutenant les missions du DoD.
Conclusion
Cette décision de Microsoft marque une étape importante dans la régulation de l’utilisation de l’IA, en particulier dans le domaine sensible de l’application de la loi. Elle reflète une prise de conscience croissante des implications éthiques et des risques potentiels associés à l’utilisation de technologies avancées dans des contextes critiques.
Sources : Microsoft, Candice Ling
Et vous ?
Quelles pourraient être les conséquences positives et négatives de l’interdiction par Microsoft de l’utilisation de l’IA pour la reconnaissance faciale par les départements de police ?
Comment cette décision affecte-t-elle la balance entre sécurité publique et vie privée ?
Pensez-vous que les technologies d’IA devraient être réglementées par les entreprises qui les développent ou par des organismes gouvernementaux ?
Quel rôle les préoccupations éthiques devraient-elles jouer dans le développement et l’utilisation des technologies d’IA ?
Comment les départements de police peuvent-ils assurer la transparence et la responsabilité dans l’utilisation des technologies d’IA ?
Quelles mesures peuvent être prises pour éviter les biais raciaux et autres formes de discrimination dans l’utilisation de l’IA ?
La décision de Microsoft pourrait-elle créer un précédent pour d’autres entreprises technologiques ?
Comment les citoyens peuvent-ils s’assurer que leur droits sont protégés à l’ère de l’IA ?