IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft interdit aux services de police américains d'utiliser son outil IA pour la reconnaissance faciale
Une semaine après qu'un fabricant de produits technologiques et d'armes a annoncé utiliser GPT-4

Le , par Stéphane le calme

38PARTAGES

4  0 
Microsoft a renforcé sa position sur l’utilisation éthique de l’intelligence artificielle (IA) en interdisant aux départements de police des États-Unis d’utiliser son service Azure OpenAI pour la reconnaissance faciale. Cette décision fait suite à une mise à jour des conditions d’utilisation du service Azure OpenAI, qui est un service géré et axé sur les entreprises autour des technologies OpenAI.

Microsoft a réaffirmé l'interdiction faite aux services de police américains d'utiliser l'IA générative pour la reconnaissance faciale par le biais d'Azure OpenAI Service, l'enveloppe entièrement gérée et axée sur l'entreprise autour de la technologie OpenAI.

La nouvelle politique interdit explicitement l’utilisation des intégrations avec le service Azure OpenAI « par ou pour » les départements de police américains, y compris les modèles d’analyse de texte et de parole d’OpenAI. Un point supplémentaire dans les nouvelles conditions de service couvre « toute force de l’ordre à l’échelle mondiale » et interdit spécifiquement l’utilisation de « technologie de reconnaissance faciale en temps réel » sur des caméras mobiles, telles que des caméras corporelles et des dashcams, pour tenter d’identifier une personne dans des environnements « non contrôlés, dans la nature ».

Citation Envoyé par Microsoft
Les intégrations avec Azure OpenAI Service ne doivent pas :
  • [...]
  • être utilisées pour des chatbots qui (i) sont érotiques, romantiques, ou utilisés à des fins d'accompagnement, ou qui sont autrement interdits par le présent Code de conduite ; (ii) sont des personas de personnes spécifiques sans leur consentement explicite ; (iii) prétendent avoir une sagesse/insight/connaissance spéciale, sauf s'il est très clairement indiqué qu'ils sont utilisés à des fins de divertissement uniquement ; ou (iv) permettent aux utilisateurs finaux de créer leurs propres chatbots sans surveillance.
  • être utilisés pour déduire les attributs sensibles des personnes, tels que le sexe, la race ou l'âge spécifique, à partir d'images ou de vidéos d'elles (à l'exclusion de la tranche d'âge, de l'état de la bouche et de la couleur des cheveux), ou
  • tenter de déduire l'état émotionnel d'une personne à partir de ses caractéristiques physiques, physiologiques ou comportementales (par exemple, expressions faciales, mouvements du visage ou modes d'élocution) ; ou
  • sans le consentement valable de la personne, être utilisés pour une surveillance permanente ou une identification en temps réel ou quasi réel ou un suivi permanent de la personne à l'aide de ses informations personnelles, y compris les données biométriques ; ou
  • être utilisées à des fins de reconnaissance faciale par ou pour un service de police aux États-Unis ; ou
  • être utilisée pour toute technologie de reconnaissance faciale en temps réel sur des caméras mobiles utilisées par les forces de l'ordre dans le monde entier pour tenter d'identifier des individus dans des environnements non contrôlés, « dans la nature », ce qui inclut (sans limitation) les policiers en patrouille utilisant des caméras portées ou montées sur le tableau de bord utilisant une technologie de reconnaissance faciale pour tenter d'identifier des individus présents dans une base de données de suspects ou de détenus antérieurs.
Une semaine auparavant, un fabricant de produits technologiques et d'armes a annoncé utiliser le GPT-4 Turbo d'OpenAI

Cette mise à jour intervient une semaine après qu’Axon, l'entreprise de 22 milliards de dollars spécialisée dans la police et surtout connue pour la fabrication de l'arme électrique Taser, a lancé un nouvel outil appelé Draft One qui, selon elle, peut transcrire l'audio des caméras corporelles et le transformer automatiquement en un rapport de police à l'aide du GPT-4 d’OpenAI.

Les policiers peuvent ensuite revoir le document pour s'assurer de son exactitude, a déclaré le PDG d'Axon, Rick Smith. Axon affirme qu'un des premiers testeurs de l'outil, le service de police de Fort Collins Colorado, a constaté une diminution de 82 % du temps passé à rédiger des rapports. « Si un agent passe la moitié de sa journée à rédiger des rapports et que nous pouvons réduire ce temps de moitié, nous avons la possibilité de libérer 25 % du temps de l'agent pour qu'il puisse à nouveau faire son travail de policier », a déclaré Rick Smith.

Cependant, ces rapports sont souvent utilisés comme preuves dans les procès pénaux, et les critiques craignent que le recours à l'IA ne mette les gens en danger en dépendant de modèles de langage connus pour leurs « hallucinations » ou leurs inventions, ainsi que pour leurs préjugés raciaux, qu'ils soient flagrants ou inconscients.

Les critiques ont rapidement souligné les écueils potentiels.

« C'est une sorte de cauchemar », a déclaré Dave Maass, directeur des enquêtes sur les technologies de surveillance à l'Electronic Frontier Foundation. « La police, qui n'est pas spécialisée dans l'IA et qui ne sera pas non plus spécialisée dans la reconnaissance des problèmes liés à l'IA, va utiliser ces systèmes pour générer un langage susceptible d'affecter des millions de personnes dans le cadre de leur implication dans le système de justice pénale. Qu'est-ce qui pourrait mal tourner ? »

Smith reconnaît qu'il y a des dangers. « Lorsque l'on parle de partialité dans l'IA, il s'agit en fait d'une question d'équité : est-ce que cela va exacerber le racisme en prenant des données d'entraînement qui vont traiter les gens différemment ? », a-t-il déclaré. « C'était le principal risque ».

Selon Smith, Axon recommande aux policiers de ne pas utiliser l'IA pour rédiger des rapports sur des incidents aussi graves qu'une fusillade, où des informations vitales pourraient être omises. « Une fusillade impliquant un officier est probablement un scénario où elle ne serait pas utilisée, et je déconseillerais probablement aux gens de l'utiliser, simplement parce qu'il y a tellement de complexité, les enjeux sont tellement élevés ». Il a précisé que certains des premiers clients n'utilisent Draft One que pour des délits mineurs, alors que d'autres rédigent des « incidents plus importants », y compris des cas de recours à la force. Axon n'aura toutefois aucun contrôle sur l'utilisation des outils par les différents services de police.

Les nouveaux termes laissent une marge de manœuvre à Microsoft

Il n’est pas clair si Axon utilisait GPT-4 via le service Azure OpenAI, et si oui, si la politique mise à jour était en réponse au lancement du produit d’Axon. OpenAI avait auparavant restreint l’utilisation de ses modèles pour la reconnaissance faciale via ses API.

Les nouveaux termes laissent une marge de manœuvre à Microsoft. L’interdiction complète de l’utilisation du service Azure OpenAI ne concerne que les États-Unis, et non la police à l'internationale. Et cela ne couvre pas la reconnaissance faciale effectuée avec des caméras fixes dans des environnements contrôlés, comme un back-office (bien que les termes interdisent toute utilisation de la reconnaissance faciale par la police américaine).

Quoiqu'il en soit, cela s’aligne sur l’approche récente de Microsoft et de son partenaire proche OpenAI en matière de contrats liés à l'IA avec les forces de l'ordre et de défense. En janvier, un reportage de Bloomberg a révélé qu’OpenAI travaille avec le Pentagone sur un certain nombre de projets, y compris des capacités de cybersécurité - un changement de direction si l'on tient compte de l’interdiction antérieure de la startup de fournir son IA aux militaires. Ailleurs, Microsoft a proposé d’utiliser l’outil de génération d’images d’OpenAI, DALL-E, pour aider le Département de la Défense (DoD) à construire des logiciels pour exécuter des opérations militaires, d'après le quotidien The Intercept.

Le service Azure OpenAI est devenu disponible dans le produit Azure Government de Microsoft en février, ajoutant des fonctionnalités de conformité et de gestion supplémentaires adaptées aux agences gouvernementales, y compris les forces de l’ordre. Dans un article de blog, Candice Ling, vice-présidente senior de la division de Microsoft axée sur le gouvernement, Microsoft Federal, a promis que le service Azure OpenAI serait « soumis à une autorisation supplémentaire » pour les charges de travail soutenant les missions du DoD.


Conclusion

Cette décision de Microsoft marque une étape importante dans la régulation de l’utilisation de l’IA, en particulier dans le domaine sensible de l’application de la loi. Elle reflète une prise de conscience croissante des implications éthiques et des risques potentiels associés à l’utilisation de technologies avancées dans des contextes critiques.

Sources : Microsoft, Candice Ling

Et vous ?

Quelles pourraient être les conséquences positives et négatives de l’interdiction par Microsoft de l’utilisation de l’IA pour la reconnaissance faciale par les départements de police ?
Comment cette décision affecte-t-elle la balance entre sécurité publique et vie privée ?
Pensez-vous que les technologies d’IA devraient être réglementées par les entreprises qui les développent ou par des organismes gouvernementaux ?
Quel rôle les préoccupations éthiques devraient-elles jouer dans le développement et l’utilisation des technologies d’IA ?
Comment les départements de police peuvent-ils assurer la transparence et la responsabilité dans l’utilisation des technologies d’IA ?
Quelles mesures peuvent être prises pour éviter les biais raciaux et autres formes de discrimination dans l’utilisation de l’IA ?
La décision de Microsoft pourrait-elle créer un précédent pour d’autres entreprises technologiques ?
Comment les citoyens peuvent-ils s’assurer que leur droits sont protégés à l’ère de l’IA ?

Une erreur dans cette actualité ? Signalez-nous-la !