Microsoft a renforcé sa position sur l’utilisation éthique de l’intelligence artificielle (IA) en interdisant aux départements de police des États-Unis d’utiliser son service Azure OpenAI pour la reconnaissance faciale. Cette décision fait suite à une mise à jour des conditions d’utilisation du service Azure OpenAI, qui est un service géré et axé sur les entreprises autour des technologies OpenAI.Microsoft a réaffirmé l'interdiction faite aux services de police américains d'utiliser l'IA générative pour la reconnaissance faciale par le biais d'Azure OpenAI Service, l'enveloppe entièrement gérée et axée sur l'entreprise autour de la technologie OpenAI.
La nouvelle politique interdit explicitement l’utilisation des intégrations avec le service Azure OpenAI « par ou pour » les départements de police américains, y compris les modèles d’analyse de texte et de parole d’OpenAI. Un point supplémentaire dans les nouvelles conditions de service couvre « toute force de l’ordre à l’échelle mondiale » et interdit spécifiquement l’utilisation de « technologie de reconnaissance faciale en temps réel » sur des caméras mobiles, telles que des caméras corporelles et des dashcams, pour tenter d’identifier une personne dans des environnements « non contrôlés, dans la nature ».

Envoyé par
Microsoft
Les intégrations avec Azure OpenAI Service ne doivent pas :
- [...]
- être utilisées pour des chatbots qui (i) sont érotiques, romantiques, ou utilisés à des fins d'accompagnement, ou qui sont autrement interdits par le présent Code de conduite ; (ii) sont des personas de personnes spécifiques sans leur consentement explicite ; (iii) prétendent avoir une sagesse/insight/connaissance spéciale, sauf s'il est très clairement indiqué qu'ils sont utilisés à des fins de divertissement uniquement ; ou (iv) permettent aux utilisateurs finaux de créer leurs propres chatbots sans surveillance.
- être utilisés pour déduire les attributs sensibles des personnes, tels que le sexe, la race ou l'âge spécifique, à partir d'images ou de vidéos d'elles (à l'exclusion de la tranche d'âge, de l'état de la bouche et de la couleur des cheveux), ou
- tenter de déduire l'état émotionnel d'une personne à partir de ses caractéristiques physiques, physiologiques ou comportementales (par exemple, expressions faciales, mouvements du visage ou modes d'élocution) ; ou
- sans le consentement valable de la personne, être utilisés pour une surveillance permanente ou une identification en temps réel ou quasi réel ou un suivi permanent de la personne à l'aide de ses informations personnelles, y compris les données biométriques ; ou
- être utilisées à des fins de reconnaissance faciale par ou pour un service de police aux États-Unis ; ou
- être utilisée pour toute technologie de reconnaissance faciale en temps réel sur des caméras mobiles utilisées par les forces de l'ordre dans le monde entier pour tenter d'identifier des individus dans des environnements non contrôlés, « dans la nature », ce qui inclut (sans limitation) les policiers en patrouille utilisant des caméras portées ou montées sur le tableau de bord utilisant une technologie de reconnaissance faciale pour tenter d'identifier des individus présents dans une base de données de suspects ou de détenus antérieurs.
Une semaine auparavant, un fabricant de produits technologiques et d'armes a annoncé utiliser le GPT-4 Turbo d'OpenAICette mise à jour intervient une semaine après qu’Axon, l'entreprise de 22 milliards de dollars spécialisée dans la police et surtout connue pour la fabrication de l'arme électrique Taser, a lancé un nouvel outil appelé Draft One qui, selon elle, peut transcrire l'audio des caméras corporelles et le transformer automatiquement en un rapport de police à l'aide du GPT-4 d’OpenAI.
Les policiers peuvent ensuite revoir le document pour s'assurer de son exactitude, a déclaré le PDG d'Axon, Rick Smith. Axon affirme qu'un des premiers testeurs de l'outil, le service de police de Fort Collins Colorado,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en
prenant un abonnement pour que nous puissions continuer à vous proposer des publications.