Aujourd’hui, nous partageons publiquement Microsoft Norme d’IA responsableun cadre pour guider la façon dont nous construisons des systèmes d’IA. Il s’agit d’une étape importante dans notre cheminement vers le développement d’une IA meilleure et plus fiable. Nous publions notre dernière norme d’IA responsable pour partager ce que nous avons appris, solliciter les commentaires des autres et contribuer à la discussion sur l’élaboration de meilleures normes et pratiques autour de l’IA.
Orienter le développement de produits vers des résultats plus responsables
Les systèmes d’IA sont le produit de nombreuses décisions différentes prises par ceux qui les développent et les déploient. De l’objectif du système à la façon dont les gens interagissent avec les systèmes d’IA, nous devons guider de manière proactive ces décisions vers des résultats plus bénéfiques et équitables. Cela signifie garder les personnes et leurs objectifs au centre des décisions de conception du système et respecter des valeurs durables telles que l’équité, la fiabilité et la sécurité, la confidentialité et la sécurité, l’inclusivité, la transparence et la responsabilité.
La norme Responsible AI Standard expose nos meilleures réflexions sur comment nous construirons des systèmes d’IA pour défendre ces valeurs et gagner la confiance de la société. Ce fournit des conseils spécifiques et exploitables à nos équipes qui vont au-delà des principes de haut niveau qui ont dominé le paysage de l’IA à ce jour.
La norme détaille les objectifs ou les résultats concrets que les équipes développant des systèmes d’IA doivent s’efforcer d’obtenir. Ces objectifs aident à décomposer un principe général tel que la « responsabilité » en ses principaux catalyseurs, tels que les évaluations d’impact, la gouvernance des données et la surveillance humaine. Chaque objectif est ensuite composé d’un ensemble d’exigences, qui sont des étapes que les équipes doivent suivre pour s’assurer que les systèmes d’IA atteignent les objectifs tout au long du cycle de vie du système. Enfin, la norme associe les outils et pratiques disponibles à des exigences spécifiques afin que les équipes de Microsoft qui la mettent en œuvre disposent des ressources nécessaires pour les aider à réussir.
Le besoin de ce type d’orientation pratique est croissant. L’IA fait de plus en plus partie de nos vies, et pourtant, nos lois sont à la traîne. Ils n’ont pas rattrapé les risques uniques de l’IA ni les besoins de la société. Alors que nous voyons des signes que l’action gouvernementale sur l’IA se développe, nous reconnaissons également notre responsabilité d’agir. Nous pensons que nous devons travailler pour garantir que les systèmes d’IA sont responsables intentionnellement.
Affiner notre politique et apprendre de nos expériences produits
Au cours d’une année, un groupe multidisciplinaire de chercheurs, d’ingénieurs et d’experts en politiques a élaboré la deuxième version de notre norme d’IA responsable. Il s’appuie sur notre précédents efforts d’IA responsable, y compris la première version de la norme lancée en interne à l’automne 2019, ainsi que les dernières recherches et certains leçons importantes tirées de nos propres expériences de produits.
Équité dans la technologie Speech-to-Text
Le potentiel des systèmes d’IA à exacerber les préjugés et les inégalités sociétaux est l’un des dommages les plus largement reconnus associés à ces systèmes. En mars 2020, un universitaire étude a révélé que la technologie de synthèse vocale dans le secteur de la technologie produisait des taux d’erreur pour les membres de certaines communautés noires et afro-américaines qui étaient près du double de ceux des utilisateurs blancs. Nous avons pris du recul, examiné les conclusions de l’étude et appris que nos tests préalables à la publication n’avaient pas pris en compte de manière satisfaisante la riche diversité du discours parmi des personnes d’horizons différents et de différentes régions. Après la publication de l’étude, nous avons engagé un sociolinguiste expert pour nous aider à mieux comprendre cette diversité et avons cherché à étendre nos efforts de collecte de données pour réduire l’écart de performance de notre technologie de synthèse vocale. Au cours du processus, nous avons constaté que nous devions nous attaquer à des questions difficiles sur la meilleure façon de collecter des données auprès des communautés d’une manière qui les engage de manière appropriée et respectueuse. Nous avons également appris l’intérêt d’impliquer des experts dans le processus dès le début, notamment pour mieux comprendre les facteurs pouvant expliquer les variations de performances du système.
La norme d’IA responsable enregistre le modèle que nous avons suivi pour améliorer notre technologie de synthèse vocale. Alors que nous continuons à déployer la norme dans l’ensemble de l’entreprise, nous nous attendons à ce que les objectifs et les exigences d’équité qui y sont identifiés nous aideront à anticiper les dommages potentiels à l’équité.
Commandes d’utilisation appropriées pour la voix neurale personnalisée et la reconnaissance faciale
IA Azure Voix neurale personnalisée est une autre technologie vocale innovante de Microsoft qui permet la création d’une voix synthétique dont le son est presque identique à la source d’origine. AT&T a donné vie à cette technologie avec une solution en magasin primée Lapin d’insectes expérience, et Progressive a apporté la voix de Flo aux interactions avec les clients en ligne, parmi les utilisations par de nombreux autres clients. Cette technologie a un potentiel passionnant dans l’éducation, l’accessibilité et le divertissement, et pourtant il est également facile d’imaginer comment elle pourrait être utilisée pour se faire passer pour des locuteurs et tromper les auditeurs de manière inappropriée.
Notre examen de cette technologie dans le cadre de notre programme d’IA responsable, y compris le processus d’examen des utilisations sensibles requis par la norme d’IA responsable, nous a conduits à adopter un cadre de contrôle en couches : nous avons restreint l’accès des clients au service, nous nous sommes assurés que les cas d’utilisation acceptables étaient définis et communiqués de manière proactive. à travers un Remarque sur la transparence et Code de conduite, et mis en place des garde-fous techniques pour garantir la participation active de l’orateur lors de la création d’une voix de synthèse. Grâce à ces contrôles et à d’autres, nous a aidé à protéger contre les abus, tout en maintenant les utilisations bénéfiques de la technologie.
En nous appuyant sur ce que nous avons appris de Custom Neural Voice, nous appliquerons des contrôles similaires à notre reconnaissance faciale prestations de service. Après une période de transition pour les clients existants, nous limitons l’accès à ces services aux clients et partenaires gérés, limitons les cas d’utilisation à des cas acceptables prédéfinis et tirons parti des contrôles techniques intégrés aux services.
Adapté à l’usage et capacités Azure Face
Enfin, nous reconnaissons que pour que les systèmes d’IA soient dignes de confiance, ils doivent être des solutions appropriées aux problèmes qu’ils sont censés résoudre. Dans le cadre de nos travaux visant à aligner notre service Azure Face sur les exigences de la norme Responsible AI Standard, nous sommes également capacités de retraite qui déduisent des états émotionnels et des attributs identitaires tels que le sexe, l’âge, le sourire, la pilosité faciale, les cheveux et le maquillage.
En prenant les états émotionnels comme exemple, nous avons décidé de ne pas fournir d’accès API ouvert à la technologie qui peut scanner les visages des gens et prétendre déduire leurs états émotionnels en fonction de leurs expressions faciales ou de leurs mouvements. Des experts à l’intérieur et à l’extérieur de l’entreprise ont souligné l’absence de consensus scientifique sur la définition des «émotions», les défis liés à la généralisation des inférences à travers les cas d’utilisation, les régions et les données démographiques, et les préoccupations accrues en matière de confidentialité autour de ce type de capacité. Nous avons également décidé que nous devions analyser attentivement tout Les systèmes d’IA qui prétendent déduire les états émotionnels des personnes, que les systèmes utilisent l’analyse faciale ou toute autre technologie d’IA. L’objectif et les exigences d’adéquation à l’objectif de la norme d’IA responsable nous aident désormais à effectuer des évaluations de validité spécifiques au système à l’avance, et notre processus d’utilisations sensibles nous aide à fournir des conseils nuancés pour les cas d’utilisation à fort impact, fondés sur la science.
Ces défis du monde réel ont éclairé le développement de la norme d’IA responsable de Microsoft et démontrent son impact sur la façon dont nous concevons, développons et déployons des systèmes d’IA.
Pour ceux qui souhaitent approfondir notre approche, nous avons également mis à disposition des ressources clés qui soutiennent la norme d’IA responsable : notre Modèle d’évaluation d’impact et guide, et une collection de notes de transparence. Les évaluations d’impact se sont avérées utiles chez Microsoft pour garantir que les équipes explorent l’impact de leur système d’IA – y compris ses parties prenantes, les avantages escomptés et les inconvénients potentiels – en profondeur dès les premières étapes de conception. Les notes de transparence sont une nouvelle forme de documentation dans laquelle nous divulguons à nos clients les capacités et les limites de nos technologies de base, afin qu’ils aient les connaissances nécessaires pour faire des choix de déploiement responsables.
Un parcours pluridisciplinaire et itératif
Notre norme d’IA responsable mise à jour reflète des centaines d’entrées dans les technologies, les professions et les zones géographiques Microsoft. Il s’agit d’une avancée significative pour notre pratique de l’IA responsable, car elle est beaucoup plus concrète et exploitable : elle définit des approches pratiques pour identifier, mesurer et atténuer les dommages à l’avance, et oblige les équipes à adopter des contrôles pour sécuriser les utilisations bénéfiques et protéger contre les abus. Vous pouvez en savoir plus sur le développement de la norme dans ce
Bien que notre norme soit une étape importante dans le parcours d’IA responsable de Microsoft, ce n’est qu’une étape. Au fur et à mesure que nous progressons dans la mise en œuvre, nous nous attendons à rencontrer des défis qui nous obligeront à faire une pause, à réfléchir et à nous ajuster. Notre Norme restera un document vivant, évoluant pour répondre aux nouvelles recherches, technologies, lois et apprentissages internes et externes à l’entreprise.
Il existe un dialogue mondial riche et actif sur la manière de créer des normes fondées sur des principes et applicables pour garantir que les organisations développent et déploient l’IA de manière responsable. Nous avons tiré profit de cette discussion et continuerons d’y contribuer. Nous croyons que l’industrie, le milieu universitaire, la société civile et le gouvernement doivent collaborer pour faire progresser l’état de l’art et apprendre les uns des autres. Ensemble, nous devons répondre aux questions de recherche ouvertes, combler les lacunes de mesure et concevoir de nouvelles pratiques, modèles, ressources et outils.
Un avenir meilleur et plus équitable nécessitera de nouveaux garde-fous pour l’IA. La norme d’IA responsable de Microsoft est une contribution à cet objectif, et nous nous engageons dans le travail de mise en œuvre difficile et nécessaire dans toute l’entreprise. Nous nous engageons à être ouverts, honnêtes et transparents dans nos efforts pour faire des progrès significatifs.