Les gens interagissent avec les machines d’innombrables façons chaque jour. Dans certains cas, ils contrôlent activement un appareil, comme conduire une voiture ou utiliser une application sur un smartphone. Parfois, les gens interagissent passivement avec un appareil, comme être imagés par un appareil IRM. Et parfois, ils interagissent avec des machines sans consentement ou même au courant de l’interaction, comme être scannés par un système de reconnaissance faciale des forces de l’ordre.

L’interaction homme-machine (IHM) est un terme générique qui décrit la façon dont les gens interagissent avec les machines. L’IHM est un aspect clé de la recherche, de la conception et de la construction de nouvelles technologies, ainsi que de l’étude de la manière dont les gens utilisent et sont affectés par les technologies.

Les chercheurs, en particulier ceux traditionnellement formés en ingénierie, adoptent de plus en plus une approche centrée sur l’humain lors du développement de systèmes et d’appareils. Cela signifie s’efforcer de créer une technologie qui fonctionne comme prévu pour les personnes qui l’utiliseront en tenant compte de ce que l’on sait sur les personnes et en testant la technologie avec elles. Mais même si les chercheurs en génie accordent de plus en plus la priorité à ces considérations, certains dans le domaine ont un angle mort : la diversité.

En tant que chercheur interdisciplinaire qui pense de manière holistique à l’ingénierie et à la conception et expert en dynamique et en matériaux intelligents ayant des intérêts dans la politique, nous avons examiné le manque d’inclusion dans la conception technologique, les conséquences négatives et les solutions possibles.

Des gens à portée de main

Les chercheurs et les développeurs suivent généralement un processus de conception qui implique de tester les fonctions et fonctionnalités clés avant de publier les produits au public. Effectués correctement, ces tests peuvent être un élément clé de la conception compatissante. Les tests peuvent inclure des entretiens et des expériences avec des groupes de personnes qui représentent le public.

Dans les milieux universitaires, par exemple, la majorité des participants à l’étude sont des étudiants. Certains chercheurs tentent de recruter des participants hors campus, mais ces communautés ressemblent souvent à la population universitaire. Les cafés et autres entreprises locales, par exemple, peuvent autoriser l’affichage de dépliants dans leurs établissements. Cependant, la clientèle de ces établissements est souvent composée d’étudiants, de professeurs et de personnel académique.

Dans de nombreuses industries, les collègues servent de participants au test pour les premiers travaux, car il est pratique de recruter au sein d’une entreprise. Il faut des efforts pour faire venir des participants extérieurs, et lorsqu’ils sont utilisés, ils reflètent souvent la population majoritaire. Par conséquent, bon nombre des personnes qui participent à ces études ont des caractéristiques démographiques similaires.

Dommage dans le monde réel

Il est possible d’utiliser un échantillon homogène de personnes pour publier un document de recherche qui s’ajoute à l’ensemble des connaissances d’un domaine. Et certains chercheurs qui mènent des études de cette manière reconnaissent les limites des populations d’étude homogènes. Cependant, lorsqu’il s’agit de développer des systèmes qui reposent sur des algorithmes, de tels oublis peuvent entraîner des problèmes réels. Les algorithmes sont aussi bons que les données qui sont utilisées pour les construire.

Les algorithmes sont souvent basés sur des modèles mathématiques qui capturent des modèles et informent ensuite un ordinateur de ces modèles pour effectuer une tâche donnée. Imaginez un algorithme conçu pour détecter l’apparition de couleurs sur une surface claire. Si l’ensemble d’images utilisé pour former cet algorithme se compose principalement de nuances de rouge, l’algorithme peut ne pas détecter la présence d’une nuance de bleu ou de jaune.

En pratique, les algorithmes n’ont pas réussi à détecter les tons de peau plus foncés pour le programme de soins de la peau de Google et dans les distributeurs automatiques de savon ; identifier avec précision un suspect, ce qui a conduit à l’arrestation injustifiée d’un homme innocent à Detroit ; et identifier de manière fiable les femmes de couleur. Joy Buolamwini, chercheuse en intelligence artificielle au MIT, décrit cela comme un biais algorithmique et a longuement discuté et publié des travaux sur ces questions.

Alors même que les États-Unis combattent le COVID-19, le manque de données de formation diversifiées est devenu évident dans les dispositifs médicaux. Les oxymètres de pouls, qui sont essentiels pour suivre votre état de santé à la maison et pour indiquer quand vous pourriez avoir besoin d’une hospitalisation, peuvent être moins précis pour les personnes à la peau mélanique. Ces défauts de conception, comme ceux des algorithmes, ne sont pas inhérents à l’appareil, mais peuvent être attribués à la technologie conçue et testée auprès de populations qui n’étaient pas suffisamment diversifiées pour représenter tous les utilisateurs potentiels.

Être inclusif

Les chercheurs universitaires sont souvent sous pression pour publier les résultats de la recherche le plus rapidement possible. Par conséquent, le recours à des échantillons de convenance – c’est-à-dire des personnes faciles à joindre et dont il est facile d’obtenir des données – est très courant.

Bien que des comités d’examen institutionnels existent pour s’assurer que les droits des participants à l’étude sont protégés et que les chercheurs suivent une éthique appropriée dans leur travail, ils n’ont pas la responsabilité de dicter aux chercheurs qui ils doivent recruter. Lorsque les chercheurs sont pressés par le temps, la prise en compte de différentes populations pour les sujets de l’étude peut signifier un délai supplémentaire. Enfin, certains chercheurs peuvent tout simplement ne pas savoir comment diversifier adéquatement les sujets de leur étude.

Il existe plusieurs façons pour les chercheurs du milieu universitaire et de l’industrie d’accroître la diversité de leurs bassins de participants à l’étude.

L’une consiste à prendre le temps de faire le travail peu commode et parfois difficile d’élaborer des stratégies de recrutement inclusives. Cela peut nécessiter une réflexion créative. L’une de ces méthodes consiste à recruter divers étudiants qui peuvent servir d’ambassadeurs auprès de diverses communautés. Les étudiants peuvent acquérir une expérience de recherche tout en servant de pont entre leurs communautés et les chercheurs.

Une autre consiste à permettre aux membres de la communauté de participer à la recherche et de donner leur consentement pour des technologies nouvelles et inconnues dans la mesure du possible. Par exemple, les équipes de recherche peuvent former un conseil consultatif composé de membres de diverses communautés. Certains domaines incluent fréquemment un conseil consultatif dans le cadre de leurs plans de recherche financés par le gouvernement.

Une autre approche consiste à inclure des personnes qui savent réfléchir aux implications culturelles des technologies en tant que membres de l’équipe de recherche. Par exemple, l’utilisation par le département de police de New York d’un chien robotique à Brooklyn, dans le Queens et dans le Bronx a suscité l’indignation des habitants. Cela aurait pu être évité s’ils s’étaient entretenus avec des experts en sciences sociales ou en études scientifiques et technologiques, ou avaient simplement consulté des dirigeants communautaires.

Enfin, la diversité ne concerne pas seulement la race, mais aussi l’âge, l’identité de genre, les origines culturelles, les niveaux d’éducation, le handicap, la maîtrise de l’anglais et même les niveaux socio-économiques. Lyft a pour mission de déployer des robotaxis l’année prochaine, et les experts sont enthousiasmés par les perspectives d’utilisation de robotaxis pour transporter les personnes âgées et handicapées. Il n’est pas clair si ces aspirations incluent ceux qui vivent dans des communautés moins riches ou à faible revenu, ou qui n’ont pas le soutien familial qui pourrait aider à préparer les gens à utiliser le service. Avant d’envoyer un robotaxi pour transporter des grands-mères, il est important de prendre en compte la façon dont un large éventail de personnes expérimentera la technologie.

Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.