Étendre l’inclusion au monde de l’intelligence artificielle
- 7 minutes de lecture
- 15 juillet 2021
- kitwan
Étendre l’inclusion au monde de l’intelligence artificielle
Pour réduire les coûts opérationnels et améliorer l’efficacité, de plus en plus de compagnies ont recours à l’intelligence artificielle (IA) pour leurs activités. Les banques utilisent l’IA pour aider à détecter les fraudes. Les cliniques utilisent l’IA pour assister l’évaluation des patients. Les recruteurs utilisent l’IA pour identifier les candidats à haut potentiel.
Des inquiétudes sont soulevées alors que l’IA est de plus en plus utilisée dans la prise de décisions. Peut-on vraiment faire confiance à l’IA pour prendre des décisions justes pour tous ? Quelle est l’influence de l’IA sur nos décisions ?
L’apprentissage automatique et son fonctionnement
Un terme qui revient souvent en lien avec l’IA est l’apprentissage automatique. Lors de ce processus, des données sont fournies à un ordinateur qui reconnaît des modèles que celles-ci contiennent. Avec ces apprentissages, l’ordinateur améliore des algorithmes ou en crée et les applique pour analyser de futures données. Cela doit aider à prendre des décisions plus précises et donc meilleures – en théorie.
Une des raisons pour lesquelles l’IA devient une solution d’affaires populaire est que les ordinateurs peuvent traiter de grandes quantités de données et fournir un retour immédiat, bien plus rapide que les humains. Quand le système d’IA est bien paramétré, cela fait gagner du temps et de l’argent et permet d’éviter les erreurs humaines et biais.
Désormais, « correctement » est la clé, car les ordinateurs ne peuvent pas penser comme des humains. Ils dépendent des données que nous fournissons pour simuler les processus d’intelligence humaine comme la généralisation et la résolution de problèmes. Ainsi, si elle n’est pas gérée correctement, l’IA peut renforcer les préjugés de la société.
Biais et discrimination de l’IA
Un système d’IA peut être biaisé de différentes manières. Selon un document écrit par Shari Trewin, de IBM Accessibility Research, les biais peuvent être transmis au système si les données utilisées pour l’entraînement contiennent des décisions humaines biaisées. Par exemple, si les recruteurs ignorent systématiquement les candidatures de personnes handicapées, un système d’IA entraîné sur la base de ces données reproduira ce comportement et négligera à l’avenir ces candidatures.
Le manque de représentation dans les ensembles de données est un des autres grands défis pour atteindre une équité en matière d’IA. Les handicaps et états de santé sous-jacents diffèrent grandement en ce qui concerne l’intensité et l’impact, et évoluent souvent avec le temps. Cette hétérogénéité du handicap rend plus difficile l’entraînement d’un système d’IA pour qu’il soit équitable envers les personnes handicapées que l’entraînement d’un système d’IA pour qu’il soit équitable envers les personnes de sexe ou d’ethnicité différents.
De plus, les biais peuvent survenir en fonction de la manière dont les algorithmes sont conçus. En 2019, une firme de technologie de recrutement et son système d’IA utilisé par plus de 100 employeurs, incluant des sociétés internationales, ont soulevé d’importantes inquiétudes vis-à-vis de la discrimination. Selon un rapport du Washington Post, les mouvements du visage des candidats, le choix des mots et la voix sont analysés par la caméra d'ordinateur ou de téléphone. Ces analyses contribuent au score d’employabilité généré par le système d’IA pour la présélection.
D’après un certain nombre d’experts en éthique de l’IA, de tels algorithmes sont tout sauf de la pseudoscience : il est extrêmement difficile de déduire les émotions et les traits de personnalité à partir des expressions du visage, sans parler des personnes atteintes d’un handicap, qui rencontrent des conditions diverses et changeantes. Un tel système d’IA pour la présélection des candidatures signifierait que les personnes présentant certains handicaps seraient immédiatement rejetées par le système.
Rendre l’IA plus équitable pour les personnes handicapées
Après tout, les biais d’IA sont d’origine humaine. Même si la vie n’est jamais équitable, nous devrions au moins réduire ces biais d’IA de façon à ce que tout le monde puisse être traité avec un même niveau d’équité.
L’inclusion est l’étape fondamentale pour atteindre l’équité en matière d’IA. Les personnes handicapées devraient être impliquées dans le développement de systèmes d’IA le plus précocement possible. Leurs expériences personnelles peuvent aider les développeurs d’IA à identifier les biais en contribuant à la création d’algorithmes plus objectifs et plus équitables pour les prises de décision.
D’autre part, il convient d’utiliser l’IA de façon intelligente. Dans une interview portant sur l’IA et la santé, Kerstin N. Vokinger, professeur adjoint au sein de la faculté de droit de l’université de Zurich, a déclaré :
« L’intelligence artificielle n’est pas plus intelligente que nous. Mais combinée à nos compétences, elle peut offrir de nouvelles opportunités. »
Nous ne devrions pas craindre l’IA, ni trop s’y fier. Il convient plutôt de travailler sur des mesures pour s’assurer que les algorithmes soient explicables, contrôlables et transparents.
Dans une interview ayant pour sujet l’IA et les biais, Anikó Hannák, professeur adjoint au sein du département d’informatique de l’université de Zurich, souligne l’obligation d’appliquer les mêmes règles contre la discrimination, en ligne comme dans la vraie vie. Une surveillance régulière de l’utilisation de l’IA aiderait à atteindre une équité en matière d’IA. Toutefois, elle ajoute :
« De nombreuses entreprises optimisent leur plateformes en ligne pour le profit, et l’équité est loin derrière. »
Le contrôle de l’équité en matière d’IA coûte de l’argent : soit les compagnies ne peuvent pas se payer la surveillance régulière, soit elles manquent de motivation ou de conscience du problème pour atteindre l’équité en matière d’IA.
La bonne nouvelle, c’est que différentes mesures sont déjà en place pour s’attaquer à ces problèmes. Actuellement, l’UE investit grandement dans le développement de systèmes qui surveillent l’équité en matière d’IA. Elle œuvre également pour réglementer et punir les activités abusives d’IA. Pour exemple, Google a été inculpé en 2019 d’avoir faussé la concurrence parce que la plateforme favorisait ses propres produits dans les résultats de recherche.
Gagner la confiance grâce à la transparence
Une autre étape importante pour atteindre l’équité en matière d’IA serait d’améliorer la transparence de son développement. Les entreprises devraient par exemple rendre publiques la mesure dans laquelle elles utilisent l’IA pour les prises de décisions ainsi que la façon dont elles le font. La transparence aide les utilisateurs de la technologie d’IA, et en particulier ceux souffrant d’un handicap, à ne pas être discriminés et à en tirer profit.
Mais retour à la question : peut-on vraiment faire confiance à l’IA pour prendre des décisions à notre place ? Bradley Hayes, professeur adjoint de sciences informatiques au sein de l’université du Colorado à Boulder, répond avec le concept d’IA explicable lors de la conférence TEDx suivante.
« En rendant nos robots et systèmes d’IA explicables, nous pouvons voir quand ils ont enregistré les bonnes règles et si nous pouvons leur faire confiance. Quand nous pourrons combler le fossé en matière de compréhension entre la façon dont nous réfléchissons et la façon dont nos systèmes d’IA réfléchissent, nous pourrons être sûrs d’inventer le futur que nous voulons. »
Que pensez-vous de l’IA ? Y voyez-vous plus de risques ou plus de bénéfices ?