Nous joindre
X
Rechercher
Publicité

Applications biaisées

La collecte massive de données que requiert l'IA sous-représente certains groupes

durée 12h00
27 novembre 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Les outils et applications utilisant l'intelligence artificielle (IA) ont le potentiel d'améliorer la qualité de vie des gens. Cependant, dans le processus de collecte massive de données que l'IA requiert pour fonctionner, certains groupes sont sous-représentés, ce qui rend ces applications biaisées.

Une récente étude de l'Université McGill a révélé que les applications de santé assistées par l'IA qui permettent d'obtenir un diagnostic médical s'appuient en effet souvent sur des données biaisées. Les résultats concluent que l'utilisateur risque d'obtenir des conseils inexacts et dangereux pour sa santé.

«Les nombreux modèles de l’IA sont formés sur des ensembles de données qui vont normalement sous-représenter certains groupes comme les minorités raciales, les femmes et les personnes âgées. Ça va entraîner des inexactitudes quand ces modèles vont être appliqués à des populations un peu plus diversifiées», a expliqué Ma'n H. Zawati, auteur principal de l'étude et professeur agrégé au Département de médecine de l’Université McGill.

M. Zawati a indiqué que la grande majorité des applications mobiles de santé sont des applications de suivi, telles que des outils pour suivre le pouls, le nombre de pas, intégrer des données sur la santé, le sommeil, la consommation de nourriture, etc. Ces applications peuvent aussi être utiles aux professionnels de la santé, par exemple pour leurs journaux de progression d'une maladie ou l'utilisation d'un médicament. Ces technologies sont moins complexes et ont surtout des enjeux de vie privée, c'est-à-dire de savoir qui a accès aux données.

«Ce qui est plus complexe […] ce sont les applications qui vont essayer de mieux comprendre les symptômes et essayer d’expliquer ce qui se passe derrière ces symptômes», soutient M. Zawati. Selon la dernière recension qui a été faite avant la pandémie, on recensait environ 350 000 applications mobiles de santé (pas seulement celles assistées par l’intelligence artificielle). «Ce chiffre aujourd’hui est peut-être aux alentours de 500 000», évalue le professeur.

Des recommandations pour une meilleure inclusion

Les enjeux de discrimination dans la collecte de données ne touchent pas seulement les applications mobiles ou l’utilisation de l’intelligence artificielle, souligne M. Zawati.

En abordant l'IA au sens plus large, le Centre d'expertise International de Montréal en intelligence artificielle (CEIMIA) ainsi que Mila - l'Institut québécois de l'intelligence artificielle ont d'ailleurs publié mardi ce qu'ils décrivent comme «le rapport le plus complet à ce jour sur l'égalité des sexes et la diversité dans l'IA».

Ces deux institutions de premier plan dans le domaine de l'intelligence artificielle ont pointé que les progrès rapides de l'IA risquent d'exacerber les inégalités existantes en amplifiant les préjugés, la discrimination et les stéréotypes, en particulier ceux qui touchent les femmes et d'autres groupes historiquement marginalisés.

Ce rapport a été publié en même temps qu'un guide d'accompagnement pour aider les décideurs politiques à mettre en œuvre les recommandations qu'il comporte pour favoriser une plus grande inclusivité dans le développement technologique. Les deux documents ont été présentés à Montréal, mardi, dans le cadre d'un événement auquel ont participé des représentants de la communauté de l'IA, des dirigeants internationaux de même que la présidente du Conseil du Trésor du Canada, Anita Anand.

Dans un communiqué, l'institut Mila soulève que «le manque de diversité dans les écosystèmes d'IA peut également renforcer les stéréotypes et la discrimination en excluant certaines perspectives». Il cite l'exemple de groupes marginalisés pour lesquels les opportunités d'emploi sont limitées et où les ressources ont été distribuées de manière inéquitable, en particulier envers les personnes handicapées.

Le rapport dresse plusieurs recommandations, dont celle «d'orienter le financement vers des initiatives alignées sur les principes de conception de technologies inclusives, promouvant des applications, des pratiques et des processus équitables dans les écosystèmes d'IA».

Il suggère aussi «de favoriser la participation active des groupes marginalisés à la gouvernance de l'IA afin d'assurer un meilleur encadrement de l'IA pour tous».

M. Zawati abonde dans le même sens en prônant le concept de co-conception. «Il est important d'avoir une perspective d’inclusivité et de collaboration. Surtout quand on parle de communauté, il faut impliquer les parties prenantes dans le processus de développement de l’outil», dit-il.

Selon le professeur Zawati, il faudrait aussi améliorer la transparence quand on développe des modèles d’intelligence artificielle. «Cela permettrait pour l’utilisateur de comprendre comment les décisions sont prises. De plus, il serait plus facile de repérer si certaines recommandations d'une application sont biaisées et de les corriger le cas échéant.»

M. Zawati fait aussi valoir que l'un des enjeux cruciaux est de rendre les choses beaucoup plus accessibles, que ce soit les outils eux-mêmes ou l'utilisation de la langue, par exemple. «C’est une des stratégies les plus importantes. Si on veut que ce soit représentatif, il faut avoir des données qui sont diversifiées et représentatives. Donc, il faut collecter des données qui représentent une large gamme de démographie, y compris la race, le sexe, l’âge, les milieux socioéconomiques. Ça va permettre de combler les lacunes où certaines de ces populations sont sous-représentées», explique-t-il.

Le contenu en santé de La Presse Canadienne obtient du financement grâce à un partenariat avec l’Association médicale canadienne. La Presse Canadienne est l’unique responsable des choix éditoriaux.

Katrine Desautels, La Presse Canadienne

commentairesCommentaires

0

Pour partager votre opinion vous devez être connecté.

RECOMMANDÉS POUR VOUS


MRC de Joliette : Collecte des bacs bleus aux deux semaines

La MRC de Joliette annonce qu'à partir du 1er janvier 2025, la collecte des bacs bleus passera toutes les deux semaines. Ce changement s'inscrit dans le cadre de la modernisation du système de collecte sélective au Québec, basée sur le principe de la responsabilité élargie des producteurs et la prise en charge par Éco Entreprises Québec (ÉEQ). La ...

6 décembre 2024

Les conducteurs étrangers qui échouent un examen ne pourront plus conduire seuls

La tolérance de Québec envers les conducteurs en provenance de l’étranger qui échouent l’examen pratique en vue d’obtenir un permis de conduire tire à sa fin. Au début de 2025, le Règlement sur les permis sera modifié pour que les détenteurs d’un permis de conduire d’un pays étranger qui échoueront l’examen pratique n’aient plus le droit de ...

5 décembre 2024

Les familles canadiennes devront payer 800 $ de plus pour se nourrir l'an prochain

Les prix des aliments au Canada devraient connaître une augmentation de 3 à 5 % l’année prochaine, selon un nouveau rapport, mais des facteurs imprévisibles, comme les changements climatiques et le retour de Donald Trump à la Maison-Blanche, pourraient avoir des conséquences imprévues. C’est la conclusion qui ressort du 15e rapport annuel sur les ...