Nous joindre
X
Rechercher
Publicité

Applications biaisées

La collecte massive de données que requiert l'IA sous-représente certains groupes

durée 12h00
27 novembre 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Les outils et applications utilisant l'intelligence artificielle (IA) ont le potentiel d'améliorer la qualité de vie des gens. Cependant, dans le processus de collecte massive de données que l'IA requiert pour fonctionner, certains groupes sont sous-représentés, ce qui rend ces applications biaisées.

Une récente étude de l'Université McGill a révélé que les applications de santé assistées par l'IA qui permettent d'obtenir un diagnostic médical s'appuient en effet souvent sur des données biaisées. Les résultats concluent que l'utilisateur risque d'obtenir des conseils inexacts et dangereux pour sa santé.

«Les nombreux modèles de l’IA sont formés sur des ensembles de données qui vont normalement sous-représenter certains groupes comme les minorités raciales, les femmes et les personnes âgées. Ça va entraîner des inexactitudes quand ces modèles vont être appliqués à des populations un peu plus diversifiées», a expliqué Ma'n H. Zawati, auteur principal de l'étude et professeur agrégé au Département de médecine de l’Université McGill.

M. Zawati a indiqué que la grande majorité des applications mobiles de santé sont des applications de suivi, telles que des outils pour suivre le pouls, le nombre de pas, intégrer des données sur la santé, le sommeil, la consommation de nourriture, etc. Ces applications peuvent aussi être utiles aux professionnels de la santé, par exemple pour leurs journaux de progression d'une maladie ou l'utilisation d'un médicament. Ces technologies sont moins complexes et ont surtout des enjeux de vie privée, c'est-à-dire de savoir qui a accès aux données.

«Ce qui est plus complexe […] ce sont les applications qui vont essayer de mieux comprendre les symptômes et essayer d’expliquer ce qui se passe derrière ces symptômes», soutient M. Zawati. Selon la dernière recension qui a été faite avant la pandémie, on recensait environ 350 000 applications mobiles de santé (pas seulement celles assistées par l’intelligence artificielle). «Ce chiffre aujourd’hui est peut-être aux alentours de 500 000», évalue le professeur.

Des recommandations pour une meilleure inclusion

Les enjeux de discrimination dans la collecte de données ne touchent pas seulement les applications mobiles ou l’utilisation de l’intelligence artificielle, souligne M. Zawati.

En abordant l'IA au sens plus large, le Centre d'expertise International de Montréal en intelligence artificielle (CEIMIA) ainsi que Mila - l'Institut québécois de l'intelligence artificielle ont d'ailleurs publié mardi ce qu'ils décrivent comme «le rapport le plus complet à ce jour sur l'égalité des sexes et la diversité dans l'IA».

Ces deux institutions de premier plan dans le domaine de l'intelligence artificielle ont pointé que les progrès rapides de l'IA risquent d'exacerber les inégalités existantes en amplifiant les préjugés, la discrimination et les stéréotypes, en particulier ceux qui touchent les femmes et d'autres groupes historiquement marginalisés.

Ce rapport a été publié en même temps qu'un guide d'accompagnement pour aider les décideurs politiques à mettre en œuvre les recommandations qu'il comporte pour favoriser une plus grande inclusivité dans le développement technologique. Les deux documents ont été présentés à Montréal, mardi, dans le cadre d'un événement auquel ont participé des représentants de la communauté de l'IA, des dirigeants internationaux de même que la présidente du Conseil du Trésor du Canada, Anita Anand.

Dans un communiqué, l'institut Mila soulève que «le manque de diversité dans les écosystèmes d'IA peut également renforcer les stéréotypes et la discrimination en excluant certaines perspectives». Il cite l'exemple de groupes marginalisés pour lesquels les opportunités d'emploi sont limitées et où les ressources ont été distribuées de manière inéquitable, en particulier envers les personnes handicapées.

Le rapport dresse plusieurs recommandations, dont celle «d'orienter le financement vers des initiatives alignées sur les principes de conception de technologies inclusives, promouvant des applications, des pratiques et des processus équitables dans les écosystèmes d'IA».

Il suggère aussi «de favoriser la participation active des groupes marginalisés à la gouvernance de l'IA afin d'assurer un meilleur encadrement de l'IA pour tous».

M. Zawati abonde dans le même sens en prônant le concept de co-conception. «Il est important d'avoir une perspective d’inclusivité et de collaboration. Surtout quand on parle de communauté, il faut impliquer les parties prenantes dans le processus de développement de l’outil», dit-il.

Selon le professeur Zawati, il faudrait aussi améliorer la transparence quand on développe des modèles d’intelligence artificielle. «Cela permettrait pour l’utilisateur de comprendre comment les décisions sont prises. De plus, il serait plus facile de repérer si certaines recommandations d'une application sont biaisées et de les corriger le cas échéant.»

M. Zawati fait aussi valoir que l'un des enjeux cruciaux est de rendre les choses beaucoup plus accessibles, que ce soit les outils eux-mêmes ou l'utilisation de la langue, par exemple. «C’est une des stratégies les plus importantes. Si on veut que ce soit représentatif, il faut avoir des données qui sont diversifiées et représentatives. Donc, il faut collecter des données qui représentent une large gamme de démographie, y compris la race, le sexe, l’âge, les milieux socioéconomiques. Ça va permettre de combler les lacunes où certaines de ces populations sont sous-représentées», explique-t-il.

Le contenu en santé de La Presse Canadienne obtient du financement grâce à un partenariat avec l’Association médicale canadienne. La Presse Canadienne est l’unique responsable des choix éditoriaux.

Katrine Desautels, La Presse Canadienne

RECOMMANDÉS POUR VOUS


Publié à 15h00

Primes non versées aux infirmières: la cause de la FIQ devant le Tribunal

Le Tribunal administratif du travail a commencé à entendre, lundi, la requête de la FIQ contre Santé Québec et d'autres établissements de santé, à cause de certaines primes et ajustements qui n'ont toujours pas été versés aux infirmières, bien que la convention collective ait été signée en décembre 2024. Certaines primes devaient être versées 45 ...

Publié à 11h00

Un nouveau directeur général de l'Office municipal d'habitation de Joliette

L'Office municipal d'habitation de Joliette (OMHJ) a un nouveau directeur général qui succède à Michel Savignac . Il s'agit d'Alexandre Rivet.  M.Savignac quitte pour prendre sa retraite après avoir dirigé l'organisation pendant plus de six ans.  Alexandre Rivet a passé plus de huit ans au sein de l'Office municipal d'habitation de Montréal. ...

Publié le 19 août 2025

La MRC de Joliette invite les gens à utiliser leurs services de transport

À l’occasion de la rentrée, du 25 août au 1er septembre, la MRC de Joliette, en collaboration avec les autres MRC de la région, invite les citoyens à profiter d’une semaine de promotions sur l’ensemble de ses services de transport.  En ce qui concerne le transport régional, tous les trajets sur les circuits régionaux sont offerts au petit ...