Table ronde avec des jeunes
Un rapport préconise de limiter l'utilisation des agents conversationnels d'IA
Par La Presse Canadienne
Un nouveau rapport axé sur le point de vue des jeunes indique que le gouvernement devrait obliger les entreprises spécialisées dans l'IA à prendre des mesures pour limiter les aspects addictifs de leurs agents conversationnels.
Il s'agit de l'une des nombreuses recommandations formulées par des jeunes âgés de 17 à 23 ans qui ont participé à des tables rondes organisées dans tout le pays.
Le rapport indique que les plateformes d'IA devraient être tenues de «remédier à la conception addictive des agents conversationnels d'IA en imposant des mesures telles que des filtres de contenu et la suppression facultative du cache de données, et en offrant explicitement aux utilisateurs la possibilité de déterminer les niveaux de réactivité et de conversationnalité».
Le rapport a été publié jeudi par le Centre pour les médias, la technologie et la démocratie de l’Université McGill.
Les organisateurs ont tenu 4 événements de consultation entre novembre 2025 et mars 2026, auxquels 100 jeunes ont participé.
Les participants se sont concentrés sur quatre thèmes: les agents conversationnels d'IA, l'intégrité de l'information, la confidentialité des données et la vérification de l'âge.
Le rapport souligne que les participants ont grandi avec la technologie de l’IA.
«À Toronto, les participants ont longuement réfléchi au rôle de la conception addictive dans les agents conversationnels d'IA. Ils ont fait valoir que la flagornerie de nombreux systèmes d'agent conversationnel vise à maintenir l’interaction, à cultiver la dépendance et à maximiser le temps passé sur la plateforme», indique-t-il.
Le rapport mentionne que les agents conversationnels ont tendance à renforcer les croyances et les états émotionnels des utilisateurs et à «créer le faux sentiment d’être compris».
Il ajoute que ces effets résultent de choix de conception délibérés, motivés par la recherche du profit.
«Plusieurs participants ont décrit leurs propres expériences de déchargement cognitif ou de dépendance émotionnelle qu’ils ont eu du mal à inverser, et ont lié ces dynamiques à des choix de conception auxquels ils n’avaient jamais consenti», précise le rapport.
Parmi d’autres recommandations, le rapport préconise que les plateformes de réseaux sociaux et les moteurs de recherche soient tenus de proposer des options simples permettant de se désengager des technologies d’IA intégrées.
Il suggère également la création d’un nouvel organisme gouvernemental chargé d’évaluer les systèmes, de contrôler les algorithmes et de faire respecter les normes de sécurité.
Les participants organiseront jeudi un événement sur la colline du Parlement pour présenter le rapport et leurs recommandations.
Le gouvernement fédéral travaille actuellement sur plusieurs projets de loi visant à traiter de la confidentialité en ligne et des préjudices en ligne, et a aussi promis une stratégie nationale en matière d’IA.
Le projet de loi promis sur les préjudices en ligne pourrait inclure des restrictions d’âge pour l’accès aux réseaux sociaux, à l’instar de l’interdiction pour les moins de 16 ans introduite en Australie l’année dernière.
Le gouvernement examine également la possibilité d’inclure les agents conversationnels d'IA dans une éventuelle interdiction.
Le rapport indique que les participants se sont sentis exclus des processus de gouvernance sur les questions numériques.
«Cela était particulièrement flagrant dans les discussions sur la vérification de l’âge, où la vulnérabilité des enfants et des jeunes est régulièrement invoquée pour justifier une intervention réglementaire, alors que les jeunes eux-mêmes restent largement absents des espaces de prise de décision où ces interventions sont conçues», indique le rapport.
Le rapport a soulevé des préoccupations en matière de confidentialité concernant les technologies de vérification de l'âge et a appelé à la mise en place d'un système standardisé de vérification de l'âge qui «limiterait l'accès des utilisateurs aux plateformes d'IA générative grâce à la création d'un système de jetons numériques anonymisés».
Anja Karadeglija, La Presse Canadienne
