Nous joindre
X
Rechercher
Publicité

Propagande

Le contenu haineux généré par l'IA est en augmentation, disent des experts

durée 12h00
27 mai 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Le contenu haineux généré par l'intelligence artificielle (IA) est de plus en plus présent, selon des experts.

«Je pense que tous ceux qui font des recherches sur les contenus haineux ou les médias haineux voient de plus en plus de contenus générés par l'IA», a affirmé Peter Smith, journaliste qui travaille pour le Réseau canadien anti-haine.

Chris Tenove, directeur adjoint du Centre d'étude des institutions démocratiques de l'Université de la Colombie-Britannique, a déclaré que les groupes haineux, comme les groupes suprémacistes blancs, «ont été historiquement les premiers à adopter les nouvelles technologies et techniques d'Internet».

M. Tenove s'est dit «profondément préoccupé» par la possibilité que des contenus antisémites, islamophobes, racistes et xénophobes «soient suralimentés par l'IA générative».

Parfois, ce contenu peut se répercuter sur la vie réelle.

Après que l'IA a été utilisée pour générer ce que M. Smith a décrit comme des «affiches de films dans le style de Pixar, mais extrêmement racistes», certaines personnes les ont imprimées et les ont affichées sur le côté des salles de cinéma, a-t-il dit.

«Tout ce qui est accessible au public, qui est populaire ou émergent, notamment en matière de technologie, est très vite adapté pour produire de la propagande haineuse.»

Les systèmes d’IA générative peuvent créer des images et des vidéos presque instantanément. Au lieu qu'un individu consacre des heures à créer une seule image, il peut en créer des dizaines «dans le même laps de temps, en quelques touches de clavier seulement», a déclaré Peter Smith.

L'organisation juive B'nai Brith Canada a examiné la question du contenu haineux généré par l'IA dans un récent rapport sur l'antisémitisme.

Le rapport indique qu'il y a eu une «augmentation sans précédent des images et vidéos antisémites créées ou falsifiées à l’aide de l’IA» l'année dernière.

Le directeur de la recherche et du plaidoyer, Richard Robertson, a déclaré que le groupe avait observé que «des images vraiment horribles et graphiques, généralement liées au négationnisme, à la diminution ou à la distorsion de la Shoah, étaient produites à l'aide de l'IA».

Il a donné l’exemple d’une image falsifiée représentant un camp de concentration avec un parc d’attractions à l’intérieur.

«Les victimes de la Shoah montent à bord des manèges, semblant s'amuser dans un camp de concentration nazi, et c'est vraisemblablement quelque chose qui ne peut être produit qu'en utilisant l'IA», a-t-il affirmé.

Le rapport de l'organisation indique également que l'IA a «eu un impact considérable» sur la propagande à la suite de la guerre entre Israël et le Hamas.

L’IA peut être utilisée pour créer des hypertrucages («deepfakes») ou des vidéos présentant des simulations remarquablement réalistes de célébrités, d’hommes politiques ou d’autres personnalités publiques.

L'hypertrucage, dans le contexte de la guerre entre Israël et le Hamas, a provoqué la diffusion de fausses informations sur les événements et a attribué de fausses déclarations à la fois à l'armée israélienne et aux responsables du Hamas, indique M. Tenove.

«Il y a donc eu ce genre de choses, qui consistent à essayer d'attiser la colère ou la peur des gens à l'égard de l'autre camp et à utiliser la tromperie pour y parvenir.»

Jimmy Lin, professeur à l'école d'informatique de l'Université de Waterloo, reconnaît qu'il y a eu «une légère hausse en matière de faux contenus (...) spécialement conçus pour agacer les gens des deux côtés».

Amira Elghawaby, représentante spéciale du Canada chargée de la lutte contre l’islamophobie, affirme qu’il y a eu une augmentation des récits antisémites et islamophobes depuis le début du conflit.

Elle dit que la question de l’IA et des contenus haineux mérite à la fois davantage d’études et de discussions.

L'ampleur du problème encore à déterminer

Il ne fait aucun doute que le contenu haineux généré par l’IA est un problème émergent, mais les experts ne sont pas encore parvenus à un consensus sur l’ampleur du problème.

Chris Tenove a déclaré qu'il y avait «beaucoup de suppositions en ce moment», semblables à des questions sociétales plus larges sur «les contenus nuisibles ou problématiques qui se propagent sur les plateformes de médias sociaux».

Des systèmes comme ChatGPT intègrent des protections, a déclaré Jimmy Lin. Un porte-parole d'OpenAI a confirmé qu'avant de lancer un nouveau système, l'entreprise apprend au modèle à refuser de générer des discours de haine.

Mais M. Lin a affirmé qu'il existe des moyens de contourner les systèmes d'IA, notant que certaines commandes peuvent «tromper le modèle» pour qu'il produise ce qu'il a décrit comme un contenu désagréable.

David Evan Harris, chercheur à l'Université de Californie à Berkeley, a déclaré qu'il était difficile de savoir d'où vient le contenu de l'IA à moins que les entreprises à l'origine de ces modèles ne veillent à ce qu'il soit identifié.

Certains modèles d'IA, comme ceux créés par OpenAI ou Google, sont des modèles à source fermée. D'autres, comme Llama, de Meta, sont plus ouverts, a indiqué M. Harris.

Une fois qu’un système est ouvert à tous, les personnes avec de mauvaises intentions peuvent supprimer les dispositifs de sécurité et faire produire à l'IA des discours de haine, des escroqueries et des messages d’hameçonnage d’une manière très difficile à détecter.

Une déclaration de Meta indique que la société intègre des mesures de protection dans ses systèmes et ne met pas «tout» en source ouverte.

«Les logiciels en source ouverte sont généralement plus sûrs et sécurisés grâce aux commentaires, à l'inspection, au développement et aux mesures d'atténuation continus qui viennent de la communauté», indique-t-il.

Le projet de loi C-63, qui vise à lutter contre les méfaits en ligne, améliorera la situation selon les libéraux fédéraux.

Chantalle Aubertin, porte-parole du ministre de la Justice Arif Virani, a déclaré que le contenu défini comme haineux dans le projet de loi inclut «tout type de contenu, comme les images et les vidéos, et tout contenu généré artificiellement, comme les hypertrucages».

Innovation Canada a dit que sa proposition de loi sur la réglementation de l'intelligence artificielle, le projet de loi C-27, exigerait que le contenu de l'IA soit identifiable.

Un porte-parole a déclaré que le projet de loi «exigerait également que les entreprises responsables de systèmes d'IA à fort impact et à usage général évaluent les risques, testent et surveillent leurs systèmes pour s'assurer qu'ils fonctionnent comme prévu, et mettent en place des mesures d'atténuation appropriées pour faire face à tous les risques».

Anja Karadeglija, La Presse Canadienne

commentairesCommentaires

0

Pour partager votre opinion vous devez être connecté.

RECOMMANDÉS POUR VOUS


durée Hier 17h00

Caribou: 50% des 2000 pertes d'emplois seraient dans le même secteur, selon Québec

Plus de la moitié des 2 000 pertes d'emplois estimées par Québec en raison du décret fédéral sur le caribou toucheraient les compagnies forestières qui œuvrent dans un secteur situé à cheval entre la Côte-Nord et le Saguenay–Lac-Saint-Jean. La province a indiqué récemment qu'elle estime qu'il y aurait une perte d’un minimum de 2000 emplois ...

durée Hier 12h00

Baisse des homicides, mais augmentation des autres crimes avec violence au pays

Bien que l’on constate une baisse des homicides, le volume et la gravité des crimes mesurés par l’Indice de gravité de la criminalité (IGC) ont augmenté pour une troisième année consécutive au pays. Selon des données compilées par Statistique Canada, l’Indice de gravité de la criminalité a augmenté de 2 % en 2023. Moins d’homicides L’an ...

durée Hier 10h00

Les membres de la FSQ ont approuvé l'entente de principe avec Québec

Les membres de la Fédération de la santé du Québec (FSQ), affiliée à la CSQ, ont approuvé l'entente de principe conclue avec Québec, a annoncé le syndicat vendredi. Selon la FSQ, 80,4 % des membres qui ont voté ont approuvé l'entente de principe, faite avec le Conseil du trésor le 21 juin. L'entente de principe a été soumise aux membres lors ...