Nous joindre
X
Rechercher
Publicité

Un nouvel outil permet de supprimer les filigranes identifiant l'IA

durée 08h50
23 juillet 2025
La Presse Canadienne, 2025
durée

Temps de lecture   :  

3 minutes

Par La Presse Canadienne, 2025

OTTAWA — Des chercheurs de l'Université de Waterloo ont développé un outil capable de supprimer rapidement les filigranes identifiant les contenus comme générés par l'intelligence artificielle (IA). Ils affirment que cela prouve que les efforts mondiaux de lutte contre les hypertrucages sont probablement sur la mauvaise voie.

Le milieu universitaire et l'industrie se sont concentrés sur le filigrane comme meilleur moyen de lutter contre les hypertrucages et ont «essentiellement abandonné toute autre approche», a affirmé André Kassis, doctorant en informatique qui a dirigé la recherche.

Lors d'un événement à la Maison-Blanche en 2023, les principales entreprises d'IA, dont OpenAI, Meta, Google et Amazon, se sont engagées à mettre en œuvre des mécanismes tels que le filigrane pour identifier clairement les contenus générés par l'IA.

Les systèmes des entreprises d'IA intègrent un filigrane, c'est-à-dire une signature ou un motif caché, invisible pour une personne, mais identifiable par un autre système, a expliqué M. Kassis.

Il a ajouté que la recherche montre que l'utilisation de filigranes ne constitue probablement pas une protection efficace contre les dangers posés par les contenus d'IA.

«Cela nous montre que le danger des hypertrucages est quelque chose que nous ne sommes même pas en mesure de commencer à combattre à l'heure actuelle», a-t-il déclaré.

L'outil développé à l'Université de Waterloo, appelé UnMarker, s'inscrit dans la continuité d'autres recherches universitaires sur la suppression des filigranes. Parmi celles-ci figurent des travaux menés à l'Université du Maryland, une collaboration entre des chercheurs de l'Université de Californie et de l'Université Carnegie Mellon, ainsi que des travaux à l'École polytechnique fédérale de Zurich.

M. Kassis a indiqué que ses recherches vont plus loin que les précédentes et sont les «premières à révéler une vulnérabilité systémique qui remet en cause le principe même du filigrane comme moyen de défense contre les hypertrucages».

Dans un courriel de suivi, il a précisé que «ce qui distingue UnMarker, c'est qu'il ne nécessite aucune connaissance de l'algorithme de filigrane, aucun accès aux paramètres internes et aucune interaction avec le détecteur».

Lors des tests, l'outil a fonctionné dans plus de 50 % des cas sur différents modèles d'IA, selon un communiqué de presse de l'université.

Les systèmes d'IA peuvent être utilisés à mauvais escient pour créer des hypertrucages, diffuser de fausses informations et commettre des escroqueries, d'où la nécessité de disposer d'un moyen fiable d'identifier les contenus générés par l'IA, a soutenu M. Kassis.

Les outils d'IA étant devenus trop perfectionnés pour que les détecteurs d'IA fonctionnent correctement, l'attention s'est portée sur le tatouage numérique.

L'idée est que si nous ne pouvons pas «comprendre ou détecter a posteriori ce qui est réel et ce qui ne l'est pas», il est possible d'injecter «une sorte de signature cachée ou de motif caché» plus tôt, lors de la création du contenu, a expliqué M. Kassis.

La loi sur l'IA de l'Union européenne exige des fournisseurs de systèmes diffusant de grandes quantités de contenu synthétique qu'ils mettent en œuvre des techniques et des méthodes permettant d'identifier le contenu généré ou manipulé par l'IA, comme les filigranes.

Au Canada, un code de conduite volontaire lancé par le gouvernement fédéral en 2023 exige que les responsables des systèmes d'IA développent et mettent en œuvre «une méthode fiable et librement accessible pour détecter le contenu généré par le système, en se concentrant à court terme sur le contenu audiovisuel (par exemple, le tatouage numérique)».

M. Kassis a expliqué qu'UnMarker permet de supprimer les filigranes sans connaître le système qui les a générés ni le filigrane lui-même.

«Il suffit d'appliquer cet outil et, en deux minutes maximum, il produira une image visuellement identique à celle du filigrane», qui pourra ensuite être distribuée, a-t-il détaillé.

«Il est assez ironique que des milliards soient investis dans cette technologie et qu'en appuyant sur deux boutons, on puisse obtenir une image sans filigrane.»

M. Kassis a ajouté que, si les principaux acteurs de l'IA s'empressent d'implémenter la technologie du filigrane, davantage d'efforts devraient être consacrés à la recherche de solutions alternatives.

Les filigranes ont été «déclarés comme la norme de facto pour la défense future contre ces systèmes, a-t-il dit. Je suppose que c'est un appel à tous de prendre du recul et de réfléchir à nouveau à ce problème».

Anja Karadeglija, La Presse Canadienne