Site icon Le blog high-tech & telecom de Xavier Studer

IA: savez-vous que vos textes sont numériquement «tatoués»?

Originality.ai: redoutable pour détecter l'IA.
Originality.ai: redoutable pour détecter l’IA.

C’est au détour d’une visite chez Google à Zurich que j’ai commencé à m’intéresser au «tatouage numérique», filigrane ou encore watermarking en anglais. Autrement dit, les textes générés par une intelligence artificielle (IA) peuvent comporter différents types de «traces» qui permettent parfois de savoir s’ils ont été rédigés par une IA. Petit test…

Pour mémoire, cette pratique n’est pas nouvelle. Différentes technologies ont été mises au point dans la seconde moitié du XXe siècle pour marquer des sons, des images et des vidéos. Il existe deux grands types de tatouages numériques: ceux qui sont visibles et ceux qui ne le sont pas.

Visibles ou non…

Par exemple, lorsque vous générez une illustration ou une vidéo avec Imagen ou Veo de Google, un petit logo en bas à droite indique l’origine des images ou des vidéos ainsi générées. De multiples logiciels permettent aussi de signer vos photos numériques de manière plus ou moins visible, comme Photoshop et Premiere Pro d’Adobe.

Pour revenir aux textes, les choses sont un peu plus compliquées, car le marquage n’est en principe pas visible. Certaines IA peuvent indiquer qu’elles introduisent différentes marques pour en quelque sorte «signer» leurs créations. Une des méthodes, trop faible aujourd’hui, est d’utiliser des caractères invisibles. Parmi les plus courants, on trouve par exemple selon Perplexity:

Des services spécialisés

Pour identifier ces caractères et surtout d’autres méthodes, notamment probabilistes, il existe des services spécialisés comme Originality.ai dont la version de base, pour un usage très occasionnel, est gratuite. En fait, ce site internet propose même une suite de services très intéressants, comme la possibilité de vérifier des faits ou de vérifier si un texte constitue un plagiat ou non. Attention, car reposant sur un modèle freemium, il faut en principe sortir sa carte de crédit.

A première vue, les résultats de ce programme en ligne sont très pertinents, car il détecte de nombreux textes produits par des IA. Cela dit, ce service génère aussi des faux positifs, c’est-à-dire qu’il va signaler des textes ou des portions de texte comme ayant été écrits par une IA alors que c’est bien un être humain qui en est l’auteur…

Différentes techniques

Les concepteurs de ce service indiquent que leur technologie est adaptée pour des modèles de langage comme GPT-5, ChatGPT, Claude 4 Sonnet, Gemini 2.5, DeepSeek, Grok 3 et tous d’autres outils d’écriture IA populaires. Ce service est d’ailleurs utilisé par différentes universités, comme celle de Stanford ou de Harvard et de nombreux médias à l’image de The New York Times, The Guardian et l’agence de presse Reuters.

Dans cette note de blog, Originality.ai explique quelles sont les différentes techniques utilisées pour détecter l’œuvre d’une IA. Ce service examine notamment si des groupes de mots reviennent plus souvent ou si le texte est rédigé de telle manière que le mot suivant est facilement prédictible. D’autres outils similaires sont disponibles sur la toile. Chez Google, par exemple, on a développé SynthID. Cette page est aussi intéressante.

Que penser?

Les différents services proposés par ce site internet sont très intéressants, même si leur utilité doit être mise en perspective. Par exemple, j’utilise de multiples IA pour produire les contenus de ce blog que ce soit pour résumer, traduire ou dégrossir des textes plus ou moins longs. Et je ne parle pas d’Antidote que j’utilise depuis des lustres!

Il faudrait être réactionnaire aujourd’hui pour se passer des services offerts par les IA, si l’on maîtrise l’art du «prompt» et différentes méthodes pour éviter les hallucinations. Dans tous les cas, les IA aujourd’hui sont beaucoup trop instables pour leur faire confiance et tout contenu ainsi produit doit être soigneusement et systématiquement vérifié pour détecter les hallucinations, qui restent un vrai problème.

Xavier Studer

Quitter la version mobile