Les images, vidéos et enregistrements sonores créés ou modifiés à l’aide de l’intelligence artificielle (IA) font désormais partie intégrante de notre monde numérique. Pour limiter leurs effets déplaisants, une combinaison de différentes mesures s’impose, selon la dernière étude de TA-Swiss.
L’étude de la fondation d’évaluation des choix technologiques TA-Swiss appelle aussi à renforcer la responsabilité personnelle et les compétences médiatiques afin d’exploiter le potentiel positif des contenus générés par l’IA. Mais attention, l’usage malveillant de ces technologies est très répandu, que ce soit par des organisations criminelles, des hackers industriels ou pour du harcèlement.
Sensibiliser et soutenir les victimes
De manière générale, les deepfakes trompeurs ou illégaux deviennent une menace, en particulier lorsqu’ils se propagent massivement et de manière incontrôlée. L’étude de TA-Swiss recommande de renforcer l’éducation aux médias des citoyens pour réduire le partage de ces contenus truqués.
Les auteurs du même texte, disponible à cette adresse, suggèrent aussi d’agir auprès des grandes plateformes qui ont la faculté d’empêcher leur diffusion. Enfin, l’étude constate que les victimes de deepfakes ont besoin d’une aide supplémentaire via des services de conseil dédiés, qui restent à créer.
Impossible de démêler vrai du faux
Lors d’une expérience, de nombreuses personnes et même des logiciels n’ont pas réussi à identifier les contenus générés par l’IA, même avec des instructions. Les médias classiques ont donc un rôle important à jouer grâce à leur sensibilité à détecter les fausses informations.
Des mesures techniques comme des certificats d’authenticité numériques des images permettraient aussi de retracer de manière transparente leur origine et modifications jusqu’à la publication. Mais il faut rendre la population attentive au fait que toutes les sources d’information ne suivent pas les principes journalistiques.
Exploiter le potentiel positif
Malgré les risques, les technologies asociées aux deepfakes offrent aussi des opportunités, notamment dans l’industrie du divertissement pour la synchronisation des lèvres des acteurs dans différentes langues. Dans l’éducation, des avatars numériques de personnages historiques pourraient servir de guides interactifs dans les musées.
Enfin, la police espère que ces différentes technologies offriront de nouvelles possibilités pour reconstituer des scènes de crime. Mais pour exploiter ce potentiel positif tout en limitant les dérives, une combinaison de mesures techniques, réglementaires et de sensibilisation semble indispensable.
XS
Merci. Le titre est excellent. C’est tout le problème. Lorsque le discours est mnanifestement trompeur on peut reconnaître une deepfake et sinon?
C’est quoi manifestement trompeur?
…ne suivent pas les principes journalistiques ? J’aurais préféré le mot déontologie ou éthique dans cette phrase ! En effet, tous les journalistes n’ont pas une moralité irréprochable.