IA: les télévisions de l’UER mettent une nouvelle fois en garde

  • Dernière modification de la publication :22/10/2025
  • Commentaires de la publication :2 commentaires
IA générative: une réponse sur deux problématique.
IA générative: une réponse sur deux problématique.

Des journalistes ont testé ChatGPT, Copilot, Gemini et Perplexity sur une trentaine de questions d’actualité, générant près de 3000 réponses. Près d’une réponse sur deux contenait au moins une «faille significative», selon une vaste étude dirigée par la radio et TV britannique BBC et l’Union européenne de radiotélévision (UER).

Cette enquête, présentée le 22 octobre à Naples, a réuni 22 radiodiffuseurs publics de 18 pays, dont SRF pour la Suisse. Elle démontre que les assistants d’intelligence artificielle (IA) diffusent des distorsions de l’information dans toutes les langues et sur tous les territoires, mettant potentiellement en danger notre société de l’information.

Des outils encore peu fiables

Les journalistes ont évalué chaque réponse sur la véracité, la qualité éditoriale et le contexte. Au total, 45% comportaient au moins une «faille significative», 31% souffraient de problèmes de sources ou d’attribution, et 20% d’inexactitudes factuelles. Le modèle Gemini, proposé par Google, est le plus déficient, avec des failles recensées dans 76% des cas étudiés.

On note également une diminution du nombre de refus: les assistants tendent à répondre coûte que coûte, quitte à inventer des informations. Cette tendance renforce la confiance excessive des utilisateurs, surtout chez les plus jeunes qui se détournent des moteurs de recherche: 15% des moins de 25 ans s’informent principalement via ces outils automatisés, selon le communiqué de l’UER, citant Reuters.

Attribution douteuse et erreurs compromettantes

Des exemples concrets montrent que ces assistants créent de fausses citations ou attribuent des propos inexacts à des journalistes reconnus. Certains mélangent satire et actualité ou s’appuient sur des sites peu sûrs. L’impact peut être grave si un média comme la SRF, par exemple, est cité à tort, mettant en péril sa crédibilité alors que l’erreur vient de la machine.

Cette perte de contrôle sur l’information diffusée pose un vrai risque pour les médias traditionnels et la confiance du public. Selon l’UER, l’enjeu n’est plus technique, mais démocratique: il faut préserver les valeurs éditoriales du journalisme face à la puissance croissante de l’intelligence artificielle, selon ce rapport reproduit ci-dessous.

Appel à la régulation et à la sensibilisation

L’UER et la BBC exhortent les concepteurs d’IA à corriger de toute urgence ces failles. Une meilleure transparence est réclamée: il s’agit de publier les résultats régulièrement, de mieux indiquer les sources et d’alerter sur les limites des systèmes. Un «guide de bonnes pratiques» est en préparation pour aider rédactions et citoyens à détecter les distorsions.

Ma conclusion? Effectivement, utiliser l’IA sans lui donner un cadre est suicidaire aujourd’hui. Le minimum est de définir un espace d’informations que l’IA peut traiter. Mais là, aussi, malheureusement, les hallucinations restent possibles. En fait, tant que la technologie fonctionnera de la même manière, il est illusoire d’espérer des réponses 100% fiables.

XS


En savoir plus sur Le blog high-tech & telecom de Xavier Studer

Subscribe to get the latest posts sent to your email.

Cet article a 2 commentaires

  1. ipodac

    Je ne comprends pas l’utilité de cette démarche sans montrer le prompt qu’ils ont utilisé. Désolé, mais l’IA est largement valable pour trouver des informations, et la pertinence de la réponse se repose sur la manière dans laquelle la question est posée.

    ça semble être une étude pour montrer une légitimation de l’existence du media mainstream

  2. Sen

    L’IA overview de Google, je la trouve terrible. Elle dit n’importe quoi, invente des tonnes de faits…au final on perd plus de temps qu’on en gagne avec cette fonctionnalité sorti à la va-vite.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.