
Elle est incontournable aujourd’hui. Le soussigné l’utilise d’ailleurs à toutes les sauces pour le soutenir dans une multitude de tâches. Oui, l’intelligence artificielle (IA) générative nous aide au quotidien. A en croire ses promoteurs, ChatGPT 5 devait tout changer et nous rapprocher de l’intelligence humaine. Mais tout ne se passe pas comme prévu et nombre d’utilisateurs regrettent déjà la version précédente. Une sacrée claque!
Le décalage est flagrant. Les systèmes actuels produisent du texte convaincant, mais peinent à raisonner, relier des faits et reconnaître leurs limites. Les hallucinations, par exemple, restent fréquentes. Les IA peinent à les identifier parfois, d’ailleurs. Elles imposent une relecture minutieuse, une vérification systématique, et donc du temps que l’on oublie trop souvent de compter. Parfois, il est plus efficace de rédiger soi-même certains textes.
Des régressions qui interpellent
Pour résumer un document, le traduire grossièrement ou générer une esquisse thématique, l’IA rend service. Mais dès que la précision, le contexte ou l’expertise entrent en jeu, elle montre ses limites. N’en déplaise au fondateur d’OpenAI. Les mises à jour successives, parfois régressives, bousculent les habitudes et dégradent des usages établis. Ces problèmes génèrent frustration, perte de confiance et tentation de revenir à des outils plus stables.
Au cœur du problème, des modèles opaques. Leur entraînement repose sur des données massives de qualité inégale. Trop souvent les utilisateurs des IA ne réalisent pas qu’elles ne font que «prédire la suite d’un texte», mais ne le comprennent pas. Ces systèmes restent des probabilistes sophistiqués, pas des penseurs. Ils imitent la forme du raisonnement sans en maîtriser le sens.
Faut‑il pour autant jeter l’IA? Non. Utilisée comme un assistant, avec garde‑fous, elle accélère certaines tâches répétitives et libère parfois du temps pour l’analyse. A l’image de Perplexity, elle permet aussi de réunir une foule d’informations utiles à la vitesse de la lumière. Le piège consiste à lui déléguer le jugement, la prise de décision, la nuance, l’éthique, qui sont le propre de l’humain. L’IA demeure un outil, pas un collègue.
Pour davantage de transparence et de surveillance
Alors que faire? Probablement exiger des éditeurs transparence et audit neutre et indépendant sur la confidentialité, par exemple. Il semble aussi essentiel de disposer d’une information en continu de l’énergie consommée en regard du résultat obtenu… Le grand public doit être informé de manière complète sur les problèmes des IA et sur les conséquences de leur utilisation.
Chat GPT 5 déçoit. Un échec? Il est simplement le révélateur d’espérances infondées sur une technologie qui présente des limites connues. Il ne fait que révéler notre goût pour une certaine «magie technologique». Plus que jamais, il est essentiel de vérifier les informations, de les contextualiser et de citer ses sources. L’IA semble encore loin de l’intelligence humaine. Et c’est peut‑être une bonne nouvelle si cela nous pousse à mieux l’encadrer pour mieux l’utiliser.
Xavier Studer