
Elle est incontournable aujourd’hui. Le soussigné l’utilise d’ailleurs à toutes les sauces pour le soutenir dans une multitude de tâches. Oui, l’intelligence artificielle (IA) générative nous aide au quotidien. A en croire ses promoteurs, ChatGPT 5 devait tout changer et nous rapprocher de l’intelligence humaine. Mais tout ne se passe pas comme prévu et nombre d’utilisateurs regrettent déjà la version précédente. Une sacrée claque!
Le décalage est flagrant. Les systèmes actuels produisent du texte convaincant, mais peinent à raisonner, relier des faits et reconnaître leurs limites. Les hallucinations, par exemple, restent fréquentes. Les IA peinent à les identifier parfois, d’ailleurs. Elles imposent une relecture minutieuse, une vérification systématique, et donc du temps que l’on oublie trop souvent de compter. Parfois, il est plus efficace de rédiger soi-même certains textes.
Des régressions qui interpellent
Pour résumer un document, le traduire grossièrement ou générer une esquisse thématique, l’IA rend service. Mais dès que la précision, le contexte ou l’expertise entrent en jeu, elle montre ses limites. N’en déplaise au fondateur d’OpenAI. Les mises à jour successives, parfois régressives, bousculent les habitudes et dégradent des usages établis. Ces problèmes génèrent frustration, perte de confiance et tentation de revenir à des outils plus stables.
Au cœur du problème, des modèles opaques. Leur entraînement repose sur des données massives de qualité inégale. Trop souvent les utilisateurs des IA ne réalisent pas qu’elles ne font que «prédire la suite d’un texte», mais ne le comprennent pas. Ces systèmes restent des probabilistes sophistiqués, pas des penseurs. Ils imitent la forme du raisonnement sans en maîtriser le sens.

Faut‑il pour autant jeter l’IA? Non. Utilisée comme un assistant, avec garde‑fous, elle accélère certaines tâches répétitives et libère parfois du temps pour l’analyse. A l’image de Perplexity, elle permet aussi de réunir une foule d’informations utiles à la vitesse de la lumière. Le piège consiste à lui déléguer le jugement, la prise de décision, la nuance, l’éthique, qui sont le propre de l’humain. L’IA demeure un outil, pas un collègue.
Pour davantage de transparence et de surveillance
Alors que faire? Probablement exiger des éditeurs transparence et audit neutre et indépendant sur la confidentialité, par exemple. Il semble aussi essentiel de disposer d’une information en continu de l’énergie consommée en regard du résultat obtenu… Le grand public doit être informé de manière complète sur les problèmes des IA et sur les conséquences de leur utilisation.
Chat GPT 5 déçoit. Un échec? Il est simplement le révélateur d’espérances infondées sur une technologie qui présente des limites connues. Il ne fait que révéler notre goût pour une certaine «magie technologique». Plus que jamais, il est essentiel de vérifier les informations, de les contextualiser et de citer ses sources. L’IA semble encore loin de l’intelligence humaine. Et c’est peut‑être une bonne nouvelle si cela nous pousse à mieux l’encadrer pour mieux l’utiliser.
Xavier Studer

En savoir plus sur Le blog high-tech & telecom de Xavier Studer
Subscribe to get the latest posts sent to your email.
M. Studer, faites donc une requête avec DeepSeek et voyez un peut le cheminement de sa réflection. Les paramètres sont d’un réalisme lorsque vous prenez le temps de tout lire, je vous pas autant complet sur ChatGPT , Grok , Gemini ou même Antropic…
Incroyable ce gpt5. Pas du tout fiable!
Une mise en garde de Malwarebytes sur Perplexity: L’IA Perplexité ignore les règles d’interdiction d’exploration des sites web et les explore quand même.
https://www.malwarebytes.com/blog/news/2025/08/perplexity-ai-ignores-no-crawling-rules-on-websites-crawls-them-anyway?utm_source=iterable&utm_medium=email&utm_campaign=b2c_pro_oth_20250811_augustweeklynewsletter_nonpaid_v2_2_175464005494&utm_content=Perplexity_AI
« Au cœur du problème, des modèles opaques. Leur entraînement repose sur des données massives de qualité inégale. Trop souvent les utilisateurs des IA ne réalisent pas qu’elles ne font que «prédire la suite d’un texte», mais ne le comprennent pas. Ces systèmes restent des probabilistes sophistiqués, pas des penseurs. Ils imitent la forme du raisonnement sans en maîtriser le sens. »
C’est parfaitement résumé. Je ne compte plus le nombre de personne qui me disent que l’IA réfléchit…. Je vous rejoins à 100% sur votre vision de l’IA.
Néanmoins, je vois maitenant un problème pour le développement de l’IA. Leur qualité dépend des données utilisées pour les entraîner. Au début, les sociétés comme OpenAI ont pompé du contenu généré par des humains. Aujourd’hui, il est fort probable que bcp de contenus utilisé pour entrainer les IA soit en fait du contenu déjà généré via IA avec des erreurs et des hallucinations… Ceci pourrait être une spirale négative pour les IA à long terme. Peut-être que les IA ont déjà atteint aujourd’hui un plateau
Sans les sources, sans les sites web qui fournissent à l’IA les informations qu’elle fournit, l’IA peut-elle exister ?
Flippant !
L’IA va contrôler les armes nucléaires et personne ne sait vraiment ce que ça veut dire
https://korben.info/ia-controle-armes-nucleaires.html
Très juste !
Sam Altman a fait l’erreur de promettre l’AGI d’ici fin 2025. La sortie de GPT-5 semble davantage être une stratégie pour rassurer les investisseurs, histoire de leur dire, on se rapproche ! Seulement, non, GPT c’est juste un perroquet. On est loin, très loin d’avoir une IA qui résonne.
Ce qui m’énerve le plus, c’est sur Linkedin, les personnes qui étaient expert réseau-socio-influenceurs qui se sont reconvertis expert en IA en 6 mois, et qui passe leur temps à répéter comme des perroquets tout le barattage marketing d’OpenAI. Finalement, il n’y a pas que l’IA qui hallucine.