Lorsque l’intelligence artificielle générative s’effondre

  • Dernière modification de la publication :29/02/2024
  • Commentaires de la publication :6 commentaires
Illustration: DALL-E3.
Illustration: DALL-E3.

Cela aurait pu être un simple bug. La semaine passée, pendant quelques heures, ChatGPT a été totalement dysfonctionnel, racontant n’importe quoi, voire étant totalement incohérent. A mes yeux, ce nouveau dérapage illustre une fois de plus les terribles limites de l’intelligence artificielle (IA) générative.

Mais de quoi parle-t-on? «Le 20 février 2024, une optimisation de l’expérience utilisateur a introduit un bogue dans la manière dont le modèle traite le langage. Les grands modèles de langage (LLM) génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur “langage” consiste en des nombres qui correspondent à des jetons», indique OpenAI, l’éditeur de ChatGPT sur cette page.

«Des nombres légèrement erronés»

«Dans ce cas, le problème se situe à l’étape où le modèle choisit ces nombres. Comme s’il s’agissait d’une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n’avaient aucun sens. Plus techniquement, les noyaux d’inférence produisaient des résultats incorrects lorsqu’ils étaient utilisés dans certaines configurations de GPU. Après avoir identifié la cause de cet incident, nous avons déployé un correctif et confirmé que l’incident était résolu», poursuit l’éditeur.

Tiens, il peut donc y avoir des bogues dans ce fatras d’algorithmes! L’auteur de ces lignes, qui a souvent écrit qu’ils étaient potentiellement bogués jusqu’au trognon, a évidemment esquissé un bref sourire en lisant ce texte. En passant, le citoyen numérique d’aujourd’hui consultera avec intérêt cette page indiquant l’état de ChatGPT. Bref, pour une fois, les délires de ChatGPT ont été tellement visibles qu’il n’a pas été possible de les nier. Mais dans d’autres situations?

«ChatGPT peut faire des erreurs»…

En effet, sur la page de ChatGPT Pro, il est toujours possible de lire cet avertissement: «ChatGPT peut faire des erreurs. Envisagez de vérifier les informations importantes». J’irai même plus loin: n’hésitez pas à vérifier toutes les informations produites par ChatGPT, payant ou non, Gemini, Perplexity, Claude 2 ou toute autre forme d’IA générative puisqu’outre les hallucinations, les incohérences, les erreurs et les manques de précision sont légion.

Utilisant quotidiennement ces différentes IA, notamment pour m’assister dans la création de ce blog, je ne peux qu’en constater jour après jour parfois la puissance, mais souvent aussi les limites. A la pointe du multimédia depuis plus de 25 ans, le soussigné ne baisse pas les bras et continue de tenter de les exploiter au maximum sous toutes leurs formes aussi bien derrière son ordinateur portable que sur son smartphone.

Prudence, limites et curiosité renouvelée

Que penser de tout ça? Le plus important est de ne pas oublier que ces IA sont censées nous aider et surtout nous faire gagner du temps. Et quand je vois les performances de Copilot Pro intégré dans Microsoft 365, j’y vois plutôt une source de problèmes et de perte de temps! Souvent ça ne marche pas et les résultats sont médiocres, voire contre-productifs. Passez votre chemin!

En l’état, n’étant que peu convaincu par Gemini de Google qui a succédé à Bard, je continue d’utiliser DALL-E depuis ChatGPT Pro, ce qui me fait souvent gagner beaucoup de temps pour illustrer mes notes, dont la rédaction est souvent épaulée par Perplexity. Ce dernier se révèle d’ailleurs parfois excellent, mais pas toujours, ce qui peut aussi me faire perdre une certaine énergie. Bref, il reste beaucoup de travail! Prudence, prudence!

Xavier Studer

Cet article a 6 commentaires

  1. Ted

    Merci pour les liens sur chatgpt. Il est clair que tout ça devient un peu gênant! On a vraiment l’impression que ces IA produisent n’importe quoi! En plus des réseaux sociaux et de la désinformation permamente qu’on vit tous les jours, on n’est pas sorti de l’auberge! Les pouvoir publics et surtout les médis devraient davantage mettre en garde contre ce manque de fiabilité. A la place, on ne lit que des articles sur une prétendue révolution qui risque de nous conduire à la préhistoire de l’information!

  2. Jackie

    Je trouve la fonction résumé la plus utile. Je l’utilise beaucoup!

  3. Sen

    J’en déduis que la team IT de GPT teste directement en prod.

  4. philippe

    Ces intelligences génératives sont basées sur les probabilités et permettent de produire des choses qui semblent convaincantes. Mais elles n’ont aucune intelligence et compréhension de ce qu’elles font vraiment. C’est pour cela qu’elles sont utiles pour faire des résumés, des traductions et générer des images, mais si on a besoin de choses plus pointues et précises, elles ne sont pas à la hauteur. Dans le domaine de la programmation par exemple, cela permet d’avoir des outils d’aide. Mais elles sont incapables de générer des solutions à des problèmes vraiment complexes.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.