Site icon Le blog high-tech & telecom de Xavier Studer

Lorsque l’intelligence artificielle générative s’effondre

Illustration: DALL-E3.
Illustration: DALL-E3.

Cela aurait pu être un simple bug. La semaine passée, pendant quelques heures, ChatGPT a été totalement dysfonctionnel, racontant n’importe quoi, voire étant totalement incohérent. A mes yeux, ce nouveau dérapage illustre une fois de plus les terribles limites de l’intelligence artificielle (IA) générative.

Mais de quoi parle-t-on? «Le 20 février 2024, une optimisation de l’expérience utilisateur a introduit un bogue dans la manière dont le modèle traite le langage. Les grands modèles de langage (LLM) génèrent des réponses en échantillonnant des mots de manière aléatoire, en partie sur la base de probabilités. Leur “langage” consiste en des nombres qui correspondent à des jetons», indique OpenAI, l’éditeur de ChatGPT sur cette page.

«Des nombres légèrement erronés»

«Dans ce cas, le problème se situe à l’étape où le modèle choisit ces nombres. Comme s’il s’agissait d’une erreur de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n’avaient aucun sens. Plus techniquement, les noyaux d’inférence produisaient des résultats incorrects lorsqu’ils étaient utilisés dans certaines configurations de GPU. Après avoir identifié la cause de cet incident, nous avons déployé un correctif et confirmé que l’incident était résolu», poursuit l’éditeur.

Tiens, il peut donc y avoir des bogues dans ce fatras d’algorithmes! L’auteur de ces lignes, qui a souvent écrit qu’ils étaient potentiellement bogués jusqu’au trognon, a évidemment esquissé un bref sourire en lisant ce texte. En passant, le citoyen numérique d’aujourd’hui consultera avec intérêt cette page indiquant l’état de ChatGPT. Bref, pour une fois, les délires de ChatGPT ont été tellement visibles qu’il n’a pas été possible de les nier. Mais dans d’autres situations?

«ChatGPT peut faire des erreurs»…

En effet, sur la page de ChatGPT Pro, il est toujours possible de lire cet avertissement: «ChatGPT peut faire des erreurs. Envisagez de vérifier les informations importantes». J’irai même plus loin: n’hésitez pas à vérifier toutes les informations produites par ChatGPT, payant ou non, Gemini, Perplexity, Claude 2 ou toute autre forme d’IA générative puisqu’outre les hallucinations, les incohérences, les erreurs et les manques de précision sont légion.

Utilisant quotidiennement ces différentes IA, notamment pour m’assister dans la création de ce blog, je ne peux qu’en constater jour après jour parfois la puissance, mais souvent aussi les limites. A la pointe du multimédia depuis plus de 25 ans, le soussigné ne baisse pas les bras et continue de tenter de les exploiter au maximum sous toutes leurs formes aussi bien derrière son ordinateur portable que sur son smartphone.

Prudence, limites et curiosité renouvelée

Que penser de tout ça? Le plus important est de ne pas oublier que ces IA sont censées nous aider et surtout nous faire gagner du temps. Et quand je vois les performances de Copilot Pro intégré dans Microsoft 365, j’y vois plutôt une source de problèmes et de perte de temps! Souvent ça ne marche pas et les résultats sont médiocres, voire contre-productifs. Passez votre chemin!

En l’état, n’étant que peu convaincu par Gemini de Google qui a succédé à Bard, je continue d’utiliser DALL-E depuis ChatGPT Pro, ce qui me fait souvent gagner beaucoup de temps pour illustrer mes notes, dont la rédaction est souvent épaulée par Perplexity. Ce dernier se révèle d’ailleurs parfois excellent, mais pas toujours, ce qui peut aussi me faire perdre une certaine énergie. Bref, il reste beaucoup de travail! Prudence, prudence!

Xavier Studer

Quitter la version mobile