Site icon Le blog high-tech & telecom de Xavier Studer

L’intelligence artificielle généralisée n’est pas pour demain, selon le Scientific American

Un processeur neuronal signé Huawei.
Un processeur neuronal signé Huawei.

La course à l’intelligence artificielle (AI) continue de faire les gros titres et de susciter des fantasmes. Alors que d’aucuns hurlent à sa généralisation, le Scientific Américain, au travers de la plume d’un de ses spécialistes, remets les pendules à l’heure…

Selon cet article de Gary Marcus, un examen minutieux de la situation révèle que les systèmes les plus récents, y compris ceux qui font le plus de bruit, sont toujours confrontés aux mêmes vieux problèmes. Eh oui, en guise de rappel, l’AI n’est ni intelligente, ni artificielle: c’est un fatras de bons vieux algorithmes poussifs et énergivores programmés par des humains….

Une question de vocabulaire…

L’intelligence artificielle reste d’abord une question de vocabulaire (ou de langage). En effet, dans l’article du prestigieux journal américain, il est question d’intelligence artificielle généralisée, un concept qui dépasse la simple AI, tant médiatisée. Tellement d’ailleurs que le commun des mortels s’imagine un peu vite qu’elle fait tous les jours d’immenses progrès…

En effet, on lit ici que DALL-E 2 d’OpenAI peut créer des images spectaculaires à partir de n’importe quel texte. Et là que GPT-3 peut parler d’à peu près n’importe quoi. Enfin, le système Gato publié en mai par DeepMind, une division d’Alphabet, a apparemment réussi des centaines de tâches qu’on lui a confiées.

Une euphorie trompeuse

Gary Marcus met toutefois en garde le grand public. «Les machines seront peut-être un jour aussi intelligentes que les humains, et peut-être même plus, mais la partie est loin d’être terminée. Il reste encore une quantité immense de travail à accomplir pour créer des machines capables de comprendre et de raisonner sur le monde qui les entoure», écrit-il.

Selon cet auteur, «nous sommes encore à des années-lumière (sic) d’une IA générale de niveau humain capable de comprendre la signification réelle d’articles et de vidéos, ou de faire face à des obstacles et des interruptions inattendus. La recherche reste bloquée sur les mêmes défis que les scientifiques universitaires pointent depuis des années: faire en sorte que l’IA soit fiable et qu’elle puisse faire face à des circonstances inhabituelles»…

Les limites des Tesla…

Tout cela va d’ailleurs dans le même sens que cette note déjà publiée ici. Et même si  par exemple, les algorithmes de DeepL font des merveilles, parallèlement les assistants «intelligents» de Google, Amazon, Apple, Samsung et Huawei sont décevants, pour rester poli. On a même la furieuse impression qu’ils font du sur-place!

En effet, ces programmes sophistiqués font encore trop d’erreurs de compréhension. Le Scientific American cite d’ailleurs le cas d’une Tesla en pilotage automatique qui a récemment peiné à interpréter un travailleur portant un panneau stop au milieu de la route, selon cette vidéo. Le système a en effet été «entraîné» pour reconnaitre les humains seuls et les panneaux stop, seuls. Un exemple édifiant. Quand les Tesla ne freinent pas sans raison sur l’autoroute…

Et vive l’intelligence naturelle!

Xavier Studer

Quitter la version mobile