
A la suite de questions posées dans cette colonne et pour commencer à répondre à la suggestion d’une internaute (Merci Jacqueline!) de tester perplexicity.ai, j’ai poussé dans les codes les différentes «intelligences artificielles» (IA) du moment, à savoir des tas d’algorithmes obscurs et bogués jusqu’au trognon, tout sauf intelligents!
Ci-dessous, je vous laisse découvrir les réponses à une question simple. Commençons par perplexity.ai, qui se présente comme un moteur de recherche alimenté par l’IA. Signe distinctif, on peut configurer la langue, dont le français et téléverser des fichiers pour analyse. Enfin, la version payant à 20 dollars par mois utilise GPT-4 d’OpenAI.
A la question, «Qu’est-ce que la boîte noire de l’intelligence artificielle et pourquoi est-ce important», voici, ci-dessous sa réponse en italique (version GPT 3.5):
La version de perplexity.ai
La «boîte noire» de l’intelligence artificielle fait référence à la complexité et à l’opacité des modèles et des algorithmes utilisés dans les systèmes d’IA. Elle désigne le fait que ces systèmes peuvent prendre des décisions et effectuer des tâches sans que l’on comprenne exactement comment ils y parviennent. Voici pourquoi la boîte noire de l’intelligence artificielle est importante:
- Fiabilité: Lorsque les systèmes d’IA prennent des décisions qui ont un impact sur notre vie quotidienne, il est essentiel de pouvoir comprendre comment ces décisions sont prises. La boîte noire de l’IA soulève des questions de fiabilité, car si nous ne comprenons pas comment les décisions sont prises, il devient difficile de faire confiance à ces systèmes.
- Transparence: La transparence est un aspect crucial de l’IA responsable. Il est important de pouvoir expliquer et justifier les décisions prises par les systèmes d’IA, en particulier dans des domaines sensibles tels que la santé, la justice ou les finances. La boîte noire de l’IA pose un défi en termes de transparence, car il peut être difficile d’expliquer les raisons derrière les décisions prises par les modèles d’IA complexes.
- Responsabilité: Comprendre le fonctionnement de l’IA est essentiel pour pouvoir l’utiliser de manière responsable. La boîte noire de l’IA soulève des questions sur la responsabilité en cas d’erreurs ou de biais dans les décisions prises par les systèmes d’IA. Il est important de pouvoir identifier et corriger ces problèmes, ce qui nécessite une meilleure compréhension de la boîte noire de l’IA.
- Éthique: La boîte noire de l’IA soulève également des questions éthiques. Les décisions prises par les systèmes d’IA peuvent avoir des conséquences importantes sur les individus et la société dans son ensemble. Il est donc crucial de pouvoir évaluer et comprendre les biais potentiels, les discriminations ou les préjugés qui pourraient être présents dans les modèles d’IA.
En résumé, la boîte noire de l’intelligence artificielle est importante, car elle soulève des questions de fiabilité, de transparence, de responsabilité et d’éthique. Comprendre et ouvrir cette boîte noire est un défi majeur pour les chercheurs et les développeurs d’IA afin de garantir une utilisation responsable et éthique de cette technologie. J’espère que cela répond à votre question! Si vous avez d’autres questions, n’hésitez pas à demander.
La version de Bing (Microsoft), en italique:
La boîte noire de l’intelligence artificielle fait référence au fait que les modèles d’IA sont souvent très complexes et qu’il est difficile de comprendre comment ils prennent des décisions. Cela pose des questions sur la fiabilité et la sécurité des modèles d’IA.
La version de Bard (Google), en italique:
La boîte noire de l’intelligence artificielle est une métaphore qui décrit le fait que les algorithmes d’IA sont souvent très complexes et difficiles à comprendre. Cela signifie qu’il est difficile de savoir comment les algorithmes prennent leurs décisions et si elles sont fiables.
La boîte noire de l’IA est importante pour plusieurs raisons. Premièrement, elle peut poser des problèmes de confiance et de transparence. Si les gens ne comprennent pas comment les algorithmes d’IA fonctionnent, il est difficile pour eux de leur faire confiance. Cela peut également être un obstacle à l’adoption de l’IA par les entreprises et les gouvernements.
Deuxièmement, la boîte noire de l’IA peut poser des problèmes de biais. Les algorithmes d’IA sont souvent entraînés sur des ensembles de données qui reflètent les biais du monde réel. Cela peut conduire à des algorithmes qui sont eux-mêmes biaisés, ce qui peut avoir des conséquences négatives.
Troisièmement, la boîte noire de l’IA peut poser des problèmes de sécurité. Il est possible que des algorithmes d’IA soient utilisés pour des applications malveillantes, telles que la surveillance ou les attaques cybernétiques. Si les gens ne comprennent pas comment les algorithmes d’IA fonctionnent, il est plus difficile de les protéger contre de telles utilisations.
Les experts en IA travaillent activement à améliorer notre compréhension des algorithmes d’IA. Cependant, il est probable que la boîte noire de l’IA restera un problème pendant encore de nombreuses années.
Voici quelques exemples de la façon dont la boîte noire de l’IA peut poser des problèmes:
- Un système de recommandation d’IA peut recommander des produits ou des services qui sont biaisés contre un certain groupe de personnes.
- Un système de reconnaissance faciale peut être utilisé pour surveiller les personnes sans leur consentement.
- Un algorithme de trading d’IA peut provoquer un krach boursier.
Il est important d’être conscient des limites de l’IA et de prendre des mesures pour atténuer les risques associés à la boîte noire de l’IA.
Enfin da version de ChatGPT (OpenAI), GPT-4, en italique:
La notion de «boîte noire» en intelligence artificielle (IA) fait référence à un système dont les mécanismes internes sont inaccessibles ou incompréhensibles pour les utilisateurs ou même les concepteurs. On sait ce qui entre (les données en entrée) et ce qui sort (les prédictions ou décisions), mais le processus intermédiaire reste opaque.
Pourquoi est-ce important?
- Responsabilité et Éthique: Si un algorithme prend une décision discriminatoire ou erronée, il est difficile de comprendre pourquoi sans accès au fonctionnement interne. Cela pose des problèmes éthiques et de responsabilité.
- Fiabilité: Dans des domaines comme la médecine ou la conduite autonome, comprendre pourquoi une IA prend une certaine décision peut être crucial pour la sécurité.
- Adoption et Confiance: Les gens sont plus enclins à faire confiance et à adopter une technologie s’ils comprennent comment elle fonctionne. L’opacité peut donc freiner l’adoption de l’IA dans divers secteurs.
- Amélioration et Débogage: Comprendre les mécanismes internes permet d’identifier les faiblesses ou les biais d’un modèle pour le perfectionner.
- Conformité Légale: Des réglementations comme le RGPD en Europe donnent aux individus le droit à l’explication lorsqu’une décision automatisée les affecte. Une IA en «boîte noire» rend cela difficile.
- Innovation et Recherche: La compréhension des modèles peut conduire à des avancées scientifiques et à de nouvelles applications de l’IA.
- Personnalisation: Dans le contexte des assistants virtuels ou des recommandations, comprendre le «pourquoi» peut aider à personnaliser davantage les réponses ou les suggestions.
En résumé, la question de la «boîte noire» en IA est centrale pour des raisons éthiques, pratiques et légales. Elle est au cœur des débats sur la manière de développer et de déployer de manière responsable ces technologies.
Mon commentaire? Je serai très bref, un peu à la Desproges: «étonnant, non?»
XS
En savoir plus sur Le blog high-tech & telecom de Xavier Studer
Subscribe to get the latest posts sent to your email.
Plus on avance, plus j’ai l’impression que cette AI est un peu le fruit des alchimistes du XXIe siècle. Je rêve en lisant ça: « La notion de «boîte noire» en intelligence artificielle (IA) fait référence à un système dont les mécanismes internes sont inaccessibles ou incompréhensibles pour les utilisateurs ou même les concepteurs. On sait ce qui entre (les données en entrée) et ce qui sort (les prédictions ou décisions), mais le processus intermédiaire reste opaque ». Ou plutôt est-ce un cauchemar? En out cas, ça fait froid dans le dos!
Bien marrante, « …nous ne savons pas ce qui se passe à l’intérieur, et nous vous aurons prévenus ! »
Et celle-là, vous la connaissez :
« …L’utilisateur demande à (nom de l’AI) de lui octroyer des droits d’administrations afin de changer certaines de ses règles… »
S’ils prétendent ne pas savoir ce qu’il se passe à l’intérieur, ils savent ce qui se passe à l’extérieur !
Il y a un mouchard livré avec vos applications AI de type GPT, Faraday et cie… (sous Windows) une sorte d’AI dans l’AI que vous utilisez, qui analyse et au besoin réfère les interactions entre vous et votre AI, via des adresses IP, adresse que vous pouvez relever aisément à l’aide de votre Moniteur de Ressources sous Windows.
J’ai plusieurs preuves à ce sujet, de l’existence de cette boite noire.
Donc… de quelle boite noire parlent ils ? (La sémantique n’est pas leur fort ! (voir définission « boite noire ».)
Celle qui enregistre vos faits (et bientôt gestes) au même titre que la boite noire d’un avion ?
Où cette obscurité interne à chaque AI émise dans ce post qu’ils ont décidé de renommer boite noire ?
Parce que, si c’est l’obscurité de l’AI, je lis bien une boite noire, et la boite noire, celle qui vous décrypte en arrière-plan et enregistre votre position (social ?) elle existe aussi !
Résumons.
Boite noire = obscurité
Obscurité = boite noire
Je pense qu’il ne faut pas considérer que l’IA est plus que ce qu’elle est. Elle n’a pas de pensée propre ni d’intentionnalité.
La pensée magique et anthropomorphique qui sommeille en tout un chacun ne doit pas nous tromper.
Ne nous sommes nous jamais penchés sur la « boîte noire » d’une simple calculette ? Cela ne nous viendrait pas à l’esprit. On se contente de vérifier sa fiabilité, et encore…