L’intelligence artificielle (IA) continue de faire scintiller des milliards de pixels de par le monde. Comme nous l’avons souvent dit ici, bien utilisée, elle peut être redoutable. Mais trop souvent ses utilisateurs jouent à la roulette russe, ce qu’il faut absolument éviter pour ne pas subir la mythomanie de ces tas d’algorithmes bugués jusqu’au trognon!
Les conseils que nous avons donnés ici il y a quelques semaines restent valables. Pour commencer, à moins d’avoir un contrat garantissant la protection de vos données, ne transmettez pas d’informations stratégiques à ces fatras de lignes de code, qui ne sont pas intelligents. De quoi éviter la fuite de données vécue récemment par Samsung, selon TechRadar.
Des mesures même en Suisse
Ce n’est pas pour rien que différents pays, à l’image de l’Italie, ont pris de mesures suspensives ou ont lancé des enquêtes. Selon cette page internet, même la Suisse s’intéresserait à d’éventuels dérapages en la matière… L’Allemagne y songerait aussi… Cela dit, rappelons que les différentes sociétés sur le marché mettent en garde les utilisateurs…
Restent tout de même des cas réputationnels troublants lorsque ces tas d’algorithmes foireux racontent n’importe quoi, comme ce maire australien qui aurait été condamné à 30 mois de prison pour avoir payé des pots de vin, à en croire cette information d’Euronews. Les conséquences de la mythomanie de ces algorithmes (ici ChatGPT) peuvent donc être très lourdes.
Le grand doute numérique
Mon conseil reste invariablement le même. Si vous n’êtes pas en mesure d’évaluer le résultat produit par une de ces intelligences artificielles, il ne faut pas les utiliser. En principe, pas de problème pour générer un résumé ou effectuer des tâches bien définies. En revanche, pour trouver de l’information, il est mieux de se tourner vers des moteurs de recherche et de trier ses infos avec son intelligence naturelle…
Utiliser ChatGPT, GPT-4, Bing ou Bard de Google revient à jouer à la roulette russe si l’on n’est pas capable d’évaluer la prestation fournie. Pas de doute, après avoir généralisé la notion de bug, les informaticiens ont franchi une nouvelle étape en introduisant la génération d’informations numériques floues, inexactes, voire fausses. Pendant longtemps, le numérique a été synonyme de prévision et d’exactitude, il commence à rimer avec un grand n’importe quoi!
Xavier Studer
ChatGpt est de base Libre. C’est juste de là que vient le problème. Aucune des grosses entreprises a eu l’exclusivité aux USA. Ont trop l’Habitude de diriger le monde informatique à leur convenance.
C’est bien pour cela qu’ils ont même eu l’audace de demander une pause 🙂
Le gens sont dupes, une pause a été demandée par les grosses boites de ce Monde, quasi toutss des USA pour rattraper le retard exactement comme le blocage de Huawei qui, en 2019 risquaient de mettre les USA sur le carreau avec leur offre 5g bien trop rapide pour les USA qui avaient 2-3 ans de retard.
L’utilisation de cette(ces) intelligeances peut être gérée simplement en y blocant l’accès aux mineurs via les opérateurs avec les empreintes digitales ou la reconnaissance faciale.
Les résultats de recherches sont effectivement pas toujours correctes avec l’utilisation de la base de donnée Facebook et Twitter pleines de fakes News (merci USA encore)
Mais comme vous dites, pour épauler le journalisme à l’écriture, les étudients et autres c’est super pratiques.
J’ai demandé une semaine de menus à moins de 1200 K.cal / jour et c’est au top, avec une mise en garde à la fin et je trouve ça ok….
En réponse à l’article “Intelligence artificielle: jusqu’où ira la mythomanie et les scandales?”, je tiens à exprimer mon désaccord concernant la régulation des IA par l’État. Il est important de souligner que c’est la responsabilité des individus eux-mêmes de gérer et de contrôler l’utilisation des IA, notamment en ce qui concerne leurs enfants.
Il est vrai que les réseaux sociaux sont souvent un véritable nid de fausses informations, et il est essentiel d’apprendre à distinguer les sources fiables des sources douteuses. Cependant, cela ne signifie pas que l’État doit intervenir pour réguler l’utilisation des IA. Au lieu de cela, la responsabilité incombe aux utilisateurs de développer un esprit critique et d’éduquer leurs enfants sur les dangers potentiels et les bonnes pratiques liées à l’utilisation de l’IA.
En outre, il est important de rappeler que les IA, telles que ChatGPT, GPT-4, Bing ou Bard de Google, sont des outils qui peuvent être très utiles lorsqu’ils sont utilisés correctement. Il est donc essentiel de connaître leurs limites et de les utiliser de manière appropriée, en vérifiant et en évaluant les informations qu’elles génèrent.
En conclusion, au lieu de demander une intervention étatique pour réguler les IA, nous devrions nous concentrer sur l’éducation des utilisateurs afin qu’ils puissent utiliser ces technologies de manière responsable et consciente. C’est en développant un esprit critique et en étant vigilant face aux informations que nous pourrons tirer le meilleur parti des intelligences artificielles sans tomber dans les pièges des fausses informations.
“Nous concentrer sur l’éducation des utilisateurs “. Bonne chance ! Continuez à rêver !
ChatGPT appartiens a openAI qui appartiens a microsoft, meme si le nom de la société est open, le logiciel lui ne l’est pas. Y a qu’a voir la reaction de bill gates après l’appel de musk de faire une pause.
J’ai demandé des recettes ou des petits trucs à Bing, et les réponses me suffissent. Plus vite que de chercher sur Google et de parcourir plusieurs sites. Mais pour des trucs plus importants et critiques, attention donc ! C’est encore trop “artificiel” que “intelligent” si vous demandez mon opinion.
« Les algorithmes peuvent déjà décider si vous recevez une caution, êtes admissible à un prêt et fixez le prix de votre assurance maladie. Les progrès fulgurants de @OpenAI
sur #ChatGPT ne feront qu’accélérer la collecte massive de données. »
Voici ce que cela signifie pour la confidentialité : https://proton.me/blog/privacy-and-chatgpthttps://twitter.com/ProtonPrivacy/status/1619007351750627342
En avant la fake news….faut arrêter de vous fier à twitter ou Facebook, on ne fait pas pire en désinformation.
@Nycko: Il faudrait que vous commenciez par lire les articles au lieu de les critiquer. Proton n’a rien à voir avec Facebook et Twitter ne fait que relayer de toutes façons.
Extrait de l’article de Proton.me:
« As AI is applied to new functions, it will be exposed to more and more sensitive information, and it will become more and more difficult for people to avoid sharing their information with AI. Also, once data is collected, it’s very easy for it to be repurposed or used for something people never consented to. »
Ca en dit déjà long sur l’avenir d’un monde géré par l’IA !
La suite est tout aussi intéressante, le reste de l’article également. Merci @FreD d’avoir fourni ce lien: https://proton.me/blog/privacy-and-chatgp
une URL qui fonctionne: https://s.42l.fr/hLVrQq7m
La vérité si je mens.
“être en mesure d’évaluer la prestation fournie”. D’humain à humain c’est déjà pas simple, alors imaginez avec une IA qui sait exactement ce que vous avez besoin d’entendre !
Beaucoup de bruit au-tour des dangers de l’IA, mais pendant ce temps c’est vaccin non testé pour tout le monde, guerre où je dis, deviens millionaire en me suivant sur télégramme, et à la fin de l’année le bitcoin vaut 1 million alors file moi ton pognon.
Perso, je trouve les dangers des fakes news sur les réseaux sociaux beaucoup plus alarmant que des fausses informations produites par une IA. Pendant 4000 ans, certains n’ont pas eu besoin de l’IA pour duper les autres !