
Un réseau semble prospérer sur les réseaux sociaux pour revendre des comptes européens dédiés à la formation de l’intelligence artificielle (IA). Des travailleurs basés en Inde, au Kenya ou aux Philippines utilisent ces comptes pour toucher des salaires occidentaux, révèle une enquête d’AlgorithmWatch, une organisation non gouvernementale, qui œuvre notamment pour favoriser la transparence en matière d’algorithmes.
Ce trafic s’explique par les écarts salariaux entre les pays: un travailleur indien gagne quelque dollars de l’heure via un compte local, contre 35 dollars avec un profil américain. Des plateformes comme Outlier, sous-traitante de géants de la tech., peinent à contrôler ces dérives malgré leurs systèmes de vérification.
Contourner les contrôles
Les fraudeurs utilisent des «serveurs résidentiels», des services camouflant l’adresse IP réelle de connexion pour simuler une localisation européenne. Contrairement aux réseaux privés virtuels classiques, plus facilement détectables, ces outils font croire que l’utilisateur se connecte depuis une vraie adresse résidentielle dans un autre pays.
Sur Facebook, des annonces promettant «1000 dollars hebdomadaires» masquent en réalité des offres de comptes piratés vendus en cryptomonnaies. Les escrocs exigent des paiements échelonnés et multiplient les arnaques une fois l’argent versé, comme l’indique l’enquête d’AlgorithmWatch résumée dans ce communiqué.
La main-d’œuvre invisible de l’IA
Des travailleurs kényans expérimentés gèrent jusqu’à 40 comptes d’après les témoignages obtenus par des journalistes. Ils partagent les gains avec les propriétaires européens des comptes, reproduisant d’une certaine manière une logique coloniale modernisée où le travail est effectué au Sud pour des salaires du Nord.
Outlier, filiale du géant Scale AI qui vise une valorisation de 25 milliards de dollars, affirme renforcer ses contrôles et désactiver les comptes suspects, selon l’article d’AlgorithmWatch. Fondamentalement, cette sous-traitance en cascade expose potentiellement les données sensibles d’entraînement des modèles linguistiques à des risques de manipulation par des réseaux organisés. Reste à en connaître la réelle étendue, car ne se basant que sur des témoignages isolés.
Mon commentaire? Même si j’utilise plutôt intensément l’IA, qui continue épisodiquement d’halluciner, je ne cesse de m’interroger sur ses retombées négatives. Besoin en énergie, en matière première et impact sur la main-d’œuvre. Cela dit, il faut admettre que les services rendus aujourd’hui par l’IA sont tels, qu’il faut trouver des solutions à ces défis.
XS