ChatGPT est-il devenu plus “éthique” grâce à l’exploitation de travailleurs kényans ?

Pour proposer une IA plus éthique, ChatGPT aurait contribué à l’exploitation de milliers de salariés kényans.

Dans une récente enquête publiée sur le site du Time, le journaliste Billy Perrigo vient écorner violemment la réputation d’OpenAI, et de son chatbot ChatGPT. Alors que l’outil ambitionne de révolutionner notre usage d’Internet, de plus en plus de questionnements éthiques émergent. Les étudiants utilisent la plateforme pour tricher, et certains hackers malintentionnés n’hésitent pas à l’exploiter pour arnaquer des victimes un peu trop crédules.

Pour offrir au monde une utilisation toujours plus éthique de son outil, OpenAI planche déjà sur un moyen d’authentifier les textes écrits à partir de ChatGPT. Dans un tout autre registre, le chatbot interdit également les propos à caractère sexuel, injurieux ou illégaux, ce qui n’est pas le cas de toutes les intelligences artificielles du marché. Et c’est justement là que le Time soulève un problème de taille : pour entraîner son robot à détecter — et donc éviter de reproduire — des contenus jugés inappropriés, OpenAI aurait fait appel à des travailleurs kényans sous-payés, en les confrontant pendant des mois à des publications insoutenables.

Payés moins de deux dollars de l’heure, ces travailleurs auraient permis à ChatGPT de s’entraîner sur des centaines de milliards de références extraites du web. Une banque de données immense, qu’il a fallu trier à la main pour permettre au robot de ne pas reproduire les dérives sexistes, racistes et homophobes héritées du premier chatbot conversationnel que Microsoft avait mis en ligne sur Twitter en 2016.

Pour confronter ChatGPT au pire d’Internet, OpenAI aurait ainsi fait appel à plusieurs milliers de salariés, via la sous-traitance de l’entreprise américaine Sama, basée au Kenya, en Ouganda et en Inde. Interrogés par le Time, certains travailleurs décrivent des conditions de travail “précaires”. Un employé de Sama anonyme qualifie même la situation de “torture”, et indique avoir “des visions récurrentes après avoir lu une description graphique d’un homme ayant des relations sexuelles avec un chien en présence d’un jeune enfant”.

Face à une situation jugée insoutenable, Sama a finalement choisi de mettre fin à son contrat avec OpenAI huit mois plus tôt que prévu. De son côté, l’entreprise américaine reste floue, et préfère communiquer autour des progrès nécessaires au bien commun que l’IA s’apprête à apporter au monde. “La classification et le filtrage de contenus nuisibles sont une étape nécessaire pour minimiser la quantité de contenu violent et sexuel inclus dans les données de formation et créer des outils capables de détecter le contenu nuisible” a indiqué un porte-parole de ChatGPT.

Pour mieux comprendre les dessous du phénomène OpenAI, vous pouvez aussi retrouver l’enquête complète du Time (en anglais) ici. L’affaire n’est malheureusement pas inédite, puisqu’elle fait écho à celle de Meta il y a quelques années. Reste que l’exploitation psychologique de travailleurs et travailleuses pauvres dans le but de rendre une IA plus éthique continue de poser question.

JDG

You may like