L’intelligence artificielle va-t-elle corrompre la justice sud-africaine ?

Dans un procès à Johannesburg, un cabinet d’avocats a invoqué une jurisprudence inventée de bout en bout par un programme d’IA.

Entre deepfakes (génération de fausses vidéos) et chatbots (dialogueurs virtuels), l’assimilation de l’intelligence artificielle (IA) dans la vie courante a connu, ces derniers mois, une accélération certaine. La star incontestée de cette tendance est le prototype d’agent conversationnel « Generative Pre-trained Transformer » (ChatGPT), version sophistiquée et médiatisée des moteurs de recherche – bien qu’il n’en soit pas un lui-même.

Spécialisé dans le traitement automatique des langues, le programme a déjà dépanné des orateurs fainéants ou des lycéens indolents. Mais attention à l’usage qui en est fait dans le milieu professionnel…

La justice sud-africaine vient de souligner les limites de l’intelligence artificielle. À Johannesburg, dans un procès pour diffamation contre une personne morale, le cabinet d’avocats de la plaignante a tenté de justifier la validation de sa requête par la production d’éléments de jurisprudence. Il a évoqué des cas présumés de poursuites de société pour propos portant atteinte à l’honneur d’une personne physique.

Quoi de plus sensé, de la part de l’avocate Michelle Parker, si ce n’est que les cas évoqués se sont révélés… fictifs. Plus naïf et bousculé que malintentionné, le cabinet avait commis l’erreur de s’appuyer sur le fameux robot conversationnel, lequel leur avait produit les traces imaginaires de procédures judiciaires inventées.

Chatbot avocat
La supercherie éventée, la presse sud-africaine rapporte que le tribunal concerné n’a pas manqué de taper sur les doigts des avocats, se plaignant de conseils juridiques « répétés à la manière d’un perroquet », après la « recherche non vérifiée d’un chatbot ».

Après avoir constaté que les noms, les citations et les faits produits au titre de la jurisprudence étaient intégralement fictifs, le magistrat Arvin Chaitram a rappelé qu’une « bonne lecture à l’ancienne » était toujours nécessaire en matière de recherche juridique. Si l’affaire a été conclue par une ordonnance de dépens punitifs, les avocats négligents, eux, n’ont pas été sanctionnés pour leur imprécision, l’impact de cet incident sur leur réputation ayant été jugé suffisamment pénalisant

Il est à noter que l’utilisation abusive de ChatGPT dans des procédures judiciaires avait déjà été dénoncée aux États-Unis. Plus sévère que son homologue sud-africain, le juge de district P. Kevin Castel a condamné les avocats Steven A. Schwartz et Peter LoDuca à une amende de 5 000 dollars, pour « abandon de leurs responsabilités ».

Si la défaillance humaine est redoutée en matière de justice, il ne faudrait pas que les affabulations de l’IA conduisent à des erreurs judiciaires supplémentaires.

jeuneafrique

You may like