Reconnaissance faciale : Microsoft va tuer son IA pour des raisons éthiques

Sans doute inquiet des dérives éthiques de son intelligence artificielle, Microsoft s’apprête à la supprimer.

L’intelligence artificielle inquiète depuis quelques semaines. Alors que celle de Google est convaincue d’avoir une âme et des sentiments, celle de Microsoft va connaître une fin prématurée. Spécialisée dans la reconnaissance faciale, la technologie du géant américain serait en effet capable de “lire” sur un visage plusieurs informations sensibles, comme l’âge, le sexe, l’appartenance ethnique, et même les émotions. Une prouesse technique qui a du mal à passer chez les défenseurs de la vie privée.

Microsoft va tuer son IA… pas tout à fait
Conscient que la technologie soulève de nombreux questionnements éthiques, Microsoft a annoncé cette semaine que face à l’impossibilité d’établir un lien tangible entre les expressions faciales d’une personne et les émotions ressenties, il avait pris la décision radicale de mettre fin à son intelligence artificielle. En réalité, le géant du web a sans doute d’autres inquiétudes en tête, à commencer par les discriminations humaines que son système est potentiellement capable de causer.

Pour les nouveaux utilisateurs, il sera désormais impossible d’accéder au système de reconnaissance faciale Microsoft Face programming framework. Les clients déjà inscrits ont quant à eux jusqu’au 30 juin 2023 pour faire leurs adieux au logiciel, avant que celui ne soit plus accessible au grand public. Notons cependant que derrière cette annonce, Microsoft entend continuer d’intégrer sa technologie dans certains outils “contrôlés”, à commencer par Seeing AI, le logiciel destiné à faciliter la vie des personnes malvoyantes.

Une IA éthique, c’est possible ?
Cette décision n’intervient évidemment pas par hasard. Il y a quelques jours, Microsoft a partagé publiquement son Responsible AI Standard, sorte de livret blanc dans lequel l’entreprise dresse le futur du processus décisionnel informatique. Pour le GAFAM, l’IA va devoir mettre l’accent sur l’inclusivité la confidentialité et la transparence si elle veut s’imposer auprès du grand public. Cela passera notamment, estime Redmond, par l’exclusion de la détection des émotions.

Engadget

You may like