Une intelligence artificielle éthique et responsable est un accélérateur pour le développement durable

Qu’on s’en inquiète ou qu’on la plébiscite, l’intelligence artificielle (IA) est sur toutes les lèvres. Cette branche de l’informatique crée, en effet, des outils capables de collecter, analyser et interpréter des données, puis d’utiliser ces informations pour prendre des décisions ou effectuer des actions.

« Les humains et l’IA se complètent, ce qui ouvre de nouvelles opportunités pour la croissance économique, la production, les soins de santé, l’éducation, la communication et les transports. »

DES ROBOTS POUR COMBATTRE LES ÉPIDÉMIES
Avec l’appui de l’IA, le PNUD a pu renforcer des communautés vulnérables face aux crises, pour améliorer l’accès aux soins de santé, aux diagnostics et aux consultations à distance. Face à la pression que la COVID a fait peser sur le système de soins au Rwanda, l’Accelerator Lab du PNUD dans le pays s’est associé au ministère des TIC et de l’innovation pour déployer cinq robots anti-épidémiques intelligents dans deux centres de traitement COVID-19 et à l’aéroport international de Kigali. En Equateur, nous avons collaboré avec le ministère des Télécommunications pour lancer un outil virtuel afin de répondre aux questions des citoyens sur la COVID-19.

PISTE POUR L’ALIMENTATION D’AUJOURD’HUI ET DE DEMAIN
« Les progrès des technologies numériques […] telles que l’intelligence artificielle ainsi que leur accessibilité croissante rendent les applications pour l’agriculture de précision accessibles pour les petits agriculteurs des pays en développement », nous dit un rapport du PNUD (en anglais).

À Trinité-et-Tobago dans les Caraïbes, par exemple, Crop Mate, identifié grâce à l’Accelerator Lab du PNUD Green Innovation Challenge, dédié à l’innovation pour l’environnement, fournit aux agriculteurs une information en temps réel sur l’état des sols et suggère les interventions à mettre œuvre pour garantir la bonne santé des cultures grâce à l’Intelligence Artificielle (IA).

Au Brésil également, l’IA a été utilisée pour résoudre les défis liés à l’agriculture durable et à la sécurité alimentaire en surveillant les cultures, en optimisant l’allocation des ressources et en fournissant des informations aux agriculteurs. L’IA a également été utilisée pour renforcer les efforts de mitigation et d’adaptation aux changements climatiques dans des pays vulnérables, en renforçant la préparation aux catastrophes et en protégeant les communautés

« L’IA et les autres technologies numériques ont la capacité d’encourager la démocratie et les droits humains en stimulant l’engagement civique et la participation à la vie politique […] Elles peuvent empêcher la pollution de l’information et donc jouer un rôle important dans le renforcement de la cohésion sociale, en fonction des choix que nous faisons. »

DES ALGORITHMES POUR LA GOUVERNANCE
Le système eMonitor+ s’appuie sur divers modèles d’IA qui aident à identifier et à analyser les contenus en ligne préjudiciables à une information de qualité. Il a été mobilisé dans le cadre de l’appui à la gouvernance et au processus électoral, en partenariat avec des gouvernements, des médias et des organisations de la société civile au Liban, en Libye, en Tunisie et dans bien d’autres pays arabes. eMonitor+ a également été étendu à l’échelle mondiale, comme au Pérou et au Mozambique, faisant figure de bon exemple de coopération Sud-Sud.

L’initiative IVERIFY, outil automatisé de vérification des faits peut être utilisé pour identifier les fausses informations, prévenir et atténuer leur propagation. En combinant des nouvelles technologies telles que l’IA et l’apprentissage automatique avec la vérification des faits par des humains, iVerify vise à renforcer les efforts collectifs pour favoriser une société mieux informée et plus unies.

Le Honduras, le Kenya, le Libéria, la Sierra Leone et la Zambie comptent parmi les pays qui ont utilisé cet outil initiative pour promouvoir une information de qualité, élément essentiel pour la promotion de la paix et de processus électoraux de qualité notamment.

GARDER UN ŒIL (NUMÉRIQUE) OUVERT SUR VIOLENCES FAITES AUX FEMMES
De même, le moniteur sur la violence numérique contre les femmes uruguayennes basé sur des outils de classification de l’IA fournit une évaluation accessible en temps réel sur les attaques et les insultes reçues par des personnalités publiques féminines y compris des journalistes, communicantes, militantes et artistes engagées en politique. Sara, un assistant numérique qui fournit des informations et des conseils sur les violences faites aux femmes et aux filles, est un autre exemple où l’IA vient en appui à la réduction des violences basées sur le genre.

JUSTICE 4.0
Au Brésil l’initiative justice 4.0 utilise l’intelligence artificielle pour promouvoir l’accès à la justice pour toutes et tous. Une enquête du CNJ, a souligné une croissance des projets d’IA supérieure à 170% au sein du pouvoir judiciaire par rapport à l’année précédente.

Les principales motivations pour l’utilisation de l’IA par les tribunaux sont l’accroissement de la productivité, l’innovation, d’amélioration de la qualité des services judiciaires et la réduction des coûts. « L’objectif est de garantir l’accès à la justice grâce au développement d’actions et de projets collaboratifs qui utilisent les nouvelles technologies et l’intelligence artificielle », explique le juge auxiliaire de la présidence du CNJ, Rafael Leite.

L’IA POUR DES FINANCES PUBLIQUES INTELLIGENTES
Le PNUD et l’Institut Alan Turing ont proposé l’outil Inférence des priorités politiques (IPP) qui associe la théorie économique, l’économie comportementale, la science et la technologie pour aider les décideurs à hiérarchiser les dépenses publiques en fonction des ODD.

« Récemment, les gouvernements du monde entier ont dû engager des ressources substantielles pour lutter contre la pandémie de COVID-19, les empêchant d’atteindre leurs objectifs initiaux. Dans ce contexte, l’IPP peut être utilisé pour maintenir le cap malgré les déboires que le virus peut engendrer », explique Omar Guerrero, chercheur de l’University College London et l’Institut Alan Turing.

DÉCODER LES BIAIS
Si l’IA offre des potentialités indéniables pour le développement durable, le PNUD, qui considère les innovations technologies comme des atouts essentiels vers la réalisation des ODD, n’en ignore pas pour autant les risques. Les modèles d’IA peuvent en effet être biaisés et renforcer les normes sociales nuisibles, notamment envers les femmes et les groupes marginalisés.

Les bureaux pays d’Europe et d’Asie Centrale ont ainsi découvert que les modèles d’IA, y compris les outils de conversion de texte en image, pourraient contribuer à la reproduction des inégalités et des stéréotypes existants, comme l’a révélé une expérience menée par l’Accelerator Lab en Serbie.

Dans le cadre d’un test sur la représentation des femmes dans les domaines des sciences, de la technologie, de l’ingénierie et des mathématiques (STIM) avec deux IA populaires de création d’images, 75 à 100 % des images générées montraient des hommes, renforçant le stéréotype selon lequel les professions liées aux STIM sont dédiés aux hommes. De plus, une exposition virtuelle réalisée à partir d’œuvres d’art créées par des outils a reproduit les préjugés sexistes qui existent dans nos sociétés.

Des décisions faites par les systèmes d’IA peuvent soulever des questions éthiques. Un rapport du PNUD en Inde a révélé que les biais algorithmiques ont un impact conséquent dans les domaines des services financiers, de la santé, de la vente au détail et des travailleurs précaires.

En effet, les travailleurs les plus concernés font partie des catégories les plus vulnérables et marginalisées pour lesquelles l’accès direct à la technologie reste limité, réduisant ainsi leur capacité à exercer un recours s’ils se sentent lésés par une décision automatisée prise par leurs employeurs.

Le rapport a également mis en évidence les risques pour la confidentialité et l’accès financier aux services financiers face aux notations de crédit basées sur l’IA. Il a ainsi été rapporté que l’IA propose un score inférieur aux candidatures féminines malgré des antécédents financiers similaires à ceux des hommes. De plus, les modèles d’IA complexes peuvent être difficiles à comprendre et à expliquer, ce qui soulève des problèmes de confiance et de responsabilité.

La sécurité et la confidentialité des données sont également des préoccupations majeures dans la mesure où les systèmes d’IA peuvent être vulnérables au piratage et que l’utilisation de grandes quantités de données personnelles soulève des questions de protection de la vie privée.

L’automatisation basée sur l’IA peut également entraîner la suppression d’emplois et aggraver les inégalités socio-économiques. Il est donc essentiel de repenser les modèles de travail et de formation pour s’adapter aux changements apportés par l’IA.

Les décisions prises par les systèmes d’IA soulèvent aussi des questions dans le champ de la propriété intellectuelle, remettant en cause la légitimité des entreprises privées à vendre, de manière anonyme, des services basés sur des données normalement protégées par des droits d’auteur ou relevant du domaine public sous une forme anonyme. Enfin, une dépendance excessive à l’IA peut entraîner des conséquences graves en cas de défaillance.

UNE IA QUI BÉNÉFICIE À L’HUMANITÉ
L’IA affectant déjà de nombreux aspects de nos vies, elle est trop importante pour qu’on en ignore les limites et les pièges potentiels. Dans le cadre du Groupe de travail inter-agence des Nations Unies sur l’intelligence artificielle (en anglais), le PNUD collabore avec des partenaires pour élaborer une approche stratégique et une feuille de route pour une IA éthique qui réponde aux besoins de l’humanité.

Nous nous associons également à l’Union internationale des télécommunications dans le cadre d’un mécanisme conjoint visant à aider les gouvernements à renforcer leurs capacités numériques et à exploiter l’IA de manière responsable.

Le PNUD soutient également les pays dans leurs efforts pour mettre en place des systèmes d’IA éthiques. L’évaluation de l’état de préparation à l’IA « AI Readiness Assessment » (AIRA) est un outil créé pour aider les gouvernements à comprendre le paysage de l’IA dans leur pays et à évaluer leur niveau d’expertise dans les différents secteurs.

Le cadre est axé sur le double rôle des gouvernements en tant que facilitateurs de progrès technologique et utilisateurs de l’IA dans le secteur public. Il donne la priorité aux considérations éthiques entourant l’utilisation de l’IA par le biais d’éléments clés tels que les politiques, les infrastructures et les compétences.

Nous devons garantir l’équité et la transparence dans la conception et l’utilisation de l’IA, clarifier la responsabilité juridique en cas de dommages causés par l’IA et aborder les implications en matière de propriété intellectuelle. Nous ne devons pas non plus oublier que les outils d’IA sont créés par des humains.

Les préjugés qu’ils révèlent sont le reflet de ceux qui existent dans le monde réel. Une grande partie de la solution consistera à créer un secteur technologique plus inclusif, de sorte que les personnes qui construisent les systèmes d’IA puissent mieux représenter les personnes que ces systèmes servent.

socialnetlink

You may like