Elon Musk et plus de 1 000 experts lancent l’alerte sur les IA génératives comme ChatGPT

Plus de mille scientifiques, spécialistes et personnalités de la High-Tech, ont signé une lettre ouverte pour demander un moratoire d’au moins six mois sur le développement des intelligences artificielles avancées. Le temps nécessaire pour créer un cadre réglementaire et éthique pour contraindre ces IA. Un vœux pieux ?

Mettre en pause le développement des intelligences artificielles (IA) avancées durant au moins six mois. Voici ce que demandent dans un courrier ouvert publié hier, près de 1 400 scientifiques, experts ou pontes du secteur de la High-Tech. Parmi eux, outre des pionniers de l’IA comme Yoshua Bengio, se trouve Elon Musk, qui avait déjà exprimé son angoisse existentielle face aux IA via un tweet en début de semaine.

Les signataires voudraient que le développement des IA les plus avancées soit arrêté pendant au moins six mois. Leur crainte est que l’absence de cadre réglementaire ou commun pour les gérer, ne vienne rendre totalement incontrôlables ces IA en voie de devenir « superintelligentes ». L’essor spectaculaire d’IA comme celle que OpenAI met à disposition du grand public avec son chatbot ChatGPT marque effectivement le début d’une grande révolution pour le secteur de la High-Tech.

Elle est vue de façon positive par certains, comme Bill Gates, quand d’autres acteurs comme Musk et même Google s’en inquiètent. Alors qu’il planche depuis longtemps sur de nombreuses IA, par crainte de louper cette révolution, le géant d’Internet a dû publier précipitamment son propre chatbot alors qu’il n’était pas prêt et qu’il restait pour le moment expérimental.

Une pause de six mois irréaliste ?
Il faut dire que l’engouement pour ces intelligences artificielles génératives est tel que de nombreux laboratoires ont décuplé leurs efforts pour développer des IA toujours plus puissantes. Avec elles, les signataires soulèvent de nombreux problèmes d’éthique qui sont mis de côté par les développeurs. Il en est ainsi de la question des fausses informations et de la manipulation étant donné leur force rhétorique et leur capacité à créer des images réalistes.

La crainte de la destruction massive d’emplois est également présente, comme le prouve une étude publiée par Goldman Sachs que Futura a évoqué hier. La peur d’une sorte de « grand remplacement » par des « esprits » non humains plus intelligents est aussi évoquée par les signataires. Parvenir à un moratoire de six mois sur le développement des IA semble être une durée irréaliste pour parvenir à établir un cadre réglementaire et éthique.

Un arrêt et un cadre règlementaire que des pays comme la Chine pourraient de toute façon ignorer. Pourtant, il existe déjà une volonté de réglementer les IA. Ainsi, l’Union européenne a déjà proposé trois textes sur les IA et notamment sur la responsabilité de leurs éditeurs, notamment en matière de protection de la vie privée. Mais, dans cette course contre la montre, les IA ont le temps de s’octroyer toujours plus de liberté avant que les lois ne viennent les contraindre. Du côté d’OpenAI, l’entreprise ajoute progressivement des freins aux débordements constatés par son IA et cherche à implanter des systèmes permettant d’identifier les contenus générés par son IA. Mais pour le moment, tout dépend de la bonne volonté de ces sociétés privées.

FUTURA

You may like