Le groupe dit vouloir garantir un développement sûr et responsable des « modèles d’intelligence artificielle d’avant-garde ».
OpenAI, Microsoft, Alphabet et Anthropic lancent un forum pour réglementer le développement des intelligences artificielles (IA) de dernière génération, ont déclaré le 26 juillet 2023 les géants américains du secteur. Le groupe dit vouloir garantir un développement sûr et responsable des « modèles d’intelligence artificielle d’avant-garde », qui dépassent les capacités des modèles existants les plus avancés.
Mesures de protection appropriées
Le modèles très performants d’IA générative comme ChatGPT pourraient avoir des capacités suffisantes pour poser des risques graves à la sécurité publique. Des organismes gouvernementaux tels que l’Union européenne, ainsi que des chefs d’entreprise comme le directeur général d’OpenAI, Sam Altman, estiment que des mesures de protection appropriées seraient nécessaires pour faire face aux risques posés par l’IA.
L’organisme industriel Frontier Model Forum s’efforcera de faire progresser la recherche sur la sécurité de l’IA, et d’identifier les meilleures pratiques pour le déploiement des modèles d’IA d’avant-garde en collaborant avec les décideurs politiques, les universités et les entreprises. L’organisme ne fera pas de lobbying auprès des gouvernements, a déclaré un porte-parole de OpenAI.
Conseil consultatif
« Les entreprises qui créent des technologies d’IA ont la responsabilité d’assurer leur sureté, sécurité et qu’elles restent sous contrôle humain », a déclaré le président de Microsoft, Brad Smith, dans un communiqué. Le forum créera un conseil consultatif dans les mois à venir, organisera le financement d’un groupe de travail et créera un conseil d’administration pour diriger ses efforts.
reuters