Il autorise ses étudiants à utiliser ChatGPT dans leurs travaux universitaires : entrevue avec Stéphane Hamel
Un chargé d’enseignement de l’Université Laval a décidé d’autoriser le recours à l’intelligence artificielle comme ChatGPT dans le cadre de ses cours, mais en balisant son utilisation pour éviter les dérives qu’elle peut engendrer.
Stéphane Hamel enseigne au département de marketing de la Faculté des sciences de l’administration de l’Université Laval. Il a récemment modifié le contenu de ses plans de cours pour officiellement permettre le recours aux robots conversationnels comme ChatGPT dans le cadre de travaux universitaires, non pas comme une source d’information, mais plutôt comme un outil à utiliser dans un cadre précis.
«Toutes les tentatives d’interdire les nouvelles technologies dans le passé n’ont jamais fonctionné. Vaut mieux l’adopter et bien l’utiliser que d’essayer de l’interdire», affirme-t-il.
Récemment, des étudiants devaient concevoir une campagne de marketing en équipe et présenter le résultat au reste du groupe. Un des slogans les plus intéressants qui a été présenté en classe a été généré par ChatGPT, raconte M. Hamel.
Les quatre étudiants de l’équipe se sont d’abord creusé la tête pour trouver eux-mêmes des slogans avant d’utiliser ChatGPT comme un «cinquième membre de l’équipe».
À l’aide de directives bien précises, le robot conversationnel a généré un slogan qui, après analyse, a été retenu par l’ensemble des membres de l’équipe.
«Ils ont utilisé ChatGPT comme un outil de plus dans leur exercice de brainstorming», explique le chargé d’enseignement. Ce dernier accepte aussi que l’intelligence artificielle soit utilisée pour améliorer un texte, comme outil de correction par exemple.
Si un étudiant a recours à l’intelligence artificielle, il doit toutefois préciser dans une note explicative de quelle façon et quelles instructions ont été données pour en arriver aux résultats, précise Stéphane Hamel dans ses plans de cours.
«Réfléchissez bien aux circonstances dans lesquelles ces outils sont utiles. Ne les utilisez pas s’ils ne sont pas appropriés pour le cas ou la situation», peut-on aussi lire. Il n’est donc pas question d’ouvrir toute grande la porte à la tricherie. «Si on demande à ChatGPT de générer une réponse pour éviter de faire le travail, c’est comme du plagiat, ça ne passe pas», indique le chargé d’enseignement.
Ce dernier invite ses étudiants à contre-vérifier tout contenu produit par l’intelligence artificielle puisqu’ils seront tenus responsables en cas d’erreur ou d’omission de la part de ces robots conversationnels, précise-t-il. Stéphane Hamel reconnaît toutefois que la ligne est mince et que ces outils pourraient inciter certains étudiants à être plus paresseux. «Oui, il y a un risque. Mais des étudiants paresseux qui trouvent le moyen de tricher, il y en a toujours eu», laisse-t-il tomber.
L’Université Laval n’a quant à elle pas l’intention d’envoyer une directive à ses professeurs et chargés de cours pour restreindre le recours à l’intelligence artificielle. L’établissement préfère «les outiller afin qu’ils décident eux-mêmes pour chacun de leur cours comment ils veulent aborder la question», indique un de ses porte-parole, Jérôme Pelletier.
«Nous souhaitons que la communauté étudiante puisse apprendre à utiliser ces nouveaux outils qui font désormais partie de notre réalité en gardant son esprit critique et sa capacité d’analyse», ajoute-t-il.
De son côté, l’Université de Montréal a décidé d’interdire l’utilisation de robots conversationnels dans un contexte d’évaluation «à moins d’être explicitement prévue dans le plan de cours ou les consignes d’évaluation», ce qui donne tout de même une marge de manœuvre aux professeurs et enseignants qui voudraient l’autoriser.
journaldequebec