Recommandations et consignes facultaires sur l'utilisation de l'IA générative dans l'enseignement
Prémisses
Dans ce document l’IA générative (IAG) fait référence à la génération automatique de contenus (textes, images, codes, ...), généralement via des prompts (requête).
Le site de l’Université de Genève dédié à l’Usage des intelligences artificielles génératives à l’UNIGE comprend des recommandations générales sur l’utilisation de l’IA générative (IAG) dans l’enseignement et les évaluations, et le Bureau de la Transition Numérique (BTN) de l’Université de Genève a publié un guide pratique sur l’IA, comprenant :
- des définitions, explications et un historique de l’IAG (guide pratique, également en format pdf),
- des listes de ressources (outils pour l’enseignement et l’apprentissage, recommandations d’autres institutions et considérations éthiques),
- une prise de position institutionnelle générale, avec les recommandations générales en matière de responsabilité, légalité, intégrité académique, transparence, économie et écologie.
Il est précisé dans la prise de position institutionnelle qu’"il revient aux facultés et aux centres interfacultaires de décider des modalités de l’intégration de l’IA dans leurs activités d’enseignement et d’élaborer les conditions d’utilisation spécifiques des outils d’IA génératives pour les activités de recherche, d'enseignement et d’apprentissage."
Les Facultés sont ainsi censées éditer leurs propres recommandations, c’est-à-dire cadrer l’utilisation de l'IA générative pour les enseignements.
Le groupe de travail de la FPSE a abouti à des recommandations facultaires pour les étudiant-es, pour les enseignant-es, complétées par des informations sur l’impact de l’utilisation de l’AIG sur les dimensions environnementales, de protection de données, d’égalité sociale et de dépendance.
Ces recommandations restent d'ordre général et peuvent s’appliquer aux divers types d’enseignement et d’évaluation, tout en permettant que chaque enseignant-e établisse clairement le cadre d’utilisation de l’IA dans son enseignement et ses évaluations, et en considérant que l’évolution rapide des outils peut demander une actualisation des recommandations en chaque début de semestre[1].
[1] Le document sera vérifié et actualisé tous les 6 mois par le groupe de travail (Ecaterina Bulea Bronckart, Olivier Desrichard, Gaelle Molinari, Aline Meyer, Giulia Ortoleva & Marina Laganaro)
I. Recommandations pour les étudiant-es
Les étudiant-es sont encouragé-es à utiliser l’IA générative pour leurs travaux académiques de manière raisonnée, responsable et dans le respect des bonnes pratiques scientifiques et académiques, lorsque cet usage leur permet d’améliorer leurs apprentissages et leur façon d’apprendre, tout en tenant compte des dimensions éthiques et écologiques liées à l’usage des IAG. Parmi ces dimensions sont notamment concernés la protection des données, les biais et fausses informations, les inégalités sociales, les préjudices environnementaux et la dépendance excessive à l’IAG (cf. détails dans la section III).
Ceci implique de :
- Respecter le cadre établi pour chaque enseignement/dans chaque cours. L'étudiant-e est tenu-e de respecter le cadre général et les règles d’utilisation de l’IAG formulées par les enseignant-es en lien avec les spécificités des approches pédagogiques et des modalités et formats d’évaluation de chaque enseignement.
- Être conscient-es du fait que les outils peuvent donner des réponses qui ne sont pas fiables. Il est attendu des étudiant-es qu’ils se forment et soient au clair sur le type de ressources sur lesquelles se basent les outils de l’IAG qu’ils utilisent dans leurs travaux.
- Veiller à la protection des données personnelles et à la propriété intellectuelle. Les informations (prompts, textes) utilisées pour générer des contenus à l’aide de l’IAG ne sont à l’heure actuelle pas sécurisées, ce qui appelle à la prudence en cas d’utilisation d’informations sensibles (cf. « Protection des données » dans la section III). En matière de propriété intellectuelle et de plagiat, la question de l’appartenance des productions de l’IAG n’est pas tranchée à l’heure actuelle, mais il convient d’en suivre l’évolution.
- Déclarer l’usage qui en est fait pour chaque travail rendu. L'étudiant-e est tenu-e de déclarer si des outils d’IAG ont été utilisés pour chacun de ses travaux académiques, et si oui lesquels et pour quelles tâches/fonctionnalités ; des règles et procédures spécifiques sur l’auto-déclaration peuvent être données par les enseignant-es ou par les programmes et un guide pratique "Référencer le recours aux IA génératives" est mis à disposition sur le site de la bibliothèque de l’UNIGE.
- Conserver les prompts utilisés et enregistrer les conversations. En plus de l’auto-déclaration sur l’utilisation de l’IA dans les travaux académiques, les enseignant-es ont la possibilité de demander l’ensemble des prompts utilisés pour la génération : les étudiant-es sont donc tenus de garder la trace des prompts, textes et documents utilisés durant toute la formation concernée (pour la procédure, il est possible de se référer au paragraphe “Annexer ses conversations avec une IAG” du document cité au point 4).
II. Recommandations pour les enseignant-es
Les enseignant-es sont encouragé-es à utiliser l’IA générative dans leurs enseignements et travaux de manière raisonnée et responsable, lorsque cet usage est pertinent au regard de leurs besoins d’enseignement, tout en tenant compte des dimensions éthiques et écologiques, liées à l’usage des IAG. Parmi ces dimensions sont notamment concernés la protection des données, les biais et fausses informations, les inégalités sociales, les préjudices environnementaux et la dépendance excessive à l’IAG (cf. détails dans la section III). Il est recommandé de préciser au début du semestre/cours les modalités d’utilisation des IAG dans chaque enseignement, notamment dans le cadre des travaux et évaluations écrits (un exemple des niveaux d’implémentation de l’IAG dans les travaux peut être consulté dans l’article de Perkins et al. (2024).
Étant donné qu’il n'y a actuellement pas de logiciel permettant de détecter avec certitude l’utilisation de l’IA pour la génération de contenu[2] (par rapport, par exemple, à une simple reformulation ou traduction), l’évaluation des travaux écrits est forcément impactée par l’utilisation de l’IA et il est recommandé d’adapter les modalités d’évaluation.
Pour tous les travaux écrits (y compris mémoires), les enseignant-es sont tenu-es de faire respecter les consignes facultaires, à savoir
- Faire compléter aux étudiant-es une auto-déclaration sur les contextes d’utilisation de l’IAG (utiliser le document élaboré par les CPE des sections et le guide pratique UNIGE);
- Demander aux étudiant-es de conserver les prompts et de sauvegarder les conversations, qui peuvent être demandés par l’enseignant-e;
- Dans la mesure du possible, compléter le document écrit par un entretien oral pour vérifier que l’étudiant-e maitrise ce qu’il ou elle a écrit. Cette procédure est à mettre en place de manière systématique en cas de doute et doit être signalée dans les modalités d’évaluation.
Pour les mémoires, en plus de l’application des recommandations précédentes sur les travaux écrits, il est recommandé d’évaluer plus spécifiquement la compréhension du contenu présenté dans le manuscrit remis lors de la soutenance orale. Il est vivement recommandé de prendre les mesures qui s’imposent lorsqu’un écart important est constaté entre le travail écrit et la défense orale/réponse aux questions.
[2] Mais il pourrait en avoir dans un futur proche, cf. https://www.cell.com/cell-reports-physical-science/pdf/S2666-3864(23)00200-X.pdf
III. Points de vigilance et effets indésirables de l'usage de l’IAG
Dimension écologique
Actuellement, il y a peu de transparence quant aux coûts que l’utilisation de l’IAG représente sur le plan planétaire et évaluer précisément l'empreinte écologique de son utilisation demeure complexe. Plusieurs chercheur-es ont proposé des estimations de l'impact en termes d'empreinte carbone, de consommation énergétique, d’extraction de minéraux et d’autres ressources naturelles associées à ces outils, offrant des mesures variées. Par exemple, le fonctionnement quotidien d’une IAG dépend de ressources naturelles telle que l’eau pour refroidir les serveurs qui stockent les données nécessaires. De manière consensuelle, il est admis que parmi les différentes tâches exécutées par ces outils, la génération d'images est la plus consommatrice en énergie. Il apparaît donc important de prendre cela en compte tant dans le recours à ces technologies que dans la conception d'activités impliquant l'utilisation des IA génératives et de n’y recourir que lorsqu’il n’existe pas de solutions alternatives moins énergivores.
Biais et fausses informations
Les IAG ne sont pas des entités cognitives capables d'avoir une compréhension conceptuelle des informations qu’elles produisent. Elles génèrent des réponses sur la base de modèles statistiques, et peuvent produire des contenus plausibles mais faux ou mal interpréter le contexte, ce qui conduit à des résultats erronés. Elles peuvent également introduire des biais voire des informations discriminatoires.
Le fonctionnement d’une IAG est basé sur l’apprentissage profond qui implique le traitement de vastes ensembles de données textuelles provenant de diverses sources (livres, articles, sites web, médias en ligne, réseaux sociaux, etc.) à travers des modèles mathématiques complexes. Le comportement global de ces modèles reste opaque, ce qui rend difficile la prédiction du moment où une IAG pourrait générer des informations incorrectes ou trompeuses. Il est donc nécessaire que son utilisation soit couplée à une analyse critique systématique de son contenu, ce qui peut représenter un coût cognitif et temporel supplémentaire. Il ne faut jamais reprendre tel quel, sans le vérifier, un contenu produit par une IAG.
Protection de données
Les outils d’IA générative en ligne peuvent collecter diverses informations et données des utilisateur-trices, ainsi que du contenu fourni lors de l’utilisation. Par exemple, ChatGPT, conformément à son site web officiel, peut collecter un large éventail d'informations personnelles et d'usage. Les données personnelles collectées incluent des informations relatives au compte de l’utilisateur-trice, au contenu fourni par ce/cette dernier-e, des informations sur les éventuelles communications avec ChatGPT. En plus de cela, l'entreprise reçoit des données automatiques sur l'utilisation de ses services, notamment des journaux (logs), des données d'utilisation, des informations sur l'appareil utilisé, des cookies et des analytiques de données.
Il est donc crucial de faire preuve d'une extrême prudence lors de la transmission d'informations et de données via les outils d’IA génératives en ligne, en veillant à ne pas partager de données personnelles sensibles lorsque les outils ne fournissent pas de garantie de protection des données.
Dimensions d’inégalités sociales
Certains outils d’IA générative proposent des versions payantes offrant des fonctionnalités plus avancées. Ces versions payantes présentent des performances améliorées et offrent un accès à un éventail plus large d’outils. Pour éviter des inégalités entre les étudiant-es, il est essentiel de garantir que toute activité prévue dans le cadre d’un enseignement utilisant l’IAG puisse être garantie avec les versions accessibles à tout le monde.
Dépendance à l'IAG
La recherche commence à aborder un point critique qui est la possibilité d’une dépendance excessive à l’IAG. Les étudiant-es encourent le risque de trop dépendre de l’usage de l’IAG pour la réalisation de l’ensemble de leurs travaux académiques, ce qui pourrait avoir des conséquences négatives sur le développement de leurs compétences que ce soit en termes de compétences de rédaction dans leur langue première ou dans une langue étrangère, de compétences en matière de pensée critique, de résolution de problèmes et de créativité. Pour l’instant, les travaux de recherche ne permettent pas d’identifier clairement les impacts positifs ou négatifs que l’utilisation de l’IAG en éducation pourrait avoir sur les apprentissages.
Version du 07.11.2024