Ce rapport « Insights and Signals » a été rédigé par Brittany Amell, avec des remerciements aux partenaires d’INKE, John Willinsky et John Maxwell, pour leurs commentaires et leurs contributions.
Traduit par Olga Ziminova (MA), Electronic Textual Cultures Lab (ETCL)
En bref
| Domaine thématique | Organismes subventionnaires fédéraux ; Réponses à l’IA générative et aux LLM |
| Principaux participants | Organismes subventionnaires fédéraux canadiens |
| Cadre temporel | 2024 |
| Mots clés ou thèmes principaux | AI générative, développement des politiques, édition savante, érudition ouverte, confiance, crédibilité, libre accès |
Résumé
Ce rapport « Insights and Signals » prolonge un rapport antérieur publié sur le site de l’Observatoire concernant une annonce des trois organismes fédéraux de financement de la recherche relative à l’élaboration de lignes directrices pour l’utilisation de l’IA générative dans l’élaboration et l’évaluation des demandes de subvention (initialement publié ici en novembre 2024).
Ces directives ont depuis été finalisées et publiées par les trois organismes subventionnaires fédéraux (IRSC, CRSNG, CRSH), et peuvent être consultées ici. Le rapport présente également des questions à approfondir, accompagnées des réponses fournies par John Willinsky et John Maxwell, partenaires d’INKE.
En plus de ce qui précède, ce rapport « Insights and Signals » présente également un exemple de la manière dont les orientations des trois conseils pourraient être adaptées pour créer une politique d’IA générative opérationnelle pour une revue.
Les lignes directrices
En novembre 2023, les Instituts de recherche en santé du Canada (IRSC), le Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG), le Conseil de recherches en sciences humaines du Canada (CRSH) et la Fondation canadienne pour l’innovation (FCI) ont annoncé la création d’un comité ad hoc chargé de fournir des conseils sur l’utilisation de l’intelligence artificielle générative dans l’élaboration et l’examen des subventions de recherche (CRSNG, 2023). Huit experts possédant une expertise en matière d’éthique, d’administration de la recherche et d’IA ont été nommés au groupe par les présidents des trois organismes fédéraux de financement de la recherche. (Vous pouvez lire le rapport que nous avons rédigé sur l’annonce des trois organismes de financement de la recherche ici).
En novembre 2024, les lignes directrices rédigées par ce groupe ont été finalisées et publiées. Il y a eu quelques différences entre la version préliminaire et la version finalisée. Notamment, l’utilisation d’outils d’IA générative pour évaluer les demandes de subvention est explicitement interdite, et les demandeurs sont désormais tenus d’indiquer si l’IA générative a été utilisée dans la préparation des demandes de subvention. En outre, les lignes directrices rappellent aux candidats qu’ils sont responsables des informations contenues dans leurs demandes de subvention. Ils doivent donc s’assurer qu’elles sont exactes et complètes et que toutes les sources sont correctement référencées. On rappelle également aux examinateurs que l’utilisation d’outils d’IA générative pourrait entraîner des « atteintes à la vie privée et la perte de la garde de la propriété intellectuelle » (Science Canada, 2024).
Comment les lignes directrices définissent l’IA générative
Plutôt que de définir ce qu’est l’IA générative, les lignes directrices des trois conseils proposent quatre points ou propriétés que « les demandeurs et les évaluateurs devraient examiner attentivement » avant d’utiliser un outil pour déterminer si on fait appel à l’IA générative (Science Canada, 2024). Ces points sont les suivants :
- Les systèmes d’IA générative présentent une interface simple, souvent conversationnelle, qui rend le déploiement du pouvoir du système accessible à un large éventail d’utilisateurs non experts.
- Les systèmes d’IA générative permettent intrinsèquement des processus itératifs de conception et d’amélioration.
- Les systèmes d’IA générative mettent à disposition des informations extraites d’énormes quantités de données et de puissance de calcul.
- Les résultats des systèmes d’IA générative approchent un niveau de sophistication qui peut amener des non-experts à identifier à tort les résultats comme ayant été créés par des humains.
Il convient de noter que les propriétés susmentionnées proposées par les trois conseils font référence à des « systèmes » d’IA générative qui sont différents des modèles, en ce sens qu’un « modèle d’IA » peut être adapté pour exécuter diverses tâches, tandis qu’un « système d’IA » est une combinaison de composants conçus pour être utiles aux humains et qui comprennent un ou plusieurs modèles d’IA (Bengio et al., 2025). Cela laisse ouverte la possibilité de savoir si des outils tels que DeepL Translator, qui utilise une combinaison de réseaux neuronaux de traduction automatique et de LLM pour transformer des données d’entrée dans une langue en données de sortie dans une autre langue, seraient considérés comme un système d’IA générative selon les lignes directrices de trois conseils.
Il convient également de noter l’ambiguïté quant à l’existence d’un seuil implicite concernant l’utilisation des systèmes d’IA générative. Par exemple, l’interaction avec un outil d’IA générative à la phase de réflexion d’une subvention nécessiterait-elle une divulgation ?
En outre, la manière dont les demandes divulguant l’utilisation d’outils d’IA générative seront traitées n’est pas claire. Seront-elles soumises à un sous-comité spécial d’évaluateurs formés pour déterminer ce qui constitue une utilisation acceptable ou inacceptable de l’IA générative ?
Il est intéressant de noter que dans un rapport publié plus tôt en 2024, le groupe d’experts ad hoc a pris soin de noter ce qui suit :
Il faudra également informer les candidats de la raison pour laquelle la question est posée, garantir que la réponse ne nuira en rien à l’évaluation de la demande et préciser si les évaluateurs et les membres du comité auront accès à l’information.
La version la plus récente des lignes directrices publiées par les trois conseils n’inclut pas cette information recommandée, bien qu’elle puisse être incluse à l’avenir – les trois organismes subventionnaires ont indiqué leur intention de revoir régulièrement les lignes directrices.
Réponses du partenariat INKE
John Willinsky (professeur émérite de la famille Khosla à l’Université de Stanford, et partenaire d’INKE) a noté que l’expression « perte de la garde de la propriété intellectuelle » donne particulièrement à réfléchir, « car elle ne fait généralement pas partie des discussions sur la propriété intellectuelle ». Willinsky écrit :
Je ne voudrais pas suggérer aux gens qu’ils renoncent à leurs droits d’auteur sur une œuvre s’ils la téléversent, ni que leurs droits de propriété intellectuelle s’appliquent à quoi que ce soit d’autre que l’expression exacte de leurs idées. L’extrait sur la « garde » est intéressant, car ce concept ne fait généralement pas partie des discussions sur la propriété intellectuelle. . . . (Les tribunaux n’ont pas encore statué de manière significative sur la question de l’« utilisation équitable » dans les très nombreux cas de poursuites intentées par l’IA générative). Nous pourrions vouloir examiner comment (a) l’esprit même de l’érudition peut consister à contribuer à la vaste réserve d’intelligence accessible au public et (b) comment cette réserve peut être exempte de recherche, en raison du sentiment qu’ont les universitaires que quelqu’un profite de la transformation de leur travail en une forme utile, cohérente et intelligible et qu’ils ne partageront pas ces profits ou ne seront peut-être même pas crédités pour leurs idées (qui, encore une fois, ne sont pas protégées d’une manière ou d’une autre).
Si cette expression (« perte de la garde de la propriété intellectuelle ») suscite une réelle inquiétude, en particulier à une époque où les idées et les contenus sont de plus en plus traités par des systèmes d’IA génératifs opaques, le paysage juridique n’est pas encore stabilisé. Comme l’a fait remarquer Willinsky, les tribunaux canadiens n’ont pas encore rendu de décisions définitives sur les limites de « l’usage loyal » dans le nombre croissant de procès impliquant l’IA générative. L’expression est donc plus spéculative qu’autoritaire, ce qui soulève des questions sur le type de « garde » ou de propriété auquel nous nous référons dans le contexte universitaire.
Willinsky a également fait remarquer qu’il était peut-être trop simpliste de présenter la question de l’« utilisation » de l’IA générative comme un choix binaire ou conscient :
Si je devais noter quelque chose, ce serait la façon dont nous utilisons aujourd’hui l’IA générative dans presque toutes les recherches, les autocorrections et les recherches de conseil qui s’en inspirent. Cette omniprésence suggère que le fait de formuler la question de « l’utilisation » comme une question de choix conscient peut être un peu trompeur pour guider les chercheurs. Une approche pourrait donc consister à comparer [une politique de travail sur l’utilisation de l’IA] aux normes bien établies, mais encore mal définies, du plagiat lors de la consultation et de l’utilisation du travail d’autrui. . . . En vous basant sur la norme relative au plagiat, vous pourriez affiner votre conseil pour faire référence à des situations dans lesquelles on demande formellement à un LLM de fournir des informations, des analyses, des revues de la littérature, etc., le résultat informant le travail (ou la réfléxion à laquelle vous faites référence) en tant que contexte par rapport au fait d’être directement cité et donc nécessairement crédité dans un article. Cela met également de côté les inquiétudes concernant l’utilisation des ressources web qui pourraient bien être améliorées par l’IA générative.
Réagissant à cet article par courriel, John Maxwell, partenaire d’INKE (professeur associé d’édition à l’université Simon Fraser), a écrit :
Je pense également qu’il serait utile [que les orientations sur l’utilisation de l’IA] fassent une distinction entre (a) le besoin de transparence et de déclaration (qui suit la tendance dans les communications savantes plus généralement vers des « faits de publication » et des étiquettes explicites, etc. ) et (b) les implications plus substantielles de l’utilisation de l’IA générative – par exemple, la question de savoir si une subvention rédigée à l’aide de l’IA serait réellement traitée différemment si son utilisation était déclarée : que ferait exactement un éditeur ou un évaluateur du fait que l’IA générative a été utilisée dans la rédaction d’un article ou d’une demande de subvention ? Comment le traiteraient-ils différemment, et pour quelles raisons exactement ?
Ensemble, ces réflexions soulignent la nécessité de poursuivre le débat sur l’utilisation de l’IA générative dans les travaux de recherche, en particulier sur la transparence, la responsabilité et l’évolution des normes de contribution intellectuelle. Au fur et à mesure que le paysage politique continue de se dessiner, ces discussions resteront essentielles.
Autres questions pour la réflexion et la discussion
Les questions suivantes peuvent être utiles en tant que points de départ, ou utilisées en tandem avec l’exemple de politique de travail figurant en annexe, pour susciter une réflexion plus approfondie ou un dialogue de groupe :
- Qu’est-ce qui constitue une « utilisation » significative de l’IA générative ? Par exemple, l’utilisation d’un outil pour faire une réflexion, simplifier une phrase ou traduire un contenu nécessiterait-elle une divulgation ? En d’autres termes, existe-t-il un seuil d’utilisation des outils d’IA générative qui, une fois franchi, déclencherait la divulgation ?
- Les différents types d’outils d’IA générative (par exemple, DeepL, qui utilise une forme de réseau neuronal pour la traduction, par opposition à ChatGPT pour l’aide à la rédaction) devraient-ils être traités différemment dans le processus de divulgation ?
- Comment les organismes de financement et autres décideurs politiques peuvent-ils s’assurer que l’obligation de divulgation ne désavantage pas les candidats issus d’institutions disposant de peu de ressources ou de minorités linguistiques, qui peuvent avoir davantage recours aux outils d’IA générative ?
- Que se passe-t-il après la divulgation de l’utilisation des outils d’IA générative ? Par exemple, les évaluateurs ont-ils accès aux informations sur l’utilisation de l’IA générative dans les demandes, et si oui, dans quelles conditions ? Quelle formation ou quelles lignes directrices sont fournies aux évaluateurs pour les aider à interpréter les divulgations de l’utilisation de l’IA générative d’une manière équitable et transparente ?
Références
Bengio, Yoshua, Sören Mindermann, Daniel Privitera, Tamay Besiroglu, Rishi Bommasani, Stephen Casper, Yejin Choi, et al. 2025. “International AI Safety Report.” DSIT 2025/001. The International Scientific Report on the Safety of Advanced AI. Commissioned by the Department for Science, Innovation and Technology (UK) and the AI Safety Institute (UK). https://www.gov.uk/government/publications/international-ai-safety-report-2025.
Conseil de recherches en sciences naturelles et en génie du Canada Recherche. 2023. « Recherchez le site WebLes organismes fédéraux de financement de la recherche annoncent la création d’un groupe spécial chargé de fournir des orientations concernant l’utilisation de l’intelligence artificielle générative dans l’élaboration et l’évaluation des propositions de recherche. » https://www.nserc-crsng.gc.ca/NewsDetail-DetailNouvelles_fra.asp?ID=1424
Science Canada. 2024. « Avis du groupe spécial d’experts externes sur l’IA générative. » https://science.gc.ca/site/science/fr/financement-interorganismes-recherche/politiques-lignes-directrices/lutilisation-lintelligence-artificielle-generative-dans-lelaboration-levaluation-propositions/avis-groupe-special-dexperts-externes-lia-generative
Science Canada, 2024. « Lignes directrices sur l’utilisation de l’intelligence artificielle dans l’élaboration et l’évaluation des propositions de recherche. » https://science.gc.ca/site/science/fr/financement-interorganismes-recherche/politiques-lignes-directrices/lutilisation-lintelligence-artificielle-generative-dans-lelaboration-levaluation-propositions/lignes-directrices-lutilisation-lintelligence-artificielle-dans-lelaboration
Annexe : Exemple de lignes directrices adaptées aux contextes des revues ouvertes
Afin d’élargir le débat sur la mise en œuvre pratique des lignes directrices sur l’IA générative, cette annexe présente un exemple hypothétique de la manière dont les lignes directrices récemment publiées par les trois Conseils pourraient être adaptées à une politique de travail pour une revue universitaire. Bien que les organismes de financement et les revues opèrent dans des contextes distincts, ils partagent tous deux des préoccupations communes concernant l’intégrité de l’auteur, la transparence et l’utilisation responsable de l’IA. Cet exemple de politique ne se veut pas normatif, mais vise à illustrer la manière dont les principes de l’orientation des trois Conseils – tels que la divulgation, la responsabilité et la sensibilisation aux risques – pourraient éclairer la pratique éditoriale dans le domaine de l’édition savante.
Utilisation de l’IA générative dans les articles soumis à la revue
En ce qui concerne l’utilisation de l’IA dans la rédaction et l’évaluation des travaux soumis à [insérer le nom de la revue], [nous / le comité de rédaction] suivons les orientations définies par le Conseil trilatéral. Une version légèrement modifiée se trouve ci-dessous.
Introduction à la politique de travail
Nous reconnaissons que l’IA générative peut être un outil précieux pour les auteurs et les évaluateurs dans la préparation des soumissions, y compris la possibilité d’améliorer l’efficacité, d’aider les anglophones et les francophones et de rationaliser le processus de rédaction et d’évaluation. Toutefois, nous recommandons vivement aux auteurs et aux évaluateurs d’examiner les points suivants avant d’utiliser un outil d’IA afin de déterminer si leur utilisation d’un outil constitue l’utilisation de l’IA générative.
Déterminer si cette politique de travail s’applique
Nous nous appuyons sur les quatre propriétés des systèmes d’IA générative décrites par le groupe ad hoc des trois Conseils pour nous aider à déterminer si un outil exploite l’IA générative et, par conséquent, si les présentes orientations s’appliquent. Ces propriétés sont les suivantes
- Les systèmes d’IA générative présentent une interface simple, souvent conversationnelle, qui rend le déploiement de la puissance du système accessible à un large éventail d’utilisateurs non experts.
- Les systèmes d’IA générative permettent intrinsèquement des processus itératifs de conception et d’amélioration.
- Les systèmes d’IA générative mettent à disposition des informations extraites d’énormes quantités de données et de puissance de calcul.
- Les résultats des systèmes d’IA générative approchent un niveau de sophistication qui peut amener des non-experts à les identifier à tort comme ayant été créés par des humains.
Nous reconnaissons que les définitions et la compréhension de l’IA générative sont fluides et en constante évolution. C’est pourquoi nous avons l’intention de réexaminer régulièrement les présentes orientations afin de les mettre à jour en fonction des questions et des tendances émergentes.
Lignes directrices
En outre, nous attirons l’attention sur les points suivants :
- Les auteurs et les évaluateurs sont tenus de s’assurer que les informations incluses dans leurs soumissions sont vraies, exactes et complètes, et que toutes les sources sont reconnues et référencées. Les candidats doivent être conscients que l’utilisation de l’IA générative peut conduire à la présentation d’informations sans reconnaissance appropriée de l’auteur ou de la référence.
- La protection de la vie privée, la confidentialité, la sécurité des données et la protection de la propriété intellectuelle doivent être des priorités lors de l’élaboration et de l’examen de toutes les soumissions.
- Lors de l’évaluation des candidatures, les évaluateurs doivent être conscients du fait que la saisie d’informations relatives à la candidature dans des outils d’IA générative peut entraîner des violations de la vie privée et compromettre les droits de propriété intellectuelle. Il s’agit par exemple de la transmission du texte de la demande à des outils en ligne tels que ChatGPT et DeepL, qui peuvent stocker et réutiliser les données à des fins d’amélioration future de l’outil.
Lectures complémentaires suggérées
- La conduite responsable de la recherche: https://science.gc.ca/site/science/fr/financement-interorganismes-recherche/politiques-lignes-directrices/conduite-responsable-recherche
- Guide sur l’utilisation de l’intelligence artificielle générative: https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/guide-utilisation-intelligence-artificielle-generative.html
- Lignes directrices sur l’utilisation de l’intelligence artificielle dans l’élaboration et l’évaluation des propositions de recherche: https://science.gc.ca/site/science/fr/financement-interorganismes-recherche/politiques-lignes-directrices/lutilisation-lintelligence-artificielle-generative-dans-lelaboration-levaluation-propositions/lignes-directrices-lutilisation-lintelligence-artificielle-dans-lelaboration
