https://doi.org/10.25547/FAH4-XN50

Lisez-le en anglais.

Ce rapport sur les tendances et perspectives (“Insights and Signals Report”) a été rédigé par Brittany Amell, avec des remerciements à John Willinsky, John Maxwell et William Bowen pour leurs commentaires et leurs contributions.

En bref

Perspectives et signaux Domaine thématique Réactions des trois organismes à l’IA générative et aux LLM
Principaux participants trois organismes
Cadre temporel 2023-2024
Mots clés ou thèmes principaux IA générative, bourses d’études ouvertes, confiance, crédibilité, libre accès

 Résumé

Les rapports “Insights and Signals” scrutent l’horizon afin d’identifier et d’analyser les tendances émergentes et les signaux précurseurs susceptibles d’influer sur les orientations politiques futures en matière de libre accès et d’érudition ouverte et sociale. Ils ont tendance à mettre en évidence les changements dans la technologie, l’opinion et les sentiments du public, et/ou les changements réglementaires à l’intérieur et à l’extérieur du Canada. Tout comme les observations politiques de l’OSPO, les rapports sur les perspectives et les signaux visent à aider les partenaires à élaborer des stratégies proactives, réactives et tournées vers l’avenir.

Ce rapport est le troisième d’une série consacrée à l’évolution des discussions sur l’intelligence artificielle (IA), en particulier l’IA générative (genAI) et les grands modèles de langage (LLM), ainsi qu’aux implications qu’elles peuvent avoir pour le libre accès et la recherche sociale ouverte. Vous êtes intéressé par d’autres rapports “Insights and Signals” consacrés à l’IA ? Vous les trouverez ici et ici.

Les points abordés dans ce rapport sont les suivants :

  • Une annonce des présidents des trois agences concernant un groupe d’experts ad hoc chargé d’étudier l’utilisation de l’IAg dans le processus d’élaboration et d’examen des demandes de subvention.
  • Un résumé de l’orientation pour l’utilisation de l’IA générique dans le processus de développement et d’évaluation des subventions, tel que proposé par l’orientation Proposé par le panel ad hoc
  • Une réponse de John Willinsky, partenaire d’INKE, à ce rapport sur les perspectives et les signaux.

Remarque : Nous vous présentons nos excuses en avance, car la plupart des sources mentionnées dans ce rapport sont disponibles en anglais uniquement

Les présidents des trois organismes nomment des experts au groupe chargé d’étudier l’utilisation de l’intelligence artificielle générative dans l’élaboration et l’examen des demandes de subvention

 En novembre 2023, les Instituts de recherche en santé du Canada (IRSC), le Conseil de recherches en sciences naturelles et en génie du Canada (CRSNG), le Conseil de recherches en sciences humaines du Canada (CRSH) et la Fondation canadienne pour l’innovation (FCI) ont annoncé la création d’un comité ad hoc chargé de fournir des conseils sur l’utilisation de l’intelligence artificielle générative dans l’élaboration et l’examen des subventions de recherche (CRSNG, 2023). Huit experts possédant une expérience et une expertise en matière d’éthique, d’administration de la recherche et d’IA ont été nommés au groupe par les présidents des trois organismes fédéraux de financement de la recherche. Il s’agit de :

  • Mark Daley (président), Chief AI Officer, Western University
  • Derek Nowrouzezahrai, Professeur associé, Université de Montréal, Université McGill ; Chaire CIFAR AI au Canada
  • Aimee van Wynsberghe, Professeur Alexander Humboldt d’éthique appliquée à l’intelligence artificielle, Université de Bonn (Allemagne)
  • Vincent Larivière, Chaire de recherche du Canada sur les transformations de la communication savante, Université de Montréal
  • Charmaine Dean, Vice-présidente, Recherche, Université de Waterloo
  • Richard Isnor, Vice-président associé, recherche, études supérieures et professionnelles, Université St. Francis Xavier
  • Rachel Parker, Directrice principale de la recherche, Institut canadien de recherche avancée (CIFAR)
  • David Castle, Professeur à l’école d’administration publique et à l’école de commerce Gustavson de l’université de Victoria ; chercheur en résidence au bureau du conseiller scientifique en chef.

Le groupe s’est réuni à plusieurs reprises au cours du mois de novembre et a fourni ses conseils et recommandations aux trois organismes en décembre 2023 (Science Canada, 2024a). Sur la base des conseils et des recommandations fournis par le groupe, un “projet de lignes directrices sur l’utilisation de l’intelligence artificielle dans l’élaboration et l’examen des propositions de subventions de recherche” a été élaboré et partagé avec la communauté des chercheurs, qui ont été invités à soumettre leurs commentaires sur les lignes directrices avant le 14 juin 2024.

Résumé du projet d’orientation proposé par le groupe ad hoc

 Les orientations proposées s’appliquent à l’utilisation de l’intelligence artificielle générative. Reconnaissant qu’il est difficile de définir l’intelligence artificielle générative en raison de l’évolution rapide de la technologie et de la recherche, le guide décrit quatre propriétés qui peuvent être utilisées pour identifier les systèmes d’IA générative. Ces propriétés sont les suivantes

  1. Les systèmes d’IA présentent une interface simple, souvent conversationnelle, qui rend le déploiement de la puissance du système accessible à un large éventail d’utilisateurs non experts.
  2. Les systèmes d’IA permettent intrinsèquement des processus de conception et d’amélioration itératifs.
  3. Les systèmes d’IA mettent à disposition des informations extraites d’énormes quantités de données, par des systèmes utilisant d’énormes quantités de puissance de calcul.
  4. Les résultats du système d’IA approchent un tel niveau de sophistication que des non-experts peuvent les identifier à tort comme ayant été créés par l’homme.

(Science Canada, 2024b)

Les évaluateurs et les demandeurs sont censés examiner ces propriétés d’utilisation des outils d’IA afin de déterminer si l’outil utilise l’IA générative. Si l’outil utilise l’IA générative, les présentes lignes directrices s’appliquent.

La proposition de lignes directrices indique également que plusieurs exigences fondamentales sous-tendent toutes les demandes et tous les processus d’examen des trois agences et, par conséquent, toutes les orientations et politiques liées à l’utilisation de l’IA générative. Ces exigences concernent la responsabilité, le respect de la vie privée, la confidentialité, la sécurité des données et les droits de propriété intellectuelle.

Citant l’honnêteté, la responsabilité, l’ouverture, la transparence et l’équité comme des valeurs clés qui ancrent les politiques existantes des agences, le Guide attire l’attention sur l’alignement entre ces valeurs et les exigences fondamentales susmentionnées, ainsi que sur “la conduite de toutes les activités liées à la recherche” de manière plus générale (Science Canada, 2024b).

Les orientations proposées aux examinateurs des demandes de subvention sont motivées par deux préoccupations essentielles : le risque d’atteinte à la vie privée et la perte de la garde de la propriété intellectuelle.  Ces préoccupations font écho à celles identifiées par les National Institutes of Health dans leur avis intitulé “The Use of Generative Artificial Intelligence Technologies is Prohibited for the NIH Review Process” (publié en juin 2023), mais le projet de lignes directrices des trois organismes n’interdit pas explicitement l’utilisation de l’IA générative. Au lieu de cela, il est conseillé aux examinateurs de “procéder avec prudence” (Science Canada, 2024b) et de consulter les quatre propriétés de l’IA générative (décrites ci-dessus et dans le projet de ligne directrice), ainsi que la politique des trois organismes relative aux conflits d’intérêts et aux accords de confidentialité.

Les préoccupations essentielles qui motivent les lignes directrices pour les demandeurs de subventions concernent principalement la responsabilité, l’exactitude, la transparence, la paternité et la citation. Plus précisément, le projet de lignes directrices indique que les candidats sont responsables des éléments suivants :

  • Indiquer si et où l’IA générative a été utilisée pour créer le matériel de candidature
  • Vérifier l’exactitude et l’exhaustivité des informations contenues dans le dossier de candidature
  • Veiller à ce que les sources soient reconnues et référencées de manière appropriée

Toutefois, comme le note l’Association des bibliothèques de recherche du Canada (ABRC) (2023) et l’explique en détail dans une autre observation, bon nombre de ces réponses sont axées sur des préoccupations liées à l’intégrité académique, à la divulgation et à la citation. Outre ces préoccupations, l’ABRC estime qu’il est également important de prendre en compte le risque de fausses informations ou de désinformation, ainsi que la manière dont les ensembles de données pour les LLM sont développés, le droit d’auteur (y compris la question de savoir si les travaux générés par l’IA peuvent être protégés par le droit d’auteur), la protection de la vie privée, les préjugés et les impacts sociaux (y compris qui a accès aux outils d’IA générative et qui ne peut pas y avoir accès, que ce soit pour des raisons financières ou autres ).

Questions et considérations clés

Outre les suggestions de l’ABRC selon lesquelles les politiques relatives à l’utilisation de l’IA générique devraient également tenir compte du risque de fausses informations, des droits d’auteur, de la protection de la vie privée, des préjugés et du développement des ensembles de données utilisés pour former les modèles d’IA générique, il pourrait être utile de se demander si l’accent mis sur l’IA générative (par opposition aux algorithmes d’apprentissage automatique, qui constituent la classe d’algorithmes actuellement utilisés dans l’IA générique) ou sur l’utilisation d’interventions algorithmiques en général n’est pas une approche trop étroite.

Par exemple, certains chercheurs ont fait valoir que les sociétés de plateforme – parmi les premières à avoir adopté des algorithmes d’apprentissage automatique dans les processus de modération automatisée des contenus (Gorwa et al. 2020) – sont devenues de plus en plus influentes en tant qu’acteurs politiques mondiaux (Broeders & Taylor 2017). Toutefois, cette influence n’est souvent pas reconnue par les gouvernements des États et le grand public, ce qui expose les efforts politiques à être sapés. Broeders et Taylor (2017) recommandent plutôt de reconnaître le rôle politique des sociétés de plateforme et des fournisseurs de services en ligne, et que les gouvernements nationaux et les organisations internationales s’adressent aux fournisseurs en utilisant le langage et les canaux typiques des efforts diplomatiques (p. 332).

Centrer les réponses politiques à l’IA dans des cadres plus larges d’éthique, de responsabilité et de réactivité – Broeders et Taylor (2017) suggèrent de commencer par étendre les cadres de responsabilité sociale des entreprises pour y inclure la responsabilité politique, ainsi que de jumeler ces cadres avec des formes externes de responsabilité politique, juridique et populaire (p. 321).

En outre, John Willinsky (fondateur du Public Knowledge Project), partenaire de l’INKE, a également proposé les éléments suivants à  :

Compte tenu des travaux du Public Knowledge Project sur la manière dont la réforme du droit d’auteur pourrait soutenir davantage l’édition savante, nous voudrions attirer l’attention sur les questions juridiques liées à l’élaboration des LLM. Il ne s’agit pas seulement d’une question de “garde des droits de propriété intellectuelle”, car il y a des arguments en faveur de la possession par les chercheurs d’un droit de propriété intellectuelle pour la contribution la plus large possible à la connaissance. Cela peut impliquer l’assemblage de LLM à source ouverte dédiés à la recherche, ou une réflexion sur les conséquences d’une limitation excessive de l’accès des LLM à la recherche pour la qualité de la production et de l’influence de ces systèmes. Tout cela pour dire que nous attendons de tout groupe d’experts sur l’IA qu’il comprenne des représentants ayant une expertise en matière de droit d’auteur. Un bon exemple de ce type d’expertise, bien qu’il ne soit pas basé au Canada, se trouve dans le Program on Information Justice and Intellectual Property de l’American University Washington College of Law, qui se concentre sur les exceptions au droit d’auteur et le droit à la recherche, y compris les textes académiques et la recherche sur l’exploration de données (voir ici).

Références

Broeders, Dennis, et Linnet Taylor. 2017. Does Great Power Come with Great Responsibility? The Need to Talk About Corporate Political Responsibility. Dans The Responsibilities of Online Service Providers, édité par Mariarosaria Taddeo et Luciano Floridi, 31:315-23. Série “Law, Governance, and Technology.” Cham : Springer International Publishing. https://doi.org/10.1007/978-3-319-47852-4_17.

Gorwa, Robert, Reuben Binns et Christian Katzenbach. 2020. Algorithmic content moderation: Technical and political challenges in the automation of platform governance. Big Data & Society 7 (1) : 1-15. https://doi.org/10.1177/2053951719897945.

Conseil de recherches en sciences naturelles et en génie du Canada. 2023. Les organismes fédéraux de financement de la recherche annoncent la création d’un groupe spécial chargé de fournir des orientations concernant l’utilisation de l’intelligence artificielle générative dans l’élaboration et l’évaluation des propositions de recherche. Gouvernement du Canada. 8 novembre 2023. https://www.nserc-crsng.gc.ca/Media-Media/NewsDetail-DetailNouvelles_fra.asp?ID=1424.

Science Canada. 2024a. Avis du groupe spécial chargé de fournir des orientations concernant l’utilisation de l’intelligence artificielle générative dans l’élaboration et l’évaluation des propositions de recherche (2023). Gouvernement du Canada. Innovation, sciences et développement économique Canada. 10 avril 2024. https://science.gc.ca/site/science/fr/financement-interorganismes-recherche/politiques-lignes-directrices/lutilisation-lintelligence-artificielle-generative-dans-lelaboration-levaluation-propositions/avis-groupe-special-charge-fournir-orientations-concernant-lutilisation

Science Canada. 2024b. Lignes directrices provisoires sur l’utilisation de l’intelligence artificielle dans l’élaboration et l’évaluation des propositions de recherche. Gouvernement du Canada. Innovation, sciences et développement économique Canada. 10 avril 2024. https://science.gc.ca/site/science/en/interagency-research-funding/policies-and-guidelines/use-generative-artificial-intelligence-development-and-review-research-proposals/draft-guidance-use-artificial-intelligence-development-and-review-research-grant-proposals.