Les organismes fédéraux de financement de la recherche viennent de finaliser des lignes directrices sur l’utilisation de l’intelligence artificielle dans l’élaboration et l’évaluation des propositions de recherche

Les organismes fédéraux de financement de la recherche viennent de finaliser des lignes directrices sur l’utilisation de l’intelligence artificielle dans l’élaboration et l’évaluation des propositions de recherche

Ce rapport « Insights and Signals » prolonge un rapport antérieur publié sur le site de l’Observatoire concernant une annonce des trois organismes fédéraux de financement de la recherche relative à l’élaboration de lignes directrices pour l’utilisation de l’IA générative dans l’élaboration et l’évaluation des demandes de subvention (initialement publié ici en novembre 2024).

Les organismes fédéraux de financement de la recherche viennent de finaliser des lignes directrices sur l’utilisation de l’intelligence artificielle dans l’élaboration et l’évaluation des propositions de recherche

Guidance on the Use of Artificial Intelligence in the Development and Review of Research Grant Proposals Now Finalized by Federal Research Funding Agencies

This insight and signals report extends an earlier report published on the Observatory regarding an announcement from the three federal research funding agencies regarding the development of guidance for the use of generative AI in the development and review of grant applications (originally published here in November, 2024). This guidance has since been finalized and released by the Tri-Council, and this finalized guidance is summarized here. Questions for further consideration are also presented, as are responses INKE Partners John Willinsky and John Maxwell. In addition to the above, this insights and signals report also shares an example of one hypothetical way the Tri-Council’s guidance might be adapted to create a working generative AI policy for a journal.

La sécurité de la recherche et la science ouverte au Canada

La sécurité de la recherche et la science ouverte au Canada

La sécurité de la recherche, c’est-à-dire la capacité d’identifier les risques pour les processus et les produits de la recherche et de prendre des mesures pour les atténuer, est une préoccupation de longue date pour la communauté de la recherche et ses parties prenantes, y compris les individus et individues jusqu’aux gouvernements nationaux. Bien que l’ouverture et la collaboration soient essentielles pour faire avancer la recherche, une plus grande ouverture peut également entraîner de plus grands risques. Sécuriser les données et les connaissances numériques et d’autres extrants intangibles est particulièrement difficile. Cela a été mis en évidence pendant la pandémie de COVID-19, lorsque le pivot vers des environnements de travail virtuels et des niveaux sans précédent de collaboration mondiale et de partage de la recherche se sont accompagnés de menaces de sécurité accrues (voir « Science ouverte et COVID-19 »).

La sécurité de la recherche et la science ouverte au Canada

Research Security and Open Scholarship in Canada

Research security—the ability to identify risks to research processes and outputs and take measures to mitigate them—is a longstanding concern for the research community and its stakeholders, from individuals to national governments. Although openness and collaboration are essential for advancing research, greater openness can also lead to greater risks. Securing digital data, knowledge, and other intangible outputs is especially challenging. This was made evident during the COVID-19 pandemic, when the pivot to virtual work environments and unprecedented levels of global collaboration and research sharing was accompanied by increased security threats (see “Open Scholarship and COVID-19”).