Réponses à l’intelligence artificielle

Réponses à l’intelligence artificielle

Les rapports “Policy Insights and Signals” scrutent l’horizon afin d’identifier et d’analyser les tendances émergentes et les signaux précurseurs susceptibles d’influer sur les orientations politiques futures en matière de libre accès et d’érudition ouverte et sociale. Ils ont tendance à mettre en évidence les changements dans la technologie, l’opinion et les sentiments du public, et/ou les changements réglementaires à l’intérieur et à l’extérieur du Canada. Ce rapport Insights and Signals est le premier d’une série qui se concentre sur l’évolution des discussions centrées sur l’intelligence artificielle (IA), en particulier l’IA générative (genAI) et les grands modèles de langage (LLM), et sur les implications qu’elles peuvent avoir pour l’accès libre et la recherche sociale ouverte.

L’IA générative et l’édition savante

L’IA générative et l’édition savante

Les rapports “Policy Insights and Signals” scrutent l’horizon afin d’identifier et d’analyser les tendances émergentes et les signaux précurseurs susceptibles d’influer sur les orientations politiques futures en matière de libre accès et d’érudition ouverte et sociale. Ils ont tendance à mettre en évidence les changements dans la technologie, l’opinion et les sentiments du public, et/ou les changements réglementaires à l’intérieur et à l’extérieur du Canada. Ce rapport sur les perspectives et les signaux poursuit l’examen par l’OSPO de l’évolution du dialogue sur les implications de l’IA générative pour les bourses d’études ouvertes et l’édition en libre accès.

Les agences fédérales de financement de la recherche annoncent un projet de lignes directrices sur l’utilisation de l’intelligence artificielle générative

Les agences fédérales de financement de la recherche annoncent un projet de lignes directrices sur l’utilisation de l’intelligence artificielle générative

Les rapports “Insights and Signals” scrutent l’horizon afin d’identifier et d’analyser les tendances émergentes et les signaux précurseurs susceptibles d’influer sur les orientations politiques futures en matière de libre accès et d’érudition ouverte et sociale. Ils ont tendance à mettre en évidence les changements dans la technologie, l’opinion et les sentiments du public, et/ou les changements réglementaires à l’intérieur et à l’extérieur du Canada. Ce rapport est le troisième d’une série consacrée à l’évolution des discussions sur l’intelligence artificielle (IA), en particulier l’IA générative (genAI) et les grands modèles de langage (LLM), ainsi qu’aux implications qu’elles peuvent avoir pour le libre accès et la recherche sociale ouverte.

La sécurité de la recherche et la science ouverte au Canada

La sécurité de la recherche et la science ouverte au Canada

La sécurité de la recherche, c’est-à-dire la capacité d’identifier les risques pour les processus et les produits de la recherche et de prendre des mesures pour les atténuer, est une préoccupation de longue date pour la communauté de la recherche et ses parties prenantes, y compris les individus et individues jusqu’aux gouvernements nationaux. Bien que l’ouverture et la collaboration soient essentielles pour faire avancer la recherche, une plus grande ouverture peut également entraîner de plus grands risques. Sécuriser les données et les connaissances numériques et d’autres extrants intangibles est particulièrement difficile. Cela a été mis en évidence pendant la pandémie de COVID-19, lorsque le pivot vers des environnements de travail virtuels et des niveaux sans précédent de collaboration mondiale et de partage de la recherche se sont accompagnés de menaces de sécurité accrues (voir « Science ouverte et COVID-19 »).