https://doi.org/10.25547/BA5K-3V08

Modifié le 3 octobre 2025 : correction mineure pour améliorer la clarté.
Ce rapport « Insights and Signals » a été rédigé par Brittany Amell, avec ses remerciements à Aaron Mauro et James MacGregor pour leur relecture et leurs commentaires.
Traduction française révisée par Olga Ziminova (MA), Electronic Textual Cultures Lab (ETCL).
Read it in English

En un coup d’œil 

Titre Sécurité de l’IA, cybersécurité et recherche ouverte
Créateur Horizons de politiques Canada, Centre canadien pour la cybersécurité, Consortium national sur la cybersécurité, the AI Safety Institute, Affaires mondiales Canada, Université du Nouveau-Brunswick
Période / Date 2025
Mots-clés AI safety / Sécurité de l’IA; AI governance / Gouvernance de l’IA; Cybersecurity / Cybersécurité;  CRKN / RCDR; AI bots / Robots d’indexation IA; open access / libre accès; open infrastructure / infrastructure ouverte; open science / science ouverte; open social scholarship / approches sociales des savoirs ouverts; Canada

Résumé

Ce rapport « Insights and Signals » examine le rapport Prospective sur l’IA récemment publié par Horizons de politiques Canada, ainsi que les rapports du Centre canadien pour la cybersécurité (Évaluation des cybermenaces nationales 2025-2026) et de l’AI Safety Institute (International Scientific Report on the Safety of Advanced AI, également connu sous le nom d’International AI Safety Report). Il partage également certaines actualités liées à l’IA et à la cybersécurité provenant d’Affaires mondiales Canada, du Consortium national sur la cybersécurité et de l’Université du Nouveau-Brunswick, qui devrait recevoir 10 millions de dollars au cours des cinq prochaines années afin de créer le Centre de données de cyber attribution. Un certain nombre de rapports et d’articles d’actualité présentés ci-dessous fournissent un large éventail d’informations, d’enthousiasmes, de préoccupations et d’avertissements concernant l’état de l’IA au Canada et dans le monde ; l’objectif de ce rapport est d’extraire et de synthétiser les implications en matière de sécurité et de cybersécurité de tous ces éléments.

Prospective sur l’IA du gouvernement du Canada 

Horizons de politiques Canada, le centre de prospective politique du gouvernement canadien, a publié son rapport très attendu intitulé « Prospective sur l’IA : Considérations politiques »,  dans lequel il adopte la définition de l’IA donnée par l’Organisation de coopération et de développement économiques (OCDE) comme étant un

système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit, à partir des données qu’il reçoit, comment générer des résultats tels que des prévisions, du contenu, des recommandations ou des décisions susceptibles d’influencer des environnements physiques ou virtuels. Les différents systèmes d’IA varient en termes de niveau d’autonomie et d’adaptabilité après leur déploiement. (4)

Le rapport, publié début février 2025, présente 10 perspectives sur l’avenir « de et avec » l’IA. Parmi ces perspectives, on peut citer le potentiel de l’IA à alimenter les cybermenaces, à « L’IA pourrait briser Internet tel que nous le connaissons actuellement » (5), à rester éternellement biaisée (5), en raison de perspectives contradictoires sur l’équité, 5), à remodeler nos relations les uns avec les autres et à devenir encore plus omniprésente dans la vie des enfants, remodelant ainsi « leur vie au présent et à l’avenir » (7).

Cybersécurité

Chacune des perspectives abordées dans le rapport prospectif sur l’IA a des implications très larges et reprend les tendances mises en évidence par le Centre canadien pour la cybersécurité dans son rapport intitulé « Évaluation nationale des cybermenaces 2025-2026 ». Le rapport Évaluation nationale des cybermenaces souligne notamment la capacité de l’IA à réduire les obstacles à l’engagement en matière d’activités cybermalveillantes (32). Comme le résume succinctement Aaron Mauro, partenaire d’INKE (professeur associé en médias numériques et directeur du département des humanités numériques à l’université Brock) :

Les pirates informatiques peuvent agir plus rapidement, avec moins de formation et dans différentes langues. Ils peuvent potentiellement développer de nouveaux types de logiciels malveillants, qui peuvent être plus difficiles à détecter ou à neutraliser. Ils peuvent même automatiser les attaques et les accès d’une manière difficilement prévisible par les motivations humaines, ce qui les rend encore plus difficiles à défendre et à anticiper.

Le rapport souligne également que les infrastructures critiques sont particulièrement attrayantes pour les auteurs de menaces, car « ces entités sont perçues comme étant plus disposées à payer des rançons importantes pour éviter toute perturbation de leurs opérations critiques » (25).

Le Consortium national sur la cybersécurité, fondé par cinq universités canadiennes en 2020, a annoncé que 37 projets canadiens liés à l’avancement de la cybersécurité au Canada recevront 22,8 millions de dollars, ce qui porte le total des investissements dans la cybersécurité canadienne à plus de 60 millions de dollars. Les infrastructures essentielles occupent une place prépondérante dans l’ensemble des projets financés.

Mélanie Joly, ancienne ministre canadienne des Affaires étrangères, a annoncé en février que Affaires mondiales Canada allait fournir un financement de 1,8 million de dollars à un projet visant à fournir un soutien ciblé en matière de sécurité numérique, dirigé par Access Now. La sécurité numérique est une préoccupation croissante pour de nombreuses personnes à travers le monde, car l’intimidation, le harcèlement, la désinformation, les attaques technologiques et les menaces de surveillance continuent d’augmenter et de se diversifier, alimentées par l’intelligence artificielle (Centre canadien pour la cybersécurité 2024; Affaires mondiales Canada 2025).

Nous pouvons également nous attendre à davantage d’initiatives de la part de l’Université du Nouveau-Brunswick, qui recevra 10 millions de dollars au cours des cinq prochaines années afin de créer le Centre de données de cyberattribution (Cyber Attribution Data Centre). L’un des principaux objectifs de ce centre sera de « former et d’équiper la prochaine génération de spécialistes en cyberattribution dans le domaine de l’intelligence artificielle (IA) » et de « mettre en place des services de données basés sur l’IA afin de communiquer les résultats et les renseignements aux principaux acteurs gouvernementaux » (McLaughlin 2024).

Enfin, le Premier ministre récemment élu, Mark Carney, a annoncé la nomination du tout premier ministre canadien chargé de l’intelligence artificielle et de l’innovation numérique, Evan Solomon. Également responsable de l’Agence fédérale de développement économique pour le sud de l’Ontario, M. Solomon est député de Toronto-Centre. Le mandat de M. Solomon n’est pas encore clairement défini, mais une source citée par la CBC suggère que le programme du Parti libéral (« Un Canada Fort ») en donne une bonne idée (voir également Tunney 2025 pour un aperçu).

Rapport international sur la sécurité de l’IA

Début 2025, le Rapport scientifique international sur la sécurité de l’IA avancée (également connu sous le nom de Rapport international sur la sécurité de l’IA) a été publié. Ce rapport offre la première évaluation mondiale consolidée des risques liés à la sécurité des systèmes d’IA de pointe. Ce rapport rassemble les points de vue de plus de 100 experts désignés par 30 pays, l’OCDE, l’UE et l’ONU, ainsi que d’autres experts de renommée mondiale :

Pour la première fois dans l’histoire, ce rapport [. . .] a réuni des experts [. . .] afin de fournir une base scientifique commune et fondée sur des preuves pour ces discussions essentielles. Nous continuons à diverger sur plusieurs questions, mineures et majeures, concernant l’IA à usage général, ses capacités, ses risques et les moyens de les atténuer. Cependant, nous considérons ce rapport comme essentiel pour améliorer notre compréhension collective de l’IA à usage général et de ses risques potentiels, et pour nous rapprocher d’un consensus et d’une atténuation efficace des risques, afin de garantir que l’humanité puisse profiter en toute sécurité des avantages de l’IA à usage général. Les enjeux sont importants. Nous sommes impatients de poursuivre cet effort. (215)

Le rapport de 298 pages vise à donner un aperçu de l’état actuel de la recherche sur l’IA afin de faciliter les discussions, les politiques et autres. Il se concentre sur l’IA « à usage général », c’est-à-dire l’IA capable d’effectuer un large éventail de tâches (26) — à ne pas confondre avec l’intelligence artificielle générale, qui décrit « un type d’intelligence sélective, semblable à celle de l’homme, vaste et flexible, capable d’apprendre toutes sortes de choses et d’effectuer toutes sortes de tâches » (Plumb 2022).

Les auteurs du rapport font en outre la distinction entre un « modèle d’IA » (un modèle qui peut être adapté pour effectuer diverses tâches) et un « système d’IA » (une combinaison de composants conçus pour être utiles aux humains et comprenant un ou plusieurs modèles d’IA). Le modèle GPT-4, par exemple, pourrait être considéré comme le moteur qui anime ChatGPT, un système d’IA (26-27). Le rapport ne traite pas de l’IA étroite (un type d’IA formé pour effectuer une gamme spécifique et restreinte de tâches), bien qu’il note que ce type d’IA peut également causer des dommages importants.

Le rapport comporte trois sections principales. La première section résume de manière utile les capacités de l’IA générale, notamment son mode de développement et ses capacités futures prévues. Elle commence par une série de définitions et explique également le processus de développement de l’IA générale. « Il existe de nombreux types d’IA à usage général, mais ils sont tous développés à l’aide de méthodes et de principes communs » (32).

La deuxième section (la plus longue) résume les risques associés à l’utilisation de l’IA et est divisée en quatre sous-sections. La première sous-section se concentre sur les risques liés à l’utilisation malveillante de l’IA (tels que les préjudices causés aux individus par des contenus falsifiés, la manipulation de l’opinion publique, les cybercrimes et les attaques biologiques et chimiques). La deuxième sous-section examine les risques liés aux dysfonctionnements, notamment les problèmes de fiabilité, les biais et la perte de contrôle. La troisième sous-section examine les risques systémiques, qui comprennent les risques pour le marché du travail, les divisions mondiales en matière de recherche et développement dans le domaine de l’IA, la concentration du marché (et les points de défaillance uniques), les risques environnementaux et les risques pour la vie privée ainsi que la violation des droits d’auteur. La dernière sous-section se concentre sur l’impact des modèles open-weight (à poids ouverts), c’est-à-dire ceux dont les « poids » sont accessibles au public – les poids désignant les paramètres qui représentent la force des connexions entre les nœuds d’un réseau. Les poids jouent un rôle dans la manière dont un modèle réagit à une entrée. Les modèles open-weight peuvent être des modèles open-source (disponibles en téléchargement public), mais ce n’est pas toujours le cas.

Le rapport mentionne plusieurs options différentes de publication ouverte. Il s’agit des options suivantes :

  • Les modèles entièrement ouverts sont des modèles open-source « pour lesquels les pondérations, le code complet, les données d’entraînement et d’autres documents (par exemple sur le processus d’entraînement du modèle) sont mis à la disposition du public, sans restriction quant à leur modification, leur utilisation et leur partage ». (151)
  • Les modèles entièrement fermés sont ceux dont « les poids et le code sont exclusifs, à usage interne uniquement » (151)
  • Les modèles partiellement ouverts sont ceux qui partagent « une combinaison de poids, de code et de données sous diverses licences ou contrôles d’accès, dans le but d’équilibrer les avantages de l’ouverture et la réduction des risques et les préoccupations liées à la propriété » (151)

La dernière partie du rapport sur la sécurité de l’IA se concentre sur les approches de gestion des risques, que les auteurs définissent comme « le processus systématique d’identification, d’évaluation, d’atténuation et de surveillance des risques » (158). La première sous-section offre un aperçu concis et complet de la gestion des risques, et constitue une bonne ressource pour ceux qui découvrent la gestion des risques et ses différentes approches. Cette dernière partie décrit plus en détail les défis liés à l’élaboration des politiques et à la gestion des risques, et se termine par quelques réflexions sur les défis liés à la surveillance et à l’atténuation des risques. Malheureusement, comme le soulignent les auteurs, il n’existe actuellement aucune mesure de sécurité unique ou parfaite. Cependant, ils soulignent que la « défense en profondeur », qu’ils définissent comme « la mise en place de multiples niveaux de protection et de mesures de sécurité redondantes », peut renforcer la « confiance dans la sécurité » (205).

Le rapport se termine par cinq conclusions principales, ainsi qu’une liste d’acronymes et un glossaire. Les principales conclusions concernent :

  • L’importance de rappeler que suivre les évolutions de l’IA est un défi, même pour les experts : « Le premier rapport international sur la sécurité de l’IA conclut que l’avenir de l’IA à usage général est extrêmement incertain » (214)
  • L’importance de continuer à identifier et à atténuer les risques : « Pour tirer parti des avantages de cette technologie transformatrice en toute sécurité, les chercheurs et les décideurs politiques doivent identifier les risques qui y sont associés et prendre des mesures éclairées pour les atténuer » (214)
  • L’importance d’utiliser et de perfectionner les méthodes : « Il existe des méthodes techniques pour faire face aux risques liés à l’IA à usage général, mais elles ont toutes leurs limites » (214)
  • L’importance de se rappeler que les êtres humains ont le choix : « L’IA ne nous est pas imposée ; ce sont les choix des individus qui déterminent son avenir » (214)
  • L’importance du dialogue interdisciplinaire, transfrontalier et intersectoriel : « Pour la première fois dans l’histoire, ce rapport et le rapport intermédiaire (mai 2024) ont réuni des représentants experts désignés par 30 pays, l’OCDE, l’UE et l’ONU, ainsi que plusieurs autres experts de renommée mondiale, afin de fournir une base scientifique commune et fondée sur des preuves pour ces discussions essentielles » (215)

Considérations clés et questions à approfondir

Le récent rapport prospectif de Horizons de politiques Canada et le rapport international sur la sécurité de l’IA soulignent les implications sociétales très diverses de l’IA, qui vont de la transformation des environnements numériques et des relations humaines à la consolidation des biais algorithmiques et à la facilitation des cyberactivités malveillantes.

Parallèlement, un certain nombre de responsables politiques à travers le monde réclament de plus en plus que les connaissances en matière de sécurité de l’IA et les outils de gouvernance soient considérés comme des biens publics mondiaux (par exemple, Blomquist et al. 2025). Ce cadre offre à la fois une opportunité et un défi pour la recherche ouverte, qui s’est engagée de manière rigoureuse dans des discussions relatives aux biens publics et aux biens communs (voir, par exemple, Arbuckle et al. 2022; Fitzpatrick 2024; Fitzpatrick 2024a;  Willinsky 2009).

De plus, les asymétries entre les pays qui développent l’IA et ceux qui sont principalement touchés par sa mise en œuvre reflètent les défis de longue date liés à l’inégalité des connaissances (Blomquist et al. 2025; Ma 2024; Pooley 2024). Alors que la recherche ouverte vise à répondre à ces défis et à les surmonter, les modèles et outils d’intelligence artificielle à usage général, ainsi que les efforts en matière de politique et de réglementation, introduisent de nouvelles complexités et de nouveaux risques.

L’un des exemples de la complexité à laquelle sont confrontées les infrastructures ouvertes et les revues scientifiques ouvertes est l’accès accru, parfois débilitant, des robots automatisés (parfois appelés « crawlers ») qui exploitent les sites à la recherche de données d’entraînement (Confederation of Open Access Repositories (COAR) 2025; Decker 2025; Hinchliffe 2025). Comme l’indique le rapport « The impact of AI bots and crawlers on open repositories: Results of a COAR survey » (L’impact des robots et des crawlers IA sur les dépôts ouverts : résultats d’une enquête COAR), les dépôts en libre accès sont consultés jour et nuit par des robots automatisés, ce qui entraîne des ralentissements notables et des pannes du système. James MacGregor, partenaire d’INKE et directeur de l’infrastructure et du développement de la recherche au Réseau canadien de connaissances en recherche, comprend parfaitement les risques liés à ce type d’activité :

En tant que responsables de l’infrastructure technique qui dessert les collections Canadiana et Héritage, qui comptent au total 65 millions d’images documentaires sur l’histoire du Canada, nous sommes particulièrement préoccupés par les problèmes d’accès aux ensembles de données à grande échelle. Un exemple s’est produit en 2023, lorsque l’accès à Internet Archive a été brièvement interrompu à l’échelle mondiale en raison d’un bot malveillant qui tentait d’ingérer en masse ses données OCR. (Cette interruption de service est insignifiante par rapport à la cyberattaque purement malveillante subie par Internet Archive à l’automne 2024.)

Préserver les valeurs d’ouverture et d’accessibilité tout en faisant face aux nouvelles complexités et aux nouveaux risques technologiques, ainsi qu’aux inégalités persistantes à l’intersection de la sécurité de l’IA, de la cybersécurité et de la recherche ouverte, constituera un défi, mais nous pensons que les praticiens, les défenseurs et les chercheurs de la recherche ouverte sont bien placés pour le relever.

Références

Affaires mondiales Canada. 2025. « La ministre Joly annonce un soutien à la sécurité numérique des défenseuses et défenseurs des droits de la personne. » News Releases. February 12, 2025. https://www.canada.ca/fr/affaires-mondiales/nouvelles/2025/02/la-ministre-joly-annonce-un-soutien-a-la-securite-numerique-des-defenseuses-et-defenseurs-des-droits-de-la-personne.html.

Arbuckle, Alyssa, Ray Siemens, Jon Bath, Constance Crompton, Laura Estill, Tanja Niemann, Jon Saklofske, and Lynne Siemens. 2022. “An Open Social Scholarship Path for the Humanities.” The Journal of Electronic Publishing 25 (2). https://doi.org/10.3998/jep.1973.

Bengio, Yoshua, Sören Mindermann, Daniel Privitera, Tamay Besiroglu, Rishi Bommasani, Stephen Casper, Yejin Choi, et al. 2025. “International AI Safety Report.” DSIT 2025/001. The International Scientific Report on the Safety of Advanced AI. Department for Science, Innovation and Technology (UK) and AI Safety Institute (UK). https://www.gov.uk/government/publications/international-ai-safety-report-2025.

Blomquist, Kayla, Elisabeth Siegel, Kwan Yee Ng, Tom David, Brian Tse, Charles Martinet, Matt Sheehan, et al. 2025. “Examining AI Safety as a Global Public Good: Implications, Challenges, and Research Priorities.” Oxford Martin AI Governance Initiative, Concordia AI, and Carnegie Endowment for International Peace. https://carnegieendowment.org/research/2025/03/examining-ai-safety-as-a-global-public-good-implications-challenges-and-research-priorities?lang=en.

Confederation of Open Access Repositories (COAR). 2025. “The Impact of AI Bots and Crawlers on Open Repositories: Results of a COAR Survey, April 2025.” Confederation of Open Access Repositories. https://coar-repositories.org/wp-content/uploads/2025/06/Report-of-the-COAR-Survey-on-AI-Bots-June-2025-1.pdf.

Consortium national pour la cybersécurité . 2024. « Le Consortium national pour la cybersécurité investit 22,8 millions de dollars pour améliorer la cybersécurité au Canada. » Communiqué de presse (blog). Octobre 16, 2024. https://ncc-cnc.ca/fr/nouvelles-devoilement-des-projets-retenus-2024/

Decker, Stephanie. 2025. “The Open Access – AI Conundrum: Does Free to Read Mean Free to Train? (Guest Post).” The Scholarly Kitchen (blog). April 15, 2025. https://scholarlykitchen.sspnet.org/2025/04/15/guest-post-the-open-access-ai-conundrum-does-free-to-read-mean-free-to-train/.

Fitzpatrick, Kathleen. 2024. “Open Infrastructures and the Future of Knowledge Production, Part 1.” Platypus: The Blog of the Humanities Commons Team (blog). January 5, 2024. https://team.hcommons.org/2024/01/05/open-infrastructures-and-the-future-of-knowledge-production-part-1/.

Fitzpatrick, Kathleen. 2024a. “Open Infrastructures and the Future of Knowledge Production, Part 2.” Platypus: The Blog of the Humanities Commons Team (blog). January 8, 2024. https://team.hcommons.org/2024/01/08/open-infrastructures-and-the-future-of-knowledge-production-part-2/.

Hinchliffe, Lisa Janicke. 2025. “Are AI Bots Knocking Digital Collections Offline? An Interview with Michael Weinberg.” The Scholarly Kitchen (blog). June 23, 2025. https://scholarlykitchen.sspnet.org/2025/06/23/are-ai-bots-knocking-digital-collections-offline/.

Horizons de politiques Canada. 2025. Prospective sur l’IA : Considérations politiques. Ottawa: Gouvernement du Canada. https://horizons.service.canada.ca/fr/2025/02/10/ia-considerations-politiques/index.shtml

Ma, Lai. 2024. “Generative AI for Academic Publishing? Some Thoughts About Epistemic Diversity and the Pursuit of Truth.” KULA: Knowledge Creation, Dissemination, and Preservation Studies 7 (1): 1–5. https://doi.org/10.18357/kula.287.

McLaughlin, Kathleen. 2024. “Government of Canada Announces Funding for Cyber Attribution Data Centre at UNB to Advance National Cybersecurity.” University of New Brunswick News (blog). December 13, 2024. https://blogs.unb.ca/newsroom/2024/12/federal-funding.php

Plumb, Taryn. 2022. “AI Act: What Does General Purpose AI (GPAI) Even Mean?” VentureBeat (blog). September 15, 2022. https://web.archive.org/web/20241114222307/https://venturebeat.com/ai/ai-act-what-does-general-purpose-ai-gpai-even-mean/

Pooley, Jefferson. 2024. “Large Language Publishing: The Scholarly Publishing Oligopoly’s Bet on AI.” KULA: Knowledge Creation, Dissemination, and Preservation Studies 7 (1): 1–11. https://doi.org/10.18357/kula.291.

Premier ministre du Canada. 2025.Le premier ministre Carney présente le nouveau Conseil des ministres. News Releases. May 13, 2025. https://www.pm.gc.ca/fr/nouvelles/communiques/2025/05/13/premier-ministre-carney-presente-nouveau-conseil-des-ministres.

Tunney, Catherine. 2025. “Canada Now Has a Minister of Artificial Intelligence. What Will He Do?” CBC News, May 17, 2025, sec. Politics. https://www.cbc.ca/news/politics/artificial-intelligence-evan-solomon-1.7536218.

Willinsky, John. 2006. The Access Principle: The Case for Open Access to Research and Scholarship. Digital Libraries and Electronic Publishing. Cambridge, Mass.: MIT Press. https://mitpress.mit.edu/9780262512664/the-access-principle/