https://doi.org/10.25547/0518-EG90
Ce rapport “Insights and Signals” a été rédigé par Brittany Amell, avec des remerciements à John Willinsky, John Maxwell et William Bowen pour leurs commentaires et leurs contributions.
En bref
Perspectives et signaux Domaine thématique | Réponses à l’IA générative et aux LLM |
Principaux participants | Union européenne, Canada, |
Cadre temporel | 2022 à aujourd’hui |
Mots clés ou thèmes principaux | IA générative, bourses d’études ouvertes, confiance, crédibilité, libre accès |
Résumé
Les rapports “Policy Insights and Signals” scrutent l’horizon afin d’identifier et d’analyser les tendances émergentes et les signaux précurseurs susceptibles d’influer sur les orientations politiques futures en matière de libre accès et d’érudition ouverte et sociale. Ils ont tendance à mettre en évidence les changements dans la technologie, l’opinion et les sentiments du public, et/ou les changements réglementaires à l’intérieur et à l’extérieur du Canada. Tout comme les observations politiques de l’OSPO, les rapports sur les perspectives et les signaux visent à aider les partenaires à élaborer des stratégies proactives, réactives et tournées vers l’avenir.
Ce rapport Insights and Signals est le premier d’une série qui se concentre sur l’évolution des discussions centrées sur l’intelligence artificielle (IA), en particulier l’IA générative (genAI) et les grands modèles de langage (LLM), et sur les implications qu’elles peuvent avoir pour l’accès libre et la recherche sociale ouverte. D’autres rapports “Insights and Signals” consacrés à l’intelligence artificielle vous intéressent ? Vous les trouverez ici et ici.
Les points abordés dans ce rapport sont les suivants
- Une brève introduction à l’intelligence artificielle générative, avec des commentaires de John Maxwell
- La première loi mondiale sur l’intelligence artificielle adoptée en mai 2024 par le Conseil de l’Union européenne.
- L’inclusion de l’intelligence artificielle dans la loi de mise en œuvre de la Charte numérique du Canada (2022), ainsi que les critiques de Joanna Redden (2024), professeure associée à la faculté d’études sur l’information et les médias de l’université Western, de critique la législation proposée par le Canada en matière d’intelligence artificielle dans sa forme actuelle.
- Plusieurs réactions à l’IA au Canada de la part de revues, d’établissements postsecondaires, de sociétés savantes et d’organismes subventionnaires, ainsi que certaines préoccupations fondamentales soulevées par ces groupes.
- Une annonce du premier ministre Justin Trudeau (2024) concernant son intention de consacrer 2,4 milliards de dollars pour assurer un avantage canadien en matière d’intelligence artificielle
- Réponses des partenaires de l’INKE John Willinsky (fondateur du Public Knowledge Project) et John Maxwell (professeur associé d’édition à l’Université Simon Fraser)
- Certains silences discursifs proposés à prendre en considération, tels que les perspectives sur l‘extraction des données comme pratique, et la souveraineté des données autochtones
Ce rapport se termine par quelques questions et considérations clés.
Remarque : Nous vous présentons nos excuses en avance, car la plupart des sources mentionnées dans ce rapport sont disponibles en anglais uniquement.
Présentation succincte de l’intelligence artificielle générative
Les débats largement répandus sur l’avenir de l’intelligence artificielle et la nécessité de cadres éthiques et de politiques réglementaires pour atténuer les dommages potentiels, relancés en 2022 par la première version du système d’intelligence artificielle générative (IA) ChatGPT d’OpenAI, continuent de retenir l’attention des chercheurs et des médias. Les outils d’intelligence artificielle générative tels que ChatGPT et Bing de Microsoft (tous deux alimentés par GPT-4 d’OpenAI) et Gemini de Google (Bard, précédemment) peuvent être utilisés pour générer de la poésie, des essais, du code, des traductions et des réponses à des examens, ainsi que des images et des vidéos.
Cependant, si ces outils ont un potentiel énorme, ils créent également des défis et, dans certains cas, des préjudices (par exemple, “Data Harm Record” par Redden et al. 2020 ; voir également, de manière générale, Broussard 2024, Noble 2018 et O’Neil 2016). Selon Josh Nicholson, cofondateur et PDG de Scite.ai, le modèle de langage large Galactica de Meta pour la science a été “retiré en moins d’une semaine parce qu’il était si problématique. Vous pouviez lui donner des instructions et obtenir un article complet en retour, mais il pouvait être raciste ou complètement erroné” (cité dans Wiley 2024, 1).
L’intelligence artificielle générative, ou genAI comme nous l’appelons ici, est utilisée pour décrire des outils tels que ceux mentionnés ci-dessus, mais elle décrit en réalité un changement fondamental dans la conception des instructions qui peuvent être suivies pour accomplir une tâche, également connues sous le nom d’algorithmes (Danaher et al. 2017). Ce changement a entraîné l’abandon des algorithmes “descendants” (où les ensembles de règles pour les algorithmes étaient définis de manière exhaustive par les programmeurs) au profit d’algorithmes d’apprentissage automatique “ascendants” (où un algorithme est essentiellement formé pour développer son propre ensemble de règles). Les algorithmes d’apprentissage automatique consistent à donner à la machine des données, un objectif, un retour d’information pour lui indiquer qu’elle est sur la bonne voie, puis à lui laisser du temps pour trouver la meilleure façon de suivre les instructions et d’atteindre l’objectif (Fry 2018, p. 11). En d’autres termes, la genAI s’appuie sur l’utilisation de diverses techniques statistiques pour produire les résultats qui émerveillent nombre d’entre nous (Gorwa et al. 2020 ; Whiteley 2023).
En effet, le poème que vous avez demandé à ChatGPT de générer est le résultat de calculs probabilistes qui sélectionnent les mots en fonction de leur probabilité de s’adapter (statistiquement) au contexte. Cela semble moins romantique, mais c’est peut-être important – John Maxwell (professeur associé d’édition à l’université Simon Fraser), partenaire d’INKE, le pense en tout cas.
Répondant à cet article par courriel, John Maxwell a écrit : “Je suis de plus en plus préoccupé par le fait qu’en réagissant (à la fois individuellement et collectivement, de manière causale et formelle) à l’essor de l’apprentissage en profondeur, du texte génératif et des technologies de l’image – en suivant l’exemple de l’industrie qui les appelle “IA” – nous jouons le jeu d’un groupe de promoteurs d’investissements très habiles et, en même temps, nous sabotons nos propres sensibilités critiques à l’égard des diverses innovations rassemblées sous ce parapluie”. (Vous pouvez lire l’intégralité de la réponse de John Maxwell en défilant jusqu’à la section “Réponses du partenariat INKE” ci-dessous).
Maxwell n’est pas le seul à tirer la sonnette d’alarme. Dans un article publié sur le blog de la l’École d’économie et de sciences politiques de Londres, Paul Whiteley affirme que “l’intelligence artificielle” est une appellation erronée, inventée par l’informaticien John McCarthy en 1950 (et anthropomorphisée par le reste d’entre nous depuis lors).
Même ChatGPT est d’accord. Lorsque nous avons demandé à ChatGPT s’il pensait que les utilisateurs avaient tendance à l’anthropomorphiser, il a généré le “résultat statistique” suivant :
Oui, les gens m’anthropomorphisent souvent ! C’est tout à fait naturel ; le langage humain et l’interaction impliquent souvent des hypothèses sur des expériences, une compréhension ou des intentions partagées. Étant donné que mes réponses relèvent de la conversation et imitent les schémas du langage humain, les utilisateurs peuvent parfois m’attribuer des pensées, des sentiments ou des intentions, même si je n’ai pas d’expérience, de conscience ou de compréhension personnelle. La familiarité de la conversation peut faire oublier que les réponses proviennent de modèles plutôt que d’un sentiment intérieur. C’est fascinant parce que cela met en évidence à quel point les gens sont prêts à chercher une connexion, même avec une technologie qui est fondamentalement différente de l’esprit humain.
John Maxwell (professeur associé d’édition à l’université Simon Fraser et partenaire de l’INKE) nous met toutefois en garde contre cette anthropomorphisation, car elle rend difficile l’élaboration des réponses politiques significatives :
Alors que, par exemple, “LLM” définit une technologie spécifique avec des caractéristiques spécifiques pour lesquelles nous pourrions développer une réponse politique cohérente, le terme “IA” est un fourre-tout de science-fiction qui comporte un ensemble de connotations utopiques, dystopiques et eschatologiques bien médiatisées (et monétisées). Il est peu probable que nous puissions apporter une réponse significative à un objet aussi mal défini. J’espère que, lorsque nous commencerons à élaborer des lignes directrices et des politiques, nous pourrons commencer à différencier ces technologies et à les désigner par leurs noms et fonctions spécifiques, au lieu de répéter le battage médiatique selon lequel ces boîtes noires massives, mystérieuses et appartenant à des entreprises, résoudront simultanément les problèmes de l’humanité tout en constituant une menace existentielle.
L’UE annonce l’approbation de la première loi mondiale sur l’intelligence artificielle
Sur le plan politique, le Conseil de l’UE a officiellement approuvé en mai dernier la première loi mondiale sur l’intelligence artificielle. La législation suivra une “approche fondée sur le risque, ce qui signifie que plus le risque de causer des dommages à la société est élevé, plus les règles sont strictes”, explique le Conseil dans un communiqué de presse.
“Avec la législation sur l’IA, l’Europe souligne l’importance de la confiance, de la transparence et de l’obligation de rendre des comptes pour ce qui est des nouvelles technologies, tout en veillant dans le même temps à ce que cette technologie en évolution rapide puisse prospérer et stimuler l’innovation européenne,” déclare Mathieu Michel, Secrétaire d’État fédéral belge à la Digitalisation, chargé de la Simplification administrative, de la Protection de la vie privée et de la Régie des bâtiments (Conseil, 2024).
Quatre organes directeurs, dont “un groupe scientifique d’experts indépendants”, seront chargés de veiller à l’application de la loi sur l’IA. Trois autres organes comprennent un bureau de l’IA au sein de la Commission européenne, un forum consultatif pour les parties prenantes et un conseil de l’IA composé de représentants des États membres (Conseil, 2024).
Vers une réglementation de l’intelligence artificielle au Canada?
Au Canada, l’inclusion de l’intelligence artificielle dans le projet de la loi C-27 (Loi de 2022 sur la mise en œuvre de la Charte du numérique) fait toujours l’objet d’un examen en comité à la Chambre des communes depuis sa deuxième lecture il y a plus d’un an, en avril 2023.
Selon Joanna Redden (2024), professeure à la faculté d’études sur l’information et les médias de l’Université Western, qui critique la législation canadienne sur l’IA proposée dans sa forme actuelle, de nombreux Canadiens ont déjà peu confiance dans l’utilisation croissante de l’IA, même si le Canada a été le premier pays à introduire une stratégie nationale en matière d’IA. Faisant écho aux préoccupations de personnes telles qu’Andrew Clement (professeur émérite, Université de Toronto), ainsi que McKelvey et ses collègues (2024), Redden suggère que cette méfiance est due, en partie, à un manque de consultation publique significative, “en dépit des préoccupations profondes du public”. Redden note que la législation proposée est non seulement “déjà en décalage avec les besoins des Canadiens”, mais qu’elle est également “en deçà des approches réglementaires adoptées par d’autres nations”, telles que celle récemment approuvée par l’Union européenne ou le décret publié par la Maison Blanche en 2023.
Certains des besoins identifiés par Redden incluent la garantie que les utilisations de l’IA par les entreprises et les gouvernements sont transparentes et qu’il existe des mécanismes efficaces pour maintenir la surveillance et la responsabilité. En outre, Redden soutient qu’il est essentiel de consacrer des fonds pour garantir le maintien des « registres d’IA » publics. En outre, Joanna Redden estime qu’il est essentiel de consacrer des fonds à la tenue de “registres d’IA” publics (note : les registres d’IA, tels que celui mis au point par Redden et ses collègues, permettent de savoir où et comment l’IA et d’autres systèmes automatisés sont utilisés).
Si elle est adoptée, la Loi de 2022 sur la mise en œuvre de la Charte du numérique (également connue sous le nom de “loi édictant la loi sur la protection de la vie privée du consommateur, la loi sur le Tribunal de la protection des renseignements personnels et des données et la loi sur l’intelligence artificielle et les données, et apportant des modifications corrélatives et connexes à d’autres lois”) serait la première loi axée sur la réglementation de l’IA au Canada.
Actuellement, les gestionnaires et les développeurs d’IA générative au Canada sont invités à s’engager volontairement à respecter un Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés. Ce code de conduite volontaire met l’accent sur six résultats : la responsabilité, la sécurité, la justice et l’équité, la transparence, la surveillance humaine et le suivi, ainsi que la validité et la robustesse.
Réponses des revues, des établissements d’enseignement postsecondaire, des sociétés savantes et des organismes subventionnaires à l’IA au Canada
Dans le but de freiner l’utilisation abusive de l’IA générative, plusieurs revues (voir ici, ici et ici), établissements d’enseignement postsecondaire (voir ici et ici pour des exemples, ainsi qu’ici pour un commentaire plus général et ici pour l’observatoire de HESA sur l’IA dans le secteur postsecondaire au Canada), associations savantes (voir ici et ici) et organismes subventionnaires (en savoir plus ici et ici) sont en train d’élaborer et de publier des déclarations, des politiques et/ou des lignes directrices qui définissent les attentes concernant ce qui est considéré comme une utilisation équitable ou responsable de l’IA dans leurs contextes respectifs.
Les préoccupations relatives à la responsabilité, à la paternité, à la transparence, à la divulgation de l’utilisation, à la responsabilité, à l’exactitude, à la partialité, à la sécurité, à la confidentialité et à la vie privée, ainsi qu’aux droits d’auteur et à la propriété intellectuelle reviennent constamment dans ces déclarations, politiques et lignes directrices. Plusieurs revues ainsi que de grands éditeurs tels que SAGE, Elsevier et Wiley interdisent explicitement de citer un outil d’IA (tel que ChatGPT) comme auteur car, comme l’écrit Tulandi (2023) dans une revue médicale canadienne, “la qualité d’auteur implique des responsabilités et des tâches qui ne peuvent être attribuées et exécutées que par des êtres humains” (paragraphe 7).
Outre les préoccupations soulevées ci-dessus, l’ABRC, ou l’Association des bibliothèques de recherche du Canada (2023), recommande que les réponses à l’IA générative tiennent également compte des impacts sociaux associés à l’utilisation de l’IA, notamment qui a accès aux outils d’IA générative et qui n’y a pas accès, que ce soit pour des raisons financières ou autres. Citant les travaux d’un groupe de chercheurs associés à l’Open University au Royaume-Uni, l’ABRC (2023) se demande également si la combinaison d’articles en libre accès et d’articles payants dans le développement d’ensembles de données utilisés pour former l’IA générative pourrait améliorer sa fiabilité et sa crédibilité, bien qu’elle note également le risque d’implications juridiques.
Alors que les débats relatifs à la loi de mise en œuvre de la Charte numérique se poursuivent, le Premier ministre Justin Trudeau (2024) a annoncé son intention de consacrer 2,4 milliards de dollars à la “sécurisation de l’avantage du Canada en matière d’IA,” bien qu’il soit intéressant de noter que seulement 2 % de ce financement (50 millions de dollars) est destiné à l’exploration des impacts sociaux associés à l’utilisation accrue de l’IA.
Questions et considérations clés
Les idées et les signaux décrits ci-dessus indiquent que les développements récents de l’IA générative, ainsi que son intégration continue dans divers contextes académiques (et plus largement dans la société), posent des défis importants aux personnes impliquées dans l’élaboration des réponses politiques.
En même temps, même s’il est important de prêter attention aux réponses existantes, les silences discursifs ou les absences (c’est-à-dire ce qui n’est pas dit, ou peut-être ce qui n’est pas amplifié et repris dans les rapports sur ce sujet) sont tout aussi importants et méritent d’être pris en considération.
Parmi les absences notables proposées, citons la question de savoir si l’utilisation du contenu en ligne par les LLM est considérée comme une utilisation équitable (ainsi que d’autres considérations relatives au droit d’auteur). D’autres absences importantes concernent l’impact social et écologique des grands modèles de langage (LLM) et les matériaux, la main-d’œuvre et la puissance de calcul nécessaires pour les maintenir – en parallèle avec les conversations sur la durabilité dans les humanités numériques (comme celle de Johanna Drucker 2021 ou celle de Joanna Tucker 2022). D’autres incluent les implications des LLM pour les souverainetés des données Autochtone (l’UNESCO publie un nouveau rapport et des lignes directrices pour maintenir la souveraineté des données autochtones qui s’inscrivent dans les développements de l’intelligence artificielle), ainsi que les implications que les souverainetés (des données) autochtone peuvent avoir pour la réflexion sur “l’IA éthique” (Gaertner 2024 ; Roberts and Montoya 2024).
Par exemple, en réfléchissant à l’intersection entre les nouvelles formes d’IA et la souveraineté et la gestion des données autochtones, le professeur associé David Gaertner (Institute for Critical Indigenous Studies, UBC) établit d’autres liens entre l’IA formée sur de grands modèles linguistiques et les impacts du colonialisme de peuplement :
Les technologies de l’IA, formées sur de grands modèles linguistiques, reflètent la privation des droits et la violence imposées par le colonialisme de peuplement tout en les redistribuant à l’échelle. Les algorithmes institutionnalisent une dynamique de pouvoir dans laquelle les récits linguistiques et culturels dominants sont davantage ancrés et amplifiés dans l’infrastructure sociale, tandis que l’expression personnelle devient de plus en plus obsolète et marginale. L’émergence des rapports détaillant la manière dont l’internet se cannibalise actuellement et génère de nouveaux contenus d’IA à partir de matériaux d’IA existants, également connue sous le nom de “théorie de l’Internet Mort“, amplifie encore ces préoccupations.
Cependant, nombreux sont ceux qui soulignent que les questions relatives au développement et à l’utilisation éthiques de l’IA sont souvent adressées aux entreprises privées et aux organisations qui utilisent leurs modèles. Qu’en est-il des membres de la communauté, des universitaires et des parties prenantes ? L’IA restera-t-elle uniquement entre les mains des entreprises privées et des sociétés à but lucratif ?
Pas nécessairement. Certains commencent à explorer des approches de l’apprentissage automatique fondées sur les biens communs, comme Open Future, une organisation à but non lucratif basée en Europe qui souhaite étudier les risques et les avantages potentiels associés aux nouveaux cadres de partage des modèles d’IA sous licence libre. Le commentaire suivant, que John Willinsky (fondateur du Public Knowledge Project et partenaire de l’INKE) a partagé avec nous, va dans le même sens :
Bien qu’il y ait des raisons de s’inquiéter des récentes avancées de l’IA, les universitaires ont également la responsabilité d’explorer les contributions et les avancées potentielles de l’IA pour la recherche et l’érudition. Depuis un certain temps, le Public Knowledge Project se tourne vers l’IA pour résoudre les problèmes urgents liés à l’équité et à la qualité des ressources dans les communications savantes, avec un succès limité. Il mène actuellement des recherches sur la capacité des grands modèles de langage à relever le défi de longue date que représente le développement d’un moyen durable pour les revues accès libre diamant de publier dans les formats standard HTML et PDF, ainsi que d’exporter des fichiers en JATS XML. (Le commentaire de John Willinsky peut être lu dans son intégralité ci-dessous).
Il est intéressant de noter que plusieurs modèles d’IA ont déjà été publiés sous la licence Apache 2.0 (une licence de logiciel permissive qui autorise l’utilisation du logiciel à toutes fins, y compris la distribution, la modification et la distribution de versions modifiées sans redevances, selon Wikipédia), et d’autres pourraient être publiés avant la fin de l’année (des rumeurs indiquent qu’OpenAI publiera son dernier modèle, “Orion”, en décembre 2024).
Réponses du partenariat INKE
Réponse de John Willinsky (Fondateur, Public Knowledge Project) :
Bien qu’il y ait des raisons de s’inquiéter des récentes avancées de l’IA, les universitaires ont également la responsabilité d’explorer les contributions et les avancées potentielles de l’IA pour la recherche et l’érudition. Depuis un certain temps, le Public Knowledge Project se tourne vers l’IA pour résoudre les problèmes urgents liés à l’équité et à la qualité des ressources dans les communications savantes, avec un succès limité. Il mène actuellement des recherches sur la capacité des grands modèles de langage à relever le défi de longue date que représente le développement d’un moyen durable pour les revues Diamond OA de publier dans les formats standard HTML et PDF, ainsi que d’exporter des fichiers en JATS XML. L’objectif principal de ce travail est d’établir si les LLM peuvent être suffisamment adaptés pour automatiser de manière fiable le balisage HTML et JATS XML des manuscrits des auteurs (étant donné que ce balisage nécessite actuellement des compétences techniques ou des paiements qui dépassent la capacité de la plupart des revues Diamond OA). Ce travail a atteint le stade initial de la preuve de concept, et les travaux se poursuivent sur sa valeur comparative (par rapport à d’autres outils) et sur les moyens d’intégrer et de maintenir un tel service de balisage dans le flux de travail éditorial.
Réponse de John Maxwell (professeur associé d’édition à l’université Simon Fraser) :
Je crains de plus en plus qu’en réagissant (à la fois individuellement et collectivement, de manière causale et formelle) à l’essor des technologies d’apprentissage en profondeur, de texte génératif et d’image – en suivant l’exemple de l’industrie qui les appelle “IA” – nous fassions le jeu d’un groupe de promoteurs d’investissements très habiles et que nous minions en même temps notre propre sensibilité critique à l’égard des diverses innovations rassemblées sous cette égide. Le terme “IA” sert depuis plusieurs décennies déjà de marque d’aspiration pour une grande variété de technologies informatiques. Aujourd’hui, c’est le nom de marque d’un investissement massif de capitaux finançant une collection d’approches disparates d’apprentissage profond : LLM, modèles de diffusion, systèmes de reconnaissance faciale et autres outils. Il s’agit de technologies spécifiques qui existent et qui ont un impact sur les études et le travail. Mais alors que, par exemple, “LLM” définit une technologie spécifique avec des caractéristiques spécifiques pour lesquelles nous pourrions développer une réponse politique cohérente, le terme “IA” est un fourre-tout de science-fiction qui porte avec lui un ensemble de connotations utopiques, dystopiques et eschatologiques bien médiatisées (et monétisées). Il est peu probable que nous puissions apporter une réponse significative à un objet aussi mal défini. J’espère que, lorsque nous commencerons à élaborer des lignes directrices et des politiques, nous pourrons commencer à différencier ces technologies et à les désigner par leurs noms et fonctions spécifiques, au lieu de répéter le battage médiatique selon lequel ces boîtes noires massives, mystérieuses et appartenant à des entreprises résoudront simultanément les problèmes de l’humanité tout en constituant une menace existentielle. Il semblerait que les investisseurs en capital-risque et les hommes du battage médiatique nous aient devancés sur la ligne de départ ; nous devons rapidement mettre en place un appareil critique (par exemple, des études scientifiques et technologiques) pour l’analyse et l’élaboration de politiques et de lignes directrices efficaces.
Références
“C-27 (44-1) : Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois.” Parlement du Canada. Consulté le 30 octobre 2024. https://www.parl.ca/legisinfo/fr/projet-de-loi/44-1/c-27
Broussard, Meredith. 2024. More than a Glitch: Confronting Race, Gender, and Ability Bias in Tech. First MIT Press paperback edition. Cambridge, Massachusetts London, England: The MIT Press.
Association bibliothèques de recherche du Canada. 2023. “Intelligence artificielle générative : Une brève introduction pour les établissements de l’ABRC.” https://www.carl-abrc.ca/wp-content/uploads/2023/12/Generative-Artificial-Intelligence-A-Brief-Primer-FR.pdf.
Drucker, Johanna. 2021. “Sustainability and Complexity: Knowledge and Authority in the Digital Humanities.” Digital Scholarship in the Humanities 36 (2): ii86–ii94. https://doi.org/10.1093/llc/fqab025.
Fitzpatrick, Kathleen. 2024. “Open Infrastructures for the Future of Knowledge Production.” Keynote presented at Creative Approaches to Open Social Scholarship: Canada (An Implementing New Knowledge Environments (INKE) Partnership Gathering). Montreal, Canada. https://doi.org/10.25547/6GG1-7B37.
Fry, Hannah. 2019. Hello World: Being Human in the Age of Algorithms. New York: W.W. Norton & Company.
Gaertner, David. 2024. “Indigenous Data Stewardship Stands against Extractivist AI.” UBC Faculty of Arts (blog). June 18, 2024. https://www.arts.ubc.ca/news/indigenous-data-stewardship-stands-against-extractivist-ai/
Gorwa, Robert, Reuben Binns, and Christian Katzenbach. 2020. “Algorithmic Content Moderation: Technical and Political Challenges in the Automation of Platform Governance.” Big Data & Society 7 (1): 2053951719897945. https://doi.org/10.1177/2053951719897945.
McKelvey, Fenwick, Sophie Toupin, and Maurice Jones. 2024. “Introduction.” In Northern Lights and Silicon Dreams: AI Governance in Canada (2011-2022), edited by Fenwick McKelvey, Johnathan Roberge, and Sophie Toupin, 7–30. Montreal, Canada: Shaping AI. https://www.amo-oma.ca/wp-content/uploads/2024/04/ORA-CA-Policy.pdf.
Noble, Safiya Umoja. 2018. Algorithms of Oppression: How Search Engines Reinforce Racism. New York: New York university press.
O’Neil, Cathy. 2017. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. New York: Crown.
Pride, David. 2023. “CORE-GPT: Combining Open Access Research and AI for Credible, Trustworthy Question Answering.” CORE (blog). March 17, 2023. https://blog.core.ac.uk/2023/03/17/core-gpt-combining-open-access-research-and-ai-for-credible-trustworthy-question-answering/.
Redden, Joanna, Jessica Brand, and Vanesa Terzieva. 2020. “Data Harm Record.” Data Justice Lab. 2020. https://datajusticelab.org/data-harm-record/.
Redden, Joanna. 2024. “Canada’s AI Legislation Misses the Mark.” Western News (blog). April 12, 2024. https://news.westernu.ca/2024/04/proposed-ai-legislation/.
Roberts, Jennafer Shae, and Laura N. Montoya. 2023. “In Consideration of Indigenous Data Sovereignty: Data Mining as a Colonial Practice.” In Proceedings of the Future Technologies Conference (FTC) 2023, Volume 2, edited by Kohei Arai, 180–96. Cham: Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-47451-4_13.
Roberts, Jennafer Shae. 2024. “In Consideration of Indigenous Data Sovereignty: Data Mining as a Colonial Practice.” Montreal AI Ethics Institute (blog). January 23, 2024. https://montrealethics.ai/in-consideration-of-indigenous-data-sovereignty-data-mining-as-a-colonial-practice/.
Tucker, Joanna. 2022. “Facing the Challenge of Digital Sustainability as Humanities Researchers.” Journal of the British Academy, 10: 93–120. https://doi.org/10.5871/jba/010.093.