Concevoir des systèmes d’IA éthiques et inclusifs pour le bénéfice du Canada et du monde entier.

L’axe IA + Inclusion promeut un programme de recherche sur l’élaboration de cadres de conception et d’ingénierie éthiques, inclusifs et participatifs efficaces pour les systèmes d’IA, notamment en ce qui concerne la prévention du risque d’amplification des injustices numériques mondiales par l’IA pour les femmes, les jeunes, les personnes âgées, les peuples autochtones, la communauté LGBTQIA2S+, les personnes racialisées, les personnes en situation de handicap et les minorités linguistiques (comme le français et les langues autochtones) – et ceux qui se trouvent à l’intersection de ces identités. La recherche tient également compte des préoccupations spécifiques concernant les populations du Nord et les collectivités éloignées, ainsi que les nations en voie de développement.

Tout en promettant des avantages importants, le développement non contrôlé de l’IA présente des défis considérables, allant de l’incertitude quant à l’avenir du travail, aux transferts de pouvoir vers de nouvelles structures échappant au contrôle des cadres de gouvernance et de responsabilité déjà existants et compris. La façon dont ces défis peuvent avoir un impact disproportionné sur les populations marginalisées et, par conséquent, amplifier les injustices existantes est particulièrement problématique.

Cet axe de recherche a pour but de définir les meilleures pratiques tout en proposant des outils et des cadres pour l’ingénierie éthique des systèmes d’IA. Nous étudions notamment des stratégies pour appliquer des exigences éthiques efficaces pour l’IA, mettre en œuvre ces exigences et vérifier de manière critique qu’elles ont été effectivement établies.

Projets

Exigences éthiques pour l’IA : de la conception à la validation

Divers groupes industriels ont développé, et continuent de développer, des principes pour le développement éthique de l’IA. Cependant, bien moins nombreux sont ceux qui ont démontré comment transformer efficacement ces principes en exigences concrètes d’ingénierie et de conception pour l’IA, comment mettre en œuvre ces exigences dans des systèmes d’IA réels et comment valider leur établissement. Afin d’évoluer vers un avenir de systèmes d’IA justes, inclusifs et sûrs, nous devons combler cette lacune critique. Cette recherche s’appuie sur notre expertise et notre leadership en matière de conception fondée sur des valeurs pour développer et valider des méthodologies, des cadres et des outils efficaces pour les pratiques d’ingénierie des exigences éthiques de l’IA.

Les jeunes et l’IA

Les jeunes sont fortement engagés dans les communications numériques, ce qui les expose davantage aux impacts potentiellement discriminatoires de l’IA et du tri algorithmique. Cependant, comme les autres canadien(ne)s, les jeunes ont une connaissance et une compréhension limitées de l’IA, de son fonctionnement et des conséquences à long terme sur leur vie (p. ex. sur les plans familial, scolaire, financier, de la santé et du bien-être, professionnel et autres). Pour cette raison, il est essentiel de veiller à ce que les jeunes Canadien(ne)s et ceux qui travaillent pour les soutenir (y compris les parents, les enseignants et les organisateurs communautaires) aient accès à des informations dans un langage accessible, à une terminologie commune, à du matériel éducatif et de sensibilisation informatif et engageant concernant l’IA. Afin de répondre à ce besoin, nous produirons des ressources multimédias libres telles que des vidéos, des plans de cours, des sessions de formation des formateurs, du contenu sur le Web, ainsi que du matériel sur papier (pour les communautés qui en ont besoin) traduit en plusieurs langues. Notre mission est de faire en sorte que les jeunes canadien(ne)s, leurs familles, leurs enseignants et les autres adultes qui les soutiennent disposent des informations dont ils ont besoin pour mieux naviguer dans un environnement numérique de plus en plus dominé par l’IA.

Exigences sociales, éthiques et juridiques et structure de gouvernance pour les applications de recherche de contacts de la COVID-19 alimentées par l’IA

Dans les premiers jours de la pandémie de la COVID-19, des débats et des discussions ont émergé à l’échelle internationale et au Canada autour de l’utilisation d’applications de recherche de contacts pour soutenir la recherche manuelle des contacts, et notamment l’utilisation de l’IA pour améliorer la fonctionnalité des applications de recherche de contacts. Nous créons une base de données de la littérature savante émergente, des rapports gouvernementaux et des articles des médias d’information sur les applications de recherche des contacts et de notification des expositions afin d’appuyer nos recherches en cours pour mieux comprendre l’impact de l’adoption mondiale des applications de recherche des contacts et de notification des expositions. Nous concevons également des évaluations d’impact algorithmique pour ces applications, ainsi que des recommandations de gouvernance et des exigences de conception technique.

Chercheur(e)s

Responsables de l’axe

Jason Millar

Jane Bailey

Professeur(e)s

Karine Gentelet

Amy Salyzyn

Florian Martin-Bariteau

Teresa Scassa

Elizabeth Dubois

Valerie Steeves

Chercheur(e)s affilié(e)s

Aurélie Petit, Chercheure doctorale Banque Scotia en IA et Inclusion

Ancien(ne)s

Rachana Devkota, Stagiaire postdoctorale Banque Scotia en IA et inclusion (2021-2022)

sava saheli singh, Stagiaire postdoctorale Banque Scotia-eQuality en IA et la surveillance (2020-2022)

Courtney Doagoo, Chercheure invitée, IA & Société (2020-2023)

Réalisations

Réalisations artistiques & outils

  • Courte video: unLine (May 2024)
  • Exposition : unLine: Exploring the transgressive potential of art in a digitally repressive environment (19-20 March 2024)

Publications

Publications Scientifiques

  • Jane Bailey, Valerie Steeves, Jacquelyn Burkell, Chandell Gosse & Suzie Dunn, “AI and Technology-Facilitated Violence and Abuse” dans Florian Martin-Bariteau & Teresa Scassa, Artificial Intelligence and the Law in Canada (LexisNexis Canada, 2021).

Financement

Cet axe de recherche est soutenu par le Fonds Banque Scotia pour l’Initiative AI+ Société, le programme des Chaires de recherche du Canada et le Conseil de recherche en sciences humaines du Canada.