Objectif et public visé
Le présent document a été conçu comme une première ligne directrice à l’intention des étudiants, des facultés et des membres du personnel pour l’utilisation des outils d’intelligence artificielle (IA) et d’IA générative.
Il y a des considérations importantes à garder à l’esprit lors de l’utilisation ou de l’expérimentation avec l’IA, notamment la sécurité de l’information, la confidentialité des données, la conformité, la responsabilité et l’éthique. L’IA générative est à la fois transformatrice et perturbatrice. En adhérant à ces lignes directrices, l’Université d’Ottawa peut en exploiter les avantages de façon plus sécuritaire.
L’Université reconnaît la nécessité de définir sa tolérance au risque en ce qui a trait à l’utilisation de l’IA. Elle adoptera une approche équilibrée, en tenant compte à la fois des avantages potentiels et des risques associés. Les systèmes d'IA susceptibles d’affecter la sécurité, les droits fondamentaux ou d’introduire d’importantes questions éthiques seront considérés comme présentant un risque élevé.
L’IA est une technologie qui évolue rapidement, et les Technologies de l’information continueront de surveiller les développements et d’intégrer la rétroaction de la communauté universitaire pour mettre à jour ses lignes directrices en conséquence.
Qu'est ce que l'IA et l'IA générative
Un système d’IA est un système basé sur l’ingénierie ou une machine qui peut, pour un ensemble donné d’objectifs, générer des résultats telles que des prédictions, des recommandations ou des décisions influençant des environnements réels ou virtuels. Les systèmes d’IA sont conçus pour fonctionner avec différents niveaux d’autonomie (NIST AI RMF 1.0).
L’IA générative fait référence à une technologie d’intelligence artificielle qui synthétise de nouvelles versions de textes, de sons ou d’imageries visuelles à partir de grandes quantités de données, en réponse à des demandes de l’utilisateur. Les modèles d’IA générative peuvent être utilisés dans des applications autonomes, telles ChatGPT, Microsoft Copilot, Gemini, ou incorporés dans d’autres applications telles que des moteurs de recherche sur Internet ou des applications de traitement de texte.
Principes
Toutes les parties concevant, développant, déployant ou utilisant des systèmes d’IA ont une responsabilité partagée pour déterminer si la technologie d’IA est un outil approprié ou nécessaire pour le contexte ou l’objectif pertinent, et comment l’utiliser de manière responsable.
La décision de déployer ou d’utiliser un système d’IA doit être fondée sur chaque contexte d’utilisation, sur une évaluation des risques en matière de sécurité et de protection de la vie privée réalisée par les bureaux de la Sécurité de l’information et de l’accès à l’information et de la protection de la vie privée (BAIPVP), et sur la prise en compte des principes énoncés ci-dessous :
Sûreté
La sûreté doit être prise en compte tout au long de la durée de vie d’un système d’IA afin de prévenir les défaillances ou les conditions qui présentent un risque potentiel d’atteinte grave à la vie humaine, à la santé, aux biens ou à l’environnement. Consultez les efforts et les lignes directrices en matière de sécurité dans les services fournis par l’Université, et alignez-les aux lignes directrices ou aux normes existantes spécifiques au secteur ou à l’application.
Équité et détection des biais
Pour aborder des problèmes tels que les biais nuisibles et la discrimination dans les systèmes d’IA, nous devons tous travailler activement pour garantir l’équité de ces systèmes. Les biais peuvent s’ancrer dans les systèmes automatisés qui aident à prendre des décisions dans nos activités quotidiennes. Ils peuvent amplifier et perpétuer des biais qui nuisent aux individus, aux groupes, aux communautés, aux organisations et à la société. Les systèmes d’IA et leurs résultats devraient autonomiser tous les individus, tout en promouvant l’égalité et l’équité
Transparence
Les informations concernant le système d’IA et ses résultats doivent être disponibles pour les utilisateurs interagissant avec ou utilisant le système. Les utilisateurs doivent être explicitement informés quand l’IA est utilisée, son utilisation et objectif prévus, des données collectées, utilisées ou divulguées, ainsi que des décisions ou résultats créés et par qui.
Responsabilité
Lors de la conception, du développement, du déploiement ou de l’utilisation de systèmes d’IA dans le cadre d'activités individuelles et organisationnelles, vous êtes responsable du respect des principes décrits ici, des politiques et directives de l’université, et des exigences réglementaires applicables. La responsabilité des résultats et des décisions des systèmes d’IA repose sur les individus et les organisations, et non sur le système automatisé utilisé pour soutenir ces activités.
Consultez le Règlement académique A-4 — Intégrité académique et inconduite académique de l’Université, le site web consacré à l’Intégrité académique pour les étudiants et les Lignes directrices pour l’enseignement avec l’intelligence artificielle générative publiées par le Service d’appui à l’enseignement et à l’apprentissage (SAEA).
Sécurité
Les systèmes d’IA doivent employer des mécanismes pour se protéger contre, répondre à, ou se remettre des préoccupations de sécurité (par exemple, l’accès et l’utilisation non autorisés) liés à la confidentialité, à l’intégrité et à la disponibilité du système. Les directives des politiques organisationnelles et des cadres travail de l'industrie devraient être appliquées à la sécurité générale du logiciel et matériel sous-jacents pour les systèmes d’IA (par exemple, l’accès des utilisateurs existants et les autorisations d’information et de systèmes devraient être respectés et les approbations nécessaires des propriétaires de données devraient être obtenues lors de la mise en œuvre d’une solution d’IA).
Les risques de sécurité peuvent survenir à tout moment du cycle de vie du système ou de tout maillon de la chaîne d’approvisionnement, y compris les sources de données, les composants et les logiciels qui forment le système d’IA. Par exemple : si une source de données est manipulée sans connaissance, les résultats de l’IA et les décisions associées pourraient être affectés négativement. Dans les cas où les systèmes d’IA guident la prise de décision humaine, comprendre l’origine des données et les étapes du traitement des données aidera à démontrer la fiabilité des résultats.
Respect de la vie privée
Des mesures de protection pour préserver les informations personnelles et atténuer les risques liés à la protection de la vie privée devraient guider l’utilisation des systèmes d’IA tout au long de la durée de vie du système. Les technologies améliorant la confidentialité et les méthodes de minimisation des données, telles que la désidentification, devraient être prises en compte dans la conception, le développement, le déploiement ou l’utilisation de tout système d’IA.
Consultez le Guide du BAIPVP sur l’utilisation raisonnable de l’intelligence artificielle et protéger en même temps les informations personnelles, pour plus de renseignements sur la manière de respecter les obligations de l’université en matière de protection de la vie privée.
Fiabilité et validité
Les systèmes et les résultats d’IA doivent être évalués par des tests ou une surveillance continue qui confirme que le système d’IA fonctionne comme prévu dans des conditions d’utilisation attendues et sur une période donnée, tout au long de la durée de vie du système. Des défaillances peuvent survenir dans des contextes attendus et inattendus, ce qui peut causer un préjudice plus grand aux personnes, à l’Université ou aux ressources de l’Université. Les efforts devraient prioriser la minimisation des impacts négatifs potentiels et peuvent nécessiter une intervention humaine.