Peut-être avez-vous envisagé d’utiliser l’IA pour améliorer l’efficacité de votre équipe et lui permettre de se concentrer sur les tâches les plus importantes?
Peut-être avez-vous aussi entendu des histoires de gens qui ont payé cher les faiblesses de l’IA, comme cet avocat qui a préparé sa cause en s’appuyant sur la fausse jurisprudence fournie par ChatGPT ou ce groupe de soutien aux personnes souffrant de troubles alimentaires ayant remplacé son personnel par un agent conversationnel intelligent qui s’est mis à offrir de mauvais conseils?
« Si vous envisagez d’avoir recours à ce genre d’outil, posez-vous d’abord cette question : "Ai-je pleinement conscience des limites et des risques qui y sont associés?" », suggère Jason Millar, professeur à l’École de conception et d’innovation pédagogique en génie de l’Université d’Ottawa. « Pour le moment, l’IA demeure peu réglementée, et nous commençons tout juste à comprendre le type de documentation et de tests nécessaires au déploiement responsable de ces systèmes dans la sphère publique. »
Également membre de la Chaire de recherche du Canada en ingénierie éthique de la robotique et de l’intelligence artificielle et directeur du Lab canadien en conception éthique de la robotique et de l’intelligence artificielle (CRAiEDL), Jason Millar se penche sur les enjeux éthiques liés à la technologie et à la conception technologique depuis maintenant vingt ans. Il s’intéresse notamment à la vie privée, à la sécurité et à l’innovation responsable en matière d’IA.
Il contribue à un mouvement en plein essor de collaboration entre spécialistes du génie et de l’éthique dont le but est de définir la trajectoire des technologies qui transforment le monde.
Pour le professeur, qu’il soit question d’outils d’IA générative comme DALL E, de systèmes de conduite automatisée ou de simples agents conversationnels, l’IA reste un outil. Et comme tous les outils, il a ses forces, ses lacunes et ses risques.
Voilà pourquoi ses travaux – qu’il mènent avec ses collègues pour développer des outils et des méthodologies offrant aux spécialistes du génie et aux décisionnaires un cadre éthique dans lequel ancrer leurs activités quotidiennes – sont si importants.
C’est aussi facile d’utiliser l’IA pour générer des idées que de prendre un livre et l’ouvrir à n’importe quelle page. La différence, c’est que les normes et les limites entourant son utilisation responsable ne sont pas encore clairement définies.
« Avec l’IA, nous ne savons pas toujours d’où viennent les données et comment le modèle a été entraîné. Ce manque de transparence fait en sorte qu’il est difficile de saisir l’ampleur des risques de chacun des outils », estime-t-il. « Les entreprises ressentent une forte pression à intégrer ces outils à leurs activités. Leur potentiel est grand lorsqu’on les utilise bien, mais les risques sont considérables. »
Jason Millar leur recommande donc de bien faire leurs recherches avant de plonger dans le monde de l’IA.
Même les petites entreprises et celles en démarrage devraient établir des partenariats avec des laboratoires comme le sien pour s’assurer que l’analyse des produits potentiels est adéquate, que la documentation est complète et que les dimensions sociales et éthiques sont soigneusement étudiées.
« Il vaut mieux réfléchir aux enjeux éthiques au début du cycle de développement du produit, car après un certain moment, il devient difficile de revenir en arrière pour changer de cap », fait-il remarquer.
« Il existe des outils, des techniques et des processus pour effectuer des analyses initiales sans tracas ni confusion. Il est important de faire appel à des gens qui ont l’expertise nécessaire. C’est pourquoi nous formons des spécialistes du génie et de la conception qui sauront aider les entreprises à utiliser l’IA de façon responsable et sécuritaire. »
Pour en savoir plus sur les considérations éthiques de l’IA ou pour communiquer avec Jason Millar et son laboratoire, consultez le site CRAiEDL.ca.
Cet article a été publié en version originale anglaise dans l’Ottawa Business Journal.