Défis et inquiétudes face à l'utilisation de la reconnaissance faciale par les forces de police

Par Nicholas Chase

Stagiaire Technoship Banque Scotia, Initiative IA + Société, Université d'Ottawa

Droit, éthique et politique des technologies
Blog
AI + Society Banner
L'utilisation des technologies de reconnaissance faciale par les forces de police dans l’espace public pose des défis éthiques et légaux dans les pays du monde entier.

Afin d’éclairer les principaux enjeux et le cadre juridique applicable, les Dialogues France-Canada en IA ont accueilli une conversation interdisciplinaire sur les implications techniques, juridiques et sociopolitiques de l’utilisation de l’intelligence artificielle aux fins de surveillance avec les professeur(e)s Céline Castets-Renard (Université d’Ottawa), Eliette Rubi-Cavagna et Thierry Fournel. (Université Jean-Monnet de St-Etienne).

Regardez l’événement

Comment la reconnaissance faciale est-elle utilisée ? Quels sont les avantages du déploiement de cette technologie ? Quels sont les risques sociaux ? Comment les législateurs canadiens, américains et européens réglementent-ils cette technologie émergente ? Voici quelques-unes des questions discutées dans le rapport Cadre juridique applicable à l’utilisation de la reconnaissance faciale par les forces de police dans l’espace public au  Québec et au Canada dirigé par la  professeure Céline Castets-Renard et qui a servi de base à la conversation interdisciplinaire de cet événement.

Éléments clés

Dans ses recherches, la professeure Céline Castets-Renard a constaté les lacunes de la législation canadienne concernant la reconnaissance faciale, qui n'est même pas définie par les lois canadiennes. La combinaison des techniques biométriques, la cartographie 3D et l'apprentissage automatique l’authentification peut être employée pour l’authentification et l’identification des individus par les autorités dans des lieux tels que les aéroports et les postes frontières. Sur une grande échelle, ces technologies permettent d'extraire des données biométriques, constituant des caractéristiques physiques et comportementales qualifiables de renseignements personnels (RP) – y compris des RP sensibles. À mesure que cette technologie devient plus omniprésente dans les espaces publics, de grands problèmes de transparence surviennent au Canada. Tandis que le droit européen est assez clair sur l’usage de la biométrie, le droit canadien ne semble disposer d’aucun cadre juridique clair et spécifique pour encadrer la collecte des données biométriques. Le cadre canadien actuel repose sur la Loi sur la protection des renseignements personnels pour les entités publiques fédérales et sur la Loi sur la protection des renseignements personnels et les documents électroniques pour les entreprises privées. Si les provinces ont également des lois pour le secteur public, seules trois provinces disposent actuellement leur propre législation sur la protection des données générales dans le secteur privé (Colombie-Britannique, Alberta et Québec). L’absence d'un standard universel régissant la vie privée soulève des inquiétudes quant à la surveillance massive et la mobilisation de données biométriques de reconnaissance faciale. Ces techniques vont-elles permettre de la surveillance ciblée, ou la surveillance massive sur l’ensemble de la population ? Comment les bases de données sont-elles gérées ? Sont-elles croisées et utilisées à des fins pour lesquelles qui n'étaient pas prévues?

La professeure Céline Castets-Renard note que les implications de la surveillance massive et la collecte des renseignements personnels peuvent enfreindre nos droits fondamentaux. Les droits à la vie privée sont menacés même dans les espaces publics, lorsque les individus font l'objet de la reconnaissance faciale et que leurs renseignements personnels sont collectés. Les droits à la mobilité sont en danger si les autorités peuvent toujours identifier rapidement le déplacement des individus. Le droit à la non-discrimination est un problème important, étant donné l'existence d'un degré élevé d'erreurs en fonction de catégories de la population par les entreprises privées. Le risque de sous-représentation des images, le mauvais entraînement des systèmes et le manque de connaissances technologiques des forces de police qui utilisent ces tactiques peuvent tous contribuer à des pratiques discriminatoires.

En utilisant l’exemple de Clearview AI, la professeure Castets-Renards démontre les problèmes de ce manque d'unité de régulation. L’algorithme de reconnaissance faciale de Clearview permettait de comparer n’importe quelle photo à une base de données composées de trois milliards d' images récupérées des réseaux sociaux, sans consentement des personnes concernées. Les prestations de Clearview ont été utilisées par des services policiers américains et canadiens, mais les plaintes de l’utilisation par les polices au Canada ont provoqué une enquête menée par le Commissariat à la protection de la vie privée du Canada, en collaboration avec ses homologues britanno-colombien, albertain et québécois. Clearview AI a cessé d’offrir ses services dans le marché canadien et le 3 février 2021, une enquête du Commissaire a déclaré que les pratiques de la société constituaient une surveillance en masse et une violation manifeste du droit à la vie privée des Canadiens. Pour conclure sa présentation, la professeure Castets-Renard souligne finalement la nécessité d’encadrer la législation spécifique portant sur la reconnaissance faciale, permettant la réglementation et les pouvoirs de sanction sans une interdiction totale.

La professeure Eliette Rubi-Cavagna a ensuite offert une perspective française et européenne des enjeux. Elle a aussi noté l’absence de cadre juridique spécifique sur l’utilisation de la reconnaissance faciale par les services de police en Europe et au Canada, une question d’actualité qui doit être traitée par le Parlement français. Elle préconise la création de législation qui fixe le cadre de la reconnaissance faciale par les services de police et qui définisse les règles de procédure pénale pertinente, notamment autour de deux axes.

Tout d’abord, un cadre juridique doit s’intéresser à la légitimité de l’utilisation de la reconnaissance faciale par les forces de police. La loi doit fixer l’équilibre et organiser le contrôle du respect de l’équilibre entre la liberté et la sécurité, en évaluant la nécessité, efficacité et proportionnalité des méthodes utilisées. La loi doit aussi fixer les règles de procédure pour le fonctionnement de la reconnaissance faciale, fondant sur une procédure qui tire sa légitimité du consentement de la personne à la finalité.

Ensuite, la législation doit réglementer l’usage des bases de données et la référence aux bases préexistantes, renforçant la protection des données. En outre, chaque instance de surveillance suivant implique des considérations spécifiques concernant le cadre juridique, notamment des procédures de vérification strictes concernant l’utilisation d’un score de similarité pour les fins d’identification, que ce soit la reconnaissance faciale différée (a posteriori) pour identifier l’auteur d’une infraction dans le cadre d’une investigation ou la reconnaissance faciale en temps réel sur la voie publique pour repérer des comportements suspects.

Le professeur Thierry Fournel a ensuite offert une perspective plus technique sur les technologies de reconnaissance faciale. Il explique le processus qu'utilise l'intelligence artificielle lors de la reconnaissance faciale, en commençant par la classification des catégories de caractéristiques et l’architecture des visages. Une base de données généralisables doit comprendre non seulement une vaste collection de caractéristiques, mais la diversité de ces caractéristiques doit être suffisamment large pour représenter tous les phénomènes possibles des structures faciales et éviter le sur-apprentissage.

Pour attester la capacité d'identification de cette technologie, Prof Fournel explique plusieurs exemples de la reconnaissance des caractéristiques. La technologie peut être utilisée comme  logiciels de prédiction faciale, d'identification de la consommation illicite de stupéfiant, aux interrogateurs analysant les micro-émotions pour détecter les mensonges. Cependant, il note certaines problématiques scientifiques qui entourent l’utilisation de la reconnaissance faciale, réaffirmant le thème commun de la menace sur la préservation de la vie privée. Il explore les solutions tentatives comme l’usage d’un tiers de confiance qui gère les bases de données des représentations numériques de façon sécuritaire et le chiffrement homomorphe- l’identification anonyme fondée sur un chiffrement à clés publiques ou privées.

Ensuite, le professeur Fournel a souligné le risque posé par les données déséquilibrées, les données artificiellement générées et des leurres. Les problèmes peuvent survenir si un algorithme est insensible à ses propres biais, ne reconnaît pas les anomalies qui étalent ses données, ou est manipulé avec un « deepfake ». Finalement, il constate le problème de l’explicabilité pour l’acceptabilité par l’individu lors de son processus de classification des données. Le processus à plusieurs niveaux étant tellement obscur qu'il peut être difficile à comprendre et expliquer, posant des défis à la détection des erreurs et des préjugés, ainsi qu'en favorisant une opinion publique positive à l'égard de cette technologie et ses modalités. Prof Fournel conclut sa présentation en observant un sondage sur l'éthique et l’opinion publique de la reconnaissance faciale dans des situations variées. En général, tandis que 40 % des participants estiment qu’il serait bien d’être informé du consentement des individus avant l’usage, 50 % estiment que ce n’est pas absolument nécessaire.

La période de questions a ensuite donné l'occasion aux expert(e)s et aux participant(e)s de discuter de l’évolution et l'avenir de la technologie de reconnaissance faciale. Les professeurs ont souligné la nécessité de bien comprendre la technologie avant de la mettre au marché et dans les mains des polices. En augmentant l’efficacité et la précision de la technologie, on peut éviter la discrimination et la mal-representation. Plutôt que de provenir d'un seul acteur, la promotion des usages éthiques de la technologie devrait résulter d'efforts coordonnés des gouvernements, chercheurs, juristes, entreprises et de la société civile. Cependant, il n'est pas un processus simple - le progrès scientifique peut être motivé par de nombreuses différences entre les start-ups, les entreprises et les équipes de recherche ayant des objectifs variés. Tous les participants ont réitéré la nécessité d’encadrer la législation qui peut répondre à l'évolution de cette technologie émergente telles qu’en précisant les catégories de personnes visées. En réponse aux questions sur l'opinion publique, deux points communs sont ressortis : la redevabilité et la transparence. L’acceptabilité publique de la technologie étant essentielle pour son usage réglementé, il faut que le public soit éclairé sur les pratiques courantes. Enfin, l’emploi des processus de la protection de la vie privée tels que la suppression automatique des données personnelles contribueront encore à renforcer la confiance du public. Prof Castets-Renard conclut l'événement avec un rappel qui devrait servir d'une future ligne directrice pour certaines situations : si on ne peut pas comprendre, superviser, ou vérifier l’évolution des systèmes de reconnaissance faciale, peut-être qu’il ne faut pas les utiliser.

Les Dialogues France-Canada en IA sont présentés dans le cadre de travaux soutenus par le Fonds France-Canada pour la Recherche et l’Ambassade de France au Canada, et organisés par la Chaire de recherche de l'Université en technologie et société, l'Initiative IA + Société et le Centre de recherche en droit, technologie et société de l’Université d’Ottawa présentent, en collaboration avec le Centre de recherches critiques sur le droit de l’Université Jean-Monnet St-Etienne.

Ressources clés pour en savoir plus

Nos comptes rendus d'événements sont publiés afin d’amplifier les conversations autour des implications éthiques, légales et sociétales de l'IA dans un format court et accessible. Nous vous invitons à regarder la vidéo de l’évènement et à lire les ressources supplémentaires pour plus d'informations sur le sujet.

Ce compte rendu a été préparé par Nicholas Chase, stagiaire Technoship Banque Scotia à l'Initiative AI + Société. Les opinions et les erreurs sont celles de l’auteur et non celles de l'Initiative ou de l'Université d'Ottawa.