Le luxe de contourner l’IA

By Maroussia Lévesque

Candidate au doctorat, Harvard Law School

Centre for Law, Technology and Society
Centre for Law, Technology and Society
AI + Society Initiative
Technology Law, Ethics and Policy
Artificial Intelligence
Human Rights, Justice, Equity and Inclusion
Blog
Plant
jazmin quaynor
The digital divide can exclude vulnerable populations from the benefits of digital technologies. Yet, in other cases, the elites benefit from an analog privilege that allows them to opt out from the AI processes harming the most vulnerable.

The AI + Society Initiative is excited to continue amplifying the voices of emerging scholars from around the world through our bilingual blog series Global Emerging Voices in AI and Society, stemming from the Global AI & Regulation Emerging Scholars Workshops and the Shaping AI for Just Futures conference. This series showcases the innovative research and insightful discoveries presented during these events–and beyond–to facilitate broad knowledge sharing, and engage a global network in meaningful interdisciplinary dialogue.

The following blog is authored by Maroussia Lévesque who was selected by an international committee to present a poster co-authored with Kristen Thomasen at the Shaping AI for Just Futures conference. In this blog, she presents some aspects of  her research that informed the conception of her poster.

This research contribution is only available in French.

Le luxe de contourner l’IA

Alors que l’intelligence artificielle (IA) s’immisce dans toutes les facettes de nos vies, certains parviennent à s’en soustraire. L’idée de privilège analogique reflète l’avantage d’une minorité qui évite les systèmes d’IA déployés à grande échelle. Les élites jouissent ainsi d’un traitement personnalisé préférentiel par rapport aux algorithmes de masse qui emprisonnent les individus dans des prédictions simplistes se bornant à reproduire les tendances passées.

Plus l’IA s’imbrique dans nos vies, plus il sera difficile de la contourner. En réaction à cette inévitabilité grandissante, les produits artisanaux sont désormais synonymes de luxe. Les nouvelles générations en quête d’authenticité se réapproprient les symboles d’une époque antérieure au changement de paradigme des technologies fondées sur les données. Elles adoptent le style vestimentaire ‘mamie côtière’ et délaissent le téléphone intelligent, aspirant à recréer un mode de vie moins anxiogène. Le phénomène de privilège analogique permettant aux élites de se soustraire à l’IA s’inscrit dans la même mouvance.

La face cachée de l’IA

Les récentes avancées technologiques en matière d’apprentissage profond ont permis de réaliser d’immenses progrès. Des percées prometteuses en pharmacologie en passant par les systèmes génératifs à haut potentiel créatif, l’IA a indéniablement le vent dans les voiles. Par contre, son déploiement à grande échelle comporte aussi son lot de conséquences néfastes. Sous le rouleau compresseur des calculs harmonisés à partir des jeux de données limités, les systèmes d’IA se bornent à reproduire les tendances passées et négligent d’importantes nuances contextuelles. Quand il s’agit de prédire le risque de récidive criminelle ou d’évaluer les chances de succès d’un litige par exemple, cette approche réductrice comporte un risque bien réel de traitement stéréotypé et déterministe, voire discriminatoire.

Le privilège analogique

Le privilège analogique illustre un système à deux vitesses. D’un côté : traitement automatisé approximatif pour la plupart d’entre nous. De l’autre, traitement personnalisé sur mesure pour les élites parvenant à s’extirper de l’emprise grandissante de l’IA. Cette dynamique se manifeste déjà dans plusieurs contextes. Pensons notamment aux logiciels de surveillance de productivité en milieu de travail. Bien ancrés dans les entrepôts et autres emplois manuels, ils font désormais partie de la vie de bien des employés en télétravail. Cependant, il est permis de penser que les cadres et hauts dirigeants maintiendront une sphère d’autonomie les protégeant de la microgestion aliénante de ces systèmes.

Autre exemple : les « robots-avocats » comme panacée à la crise d’accès à la justice. Les agents conversationnels facilitent une forme de justice à rabais pour la plupart des gens n’ayant pas les moyens de se payer un avocat. Ces applications aident les justiciables à mieux se représenter, mais elles n’ont pas le calibre pour affronter une partie adverse représentée par un avocat en bonne et due forme. Les services juridiques humains demeurent l’apanage d’une minorité aisée, perpétuant leur avantage lorsque leur adversaire se tourne vers l’IA faute de moyens. Dans le contexte actuel de crise du logement, on peut penser que les propriétaires auront disproportionnellement accès aux services juridiques traditionnels, tandis que les locataires en situation précaire se résorberont à recourir à des services automatisés. Dans certains états américains, 95% des propriétaires sont représentés par un avocat, alors que 90% des locataires se représentent seuls. L’IA risque de perpétuer ce genre d’iniquité, creusant un fossé entre une classe de justiciables assistée par une forme édulcorée de conseils juridiques, alors qu’une autre continuera de bénéficier de conseils personnalisés bien plus sophistiqués.

On peut entrevoir un scénario selon lequel les locataires ayant systématiquement recours à l’IA présentent des arguments réducteurs se basant sur des banalités alors que les avocats des propriétaires avancent des interprétations novatrices bien ancrées dans les faits en cause. Ces derniers auront recours à l’IA pour bonifier et non remplacer les conseils juridiques. Ainsi, ils maintiendront la touche humaine inégalée tout en tirant profit des capacités de l’IA, notamment en matière d’analyse de données.

Dans ce contexte de représentation à deux vitesses, la jurisprudence reflétera-t-elle les intérêts des propriétaires? Le recours aux robots-avocats masque-t-il le désavantage de justiciables qui, à toutes fins pratiques, se représentent seuls? Quel est le rôle du décideur constatant cette asymétrie de moyens entre les parties? Les répercussions de ce clivage sur la légitimité du système judiciaire sont pour le moins préoccupantes.

Les médias sociaux accordent aussi un traitement de faveur à leurs utilisateurs connus en les exemptant de la modération de contenu automatisée. En 2020, environ 0.25% des utilisateurs de Facebook contournaient ainsi les filtres reposant sur l’IA afin de détecter le contenu nuisible. Pour ces utilisateurs VIP, la plateforme mobilise des modérateurs humains afin d’analyser de manière plus poussée leur contenu controversé. Cet avantage a notamment permis au célèbre joueur de soccer Neymar de partager sans consentement des images à teneur sexuelle d’une femme l’ayant accusé d’agression. Ces images auraient été immédiatement retirées du fil d’actualité si la modération de contenu automatique s’appliquait. Mais grâce au privilège analogique de Neymar, elles ont été vues 56 millions de fois avant que la plateforme n’agisse.

Le phénomène de privilège analogique met en relief le contraste entre l’interaction forcée avec les technologies d’IA pour le commun des mortels et la faculté de s’en soustraire pour certaines élites bénéficiant de capital économique, social ou culturel.

Vers une nouvelle fracture numérique

La notion de fracture numérique réfère généralement à l’exclusion de populations vulnérables de moyens de communication et technologies modernes. Or vu les effets néfastes de l’IA, le privilège analogique complique la donne puisqu’il suggère qu’inclusion numérique rime également avec précarité. Le fil conducteur entre ces différentes facettes de la fracture numérique est la faculté de déterminer notre rapport avec la technologie. Tant l’exclusion que l’inclusion forcée reflètent des relations de pouvoirs qui se jouent à travers ce rapport au numérique.

Le privilège analogique met en lumière une des nombreuses fractures qui nourrit le ressentiment populiste. Alors que le tissu social s’amenuise sur trame de fond de polarisation et discours extrémistes de tout acabit, cette manifestation des relations de pouvoir nourrit l’animosité contre les élites qui contournent les règles – paradis fiscaux, éducation privée, et, désormais, traitement humain personnalisé pour éviter les travers des systèmes d’IA imposés aux masses. En ce sens, le privilège analogique s’inscrit dans une longue lignée de constats d’inégalités structurelles. Mais il comporte aussi une opportunité de réformer ces inégalités. La version complète de ce texte aborde plusieurs pistes de solution en ce sens, notamment de niveler par le haut en garantissant l’option analogique pour tous.

Key resources to learn more

Lévesque, Maroussia (2024). Analog Privilege, 26:3 NYU Journal of Law and Public Policy.

Ajunwa, Ifeoma (2023). The Quantified Worker, Cambridge University Press.

Engstrom, David & Gelbach, Jonah (2021). Legal tech, civil procedure, and the future of adversarialism, University of Pennsylvania Law Review.

Horwitz, Jeff (2021). Facebook Says Its Rules Apply to All. Company Documents Reveal a Secret Elite That’s Exempt, Wall Street Journal.

About the author

Maroussia Lévesque est avocate et chercheuse en droit des technologies. Ses travaux portent sur la gouvernance de l’intelligence artificielle. Elle est doctorante et chargée de cours à la Faculté de droit de Harvard University, affiliée au Berkman-Klein Center for Internet and Society et Senior Fellow au groupe de réflexion CIGI (Centre for International Governance Innovation). Elle a participé à l’élaboration de la politique étrangère en matière d’IA d’Affaires Mondiales Canada et été recherchiste auprès de la Juge en Chef du Québec. Elle est aussi membre du groupe de travail sur l’IA et les protocoles autochtones et a participé à l’élaboration d’un standard sur les biais algorithmiques à l’Institute of Electrical and Electronics Engineers (IEEE).

 

Ce contenu est fourni par l'Initiative IA + Société afin d’amplifier les conversations et la recherche autour des implications éthiques, juridiques et sociétales de l'intelligence artificielle. Les opinions et les erreurs sont celles des auteur(e)s et non celles de l'Initiative IA + Société, du Centre de recherche en droit, technologie et société, ou de l'Université d'Ottawa.