Technoculture

Des réflexions sur la tech, des outils pratiques et de la culture (pas toujours) numérique, d'un point de vue féministe.

image_author_Mathilde_Saliou
Par Mathilde Saliou
Partager cet article :

🟪 Souriez vous êtes notés

Un peu d'algorithmie, beaucoup de podcasts.

Salut,

J’espère que vous allez bien.

De mon côté, j’ai l’impression d’être le lapin blanc d’Alice aux pays des merveilles : toujours en retard. La lettre de ce mois-ci sera donc courte, et focalisée sur plusieurs travaux connexes que j’ai publiés sur les effets de systèmes algorithmiques sur nos vies.

» Édito «

Dans beaucoup de nos activités intermédiées par le numérique, les traces de nos activités sont collectées, analysées, comparées les unes aux autres pour nous servir de la manière la plus adaptée à nos comportements.

C’est vrai quand on écoute de la musique ou qu’on regarde des films depuis une plateforme de streaming ; c’est vrai quand on utilise les réseaux sociaux, sur lesquels nos comportements sont analysés pour nous servir des publicités personnalisées ; c’est vrai dans la banque et l’assurance, pour nous proposer des produits et des tarifs cohérents avec nos habitudes ; et c’est aussi vrai du côté des administrations publiques, qui analysent les données de celles et ceux qui recourent à leurs services, et la manière qu’ils et elles ont d’interagir avec elles.

La liste pourrait continuer longuement. Mais plutôt que de la poursuivre, il faut souligner un point important : dans la phrase “les traces de nos activités sont collectées (…) pour nous servir de la manière la plus adaptée”, il faudrait commencer par définir le terme “adapté”. Est-ce qu’il s’agit de nous servir au mieux, nous, internautes, utilisatrices et utilisateurs finaux ? Ou bien de nous servir afin de servir au mieux l’entité (banque, réseau social, administration) qui nous fournit le service qu’on lui demande ? Voire de nous servir en répondant à des objectifs qui n’ont en réalité pas grands liens avec nos intérêts, voire qui nous desservent ?

Dans la plupart des cas, ces systèmes ne font, de leur point de vue (la machine a-t-elle un point de vue ? Vous avez quatre heures), que brasser des données. Le résultat de leur brassage est une nouvelle donnée. Ça peut être un pourcentage de chance que l’image présentée ressemble à l’existant, pour des systèmes de reconnaissance d’images. Un pourcentage de probabilité que le mot suivant soit crédible, pour des systèmes de génération de texte. Un score qui, plus il est bas, moins il risque de faire sonner l’alarme, plus il est élevé, plus il se rapproche d’un seuil d’alerte (à la présence d’une potentielle erreur, à la présence d’un comportement déclaré anormal, à la présence d’une fraude, peut-être). Et ainsi de suite.

Sauf que ces chiffres servent ensuite à déclencher des actions. Si la machine chargée de l’analyser calcule que telle image de vidéosurveillance paraît similaire à telle photo de criminel, alors le résultat de son analyse est susceptible de motiver l’ouverture d’une enquête de police. Si tel nom de métier est plus souvent associé à tel genre, alors la machine utilisée par une agence pour l’emploi aura tendance à ne recommander ledit emploi qu’à une seule catégorie de personnes. Si tel score élevé est accolé à tel groupe de bénéficiaires d’une aide sociale, alors ces derniers subiront plus fréquemment des contrôles plus lourds.

Ce sont ces questions que j’ai explorées dans les deux derniers épisodes du podcast Algorithmique. Je suis aussi revenu sur un cas précis à l’écrit, alors qu’une quinzaine d’associations attaquaient l’algorithme utilisé par la CAF pour lutter contre la fraude devant le Conseil d'État. Si vous êtes abonné.es à Next, vous pouvez lire un récapitulatif de l’affaire ici.

Autrement, deux propositions audios : dans l’épisode Biaisé comme l’IA, les chercheuses Raziye Buse Çetin et Isabelle Collet m’aident à décortiquer les enjeux d’inégalités encodés dans les systèmes d’intelligence artificielle et dans l’industrie qui les fabrique. Et dans Questionner les systèmes, deux femmes engagées sur le terrain détaillent leurs efforts pour reprendre le pouvoir sur ces technos. Activiste féministe, Camille Lextray raconte comment plusieurs propriétaires de comptes Instagram influents ont tenté d’obliger Meta à rendre ses outils de modération plus transparents. Quant à Valérie, responsable du numérique chez Changer de Cap, elle raconte les effets très concrets de l’algorithme utilisé par la CAF sur la vie des gens, et les travaux de son association pour remettre son déploiement en question.

Bonne lecture, bonne écoute !

Une remarque, une info, une question ? Dites-le-moi en répondant à ce mail !

» Boîte à outils «

🧑‍💻 La base de données AI Incident Database permet d’explorer plus de 3 000 cas de problèmes causés par des systèmes algorithmiques un peu partout sur la planète, en remontant sur une petite dizaine d’années. C’est un très bon outil pour visualiser la variété des enjeux que pose ce type de systèmes… mais aussi pour réfléchir à de potentielles solutions, aussi bien au niveau technique (par exemple : comment corriger un système qui dévalorise systématiquement une partie précise de la population ?) qu’au niveau politique (ledit système est-il seulement adapté ? Faut-il nécessairement l’adopter, lui ou une de ses variantes ?)

» Travail en cours «

Sur un tout autre sujet, je me suis bien amusée à fouiller les archives des journaux du siècle dernier pour retracer la vie et le procès de Germaine Berton. En 1923, Berton avait vingt ans. Anarchiste et pacifiste convaincue, opposée à l’occupation de la Ruhr, souhaitant venger Jaurès, elle est entrée un matin dans les bureaux de l’Action française et en a assassiné le secrétaire général, Marius Plateau. Son procès a agité les médias et les foules de l’époque, mais l’épisode est ensuite tombé dans l’oubli. C’est pour réparer, à ma modeste mesure, cet effacement, que j’ai raconté le tout dans La Disparition.

» Culture (confiture) «

Au gré de mes errances radiophoniques, je suis tombée sur Gaïardes, un podcast documentaire en neuf épisodes sur celles qui nous nourrissent. La série est menée par Hanna et Juliette, deux amies qui ont décidé d’aller rencontrer des agricultrices et des paysannes à travers la France et de faire entendre leur quotidien et leur conception de leur activité.

En bonne parisienne-urbaine-100 % rat des villes-0 % rat des champs, je suis plutôt néophyte sur les questions agricoles. Si un tel podcast me plaît, c’est à la fois parce qu’il est bien ficelé, mais aussi parce qu’il soulève une série de questions dont je n’avais même pas conscience que je ferais bien de me les poser. Écoutez-le, vous verrez !

Merci de m’avoir lue.

— Mathilde


P.S.: Je donnerai une conférence à Ethics by Design à Nantes le 14 novembre et je participerai à plusieurs ateliers et conférences des Assises européennes de lutte contre les violences faites aux femmes à Strasbourg les 29 et 30 novembre. On s’y retrouve ?

Pour soutenir mon travail, vous pouvez me contacter pour des piges, des conférences ou des formations, (vous) offrir Technoféminisme, comment le numérique aggrave les inégalités (Grasset, 2023) ou faire connaître cette newsletter autour de vous.
Merci pour votre soutien !

...