Des rencontres, de la misogynie à la demande, et une poétique des relations.
Hello,
Meilleurs vœux pour cette nouvelle année ! Qu’elle soit riche, épanouissante et pleine de relations de qualité ✨
Une rapide lettre pour vous rappeler que :
Mercredi 14 janvier, je participe à une rencontre croisée avec Olivier Tesquet, co-auteur d'Apocalypse Nerds (je l’avais interviewé là). Ce sera au Genre urbain, 60 rue de Belleville à Paris, à partir de 19h30.
Le lendemain, à la Gaité Lyrique, il y aura le lancement de la dernière édition de Chut! Magazine, dans lequel je signe ma première nouvelle publiée (yeay!). J'y serai et je signerai quelques exemplaires de L'Envers de la Tech.
Je participe aussi à un café citoyen autour de l’Envers de la Tech le 22 au soir, à la librairie la Vie immédiate de Charenton.
Et le 3 février, je donne une conférence à la journée de l’écoconception numérique.
J’espère vous y voir !
In other news, j'ai été invitée à discuter de la masse de publications de deepfakes pornographiques sur X par Associated Press. Je ne sais pas quand le résultat de cet entretien doit sortir, mais je sais qu’une question du journaliste me reste en tête : est-ce qu’il faut interdire X ?
Le point de départ de la discussion concernait Grok, le robot conversationnel qui a été ajouté au réseau social X il y a bientôt trois ans. Pour l’utiliser, on peut soit se rendre sur la plateforme dédiée, soit l’interroger directement depuis X, en le mentionnant comme un internaute lambda. Dans un nouveau tweet, la machine génère alors un texte ou une image de réponse. Entre Noël et le Jour de l’An, les rares garde-fous de la machine ont semblé avoir complètement disparus : X s’est retrouvé noyé sous les deepfakes de femmes et d’enfants « dénudés » via l’IA.
Sur la période, plus de la moitié des mentions envoyées à Grok consistaient à lui demander de transformer des images habillées de femmes et d’enfants pour les « mettre en bikini », a calculé le chercheur Paul Bouchaud pour l’ONG AI Forensics. Dans 97,5 % des cas, relève sa collègue Raziye Buse Çetin, les auteurs de la demande étaient différents de la personne qui avait initialement publié l’image concernée sur X. 85 % de ces auteurs étaient des hommes. Les images générées, elles, représentent dans plus de quatre cas sur cinq des femmes, parfois exposées publiquement (des femmes politiques, par exemple), parfois non. Dans au moins 2 % des publications étudiées, les personnes représentées avaient visiblement moins de 18 ans. Des jeunes filles qui avaient demandé à Grok de les représenter en ballerines dans les semaines précédentes ont par exemple été spécifiquement visées par les internautes adeptes de « nudification » non consentie assistée par ordinateur.
Depuis 2019 et les premières études de Deeptrace sur les images générées par IA (à l'époque encore balbutiante), on sait que les technologies de génération d’images sont très largement utilisées pour produire du contenu à caractère sexuel, de préférence aux dépens de femmes qui n'ont rien demandé. De même, depuis la création des premiers forums, on sait qu'à défaut de garde-fous, aussi imparfaits soient-ils, les populations minorisées ou vulnérables (femmes, personnes racisées, LGBTQIA+, handicapées, mineures) sont plus à risque que les autres de subir des campagnes de violences sur les plateformes sociales.
...