Comment le numérique aggrave les inégalités
Épisode 93 publié le 20/12/2024
Mathilde Saliou
Mathilde Saliou est journaliste spécialisée dans le numérique et auteure de l'essai Technoféminisme, comment le numérique aggrave les inégalités, publié en 2023 aux éditions Grasset.
En écoutant cet épisode, vous téléchargerez 41 Mo de données.
Sommaire
- Quels sont les problèmes qui font que le numérique n'est pas totalement inclusif ?
- Comment s'explique l'invisibilisation des minorités dans l'histoire du numérique ?
- Les conséquences d'un numérique façonné par les hommes blancs et riches ?
- Pourquoi et comment les biais et les inégalités de genre et l'invisibilisation des minorités se reproduisent encore à travers les IA ?
- Comment l'IA bouleverse aujourd'hui son métier de journaliste ?
- Qu'est-ce que cela va changer (ou pas) pour le futur de la tech avec les nouveaux pouvoirs politiques d'Elon Musk, adoubé par Donald Trump ?
- Les pistes d'actions pour faire face aux discriminations permises grâce au numérique, et les manières de reprendre le pouvoir
En savoir plus
Transcription
Extrait
Les entreprises du numérique aiment beaucoup dire que leurs services sont à visée universelle et qu'ils vont servir tout le monde de la même manière et qu'ils vont tout optimiser et tout rendre plus efficace. En fait, quand on s'intéresse aux diversités des vécus, c'est rarement le cas.
Introduction
Connaissez-vous les incels ? Ces célibataires involontaires comme ils se désignent sont apparus dans les communautés en ligne, ce sont des hommes hétérosexuels, masculinistes et volontiers misogynes, flirtant bien volontiers avec des idées d'extrême droite, pratiquant le cyberharcèlement jusqu'au cas extrême de commettre des tueries de masse, notamment en Amérique du Nord. C'est une des facettes de ce qui ne va pas dans un monde numérique fait par et pour les hommes. On verra les différentes facettes. Justement, pour parler de ce sujet, nous avons avec nous Mathilde Saliou.
Mathilde, tu es journaliste spécialisée dans le numérique et auteure d'un essai « Technoféminisme. Comment le numérique aggrave les inégalités ? », publié en 2023 aux Editions Grasset.
Quels sont les principaux problèmes qui font que le numérique n'est pas totalement inclusif ?
Vaste question. Merci pour l'invitation dans Techologie, que j'aime beaucoup. C'est quoi le problème avec l'inclusion dans le numérique ? Dans Technoféminisme, j'ai essayé de faire un peu un tour. Je suis partie des usages, notamment nos usages de débats en ligne, où j'étais forcée de constater qu'effectivement, sur les réseaux sociaux, on n'était plus dans l'idéal de débats, d'échanges d'idées sympathiques qui a été promu au début des années 2010. En fait, on était en réalité depuis longtemps dans une logique assez violente où une partie de la population subissait des raids et des campagnes de cyberharcèlement plus ou moins violents avec des effets très concrets sur leur vie hors ligne, que ce soit sur leur santé mentale, que ce soit parfois dans leur vie physique.
Et ces violences, elles étaient perpétrées, alors ça dépend des cas, contre des personnalités publiques, ça peut être un peu tout le monde qui participe à aller harceler tel journaliste ou tel politique qui ne lui plaît pas. Par contre, les femmes et les minorités sont victimes d'une forme de sur-violence. Par exemple, pour les femmes, il n'y aura pas seulement des attaques contre leur travail, il y aura aussi des attaques contre leur personne, leur corps, leur sexualité.
Ce qui sont des choses qu'on ne trouve pas face aux hommes, par exemple, hommes journalistes, hommes politiques qui sont eux aussi parfois victimes de campagnes de cyberharcèlement. Et donc je me suis demandé pourquoi ça ? Et pourquoi est-ce qu'il n'y a pas d'outils pour contrer ce type de mécanique ou en tout cas pas assez ? Ce qui m'a poussée assez vite à me poser la question de qui fabriquait ces outils et comment.
Je suis allée creuser le fonctionnement de l'industrie du numérique et j'ai constaté que dans les pays occidentaux, cette industrie était très déséquilibrée, à la fois en termes de genre, mais aussi en termes de toutes les autres logiques de discrimination ou de pouvoirs qui existent dans la société. C'est-à-dire que l'industrie du numérique en France, en Europe et dans les pays d'Amérique du Nord, elle est très principalement constituée d'hommes blancs de milieux sociaux plutôt aisés. Souvent ces gens sortent de très grandes écoles, etc.
Et même s'ils font un travail très souvent très qualitatif, ils ne peuvent pas, même avec la meilleure volonté du monde, avoir conscience de tous les enjeux et de toutes les spécificités de vécu du reste de la population. Et en l'occurrence, depuis le début d'Internet, on leur soumettait des alertes sur le fait que certains de leurs outils étaient retournés contre des utilisatrices et des utilisateurs, étaient notamment utilisés pour ces campagnes de cyberharcèlement.
Mais probablement par mécompréhension du sujet, parce qu'ils le vivaient moins, ou par dédain complet, je ne sais pas, ils ont mis vraiment énormément de temps avant de prendre ces problématiques de violence en ligne au sérieux. Un exemple que j'aime bien cité, c'est Twitter. Ils ont mis sept ans avant de sortir le premier outil de modération de leur stack. Je ne sais plus si c'était une fonction de signalement ou de blocage, mais en tout cas, 7 ans pour réagir au retour utilisateur comme quoi votre produit fonctionne si mal qu'il peut être violent contre vous, ça me semble problématique. Évidemment, creuser ces questions de violences en ligne, ça m'a aussi mené à creuser qui étaient les auteurs de ces violences. Comme je l'ai dit au début, quand c'est contre des personnalités publiques, ça peut être un peu tout le monde.
C'est difficile d'ailleurs d'avoir des statistiques très précises, mais quand on va creuser, on trouve des hommes, des femmes, des vieux, des jeunes, un peu tout le monde. Par contre, là où il y a des spécificités, c'est quand les campagnes de violence prennent cette dimension très physique, notamment à dimension sexuelle, pornographique, etc. Là, ça vise quasi uniquement des femmes et très peu d'hommes.
Quand les quelques études qui sont disponibles, même s'il n'y en a pas beaucoup, on tendance à montrer que dans ces configurations-là, c'est quasiment que des hommes qui les harcèlent. Que des hommes qui donc font de la diffusion d'images à caractère pornographique, en ce moment avec l'IA, de la fabrication et de la diffusion de deepfake à caractère pornographique. Et donc là se rejoue quelque chose de l'ordre des enjeux d'inégalité femme-homme sur lesquels la société réfléchit depuis plusieurs années de manière assez évidentes, actives et super intéressantes, notamment depuis "Me too". J'essaie de voir comment ces éléments-là se mélangeaient avec la fabrication et le fonctionnement du numérique.
Quand on regarde l'histoire du numérique, on peut expliquer l'invisibilisation des minorités, notamment des femmes ?
Au début, avant que l'industrie du numérique n'existe de manière vraiment constituée et professionnalisée, si je puis dire, il y avait des femmes, il y en avait même pas mal. À la base, computer, ordinateur, ordinateurise, c'est un terme qui désigne un métier, un métier qui était beaucoup exercé par des femmes avant d'avoir été transformé en une machine. Donc au tout début de l'industrie du numérique moderne, notamment au sortir de la Deuxième Guerre mondiale, il y avait beaucoup de femmes qui étaient en charge de fabriquer ce qui allait devenir la programmation, qui étaient en charge de communiquer littéralement avec la machine, tandis que les hommes étaient plutôt du côté de la fabrication du hardware, donc de la machine elle-même, et là c'était déjà des ingénieurs, etc.
Mais ce qui s'est passé, ce qu'on a constaté dans les années 70-80, c'est deux mouvements concomitants. Au sein de l'industrie, au sein du monde économique, on s'est rendu compte que l'informatique pouvait être super utile, super efficace et que tout le monde devrait s'en équiper. Donc, du coup, il a fallu embaucher plus de gens pour fabriquer les machines, les programmer, etc. Donc, formaliser un peu les cursus de formation. Et là, on s'est mis à se dire, OK, peut-être que pour devenir un bon programmeur, il faut être très fort en maths, alors que jusque-là, parmi les programmatrices, elles n'avaient pas du tout toutes des compétences spécifiques en maths. Il y en a qui venaient du secrétariat. Il y en a qui venaient d'autres types d'activités et qui juste avaient très bien réussi à comprendre comment s'emparer de ces machines informatiques et communiquer avec. Mais une fois qu'on formalise, qu'on crée des cursus de formation, qu'on dit par exemple qu'il faut être très fort en maths, en fait, mécaniquement, on évacue toutes celles qui étaient arrivées par d'autres chemins.
Donc il se passe ça au sein de l'industrie, la formalisation en gros de comment on rentre dans l'informatique. Et puis en parallèle, plutôt dans les années 80, avec la sortie des ordinateurs personnels, il y a là un grand tas de communication ou marketing qui lui est tourné très directement vers les hommes et les jeunes garçons. Quand j'ai créé mon livre, j'ai retrouvé pas mal d'images de l'époque où on voit très clairement papa et son fils qui sont en train de tester la nouvelle machine. Et puis maman, elle a son tablier sur elle et elle sert un peu de potiche sur la photo. Donc ce n'est pas du tout elle qu'on a envisagé comme utilisatrice du micro-ordinateur, ni sa fille d'ailleurs. Et oui, c'est des familles très hétérosexuelles à chaque fois, clairement, il n'y a pas de débarras sur le sujet. Et c'est principalement des personnes blanches, sur les images que j'ai trouvées en tout cas. Et donc, ça fait qu'à la fois l'industrie et le type d'utilisateurs privilégiés se constituent comme un groupe pas très diversifié.
Et depuis, ça dure comme ça, malheureusement. On n'arrive pas trop à inverser la tendance. Pourtant, elle n'a rien de naturel, puisque quand on va regarder dans d'autres endroits du monde, par exemple dans les pays du Moyen-Orient, en Mongolie, aux Philippines et ailleurs, il est relativement fréquent qu'il y ait beaucoup plus de femmes dans les filières du numérique que dans les pays occidentaux. Non pas parce que là-bas, on a résolu toutes les questions d'illégalité de genre, mais parce qu'au contraire, on a décidé que les sociétés estiment que les travaux informatiques sont des bons métiers de femmes, au sens où ce n'est pas sa licence, ce n'est pas dangereux, pas besoin de sortir pour le faire, on peut le faire de chez soi, on peut le faire entre le repas et la tournée de machine à laver, donc c'est parfaitement adapté aux femmes. Et pourquoi je dis ça ? À la fois pour montrer que dans ce cas, il n'y a aucune fatalité au fait que l'industrie numérique soit aussi déséquilibrée qu'elle est aujourd'hui en Occident. Mais aussi, du coup, pour souligner cette dynamique qui fait que c'est la société qui colle des images de genre précises à certains métiers.
Et selon la société, on ne va pas coller la même image. Typiquement chez nous, être informaticien, c'est vraiment un truc de bonhomme. Et dans les autres pays que je citais tout à l'heure, en fait, ça peut être carrément un super métier de femme parce que ça n'est pas salissant, pas dangereux, etc.
Ceux qui sont aux commandes de la tech aujourd'hui sont majoritairement des hommes blancs hétéros, même si dans l'histoire, et selon les pays, ce n'est pas tout le temps le cas, mais ils sont quand même aux décisions, et notamment le numérique aujourd'hui est surtout façonné aux États-Unis, si on résume, même si on a l'émergence un petit peu des pays asiatiques, notamment de la Chine. Quelles sont les conséquences, les risques d'un numérique façonné par des hommes ?
On peut l'expliquer de plusieurs manières. Déjà, je l'ai dit tout à l'heure, en étant un si petit groupe à créer des espaces de débats sur lesquels désormais on se retrouve toutes et tous, ils ont mis trop de temps à prendre en compte, prendre au sérieux et comprendre les enjeux de sécurité que posaient leurs outils. J'ai parlé des cas de cyberharcèlement mais on pourrait parler de cas beaucoup plus dramatiques où des réseaux sociaux comme Facebook sont accusés d'avoir participé à cause de la manière dont ils sont fabriqués à répandre la haine et du coup à alimenter des assassinats de masse comme contre la minorité Rohingya en Birmanie, comme dans les luttes qui ont lieu en Éthiopie depuis plusieurs années.
On a constaté que les réseaux sociaux avaient vraiment participé à rendre la haine encore plus importante, en ne diffusant d'abord et avant tout que les contenus justement les plus énervant, les plus horribles, les plus insultants, parce que c'est comme ça que les machines ont été construites par des gens qui ne vivent pas les violences sur le terrain mais qui eux ont construit leur machine de manière à gagner le plus de profit. Et si on reste sur Facebook, quelle est la logique pour gagner des profits ? Il s'agit de montrer le plus de publicité possible puisque le modèle de Facebook est publicitaire et pour ce faire, les meilleurs chercheurs, à la fois en informatique et en sciences cognitives, ont constaté que ce qui nous gardait accrochés en ligne le plus longtemps, c'était les contenus les plus inflammables justement, les plus haineux, les plus violents, etc. Et donc là, on voit bien qu'un petit groupe social qui ne vit aucune violence de ce type, qui construit un outil qui ensuite se répand sur l'entièreté de la planète, où les situations sont extrêmement variées et quelquefois beaucoup plus dangereuses que celles vécues par les constructeurs. Ça a des impacts très concrets.
D'autres exemples, c'est un peu moins dramatique, si je peux le dire comme ça, mais néanmoins important. Quand on se place par exemple juste du côté du service rendu aux consommateurs. Des Apple par exemple qui proposent des services, ça c'était en 2014, ça avait fait pas mal de bruit dans les milieux féministes. Un service qui s'appelle le HealthKit, une application qui permettait de suivre et compter toutes sortes de données liées à la santé des usagers, donc le nombre de pas, le nombre de cigarettes fumées si vous cherchez à arrêter de fumer, des choses un peu plus précises, par exemple pour les personnes qui souffrent de diabète, etc. Cette application qui était présentée comme le service ultime pour suivre sa santé, n'avaient pas d'agenda et donc ne permettaient pas à la potentielle moitié des utilisateurs de cette application de suivre leur menstruation. Alors que vraiment, la moitié de la population de la planète, théoriquement, d'entre ses 15 à ses 45 ans, en gros, va avoir ses règles et c'est quand même assez pratique de pouvoir en suivre les variations au fil de l'application.
Donc c'est aussi que ça crée des outils pas très bien finis, si je peux le dire comme ça. En tout cas, qui ne servent pas de manière aussi efficace tous les pans de sa clientèle potentielle et de sa clientèle annoncée puisque les entreprises du numérique aiment beaucoup dire que leurs services sont à visée universelle et qu'ils vont servir tout le monde de la même manière et qu'ils vont tout optimiser et tout rendre plus efficace. En fait, quand on s'intéresse aux diversités des vécus, c'est rarement le cas.
Pourtant, c'est assez étonnant, souvent, il y a des équipes de designers, il y a des femmes, j'imagine, dans ses designers. Ils font des personas, ce qu'on appelle des personas, d'identifier les différents publics cibles. C'est étonnant que ça passe à travers, en fait, et que ça fasse des applications dédiées aux hommes.
Moi ça me fait sourire d'autant plus qu'Apple, ils avaient déjà été épinglés sur ce type de biais de genre trois ans plus tôt au lancement de Siri. Ça va être très cliché les exemples que je vais donner, mais c'est justement les exemples qui avaient été testés par les associations à l'époque et qui avaient permis de montrer une forme de biais de genre qui était, si vous demandez à Siri comment trouver des prostituées ou du Viagra, Siri était capable de vous répondre et de vous donner des adresses.
Et par contre, si vous lui disiez, j'ai besoin d'avorter ou j'ai été victime de violences sexistes ou de viols, Siri disait qu'elle ne savait pas répondre. Alors évidemment, le but n'est pas de réduire les hommes à la recherche de prostituées de Viagra et les femmes aux viols et à l'avortement. Néanmoins, il y avait un biais de potentiel intérêt assez évident qui a été critiqué par des associations. Et moi, ce qui m'étonne encore plus par dessus le résultat des produits proposés, c'est que trois ans après, la même entreprise sorte un autre produit qui présente le même type de biais en fonction du genre. Et la raison la plus probable, c'est que justement, il n'y a pas assez de diversité dans les équipes qui conçoivent ces outils à un peu tous les étages. Du coup, on ne se rend pas compte qu'il y a ces manques avant qu'ils soient sortis sur le marché.
Tu parlais des réseaux sociaux où les contenus les plus clivants, c'est ce qui fonctionne, c'est ce qui maintient un peu aussi les usages et donc pousser de la publicité. On l'a vu, la transformation de Twitter en X, c'est vraiment basé sur les sujets clivants, il n'y a pas vraiment de discussion sur ces espaces qui sont présentés comme des espaces de discussion. Et en même temps, c'est ambivalent puisque ces réseaux sociaux sont mis en avant, notamment par les éditeurs eux-mêmes, comme des outils pour la démocratie ayant contribué aux printemps arabes. Il y a quand même une utilité aux réseaux sociaux ?
Je suppose qu'il y a quand même une utilité, même si de plus en plus, je pense que l'utilité principale, ce n'est pas dans les réseaux publics. Si vraiment il faut réfléchir en termes d'utilité, la plus directe, c'est plutôt les réseaux semi-privés où on peut discuter avec nos proches, donc des Messengers et des WhatsApp, ce où on peut faire des petits groupes où on décide de nos propres règles d'échanges, donc par exemple sur des espaces sur Discord ou dans certains forums, etc. Sur les réseaux ouverts qui ont notamment animé tout le fil des années 2010, on a effectivement tous cru à leur discours de la fin des années 2000 où ils disaient grâce à nous la démocratie va passer un cran au-dessus, en fait elle passe clairement trois crans en dessous en ce moment.
On l'a tous cru et en fait on a beaucoup eu tort, parce que notamment les révolutions pendant les printemps arabes, il y a une chercheuse qui s'appelle Zeineb Touati qui a fait un gros travail justement d'analyse de est-ce que vraiment ça avait apporté sur place des révolutions de l'ordre de plus de démocratie qu'avant. Et ce qu'elle montre, c'est qu'en fait, sur le coup, peut-être que ça avait fait beaucoup plus de bruit, mais sur le long terme, pas tellement. Et parmi ces hypothèses, il y a notamment le fait que l'organisation en ligne, c'est très chouette et ça permet de faire beaucoup de bruit, très vite, très fort. Mais du coup, on n'y gagne pas les réseaux très humains, pour le coup, les liens sociaux et les liens d'organisation qu'on gagnerait avec des campagnes travaillées sur le temps long, comme ce qu'avait pu faire les mouvements pour les droits civiques aux États-Unis où il y avait eu un travail de presque j'ai envie de dire 30 ans mais si ça se trouve c'est que 10 mais déjà 10 c'est très très long par rapport à l'organisation d'une révolution en ligne si je puis dire qu'elle se peut se faire en presque en trois jours si jamais vous avez déjà les bons réseaux mis en place.
Donc cette idée que ça a permis plus de démocratie au tournant des années 2010 elle est franchement contestable et puis depuis les années 2015 à 2017, on a de plus en plus de cas de démonstration qu'en fait, au contraire, ces réseaux alimentent les dissensions entre les peuples, à la fois dans des zones où la démocratie n'existait pas, où il y avait du mal à se maintenir, mais aussi dans des zones qui se pensent très démocratiques.
En France notamment
Dont en France, mais vraiment partout. Enfin, je pense que dans les pays occidentaux, comme on est toujours très tournés par les États-Unis et que c'est vrai que beaucoup de ces outils de toute manière sont construits depuis les États-Unis, c'est vraiment la première élection de Donald Trump, Cambridge Analytica, etc., qui a fait un genre d'électrochoc et qui a alerté tout le monde. Parfois d'ailleurs, de manière même grossière, on a presque donné trop de crédit aux réseaux sociaux dans le rôle qu'ils avaient eu dans ces élections. Mais en tout cas, ça a changé complètement la vision qu'on avait de ces outils et on a arrêté clairement de croire que ça permettait la démocratie.
Mais en ça, Twitter, puis X, même si je suis un peu navrée par ce qui s'y passe depuis plusieurs années, en termes d'analyse, c'est un outil très, très pratique. Enfin, c'est un cas très pratique pour rappeler que ces entreprises restent des entreprises privées dont le fonctionnement est donc soumis aux intérêts de leurs propriétaires. En l'occurrence, ces dernières années, Elon Musk a très clairement décidé d'en faire un outil de propagande pour le coût aux dépens des profits. Ce qui a priori n'est pas le cas de méda qui cherchent toujours à faire ses profils à partir de ses plateformes sociales.
Si jamais Mark Zuckerberg décide de les mettre au service d'un idéal politique, il peut tout à fait le faire. Et puis, ce qui est drôle aussi, c'est que sur X-Twitter, il y avait beaucoup de débats, enfin, il y avait beaucoup de discussions sur prière de respecter la liberté d'expression. Toutes les personnes qui, justement, défendraient les minorités seraient des énormes censeurs. Enfin, c'est les wokistes et compagnie, comme on dit en France, et les wokes, comme on dit aux États-Unis. Et en réalité, entre la liberté d'expression et le fait de te forcer à regarder de la violence et les idées qui ne te plaisent pas. Il y a quand même, je pense, pas mal de débats à avoir.
J'ai parlé tout à l'heure du fait que Twitter avait mis sept ans à mettre en place ses premiers outils de modération, Elon Musk, la première chose qu'il a faite quand il a acheté la plateforme, c'est de casser les équipes dédiées à ce qu'on appelle la trust and safety, donc la sécurisation de la plateforme. Et donc notamment, cette sécurisation, elle sert principalement aux femmes et aux minorités puisque c'est les populations les plus visées par les violences en ligne. Mais en réalité, elle sert à tout le monde parce que ça permet d'assainir le débat public. Elon Musk, quand il est arrivé, l'une des premières choses qu'il a faites, c'est de permettre à des énormes radicaux d'extrême droite de revenir et aussi à des énormes arnaqueurs. Donc littéralement, il a rajouté du danger dans son service, ce qui est très bizarre en termes de gestion d'entreprises. Mais pour lui, vraiment, je suis quasi sûre que depuis le début, c'est un projet idéologique.
Et ce qu'il a fait il y a peu de temps, juste après je crois ou juste avant l'élection de Donald Trump, sachant qu'il avait continué de détricoter les outils de modération existants, c'est de casser la fonction "Bloquer" justement. Donc lui qui n'arrête pas de parler de la liberté d'expression, sachant qu'il a lui-même enlever des comptes qui ne lui plaisaient pas. Donc en l'occurrence, il a fait de la censure sur sa plateforme. Il nous oblige aussi, enfin il nous empêche en tant qu'utilisateurs de sa plateforme, il nous empêche de nous protéger de personnes qui nous importuneraient et il nous oblige, je pense que c'est pour ça en partie qu'il a enlevé la fonction "Bloquer", il nous oblige à le voir et à l'écouter. Il ne supporte pas qu'on le bloque et qu'on estime qu'il est fatigant.
Bref, tout ça pour démontrer que ces plateformes dont on a très longtemps pensé que c'était des super lieux de débats pour se retrouver, etc, en fait, ça reste vraiment des espaces privés soumis aux règles de leurs propriétaires. Et ces propriétaires étant, comme tu l'as dit toi-même au début, très principalement des hommes états-uniens. Désormais parmi les plus grosses fortunes du monde. C'est quand même un microcosme très spécifique rapporté à la population qui utilise leurs services. Et ça pose énormément d'enjeux politiques, démocratiques qu'on peut analyser au prisme des questions d'inégalité, mais même juste notamment de la préservation de la démocratie.
Petit aparté sur les sujets du moment, on va dire, les intelligences artificielles. Pourquoi et comment les biais, les inégalités de genre, l'invisibilisation des minorités se reproduisent encore à travers les IA, les intelligences artificielles ?
De plusieurs manières, je pense. La première, les modèles qui font le plus parler ces derniers temps et depuis les premiers sursauts techniques en 2012, c'est tous les modèles d'apprentissage machine, notamment d'apprentissage profond, qui ont ensuite permis notamment de créer des grands modèles de langage qui sont derrière des outils comme ChetGPT, Dall-E, Mid-Journey et compagnie. Ces technologies, pour fonctionner, elles ont besoin d'être entraînées sur des énormes sommes de données.
D'ailleurs, ça explique bien pourquoi je me suis intéressée à ces sujets. Pour moi, c'est très similaire à des réflexions qu'on a en tant que journaliste sur le type d'informations qu'on utilise, comment on les hiérarchise, comment on les sélectionne, etc. Le monde informatique a peut-être cru au début que utiliser des données, des énormes sommes de données, c'était neutre. Mais en fait, les personnes qui travaillent sur ces questions, notamment au prisme des sciences humaines, savent très bien que nous, ce qu'on fait quand on prend ce type d'informations, par exemple, on prend une photo de la société à un instant T. Par exemple, vous faites une technologie de reconnaissance faciale et vous l'entraînez sur toutes les images que vous trouvez en ligne. Il se trouve que tout le monde n'utilise pas Internet de la même manière. Je rappelle que pas loin de la moitié de la population mondiale n'a pas encore accès à Internet, donc de toute manière, cette population-là, on la voit pas, elle n'a pas diffusé ses images, elle n'a pas mis ses selfies, elle n'a pas partagé ses œuvres d'art, etc. Donc déjà, elle est invisibilisée dans les données qu'on va mettre dans le système.
Et puis accessoirement, je l'ai déjà dit tout à l'heure, tout le monde n'a pas eu accès à des outils numériques au même moment ni de la même manière. Et donc les premiers qui ont eu accès, c'est quand même les hommes blancs des pays occidentaux. Donc eux, ils ont eu le temps de mettre toutes les images qui leur ressemblent et tout ce qui leur plaît en ligne, alors que les autres, ils sont encore en train de rattraper le train, si je puis dire. Résultat des courses, quand vous faites votre techno de reconnaissance faciale, en fait, elle a été très principalement entraînée sur des choses qui ressemblent à ce qui intéresse les hommes blancs, ou alors qui ressemblent directement aux hommes blancs.
C'est ce qu'avait testé notamment la chercheuse Joy Buolamwini en 2018, qui était en train de faire son doctorat au MIT à l'époque. Elle avait montré que les technologies de reconnaissance faciale les plus utilisées sur le marché à l'époque reconnaissaient beaucoup mieux les hommes que les femmes, reconnaissaient beaucoup mieux les personnes blanches que les personnes noires. Elle avait quand même plusieurs types de couleurs de peau, mais en gros, c'est ça le constat final. Ce qui est très intéressant, c'est qu'en fait c'est une représentation directe de certaines problématiques intersectionnelles dans ce que produit une machine, parce que notamment on constatait que des personnes qui subissent plusieurs types de discriminations, notamment les femmes noires, c'est celles qui étaient les moins bien servies par cette technologie qui était pourtant sur les marchés, promue comme un super outil, super efficace, vraiment très utile pour traiter toutes sortes d'images.
Donc, déjà, les données qu'on met dans les systèmes pour les entraîner, ce qu'elles ont tendance à faire, c'est à reproduire les inégalités qui existent en ligne. Même si on aimerait bien qu'en 2024, tout le monde soit sur un pied d'égalité, c'est loin d'être le cas. Et donc, on retrouve dans les données des traces des inégalités entre les femmes et les hommes, des inégalités entre les blancs et le reste de la planète, entre les personnes valides et les personnes non valides, entre les personnes hétérosexuelles, beaucoup mieux représentées que toutes les personnes LGBTQIA+, etc.
Le problème, c'est que ces technologies sont quand même promues et diffusées et vendues en disant que ça va vous permettre d'avoir de meilleurs résultats, en plus partout dans la société, et qu'on a tendance à les acheter en y croyant. Ce qui est normal vu l'ampleur du matraquage qu'on se prend, notamment en ce moment sur les IA génératives. En mode c'est super, ça va révolutionner tout ou n'importe quoi.
Sans les acheter même, vu qu'il y a pas mal d'outils gratuits, entre guillemets gratuits, bien sûr.
Ouais, c'est vrai. T'as raison. Pour nous pousser à les adopter plus vite, la gratuité est un très bon outil qui deviendra payant ensuite.
Sachant qu'on a déjà payé avec nos données, beaucoup d'entraînement des systèmes dont on parle aujourd'hui, ils sont entraînés sur toutes les données qu'on a mises sur les réseaux sociaux, qu'on a publiées en ligne, etc. Donc déjà, on a un peu payé pour ces machines en réalité. Ce qui se passe ensuite, et pour moi, c'est les enjeux les plus problématiques, c'est quand ces machines sont diffusées dans des endroits de la société sur lesquels les utilisateurs finaux ou les personnes qui vont être soumises aux résultats ont peu de prise.
Par exemple, un sujet qui fait pas mal de bruit en France en ce moment, c'est la question des algorithmes utilisés par la CAF pour lutter contre la fraude. En fait, ces algorithmes, si je me réfère aux travaux de Changer de cap, la Quadrature du net et de 15 associations qui viennent de le contester devant le Conseil d'État, déjà à la base, ils ont été construits pour détecter des erreurs. Il y a un glissement sémantique de détection d'erreur vers la détection de la fraude qui lui-même est problématique, lui-même poser des questions politiques, à quel moment on a décidé qu'une erreur, c'était une fraude, pourquoi, comment, etc.
Comme en plus c'est dans les services publics, en tant que citoyen, et c'est le but de ces associations, on pourrait demander des comptes sur déjà ce glissement sémantique. Et en plus cette détection donc d'erreur ou de fraude, au lieu de se faire comme elle devrait se faire sur des cas d'erreur et de fraude antérieurs qui permettrait ensuite de se dire tel profil a plus de risque de commettre des erreurs ou des fraudes dans le futur. Et donc si c'est des erreurs lui proposer de l'accompagnement, si c'est de la fraude, le contrôler plus durement.
En fait, ce que la machine fait, s'est-on rendu compte en allant creuser dans son code, c'est qu'elle cible des catégories de population en fonction de la personne, en fonction de données sensibles au sens du RGPD, c'est-à-dire en fonction de leur genre, en fonction de leur handicap, etc. Pour être plus précise, pour ceux qui ne connaîtraient pas l'histoire, ce qu'on constatait, la Quadrature du net et les autres associations, c'est notamment que les algorithmes ont tendance à surcatégoriser les familles monoparentales comme un risque de fraude, sachant que les familles monoparentales, c'est dans 96% des cas dont celles qui bénéficient des aides de la CAF, des familles dirigées par des femmes. Et la machine tend à surcatégoriser les personnes qui sont alocataires de l'AAH, l'allocation adulte handicapé, comme un risque de fraude. Donc, a priori, elle considère qu'une personne qui souffre d'un handicap et qui travaille est une fraudeuse, si je le résume.
Et le problème suivant, c'est que ces personnes qui sont visées par des sur-contrôles et par des choses très concrètes dans leur vie, où il y a des agents qui viennent les voir pour leur demander de prouver qu'ils ont bien droit aux aides qu'on leur donne, c'est très difficile pour elles de savoir que tout ça, c'est le résultat d'un traitement informatique qui fonctionne mal. La seule manière de le savoir, et c'est ce qui s'est passé dans ce cas, c'est qu'elles s'en plaignent auprès des associations ou des entités qui essayent de les aider. Souvent, c'est des entités qui sont plus ancrées, pour ce type de cas précis, sur l'aide à l'accès au service public parce que la numérisation, certes, a été très utile pour une grande partie de la population, mais il y en a toute une autre partie qui est un peu laissée sur le bord de la route. Parce qu'elle sait moins utiliser les outils numériques ou juste elle a moins accès à internet pour des raisons potentiellement de moyens, pour des raisons de zones blanches, pour toutes sortes de raisons.
En fait, les associations ont reçu de plus en plus d'alertes sur des problématiques de sur-contrôle. Elles se sont mises en groupe et en creusant, elles ont réussi à comprendre qu'il y avait un traitement algorithmique potentiellement problématique. C'est hyper difficile, c'est vraiment un travail de long terme, en fait, de réussir à faire connaître le rôle de ce type de système numérique dans les situations vécues au quotidien par les personnes. Et pour moi, ça, c'est vraiment un des enjeux les plus inquiétants, parce que tant qu'on n'a pas réussi à détecter ces systèmes, enfin ceux qui sont problématiques, en fait, il y a des machines qui participent à reproduire et même souvent à renforcer les inégalités qui existaient déjà avant qu'on décide de déployer ces outils censés optimiser la manière dont on sert les gens, que ce soit quand on est une entreprise privée ou un service public.
Oui, c'est ça aussi. C'est l'autre partie du sujet.
Après, l'optimisation, c'est surtout réduire la masse salariale, réduire les agents publics. Il y a énormément aussi de dark patterns, des designs qui sont faits pour justement ne pas aboutir à la démarche. Je ne sais plus quel service, je crois que c'est l'assurance retraite. Forcément je gère tous les services pour mes parents qui ne savent pas utiliser le numérique. Et même moi en tant que développeur, je suis né dans le numérique, quasiment, et je suis confronté à des trucs où je ne comprends pas en fait. Il y a des dark patterns où j'envoie un message et ça me dit voilà la réponse qu'on a trouvée dans notre FAQ et tout en bas à droite il y a écrit envoyer quand même le message et si je n'avais pas fait attention, si je n'avais pas ce capital culturel, j'aurais pensé que le message était envoyé. Le message n'était pas envoyé, on m'a d'abord répandu un truc complètement à côté de la plaque. Heureusement d'ailleurs, il m'a alerté. Et en fait, le message pour être envoyé, il faut confirmer qu'on n'a pas abouti à une réponse et voilà. Et dernièrement, autre petite anecdote, j'ai fait une demande par mail, j'ai appelé dans tous les sens, je n'ai eu personne. Et donc, j'ai reçu une réponse par mail. En tout cas une notification en me disant nous vous avons apporté une réponse nous espérons que vous êtes satisfait de cette réponse et là je regarde c'est quoi la réponse en fait et j'étais un peu perdu. C'était effectivement résolu mais j'ai pas de réponses humaines en fait, j'ai l'impression qu'il n'y a plus que des robots qui répondent ou peut-être des vraies personnes qui ont été complètement robotisées dans leur travail au quotidien.
Oui, parce qu'en plus, tu as raison de finir là-dessus. Il y a aussi beaucoup de témoignages des personnes au sein des services, que ce soit des services de service public, mais c'est pareil dans les entreprises où on adopte ce style de système, qui se plaignent du fait pas tant que leur travail soit remplacé, plutôt qu'il soit un peu vidé de sa substance intéressante, sous-couvert, encore une fois, d'optimisation, d'efficacité, etc. Par exemple, on leur demande de traiter plus de dossiers d'un coup parce que la machine aura fait le pré-tri et aura enlevé les dossiers faciles à traiter, ce qu'ils faisaient avant de manière humaine.
Mais du coup, ça met l'humain sous une pression qu'il n'avait pas au même niveau, en tout cas avant. Et donc en fait, la dégradation, elle est double, elle est à la fois du côté du bénéficiaire ou client et du côté du fonctionnaire, employé ou salarié. Et c'est vraiment pour ça qu'il faut qu'on arrive à s'emparer de ces sujets et à en débattre en tant que société, parce que pour l'instant, l'approche qu'on garde, notamment en France, C'est vraiment uniquement l'approche économique.
C'est du business. Il faut qu'on arrive à suivre le rythme imposé par les États-Unis, ce qui est en plus très difficile à faire, je pense. Et on n'arrive pas, en tout cas au niveau politique les plus hauts, à faire émerger le besoin de débattre, en fait, et de se dire que peut-être dans certains cas, ce n'est pas forcément la meilleure solution.
J'ai travaillé dans l'administration publique et il y a quelque chose qui m'a vraiment choqué sur les budgets numériques. Pour allouer des budgets, c'est pas quelque chose qui est caché, c'est de notoriété publique, je ne révèle rien du tout, pour que des budgets soient alloués, un des critères les plus importants, c'est le nombre de personnes, des ETP, équivalent en plein plein évité grâce au fait de mettre en place un service numérique.
En fait, on est tous pris, même au niveau du coup étatique, au niveau national, dans le technosolutionnisme. Éviter des ETP pour faire des économies, sachant que la France est endettée grâce à une gestion vraiment parfaite de ces finances. Sur le principe, sur le papier, pourquoi pas, mais dans ce cas-là, il faudrait que ça ait une réelle efficacité. Or, ce qu'on vient de dire, c'est que non, ça n'en ai pas, puisque à la fin, les citoyens sont moins bien servis. Ceux qui restent, les ETP qui restent, subissent aussi la technologisation en cours.
Par contre, les seuls qui sont heureux, c'est ceux qui ont réussi à filer leurs technos et à être payés des milles et de cents pour ça. Ça n'a vraiment pas de sens, même au niveau de la société entière.
Souvent on parle de souveraineté parce que très souvent, ces contrats sont quand même attribués à des technologies pas forcément française, et même le plus souvent étas-unienne. Donc en fait on est en train de se créer des problèmes...
Est-ce que tu veux aborder le Health Data Hub ?
C'est pareil, je ne révèle rien dans cette affaire, mais on se crée des problèmes qui ne font que se renforcer, notamment grâce à la technologie. C'est un bon exemple de ce genre de truc.
J'avais envie de te poser une question personnelle. Comment les intelligences artificielles bouleversent aujourd'hui ton métier de journaliste ? Est-ce que toi-même tu utilises l'IA et si oui, dans quel contexte ?
Bouleverse, non. Est-ce que je l'utilise ? Oui, certaines petites applications. Ce que ça fait surtout, c'est ça qui me crée des inquiétudes et des interrogations sur le futur, mais comme beaucoup de gens, finalement. Donc, comment je l'utilise, par exemple ? Je pense que l'usage principal, c'est de la traduction et de la relecture.
On utilise beaucoup d'outils pour m'aider à détecter mes inévitables coquilles, mais c'est jamais suffisant. D'ailleurs, ce qui m'enlève une inquiétude, c'est que c'est vraiment jamais suffisant. Il faut toujours qu'un humain repasse en plus parce que certains des outils de correction que j'ai se mettent d'ailleurs ces derniers temps à me proposer des corrections qui sont fausses. De toute manière, l'outil sert à me guider à repérer certaines problématiques.
Mais il y en a pour lesquels il ne faut pas que je l'écoute. Et puis derrière il faut toujours que je rajoute une relecture humaine pour être sûre de ne pas avoir de coquilles. Et même dans ces cas-là, on ne sera jamais sûrs, c'est le drame des journalistes écrits. Je l'utilise pour de la traduction. Je l'utilise parfois dans des articles, dans ces cas-là, c'est pour faire des démonstrations, des tests ou des trucs. Là je parle d'IA générative, principalement.
C'est à peu près tout. Mais je sais que des collègues, par exemple, utilisent pas mal l'IA generative pour s'aider, notamment des data journalistes, dans des tâches pour lesquelles ils ont besoin de codes. Souvent, ils ne sortent pas de cursus pour être développeurs ou quoi. Et en ça, l'IA generative est assez utile parce qu'ils font partie des populations qui trouvent assez pratique les générations de codes
Par contre, là où ça m'inquiète, c'est que je suis assez persuadée qu'un article que j'ai écrit il y a quelques jours, encore une fois, je ne révelerai rien de ouf, c'était une brève, je relayais des tribunes de plusieurs personnes qui réfléchissent sur les enjeux numériques. Je suis à peu près sûre que quelques heures plus tard, cet article a été remâché par un IA et est sorti dans un autre média. Ce qui est relou mais pourquoi pas, le problème c'est que chaque personne que j'avais cité ou presque, sachant que moi je ne les avais pas cité, j'avais reformulé l'objet de leur tribune et j'avais mis un lien vers leur tribune pour que mes lecteurs puissent aller voir si ça les intéressait. Dans l'article qui est sorti quelques heures plus tard, il y a eu des citations entre guillemets attribuées à ces personnes et ces citations n'existaient pas. Je n'ai aucune preuve de ce que j'avance, mais ça me crée une inquiétude en mode, est-ce que les médias dont beaucoup de contenu doit être généré par IA, donc les médias de faible qualité qu'on voit déjà émerger en relative masse d'ailleurs, est-ce qu'ils ne vont pas créer un risque pour les sources et les personnes citées par les journalistes légitimes qui ont vraiment fait le travail, soit d'aller chercher l'information, soit d'aller interviewer les personnes. Et si c'est le cas, je ne sais pas comment on peut le résoudre, parce qu'on ne va pas s'arrêter de faire de l'info. Par contre, ça peut rendre des personnes aux analyses vraiment intéressantes, potentiellement plus frileuses à l'idée de discuter avec les médias aussi.
Je m'inquiète un peu sur ce que ça va créer de ce côté-là. En tant que propriété intellectuelle, ce doute que j'ai sur l'article en question dont je parle m'embête. Mais malheureusement, je n'ai pas trop d'outils pour défendre mon travail. C'était un article public qui a été publié gratuitement en ligne. Il fallait s'attendre à ce qu'il soit repris par une machine. Voilà.
Effectivement, avec les intelligences artificielles, il y a un risque identifié, avec les IA génératives notamment, on produit du contenu, et ces mêmes contenus vont être ingérés par les machines, que ce soit des images, du contenu texte, et c'est vrai qu'il y a un risque, certains disent non, non, il n'y a pas de souci, on sait identifier ce qui a été généré par l'IA. Moi, j'ai un gros, gros doute quand même. Au bout d'un moment, tout sera un peu uniformisé. En tout cas, il y a des études là-dessus. Mais j'imagine par rapport à notre sujet, sur les questions de diversité et des biais, du sexisme, du racisme, ça va les accentuer de fait que la machine s'auto nourrit finalement ?
Alors si les machines s'autonourrissent suffisamment, c'est plutôt notre salut parce que ça va finir par leur faire produire des résultats tout nuls et ça les casse. Donc dans un sens, elles ont besoin des humains pour exister parce que sans ça, elles n'arrivent pas à continuer de produire des résultats corrects. Donc peut-être qu'il y a un peu d'espoir là-dedans, sauf qu'en même temps, on pourrait vite s'imaginer de devenir des esclaves qui les entraînent en permanence. Mais bon, bref, on ne va pas partir sur les débat de science fiction.
Ce qui est déjà le cas dans les pays du Sud, à Madagascar, en Inde, etc. pour l'entraînement.
Oui, c'est vrai, pour l'entraînement dans la chaîne de production actuelle, c'est vrai que très clairement, il y a plein de gens qui sont employés dans des conditions terribles, principalement dans les pays du Sud, pour entraîner des machines qui vont ensuite servir, principalement dans les pays du Nord.
Sur la question de reproduction des biais, en fait, effectivement, les modèles génératifs, ils ont aussi l'utilité qui permet de démontrer des choses de manière très claire qui était connue depuis longtemps, mais qui peut-être n'arrivait pas encore parfaitement à toucher le grand public. Par exemple, il y a eu des grandes enquêtes qui ont été faites, il me semble notamment par Bloomberg, sur des générations d'images par les principaux modèles génératifs. Et ce qu'on voit, c'est que si vous demandez par exemple des métiers, par exemple chef d'entreprise, CEO, ou informaticien, informaticienne, si vous l'écrivez en anglais où c'est une langue neutre, vous n'allez avoir quasiment que des images d'hommes blancs au costard.
Si vous demandez personnel de ménage ou ce genre de choses, vous n'allez avoir quasiment que des femmes noires. C'est vraiment du grossissement de biais assez terrible. Et puis il y a une autre enquête qui a été faite, peut-être par Wired, qui était sur les clichés liés aux nationalités. Si vous demandez à la machine de représenter une personne mexicaine, on avait tout de suite un vieillard avec un sombréro et un tissu multicolore, qui certes est beaucoup vendu aux touristes, mais le mexican moyen ne ressemble pas à cette image d'épinal.
Un poncho ?
oui voilà c'est ça à tous les coups je sais plus si j'ai vu des exemples pour les français
Excuse-moi, moi j'ai ma baguette sous les aisselles. Devant la tour Eiffel.
C'est très probable que si on demande un français mais un mec à moustache avec son béret ou alors une meuf très fine devant la tour Eiffel avec un vélo.
Ah c'est bien le vélo, c'est mieux qu'un SUV.
Mais c'est très réducteur et pas du tout représentatif de la réalité et là où ça pose problème c'est que typiquement par exemple dans les médias ou site d'entreprise pour laquelle on a besoin d'images, mais on ne veut pas mettre l'argent dans les images, de plus en plus, on va se servir de ces outils. Et donc, qu'est-ce qu'on va faire ? C'est qu'on va diffuser et continuer de s'auto-alimenter avec des images tellement clichés qu'en fait, elle n'a pas besoin de rien du tout. Mais donc, en faisant ça, on renforce des clichés existants et on complique la fin de ces clichés et la recherche d'une considération un peu plus nuancée des uns des autres.
Depuis l'avènement de la Silicon Valley, on avait cru que les entrepreneurs de la tech soutenaient une certaine forme de progressisme et donc faisaient plutôt partie du camp démocrate. Cela vole en éclat avec le retour de Trump, soutenu par un grand nombre de libertariens de la Silicon Valley, notamment Elon Musk dont tu as déjà parlé. Qu'est-ce que ça va changer à l'avenir ? Peut-être te demander un peu un peu de prospectives pour le futur de la tech. Où est-ce qu'on va ? Est-ce que ça fait peur ?
Je ne sais pas. Mais on s'est bien planté en tout cas. On s'est bien planté quand on a cru qu'ils étaient tous démocrates. En réalité, je ne suis pas experte de leurs idées politiques, mais je crois que si on creuse un peu dans la pensée de ceux qui travaillaient dès les années 90 et qui ont ensuite construit des entreprises qu'on connaît très bien aujourd'hui, dont des Paypal, dont des fonds d'investissement comme Andreessen Horowitz, etc.
Il était déjà libertarien, le libertarianisme pronant une absence quasi totale de règles. Et même si peut-être que dans les années 2000, une bonne partie d'entre eux se sont dit, on est libertarien économiquement, mais on est en faveur des idées progressistes sur le plan social, dans le sens justement, on veut que sur une logique libertarienne aussi, que chacun puisse se vivre comme il l'entend, sans critique sur sa sexualité, son genre, son origine sociale, ethnique ou autre.
En fait eux ce qui leur apportait surtout c'était de n'avoir aucune règle sur le plan économique et c'était d'abord l'angle économique. Dès le début, même si on n'y a pas forcément beaucoup fait attention, il y a certaines personnalités qui étaient plutôt conservatrices dont Peter Thiel qui est le fondateur de Palantir, une société de surveillance, je vais le dire comme ça. Et surtout, et aussi un financeur, un financier, un investisseur dans la Silicon Valley qui a mis de l'argent dans beaucoup de projets qui ont bien fonctionné après, dont Facebook, je crois. Mais c'est vrai que la plupart des autres, on s'est laissé charmer par le fait qu'ils créaient des entreprises qui sortaient des technologies qui nous paraissaient toutes et tous super intéressantes, super innovantes. C'est en partie grâce à eux et grâce à des questions de ciblage marketing que Obama a très bien réussi sa campagne électorale en 2008. Il était là genre super, ces technologies permettent de pousser le camp progressiste, etc.
Et je dis on, je ne sais même pas qui est on en fait, probablement les progressistes en général, enfin bref, il faudrait aussi définir ce on. Ou "on" en tant que société, je ne sais pas. Je ne sais pas si les conservateurs ont cru ça aussi. Et en fait, au fil des années 2010, ce qu'on décrivait déjà tout à l'heure, c'est que ce dont on s'est rendu compte petit à petit et parfois à la dure, c'est que leur moteur principal à toutes ces personnalités, ça restait la question économique et la recherche de profit.
Si on reste aux États-Unis, pendant le mandat de Joe Biden, les vis ont été quand même assez resserrées vis-à-vis de l'industrie de la tech. Joe Biden n'aime pas trop l'industrie de la tech, il n'a pas trop échangé avec elle. Par contre, il a nommé à la tête de la FTC, la Federal Trade Commission, une femme qui s'appelle Lina Khan, qui est très anti-monopole, qui s'est fait ailleurs connaître pour ses articles sur les pratiques anti-concurrentielles d'Amazon et qui a lancé pas mal d'enquêtes.
En parallèle, en Europe aussi, on mettait un coup de vis et on a lancé pas mal d'enquêtes sur des pratiques anti-concurrentielles, par exemple, de Apple qui interdit tout autre service de paiement que le sien sur son magasin d'application et qui, du coup, au passage, prend 30% de commission sur toutes les transactions. C'est quand même une pratique de gangster quand on dit comme ça, je trouve. Forcément, l'industrie n'a pas aimé, l'industrie n'a pas apprécié. Mais si on avait eu des politiques qui mettait en avant, qui considéraient parmi leurs priorités la défense des droits humains et la défense de l'environnement, ça aurait pu continuer comme ça.
Là aux États-Unis, la personne qui a été élue, c'est Donald Trump. Et lui, il est plutôt sur une logique conservatrice de laisser faire économique et puis surtout il est désormais très copain avec Elon Musk qui à la base en 2008, en 2012 se disait progressiste et qui est devenu très nettement conservateur voire d'extrême droite parce qu'il republie des textes et images nazies assez régulièrement en ce moment.
Sur X, Elon Musk a hérité d'un, je ne sais pas ce que c'est comme statut d'un service à l'efficiency, à l'efficacité gouvernementale, c'est-à-dire qu'il va probablement devenir monsieur "cost killer" et qu'il va probablement être à la source de licenciements multiples dans l'administration américaine. En tout cas, il va probablement recommander un certain nombre de réductions des coûts dans l'administration américaine.
C'est consultatif apparemment. Mais bon, proche du pouvoir quand même.
On n'est pas sur des idées qui visent la défense des droits humains, y compris vis-à-vis des technologies et la protection de l'environnement. Sur la partie sociale, il faudrait beaucoup plus d'analyse, et je ne suis pas sûre de pouvoir fournir les meilleures idées, mais en tout cas, sur la partie économique, a priori, le président américain va bien s'entendre avec les patrons de la tech, et les patrons de la tech ne seront plus trop embêtés sur leur potentiel pratique anti-concurrentielle, qui sont pourtant nombreuses, et qui participent à étouffer le marché, mais aussi les pouvoirs de contestation des utilisateurs à la fin.
Est-ce qu'on peut imaginer tout ce qui a été fait sur X, en fait, démanteler tout ce qui est obstacle, comme tu disais tout à l'heure, ça sera pareil, enlever toutes les contraintes environnementales, sociales ?
Potentiellement, s'il le souhaite, oui. Après, je ne sais pas si tout le monde va réfléchir comme Elon Musk. Elon Musk a été tellement radical qu'il a aussi perdu énormément d'utilisateurs. Elon Musk a complètement abandonné la recherche de profit sur X. Il l'a encore sur Tesla, SpaceX et toutes les compagnies. Mais sur X, il a perdu tous ses annonceurs ou quasi. Il est en train de subir une énorme fuite d'utilisateurs vers d'autres plateformes sociales. Donc, si on reste dans une logique strictement business où on veut quand même garder des clients pour garder des revenus, voir les faire augmenter et augmenter ses profits, etc., ce ne serait pas parfaitement logique de devenir tous des Musk en puissance.
Par contre si pour cette recherche de profit on a des pratiques problématiques qui auraient été critiquées voire interdites par le camp démocrate, a priori le camp conservateur aux Etats-Unis ne va pas trop leur mettre de bâtons dans les roues.
Et notamment la question environnementale qui me préoccupe beaucoup, parce que depuis les explosions des systèmes génératifs, on sait qu'ils ont besoin d'énormément d'énergie, à la fois pour être entraînés, mais aussi pour fonctionner. Et on voit en ce moment tous les géants du numérique se tourner vers le nucléaire pour faire évoluer leur mix énergétique, mais aussi et surtout pour obtenir plus d'énergie. En attendant que tous leurs petits réacteurs soient fabriqués, il va quand même falloir qu'ils trouvent plus d'énergie pour faire fonctionner leur techno. Donc, qu'est-ce qui se passe ? Et on a déjà beaucoup d'alerte en ce sens. C'est qu'ils participent à un rebond des émissions à partir d'énergie fossile. Ils ont besoin de plus de pétrole pour faire tourner leur datacenter, pour la poursuite du fonctionnement de ces technologies dont, sincèrement, même si j'ai dit que je m'en servais un peu dans certains cas, etc., je cherche encore le bénéfice social.
On va tous subir en tant qu'habitants de la planète Terre, encore une fois, un ralentissement de la lutte contre le réchauffement climatique. Et ça, à mes yeux, c'est un des sujets vraiment essentiels du moment, même s'il est difficile à faire percevoir parce que ça paraît un peu lointain à beaucoup de gens. Mais vraiment, moi, c'est un peu ça qui m'inquiète aussi. Enfin beaucoup.
C'est complètement invisibilisé. Je te propose qu'on passe à la dernière question de notre entretien. Quelles sont les pistes d'action que tu formules dans ton essai Technoféminisme pour faire face aux discriminations permises grâce aux numériques et les manières de reprendre le pouvoir ?
Dans Technoféminisme, j'essaye de proposer des actions à différents niveaux, selon que les gens ont envie de réfléchir pour eux dans leurs coins, à leurs propres pratiques, selon qu'ils ont envie de chercher du collectif au sens peut-être collectivité locale, association, etc. Ou alors à la dimension politique au sens traditionnel, donc au niveau des États et au niveau international.
Au niveau personnel, je pousse pour la formation, l'auto-formation, à la fois aux enjeux numériques, parce que le fond de mon idée, c'est que ce n'est vraiment pas des questions techniques. En fait, à la fin, c'est des questions sociales, politiques, c'est des questions dont on a besoin de tous et tous s'emparer, y compris si on ne sait pas les utiliser. Justement, on a le droit de continuer de ne pas savoir les utiliser, mais du coup, par exemple, d'avoir un service public qui accepte encore de nous accueillir, même si on ne sait pas utiliser ou si on ne peut pas utiliser le numérique.
Donc se former au débat que ça pose, et j'y tiens, c'est vraiment important de se former aussi en parallèle aux questions d'inégalités, parce que si on ne sait pas, si on ne comprend pas pourquoi les inégalités se maintiennent et se reproduisent, on ne saura pas à lutter contre. Donc il y a besoin de se former un peu mieux sur ces questions pour trouver les manières ensuite de les retourner. Normalement, je donne quelques pistes avec mon livre et aussi dans les sources, donc n'hésitez pas à traîner dans la bibliographie.
Au niveau plus collectif, plus du lien social et tout, je m'inspire un peu des théories du "care", des réflexions féministes. Je pense qu'on peut cultiver notre responsabilité commune et notre conscience de cette responsabilité commune dans l'état du numérique.
On a beaucoup critiqué pendant la dernière heure les entreprises qui fabriquent les outils, mais en soi, ces entreprises, elles ne réussiraient pas à fonctionner sans avoir des petits internautes qui viennent dessus. Et donc, à ce titre, je pense qu'on peut s'organiser, qu'on peut prendre conscience déjà, par exemple, du relatif pouvoir qu'on a quand même sur l'état des discussions en ligne, par exemple, en ne participant pas à la viralité de postes haineux voire en les signalant pour faciliter leur modération sur les plateformes qui pratiquent encore la modération, c'est-à-dire la quasi-intégralité sauf X et Telegram. Je ne dis pas que les modérations soient parfaites, mais en tout cas la quasi-totalité ont quand même des circuits pour modérer des contenus problématiques. Cela peut être aussi en ayant conscience qu'on peut apporter son aide à une personne qui est victime de violence numérique, donc pourquoi pas la lui proposer.
J'aime bien l'exemple de Wikipédia, c'est un commun numérique et qu'on peut tous participer à son amélioration. Or Wikipédia, comme le reste de la société, subit ses propres biais. Par exemple, il y a beaucoup moins de biographies de femmes que de biographies d'hommes sur l'encyclopédie. Il y a une association comme Les Sans Pages qui essaie de lutter contre ce déséquilibre.
Il y a aussi beaucoup moins, et alors là dans des proportions beaucoup plus fortes, beaucoup moins de visibilité des cultures africaines et afrodescendantes que des cultures occidentales. En fait, il y a beaucoup moins de visibilité de toutes les autres cultures que les cultures occidentales sur Wikipédia. et une association comme Noircir Wikipédia essaie de visibiliser les cultures africaines et afrodescendantes, mais certainement plein d'autres initiatives sur les cultures plus d'Amérique latine, d'Asie, etc. Je pense que c'est intéressant, important à la fois parce que ça permet de s'emparer d'outils très concrets qu'on utilise au quotidien, je pense. Enfin, moi je passe mon temps à trainer sur Wikipédia en tout cas. Et du coup voir tout de suite l'impact concret qu'on peut avoir sur le savoir partagé. C'est vraiment un espace assez intéressant pour se rappeler qu'on a quand même du pouvoir en tant qu'internaute pour faire évoluer les choses communes.
Et sinon cultiver le lien au sens hors ligne du terme, se réunir en association, s'engager, se syndiquer si jamais c'est sur des questions au travail qu'on a besoin de soutien, de plus de connaissances. C'est hyper important à la fois pour fabriquer un monde commun plus accueillant, mais aussi vu l'ambiance politique du moment.
Au niveau national, international, le moment où j'ai publié le livre, c'était juste avant que le Digital Services Act et le Digital Markets Act ne sortent. Mais donc la logique, c'est vraiment se rappeler et rappeler à nos régulateurs qu'ils ont le pouvoir de mettre des cadres aux sociétés et entreprises du milieu économique et demander ces cadres, et demander à ce que des choses soient mises en place pour protéger les citoyens face aux effets négatifs notamment l'industrie de la tech. En Europe, on a de la chance, il y a beaucoup de travaux en ce sens qui sont faits, mais on a aussi le droit et le devoir en tant que citoyen de critiquer l'efficacité de ces travaux et peut-être de demander plus dans certains domaines.
Par exemple, là, il y a un gros règlement qui vient de sortir sur l'intelligence artificielle, l'AI Act. Et c'est plutôt intéressant au niveau international, on fait partie des premiers à avoir un texte de ce type. Mais ce texte est critiquable et critiqué par beaucoup de gens parce qu'il ne va pas assez loin, parce qu'il aurait été trop écrit dans le sens qui arrangeait les entreprises. Donc pourquoi pas demander plus, par exemple. C'est réfléchir aussi aux outils très traditionnels qui servent à dessiner le monde qu'on veut ensemble et demander à ce qu'il soit vraiment mis en action. Et donc, en fait, à terme, ça veut aussi dire aller voter pour décider qui participe à fabriquer ces textes.