Helena Puig Larrauri, bâtisseuse de paix et boursière d’Ashoka, a cofondé Build Up pour transformer les conflits à l’ère numérique, des États-Unis à l’Irak. Avec la croissance exponentielle du contenu polarisant viral sur les réseaux sociaux, une question systémique clé a émergé pour elle : et si nous faisions payer les plateformes pour les dommages qu’elles produisent ? Et si on imaginait une taxe sur la polarisation, assimilable à une taxe carbone ? Une conversation sur les causes profondes de la polarisation en ligne et pourquoi les plateformes devraient être tenues responsables des externalités négatives qu’elles provoquent.
La boursière Ashoka Helena Puig a cofondé Build Up pour transformer les conflits à l’ère numérique.
Constance Frischen : Helena, la technologie aide-t-elle ou nuit-elle à la démocratie ?
Hélène Puig Larrauri : Ça dépend. Les technologies numériques ont un grand potentiel pour inclure davantage de personnes dans les processus de paix et les processus démocratiques. Nous travaillons sur la transformation des conflits dans de nombreuses régions du monde, et la technologie peut vraiment aider à inclure plus de personnes. Au Yémen, par exemple, il peut être très difficile d’intégrer les points de vue des femmes dans le processus de paix. Nous avons donc travaillé avec l’ONU pour utiliser WhatsApp, une technologie très simple, pour atteindre les femmes et faire entendre leur voix, en évitant les problèmes de sécurité et de logistique. C’est un exemple du potentiel. D’un autre côté, les technologies numériques posent d’immenses défis, de la surveillance à la manipulation. Et ici, notre travail consiste à comprendre comment les technologies numériques ont un impact sur l’escalade des conflits, et ce qui peut être fait pour atténuer cela.
Frisch : Vous avez du personnel travaillant dans des pays comme le Yémen, le Kenya, l’Allemagne et les États-Unis. Comment cela se manifeste-t-il lorsque les médias numériques aggravent les conflits ?
Puig Larrauri : Voici un exemple : nous avons travaillé avec des partenaires dans le nord-est de l’Irak, analysant la façon dont les conversations se déroulent sur Facebook, et cela a rapidement montré que ce que les gens disaient et comment ils se positionnaient avait à voir avec la façon dont ils parlaient de leur identité sectaire, qu’ils se disent ou non arabe ou kurde. Mais ce qui se passait à un niveau plus profond, c’est que les utilisateurs ont commencé à associer l’opinion d’une personne à son identité – ce qui signifie qu’au final, ce qui compte n’est pas tant ce qui est dit, mais qui le dit : les vôtres, ou les autres gens. Et cela signifiait que les conversations sur Facebook étaient extrêmement polarisées. Et pas de manière saine, mais par identité. Nous devons tous pouvoir être en désaccord sur des questions dans un processus démocratique, dans un processus de paix. Mais quand des identités ou des groupes commencent à s’opposer, c’est ce qu’on appelle polarisation affective. Et ce que cela signifie, c’est que peu importe ce que vous dites réellement, je vais être en désaccord avec vous à cause du groupe auquel vous appartenez. Ou, à l’inverse, peu importe ce que vous dites, je vais être d’accord avec vous à cause du groupe auquel vous appartenez. Lorsqu’un débat en est à cet état, vous êtes alors dans une situation où le conflit est très susceptible d’être destructeur. Et dégénère en violence.
Frisch : Êtes-vous en train de dire que les médias sociaux rendent votre travail plus difficile parce qu’ils entraînent une polarisation affective ?
Puig Larrauri : Oui, on a vraiment l’impression que les chances sont contre notre travail. Hors ligne, il peut y avoir de l’espace, mais en ligne, on a souvent l’impression qu’il n’y a aucun moyen d’entamer une conversation pacifique. Je me souviens d’une conversation avec le responsable de notre travail en Afrique, Caleb. Il m’a dit lors du récent cycle électoral au Kenya « quand je marche dans les rues, j’ai l’impression que cela va être une élection pacifique. Mais quand je lis les réseaux sociaux, c’est une zone de guerre. Je m’en souviens parce que même pour nous, qui sommes des professionnels de l’espace, c’est déstabilisant.
Frisch : Le moyen standard pour les plateformes de réagir au discours de haine est la modération du contenu – le détecter, l’étiqueter, selon la juridiction, peut-être le supprimer. Vous dites que ce n’est pas assez. Pourquoi?
Puig Larrauri : La modération de contenu aide dans des situations très spécifiques – elle aide avec le discours de haine, qui est à bien des égards la pointe de l’iceberg. Mais la polarisation affective s’exprime souvent d’autres manières, par exemple à travers la peur. Le discours de peur n’est pas la même chose que le discours de haine. Il ne peut pas être si facilement identifié. Cela ne violera probablement pas les conditions d’utilisation. Pourtant, nous savons que le discours de peur peut être utilisé pour inciter à la violence. Mais cela n’enfreindrait pas les directives de modération de contenu des plateformes. Ce n’est qu’un exemple, le fait est que la modération de contenu n’attrapera jamais qu’une petite partie du contenu qui amplifie les divisions. Maria Ressa, lauréate du prix Nobel et journaliste philippine, l’a si bien dit récemment. Elle a dit quelque chose dans le sens que le problème avec la modération de contenu est que c’est comme si vous alliez chercher une tasse d’eau dans une rivière polluée, nettoyez l’eau, mais que vous la remettez ensuite dans la rivière. Alors je dis qu’il faut construire une usine de filtration d’eau.
Frisch : Parlons de cela – la cause profonde. Qu’est-ce que cette architecture sous-jacente des plateformes de médias sociaux a à voir avec la prolifération de la polarisation ?
Puig Larrauri : Il y a en fait deux raisons pour lesquelles la polarisation prospère sur les réseaux sociaux. La première est qu’elle invite les gens à manipuler les autres et à déployer le harcèlement de masse. Armées de trolls, Cambridge Analytica – nous avons tous entendu ces histoires, mettons cela de côté un instant. L’autre aspect, qui mérite à mon avis beaucoup plus d’attention, est la manière dont les algorithmes des médias sociaux sont construits : ils cherchent à vous proposer un contenu engageant. Et nous savons que le contenu polarisant affectif, qui positionne les groupes les uns contre les autres, est très émotif et très engageant. En conséquence, les algorithmes le servent davantage. Cela signifie donc que les plateformes de médias sociaux incitent à produire un contenu polarisant, car il sera plus engageant, ce qui incite les gens à produire plus de contenu comme celui-là, ce qui le rend plus engageant, etc. C’est un cercle vicieux.
Frisch : Ainsi, la diffusion de contenus qui divisent est presque un effet secondaire de ce modèle commercial qui fait de l’argent avec un contenu engageant.
Puig Larrauri : Oui, c’est ainsi que les plateformes de médias sociaux sont conçues pour le moment : pour engager les gens avec du contenu, n’importe quel type de contenu, peu importe ce qu’est ce contenu, à moins qu’il ne s’agisse d’un discours de haine ou de quelque chose d’autre qui viole une politique étroite, n’est-ce pas ? , auquel cas, nous le supprimerons, mais en général, ce que nous voulons, c’est plus d’engagement sur quoi que ce soit. Et cela fait partie de leur modèle d’affaires. Plus d’engagement leur permet de vendre plus d’annonces, cela leur permet de collecter plus de données. Ils veulent que les gens passent plus de temps sur la plateforme. L’engagement est donc la mesure clé. Ce n’est pas la seule métrique, mais c’est la métrique clé pour laquelle les algorithmes optimisent.
Frisch : Quel cadre pourrait obliger les entreprises de médias sociaux à changer ce modèle ?
Puig Larrauri : Excellente question, mais pour comprendre ce que je m’apprête à proposer, permettez-moi de dire d’abord que la principale chose à comprendre est que les médias sociaux changent la façon dont nous nous comprenons nous-mêmes et les autres groupes. Il crée des divisions dans la société et amplifie les divisions politiques existantes. C’est la différence entre se concentrer sur le discours de haine et se concentrer sur cette idée de polarisation. Le discours de haine et le harcèlement concernent l’expérience individuelle d’être sur les réseaux sociaux, ce qui est très important. Mais quand nous pensons à la polarisation, nous parlons de l’impact des médias sociaux sur la société dans son ensemble, que je sois ou non personnellement harcelé. Je suis toujours impacté par le fait que je vis dans une société plus polarisée. C’est une externalité sociétale négative. Il y a quelque chose qui nous affecte tous, que nous soyons ou non individuellement affectés par quelque chose.
Frisch : L’externalité négative est un terme économique qui – je simplifie – décrit que dans un processus de production ou de consommation, il y a un coût généré, un impact négatif, qui n’est pas capté par les mécanismes du marché, et qui nuit à quelqu’un d’autre.
Puig Larrauri : Oui, et la clé ici est que ce coût n’est pas inclus dans les coûts de production. Prenons la pollution de l’air. Traditionnellement, dans le capitalisme industriel, les gens produisaient des choses comme des voitures et des machines, au cours desquelles ils produisaient également de la pollution environnementale. Mais d’abord, personne n’a eu à payer pour la pollution. C’était comme si ce coût n’existait pas, même s’il s’agissait en fait d’un coût négatif pour la société, mais qu’il n’était tout simplement pas fixé par le marché. Quelque chose de très similaire se produit actuellement avec les plateformes de médias sociaux. Leur modèle de profit n’est pas de créer une polarisation, ils ont juste une incitation à créer un contenu engageant, qu’il soit polarisant ou non, mais la polarisation se produit comme un sous-produit, et il n’y a aucune incitation à le nettoyer, tout comme il n’y avait aucune incitation à nettoyer la pollution. Et c’est pourquoi la polarisation est une externalité négative de ce modèle commercial de plate-forme.
Frisch : Et que proposez-vous que nous fassions à ce sujet ?
Puig Larrauri : Faites en sorte que les entreprises de médias sociaux en paient le prix. En faisant entrer la pollution sociétale qu’ils causent dans le mécanisme du marché. C’est en fait ce que nous avons fait avec la pollution environnementale – nous avons dit qu’elle devrait être taxée, qu’il devrait y avoir des taxes sur le carbone ou un autre mécanisme comme le plafonnement et l’échange qui oblige les entreprises à payer pour l’externalité négative qu’elles créent. Et pour que cela se produise, nous avons dû mesurer des choses comme la production de CO2 ou l’empreinte carbone. Ma question est donc : pourrions-nous faire quelque chose de similaire avec la polarisation ? Pourrions-nous dire que les plateformes de médias sociaux ou peut-être toute plateforme pilotée par un algorithme devraient être taxées pour leur empreinte de polarisation ?
Frisch : La taxation de la polarisation est une façon tellement créative et novatrice de penser à forcer les plateformes à changer leur modèle économique. Je tiens à reconnaître qu’il y en a d’autres – aux États-Unis, il y a une discussion sur la réforme de l’article 230 qui protège actuellement les plateformes de médias sociaux de toute responsabilité, et….
Puig Larrauri : Oui, et il y a aussi un très grand débat, auquel je suis très favorable et dont je fais partie, sur la façon de concevoir différemment les plateformes de médias sociaux en optimisant les algorithmes pour autre chose que l’engagement, quelque chose qui pourrait être moins polluant et produire moins polarisation. C’est un débat extrêmement important. La question que je me pose, cependant, est de savoir comment inciter les entreprises à s’en occuper. Comment pouvons-nous les inciter à dire, oui, je vais faire ces changements, je ne vais plus utiliser cette simple métrique d’engagement, je vais prendre en charge ces changements de conception dans l’architecture sous-jacente. Et je pense que la façon de le faire est essentiellement de fournir une dissuasion financière à ne pas le faire, c’est pourquoi je suis tellement intéressé par cette idée d’une taxe.
Frisch : Comment vous assureriez-vous que la taxation du contenu n’est pas considérée comme une atteinte à la protection de la liberté d’expression ? Un gros argument, en particulier aux États-Unis, où vous pouvez diffuser de la désinformation et des discours de haine sous ce parapluie.
Puig Larrauri : Je ne pense pas qu’une empreinte de polarisation doive nécessairement tenir compte de la parole. Il peut examiner les métriques liées à la conception de la plate-forme. Il peut examiner, par exemple, le lien entre l’appartenance à un groupe et le fait de ne voir que certains types de contenu. Il n’est donc pas nécessaire d’aborder les questions de discours de haine ou de liberté d’expression et le débat sur la censure qui en découle. Il peut simplement examiner les choix de conception autour de l’engagement. Comme je l’ai déjà dit, je ne pense pas que la modération et la censure du contenu fonctionnent particulièrement bien pour lutter contre la polarisation sur les plateformes. Ce que nous devons maintenant faire, c’est nous mettre au travail pour mesurer cette empreinte de polarisation et trouver les bonnes mesures qui peuvent être appliquées sur toutes les plateformes.
Pour plus suivre Hélène Puig et S’accumuler.