Il est impossible de nier l’influence de Facebook dans la division politique croissante et la division sociétale plus largement. Mais combien, exactement, Facebook contribue-t-il à la discussion politique, et quels sont les impacts ultérieurs de cela sur le comportement de vote?

Lors d’une récente conférence à Munich, le PDG de Facebook, Mark Zuckerberg, a minimisé la responsabilité de Facebook à cet égard, affirmant que:

«Les gens sont moins susceptibles de cliquer sur des choses et de s’engager avec eux s’ils ne sont pas d’accord avec eux. Donc, je ne sais pas comment résoudre ce problème. Ce n’est pas un problème technologique autant qu’un problème d’affirmation humaine. “

Zuckerberg a également noté que les utilisateurs de Facebook sont exposés à un ensemble de perspectives sur Facebook plus diversifié qu’auparavant par le biais des médias traditionnels, de sorte que Facebook, à son avis, n’est pas nécessairement à blâmer pour exacerber la division ou alimenter les chambres d’écho, comme certains l’ont suggéré.

Mais malgré cela, même sur la base de ces déclarations, Facebook contribue à la division et à l’angoisse politique.

Comme l’a noté l’ancien chef de la division des publicités mobiles de Facebook, Andrew Bosworth, plus tôt cette année, alors que Facebook expose les utilisateurs à davantage de perspectives, selon ses conclusions internes, ce n’est pas nécessairement une bonne chose:

“Internet les expose à beaucoup plus de contenu provenant d’autres sources (26% de plus sur Facebook, selon nos recherches). C’est celui que tout le monde se trompe. L’accent mis sur les bulles de filtre fait manquer aux gens le vrai désastre qu’est la polarisation. Que se passe-t-il lorsque vous voyez 26% de contenu en plus de personnes avec lesquelles vous n’êtes pas d’accord? Cela vous aide-t-il à sympathiser avec eux comme tout le monde l’a suggéré? Non. Cela vous fait encore plus les détester. “

Essentiellement, Bosworth et Zuckerberg reconnaissent ici un problème clé, à savoir que Facebook exacerbe la division politique en s’exposant davantage à une plus large diffusion du contenu des actualités. Facebook pourrait chercher à minimiser cela, en remettant le fardeau aux utilisateurs et en notant que ce qu’ils lisent est leur choix. Mais les faits sont assez clairs – Facebook expose sciemment les utilisateurs à plus de contenu qui provoque l’angoisse. Et cela, encore une fois, a été reflété dans les nouvelles déclarations et rapports de cette semaine.

Dans une récente interview avec NBC, le chef d’Instagram, Adam Mosseri, a fait une note intéressante sur l’engagement d’Instagram, contrairement à Facebook:

“Nous avons pu apprendre de certaines des erreurs de Facebook. Les gens se sentent un peu mieux à propos de leur temps sur Instagram, probablement parce qu’il est un peu plus axé sur des choses moins litigieuses.”

Donc, encore une fois, les dirigeants de Facebook sont conscients des impacts négatifs que l’utilisation de Facebook peut avoir et comment, sur d’autres plateformes, ce n’est pas aussi présent. Cela étant, pourquoi Facebook ne travaille-t-il pas pour y remédier? Pourquoi, si l’équipe de Facebook sait qu’une exposition accrue à un contenu d’actualités plus polarisant laisse les utilisateurs moins satisfaits, ne cherche-t-elle pas à réviser son algorithme pour y remédier?

Encore une fois, Facebook, selon la déclaration de Zuckerberg ci-dessus, pourrait chercher à mettre le fardeau sur les utilisateurs et dire qu’il s’agit d’un “ problème d’affirmation humaine ”, mais Facebook pourrait sûrement exercer une certaine influence ici. Certes, l’algorithme pourrait être ajusté en fonction de ces résultats pour créer une expérience utilisateur plus positive et réduire les frictions politiques.

En effet, une nouvelle étude publiée par OpenX a constaté que les utilisateurs se sentent de moins en moins satisfaits de leur temps passé sur Facebook.
Étude de satisfaction sur Facebook

C’est sûrement une préoccupation, et un domaine que Facebook pourrait améliorer, s’il le voulait.

Alors pourquoi pas?

Cette constatation, tirée d’une étude sur ce qui rend le contenu plus partageable en ligne, réalisée en 2010, pourrait être pertinente:

“Les résultats suggèrent une forte relation entre l’émotion et la viralité: le contenu chargé d’affect – qu’il soit positif ou négatif – est plus susceptible de faire la liste la plus envoyée par e-mail. En outre, le contenu positif est plus viral que le contenu négatif; cependant, cette Le lien est complexe. Bien qu’un contenu plus impressionnant et plus surprenant soit plus susceptible de faire la liste la plus envoyée par e-mail, et que le contenu induisant la tristesse soit moins viral, certaines émotions négatives sont positivement associées à la viralité. Le contenu induisant plus d’anxiété et de colère est les deux sont plus susceptibles de faire la liste la plus envoyée par e-mail. En fait, le prédicteur le plus puissant de la viralité dans leur modèle est la colère qu’évoque un article. “

La colère est le prédicteur le plus puissant de la viralité. Le contenu qui provoque la colère est le plus susceptible d’être partagé en ligne.

C’est là que la défense de Facebook de ses systèmes, et de son algorithme de flux d’actualités en particulier, devient un peu fragile – dans une autre section de l’interview de NBC avec Mosseri, il note que:

“[Facebook investit] plus que quiconque dans ces problèmes. Vous pouvez être en désaccord avec des décisions politiques ou des décisions d’application spécifiques. Mais les gens qui nous accusent maintenant de ne pas avoir de bonnes intentions, de ne pas réellement essayer de prendre notre responsabilité au sérieux et de ne pas investir de manière appropriée pour résoudre ces problèmes, ne regardent tout simplement pas les faits réels. “

Et c’est vrai dans une large mesure. Mais Facebook est aussi une entreprise, et celle qui a connu une croissance continue, d’année en année. Et comme tous les médias le savent, la motivation émotionnelle est ce qui maximise l’engagement. Facebook le sait aussi, et avec la colère générant le plus d’engagement, il semble logique que Facebook soit, au moins, heureux de fermer les yeux sur les impacts négatifs potentiels de tels qu’ils aident la plateforme à générer plus d’interactions et de temps passé.

C’est peut-être pour cela que Facebook a tenu à pousser les groupes si fort ces derniers temps – si plus de gens prennent plus de leurs conversations qui divisent dans des groupes privés, cela limite l’exposition à la même chose dans le fil d’actualité, ce qui permettrait à Facebook de profiter de l’émotion / réponse en colère à de tels messages tout en réduisant l’impact plus large sur les utilisateurs moins intéressés.

Vous n’avez peut-être pas un intérêt majeur dans, disons, la présidence de Donald Trump, mais voir un message erroné de votre oncle soutenant Trump pourrait déclencher une réponse émotionnelle. Déplacer cette affectation de l’oncle dans un groupe privé et le risque d’exposition est réduit.

Peut-être que cela fait partie de la stratégie des groupes de Facebook?

Il est difficile de dire dans quelle mesure Facebook a une influence à cet égard et comment il peut être résolu, mais avec une telle part d’Internet alimentée par un contenu diviseur et sensationnaliste, il n’est vraiment pas étonnant que la division politique soit devenue si extrême. Et Facebook, peu importe à quoi ses dirigeants pourraient ressembler pour le faire tourner, joue un rôle important à cet égard.

Cela pourrait-il être résolu en modifiant l’algorithme? Supprimer complètement l’algorithme? Quels impacts cela aurait-il alors sur l’engagement Facebook?

L’équilibre des responsabilités par rapport aux avantages est une considération importante à cet égard.