Le phénomène de bulle de filtres sur Twitter

Le phénomène de bulle de filtres sur Twitter

Définition et conceptualisation de la bulle de filtre 

Définition d’Eli Pariser

 Depuis la démocratisation du web, l’imaginaire d’utopie politique lié aux nouvelles   technologies s’est popularisé et dépeint Internet comme un village planétaire, une   idée soutenue par Marshall McLuhan . Alors qu’Internet est vu comme un outil6 servant les intérêts d’une démocratie horizontalisée et plus en plus participative, EliPariser définit de façon primaire la bulle de filtres comme “votre universd’information propre, personnel et unique, dans lequel vous vivez en ligne “.   

Un asservissement des populations à la Silicon Valley  

À partir de cette base, il développe le concept comme un phénomène qui ne    permettrait pas de voir ce qu’il y a au-delà, et qui correspond à ce que les grandesindustries du web pensent que nous souhaitons voir. Alors que la bulle de filtre ne touche pas seulement les réseaux sociaux, mais aussi les moteurs de recherches,notre travail se concentrera sur les réseaux sociaux et plus particulièrement surTwitter. Quoi qu’il en soit, pour Eli Pariser, il s’agirait d’un symptôme de  l’asservissement des populations aux entreprises de la Silicon Valley et serait undes symptômes de la fin du rôle des journalistes en tant que chiens de garde (“gatekeeper”), que gardiens de la sélection de l’information.   Dans son intervention TedX , il pose la question suivante : et si les algorithmes  étaient de nouveaux gardiens de l’information ? Dans son ouvrage majeur “  The Filter Bubble : how the new personalized web is changing what we read and how we  FLICHY Patrice, Du mythe d’Internet au cyber-imaginaire. Dans  »L’imaginaire d’Internet ». Paris : La  Découverte, 2001. pp. 113-134  7 PARISER Eli, « Eli Pariser nous met en garde contre « les bulles de filtres’’ en ligne’’ [vidéo en ligne].  Ted Conference, Mars 2011. Disponible sur  https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=fr  15 think”, il donne un exemple phare qui sera repris à multiples reprises plus tard pour 8 illustrer le concept : il a demandé à deux de ses amies au profil sociologique similaire (deux femmes blanches éduquées de gauche qui vivent dans le Nord-estdes États-Unis) de lancer une recherche sur Google avec le terme “BP”, désignant  la compagnie mondiale de pétrole. Résultats : tandis que l’une voyait desinformations sur les investissements financiers, l’autre avait le droit à des   informations sur la marée noire. Le nombre même de résultats de la recherche  différait entre les deux (la première ayant obtenu 180 millions de résultats, l’autre 139 millions). Eli Pariser affirme que cette différence de résultats est liée aux  recherches que les deux cobayes ont effectuées précédemment, mais rien n’est   moins sûr : selon lui, “la bulle de filtres est invisible” (“ the filter bubble is invisible  ”). L’auteur utilise cette affirmation parmi les trois dynamiques qui caractérisent la bulle  de filtres, les deux autres étant “ you’re alone in it  ” et “you don’t choose to enter the   bubble” que nous détaillerons par la suite.   Inspiré du modèle méritocratique pionnier d’Internet, le PageRank, qui est le système de classement des résultats de recherches sur Google, se détache peu à  peu de son modèle initial. Il consistait à afficher les mêmes résultats pour tous,    établis dans un ordre précis, en fonction d’une pertinence qui se voulait   “universelle”. Aujourd’hui, avec la lutte pour la visibilité, les critères du PageRankreposent de façon non-exhaustive sur l’audience, la communauté et la vitesse de chargement de la page, ce qui amène Google à placer en haut des hiérarchies les  acteurs plus puissants du web. Cependant, pour Eli Pariser, l’offre de résultats de plus en plus personnalisée qui   s’appuie sur l’historique de l’internaute enferme alors l’internaute dans son propre  cadre de représentations et limite les occasions de se confronter à des opinions   divergentes (par exemple, pas d’informations sur les dangers de marée noire pour   l’amie-cobaye qui a reçu les informations financières). Ainsi, outre les enjeux  sociétaux qui y sont liés, les logiques commerciales conquièrent Internet comme  PARISER Eli, “The Filter Bubble : how the new personalized web is changing what we read and how  we think”. États-Unis : Éditions The Penguin Group, 2011, p. 2  16 elles l’ont fait avec les autres médias. Cela rejoint l’idée de Jurgen Habermas qui,  dans le contexte du journalisme écrit, a montré comment l’espace public de laraison s’est « réféodalisée » dans la seconde moitié du XIXè siècle avec les logiques commerciales et la massification de la presse. Les logiques marchandes imposent donc de plus en plus leur propre hiérarchie à la tête de l’information, ce qui porte préjudice à la diversité d’Internet.  

L’opacité des algorithmes 

 Par l’invisibilité de la bulle de filtres, Eli Pariser souhaite fait ressortir l’opacité des  entreprises de la Silicon Valley, dans la mesure où Google n’informe pas l’utilisateur  sur ce que l’entreprise pense qu’il est, le profil qu’elle a dressé de lui, ni les raisons pour lesquelles les résultats de recherches qu’il obtient lui sont montrés. L’auteur précise que c’est la raison pour laquelle son amie qui a obtenu des informations sur   les investissements financiers de BP ignore toujours pourquoi elle a reçu ces  informations (elle n’est pas courtière ni impliquée dans l’achat d’actions  financières). Conséquence de cette opacité : l’impossibilité de bien comprendre et  de mesurer le biais cognitif induit par la bulle de filtres et la personnalisation du   web.  Les deux autres critères émis pour la caractérisation de la bulle de filtres sont :  premièrement, le fait que l’internaute est isolé dans cette bulle puisqu’elle résulte de  l’ultra-personnalisation du web ; et deuxièmement, le fait qu’elle soit imposée à   l’utilisateur, ne lui donnant pas d’autres alternatives que de recevoir les informations  que la plateforme lui adresse : contrairement aux usages relatifs aux médias  sociaux, lorsqu’un utilisateur fait le choix d’acheter un titre de presse donné, ou de regarder une chaîne de télévision précise, il fait un choix idéologique conscient, décide de l’univers informationnel, du prisme idéologique, de la bulle de filtres qu’il  souhaite pénétrer.   En choisissant un média, l’individu choisit les lunettes qu’il souhaite porter pour   procéder à la lecture du monde. Ce n’est pas le cas avec la bulle de filtre, puisque  ce que l’on trouve en ligne correspond à la paire de lunettes que les entreprises du web auront décidé pour l’utilisateur en se basant sur ce qu’elles pensent qu’il  souhaite. Néanmoins, nous pouvons penser que cela est d’autant plus coercitif    pour les moteurs de recherches, mais que ce dernier critère peut être limité concernant un réseau social comme Twitter, où l’utilisateur fait le choix conscientde suivre tel ou tel compte, tel ou tel média d’information. Malgré cela, même s’il   suit des médias contraires à ses opinions, nous présumons que les tweets de ce   média apparaîtront de manière moindre dans son fil d’actualité, puisqu’il sera moins    susceptible de cliquer sur les contenus.   Derrière ces univers informationnels régis par les algorithmes, les intérêts des entreprises responsables sont bien évidemment commerciaux : Eli Pariser soutient que plus les informations sont pertinentes pour l’utilisateur, plus les publicités le  seront aussi et ainsi, plus les utilisateurs seront susceptibles de procéder à l’acte de   consommation des offres de l’annonceur sur lequel il tombe.   Enfin, outre la personnalisation des données, les internautes font aujourd’hui face à un nouvel enjeu : la prédiction. Il y a quelques années, le coeur de la personnalisation du web était de donner à voir ce que l’utilisateur préfère.    Aujourd’hui, il s’agit de prédire ce que l’utilisateur souhaite. 

Les contenus positifs privilégiés 

Cet enjeu commercial reste difficile à faire cohabiter avec l’enjeu informationnel,   puisqu’une scission doit être faite entre l’individu comme consommateur et  l’individu comme citoyen. Sur Twitter, le fait de “favoriser un tweet” à travers  l’apposition d’un coeur sur un contenu en ligne est une façon d’évaluer    positivement un contenu. C’est là que se joue aussi la popularité d’un tweet, et par   conséquent, sa visibilité dans le fil d’actualité, comme le montre le tweet ci-dessous, qui est apparu sur mon fil d’actualité parce qu’un de mes abonnements a favorisé ce tweet de l’utilisateur @oafale alors que je ne suis pas abonnée au  compte de ce dernier mais seulement à celui de l’utilisateur l’ayant “favorisé” :  18 Exemple d’apparition de tweet sur un fil d’actualité Twitter  Le fait que la popularité des contenus se matérialise sous forme de coeur, et qu’il  n’existe pas de façon de ratifier négativement donne donc la priorité aux contenus à  valeur émotionnelle positive. En effet, il apparaît plus difficile d’apposer un coeur sur  un tweet qui mentionne un article de presse sur les horreurs qui ont lieu dans le  contexte de la guerre civile en Syrie que sur un tweet non seulement au caractère  humoristique, mais qui montre aussi la situation cocasse impliquant un petit chiot.   Mécaniquement, le tweet drôle du petit chiot aura plus de facilité à être vu par ungrand nombre de personnes que l’article de presse géopolitique, qu’on suppose à valeur informationnelle plus importante. D’une certaine façon, la bulle de filtres crée  donc une certaine zone de confort non seulement idéologique, mais aussi   émotionnelle. Le fait que les contenus “agréables” soient privilégiés par rapport aux   contenus informationnels “désagréables” joue sur l’asymétrie de l’information, et par conséquent, le travail démocratique.  Nous retrouvons également cette préférence pour les contenus humoristiques dans   le cadre de la présidentielle. Dans notre échantillon mélenchoniste, les quatre tweets ayant été le plus partagés dans la première quinzaine d’avril necorrespondent qu’à des contenus émotions ou drôles. Le tweet le plus partagé reprend le passage télévisé de Mélenchon dans l’Émission Politique de France 2 où   il répond à une électrice du Front National sur la question des migrants.  Les quatre tweets les plus partagés dans l’écosystème-éprouvette mélenchoniste  du 1er au 15 avril 2017 

Médias sociaux : une contre-utopie de l’information ?

Alors que les modes de consommation de l’information connaissent une véritable  évolution, les contenus se retrouvent de plus en plus variés et diversifiés. Avec le  web social, les usages sont a priori de plus en plus participatifs et engageants pourl’individu.

Une évolution des usages sociaux de l’actualité 

D’après une étude de William H. Dutton après de citoyens européens et   nord-américains (Grande-Bretagne, France, Allemagne, Pologne, Espagne et   États-Unis), près de trois quarts des internautes des pays étudiés déclarent    rechercher en ligne   souvent ou très souvent  des informations sur des sujets d’actualités. Un élément central est pourtant à prendre en compte dans les usages   sociaux de l’information, d’autant plus renforcé en ligne en raison de la fracture  numérique : le rôle du capital culturel. Fabien Granjon et Aurélien le Goulgoc ont  effectué une enquête qualitative auprès d’individus issus de tout milieu rendent  compte de l’observation suivante : tandis que face au flot continu d’information, la part de l’échantillon la moins diplômée montre une certaine inquiétude, les plus   individus les plus diplômés perçoivent cette abondance comme une aubaine qui permet de disposer rapidement de toutes les informations qu’ils estiment avoir besoin.   En effet, le niveau d’études et le capital culturel permettent une meilleure    connaissance de l’environnement médiatique. Par conséquent, cette aisance marque une certaine inégalité par rapport à la compréhension non seulement des contenus d’actualité, mais aussi du champ médiatique : les plus diplômés connaissent le nom des journalistes, leurs orientations politiques, leurs prises de   position, etc, qu’il s’agisse de presse écrite ou d’autres médias.   L’accès à l’information dont l’inégalité vient déjà du niveau d’études, se retrouvedécuplée lorsqu’il est couplé à la fracture numérique, qui est elle aussi liée au    niveau d’études : le biais n’en est que renforcé. En effet, la massification des   usages creuse la fracture numérique : ce qui voulait rendre les individus égaux ne  fait qu’amplifier les inégalités géographiques et sociales. En somme, les capitaux  économiques et culturels sont assez disparates entre les individus pour que l’accès à Internet, et donc à l’information qu’on y trouve, ne soit pas le même pour tous. 

Table des matières

Remerciements
Sommaire détaillé
Introduction
Contexte général
Problématique et hypothèses
Méthodologie
Corpus
Annonce du plan
I. Définition et conceptualisation de la bulle de filtre
1 – Définition d’Eli Pariser
A – Un asservissement des populations à la Silicon Valley
B – L’opacité des algorithmes
C – Les contenus positifs privilégiés
2 – Médias sociaux : une contre-utopie de l’information ?
A – Une évolution des usages sociaux de l’actualité
B – Faire communauté en ligne : le confort cognitif
C – “Code is law” : l’algorithme roi ?
3 – Des logiques traditionnelles dans l’espace virtuel
A – Réception des messages médiatiques : des publics résistants
B – Du leader d’opinion cosmopolite à l’influenceur
II. Cyberespace & changement de paradigme
1 – Web social : un changement de paradigme
A – Internet comme espace (im)politique
B – Le modèle de la longue traîne dans l’information
2 – Une reconfiguration de l’espace public
A – Transformer l’espace public en espaces éclatés
B – La polarisation politique en ligne
3 – Une polarisation médiatique ?
A – La diversité des sources médiatiques partagées
B – L’uniformisation de l’information contre la polarisation politique
III. La bulle de filtres : un enjeu surévalué
1 – Des acteurs médiatiques traditionnels en perte de vitesse ?
A – La légitimité des médias dominants questionnée
B – La popularité des sources d’information alternatives
C – L’émergence d’un cinquième pouvoir
2 – Leviers algorithmiques : le jeu militant
A – Les algorithmes comme supports de désinformation en ligne
B – L’altération de l’opinion publique : le cas #MacronLeaks
3 – Des publics actifs et informés
A – Un tiers espace pour les discussions politiques
B – Une responsabilité civique pour les plateformes
Conclusion
Recommandation professionnelle
Sources
Presse
Ouvrages bibliographiques
Articles académiques
Annexes
Résumé
Mots-clés du mémoire

projet fin d'etude

Télécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *