Les bulles de filtres sur les médias socionumériques et formation de l’opinion (Alg-opinion)

Promoteurs

Marie Dufrasne (USL-B, également coordinatrice) et Thibault Philippette (UCL)

Chercheur

Arnaud Claes (doctorant UCL), Heidi Mercenier (post-doc USL-B) et Victor Wiard (post-doc USL-B)

Collaborateurs

Raphaël Jungers (UCL), Philippe Dumont de Chassart (UCL)

Durée du projet

2018 - 2022

Mots-clés

Appropriation des technologies, éducation aux médias, algorithmes, opinion, bulles de filtres

Source de financement

Anticipate - Innoviris

Description

La recherche ALG-OPINION s’intéresse aux effets des « bulles de filtres » ou « bulles informationnelles » sur la formation des opinions. Cette notion désigne d’un point de vue technique, l’espace informationnel rendu immédiatement accessible à un·e internaute par une plateforme numérique, résultant de nombreux processus algorithmiques de filtrage et de profilage et, d’un point de vue social, l’isolement intellectuel et culturel éprouvé par les internautes, lorsque les informations auxquelles ils et elles accèdent en ligne sont le résultat de processus algorithmiques difficilement intelligibles.

Les bulles informationnelles soulèvent une série d’interrogations quant à la vulnérabilité de certains publics (les adolescent·e·s, les jeunes ou les peu instruit·e·s notamment), à leur impact sur la formation des opinions et au peu d’intelligibilité des algorithmes utilisés dans le cadre de la recherche informationnelles (l’actualité notamment).

La présente recherche se propose, en conséquence, d’étudier les effets des différents types d’algorithmes et d’interfaces afin de donner à l’expression de « bulle informationnelle » une assise empirique et conceptuelle solide – dans l’espoir d’en faire un levier pour l’action publique et médiatique. Les enjeux de cette recherche sont :

1. Les effets des algorithmes sur la formation des opinions : étudier les pratiques de recherche informationnelle de populations bruxelloises identifiées comme sensibles (les jeunes entre 16 et 18 ans presqu’en âge de voter); rendre compte des interactions complexes entre situations sociales, requêtes informationnelles et recommandations algorithmiques ; analyser les conséquences sur la formation des opinions et la construction des problèmes publics.

2. L’éducation critique aux pratiques numériques et aux effets des algorithmes : développer des moyens de sensibilisation et d’éducation permanente (modules de formation) permettant aux individus de développer un jugement plus critique face aux algorithmes, et d’adopter des stratégies permettant d’agir sur les effets d’orientation qu’ont ceux-ci.

3. Une innovation « vers une algorithmique plus citoyenne » : élaborer des métriques permettant de mesurer, avec plus de nuance et de précision, les différentes formes d’isolement informationnel, développer des tests standards permettant de vérifier les performances (benchmarks) des algorithmes de recommandation au regard de ces nouvelles mesures.