Dubai Telegraph - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

EUR -
AED 4.268348
AFN 72.644925
ALL 95.516681
AMD 429.450195
ANG 2.080952
AOA 1066.940946
ARS 1620.719045
AUD 1.625972
AWG 2.093493
AZN 1.98043
BAM 1.955118
BBD 2.345482
BDT 142.940138
BGN 1.940855
BHD 0.439247
BIF 3467.290505
BMD 1.162245
BND 1.488681
BOB 8.047193
BRL 5.877243
BSD 1.164494
BTN 111.695037
BWP 16.472254
BYN 3.24067
BYR 22779.993656
BZD 2.342083
CAD 1.598726
CDF 2612.149237
CHF 0.91464
CLF 0.026525
CLP 1043.955837
CNY 7.914774
CNH 7.919977
COP 4404.863452
CRC 528.215743
CUC 1.162245
CUP 30.799481
CVE 110.22655
CZK 24.31021
DJF 207.367664
DKK 7.471262
DOP 69.57573
DZD 154.270186
EGP 61.40658
ERN 17.433669
ETB 181.830172
FJD 2.561762
FKP 0.871953
GBP 0.872
GEL 3.115269
GGP 0.871953
GHS 13.316355
GIP 0.871953
GMD 84.267207
GNF 10211.437945
GTQ 8.883901
GYD 243.635013
HKD 9.103688
HNL 30.970197
HRK 7.532628
HTG 152.466815
HUF 361.702584
IDR 20458.933129
ILS 3.393104
IMP 0.871953
INR 111.541198
IQD 1525.567836
IRR 1533000.593877
ISK 143.572521
JEP 0.871953
JMD 184.005813
JOD 0.824077
JPY 184.442989
KES 150.107638
KGS 101.638735
KHR 4672.370137
KMF 492.792107
KPW 1046.008455
KRW 1741.106341
KWD 0.358716
KYD 0.970461
KZT 546.699295
LAK 25539.0912
LBP 104282.623097
LKR 382.546556
LRD 213.105662
LSL 19.289871
LTL 3.431807
LVL 0.703031
LYD 7.394421
MAD 10.734555
MDL 20.145972
MGA 4847.309113
MKD 61.623504
MMK 2440.794791
MNT 4159.171684
MOP 9.392424
MRU 46.743694
MUR 54.823516
MVR 17.910628
MWK 2019.295609
MXN 20.149374
MYR 4.59029
MZN 74.271763
NAD 19.289871
NGN 1592.845004
NIO 42.855051
NOK 10.814225
NPR 178.71166
NZD 1.985555
OMR 0.446324
PAB 1.164494
PEN 3.992307
PGK 5.07323
PHP 71.603608
PKR 324.347558
PLN 4.246552
PYG 7096.52452
QAR 4.245019
RON 5.155838
RSD 117.349065
RUB 84.565601
RWF 1703.505766
SAR 4.403345
SBD 9.316927
SCR 15.793786
SDG 697.932139
SEK 10.984146
SGD 1.488491
SHP 0.867733
SLE 28.595478
SLL 24371.690047
SOS 665.56783
SRD 43.52959
STD 24056.116125
STN 24.491457
SVC 10.189446
SYP 128.612249
SZL 19.29327
THB 37.895028
TJS 10.86501
TMT 4.079478
TND 3.408311
TOP 2.798406
TRY 52.908283
TTD 7.904243
TWD 36.69962
TZS 3039.439752
UAH 51.419363
UGX 4372.47475
USD 1.162245
UYU 46.643729
UZS 13945.135519
VES 592.917692
VND 30630.955755
VUV 137.276573
WST 3.145456
XAF 655.728262
XAG 0.015287
XAU 0.000256
XCD 3.141025
XCG 2.098768
XDR 0.815516
XOF 655.728262
XPF 119.331742
YER 277.315726
ZAR 19.39541
ZMK 10461.600028
ZMW 21.922353
ZWL 374.242279
  • AEX

    -11.1400

    1010.44

    -1.09%

  • BEL20

    -65.2800

    5467.27

    -1.18%

  • PX1

    -129.3100

    7952.55

    -1.6%

  • ISEQ

    -187.5200

    12397.73

    -1.49%

  • OSEBX

    31.9700

    2017.85

    +1.61%

  • PSI20

    -91.2400

    9033.06

    -1%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -42.5700

    4090.69

    -1.03%

  • N150

    -7.1900

    4219.51

    -0.17%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

I.Khan--DT