Dubai Telegraph - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

EUR -
AED 4.246607
AFN 72.836971
ALL 95.988209
AMD 436.44581
ANG 2.069579
AOA 1060.176801
ARS 1608.790603
AUD 1.643499
AWG 2.083934
AZN 1.97002
BAM 1.953554
BBD 2.327913
BDT 141.823246
BGN 1.976193
BHD 0.436496
BIF 3433.722833
BMD 1.156136
BND 1.478219
BOB 7.98692
BRL 6.124098
BSD 1.155866
BTN 108.057219
BWP 15.761082
BYN 3.506783
BYR 22660.258427
BZD 2.324617
CAD 1.584894
CDF 2630.208986
CHF 0.911336
CLF 0.027173
CLP 1072.952133
CNY 7.961617
CNH 7.983279
COP 4295.63351
CRC 539.876895
CUC 1.156136
CUP 30.637594
CVE 110.816056
CZK 24.52284
DJF 205.46888
DKK 7.471717
DOP 68.212417
DZD 152.647385
EGP 60.388322
ERN 17.342035
ETB 181.687168
FJD 2.560205
FKP 0.866013
GBP 0.866414
GEL 3.138955
GGP 0.866013
GHS 12.607705
GIP 0.866013
GMD 84.980421
GNF 10147.984977
GTQ 8.853781
GYD 241.825078
HKD 9.057144
HNL 30.707411
HRK 7.532575
HTG 151.633679
HUF 393.293647
IDR 19618.465574
ILS 3.59457
IMP 0.866013
INR 108.402288
IQD 1514.537681
IRR 1521040.943935
ISK 143.812158
JEP 0.866013
JMD 181.590416
JOD 0.819746
JPY 184.071249
KES 149.839573
KGS 101.101638
KHR 4636.104298
KMF 493.670321
KPW 1040.465241
KRW 1737.72393
KWD 0.35446
KYD 0.963205
KZT 555.688646
LAK 24839.574501
LBP 103531.946431
LKR 360.563851
LRD 212.006417
LSL 19.666308
LTL 3.413768
LVL 0.699335
LYD 7.376585
MAD 10.822012
MDL 20.129116
MGA 4821.085995
MKD 61.715229
MMK 2427.622447
MNT 4127.028255
MOP 9.329732
MRU 46.396161
MUR 53.764632
MVR 17.874294
MWK 2008.207995
MXN 20.710673
MYR 4.554063
MZN 73.881379
NAD 19.458199
NGN 1567.986267
NIO 42.453736
NOK 11.059224
NPR 172.891204
NZD 1.980241
OMR 0.44452
PAB 1.155886
PEN 4.02224
PGK 4.984968
PHP 69.346754
PKR 322.797348
PLN 4.277841
PYG 7549.286912
QAR 4.213541
RON 5.094285
RSD 117.472674
RUB 96.105493
RWF 1686.80189
SAR 4.341061
SBD 9.308811
SCR 17.325632
SDG 694.837908
SEK 10.812736
SGD 1.481265
SHP 0.867401
SLE 28.412077
SLL 24243.598694
SOS 660.735749
SRD 43.340639
STD 23929.673396
STN 24.874258
SVC 10.113371
SYP 128.059734
SZL 19.458189
THB 37.961757
TJS 11.101879
TMT 4.058036
TND 3.363242
TOP 2.783697
TRY 51.227912
TTD 7.841949
TWD 36.970332
TZS 2990.534467
UAH 50.634759
UGX 4368.957522
USD 1.156136
UYU 46.576445
UZS 14099.074443
VES 525.68404
VND 30420.240803
VUV 137.62215
WST 3.172627
XAF 655.212115
XAG 0.016652
XAU 0.000253
XCD 3.124515
XCG 2.083096
XDR 0.816065
XOF 659.579533
XPF 119.331742
YER 275.858111
ZAR 19.718414
ZMK 10406.612213
ZMW 22.568343
ZWL 372.275202
  • AEX

    -16.0300

    961.62

    -1.64%

  • BEL20

    -88.0900

    4916.79

    -1.76%

  • PX1

    -142.1000

    7665.62

    -1.82%

  • ISEQ

    -203.0200

    11881.24

    -1.68%

  • OSEBX

    -31.9800

    1966.5

    -1.6%

  • PSI20

    -190.5700

    8756.26

    -2.13%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -27.8400

    3634.93

    -0.76%

  • N150

    -58.3500

    3755.58

    -1.53%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

I.Khan--DT