Dubai Telegraph - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.330578
AFN 75.468553
ALL 95.370831
AMD 434.26718
ANG 2.110613
AOA 1082.496254
ARS 1649.279971
AUD 1.625347
AWG 2.125489
AZN 2.009303
BAM 1.955202
BBD 2.368676
BDT 144.305864
BGN 1.967008
BHD 0.444064
BIF 3500.4294
BMD 1.179189
BND 1.491244
BOB 8.126515
BRL 5.795828
BSD 1.17604
BTN 111.057033
BWP 15.789171
BYN 3.323484
BYR 23112.111202
BZD 2.365277
CAD 1.612129
CDF 2670.864298
CHF 0.916177
CLF 0.026704
CLP 1050.508704
CNY 8.019372
CNH 8.014083
COP 4394.855841
CRC 540.634648
CUC 1.179189
CUP 31.248518
CVE 110.231286
CZK 24.334582
DJF 209.425947
DKK 7.476537
DOP 69.938609
DZD 156.038276
EGP 62.195977
ERN 17.68784
ETB 183.631137
FJD 2.574218
FKP 0.865474
GBP 0.864889
GEL 3.154379
GGP 0.865474
GHS 13.247948
GIP 0.865474
GMD 86.674958
GNF 10318.844
GTQ 8.979254
GYD 246.064742
HKD 9.234999
HNL 31.264438
HRK 7.538916
HTG 153.972908
HUF 353.981307
IDR 20491.303919
ILS 3.421187
IMP 0.865474
INR 111.345548
IQD 1540.628801
IRR 1546506.829043
ISK 143.873347
JEP 0.865474
JMD 185.35331
JOD 0.836092
JPY 184.753623
KES 151.883547
KGS 103.085327
KHR 4718.556838
KMF 492.90156
KPW 1061.251335
KRW 1723.751231
KWD 0.36279
KYD 0.9801
KZT 543.543758
LAK 25791.111834
LBP 105315.489444
LKR 378.634195
LRD 215.803997
LSL 19.293799
LTL 3.48184
LVL 0.71328
LYD 7.436725
MAD 10.75591
MDL 20.110849
MGA 4912.497521
MKD 61.621153
MMK 2476.100645
MNT 4223.124889
MOP 9.4824
MRU 47.006623
MUR 55.210091
MVR 18.163925
MWK 2038.876413
MXN 20.255648
MYR 4.623647
MZN 75.362436
NAD 19.293799
NGN 1609.593864
NIO 43.276764
NOK 10.859513
NPR 177.691653
NZD 1.976185
OMR 0.453611
PAB 1.17604
PEN 4.066156
PGK 5.193412
PHP 71.358689
PKR 327.765953
PLN 4.239717
PYG 7183.802847
QAR 4.298685
RON 5.21945
RSD 117.334114
RUB 87.543025
RWF 1724.072695
SAR 4.44258
SBD 9.456429
SCR 17.539736
SDG 708.107537
SEK 10.86706
SGD 1.494509
SHP 0.880384
SLE 29.067455
SLL 24727.006491
SOS 672.094441
SRD 44.100547
STD 24406.83871
STN 24.492509
SVC 10.290853
SYP 130.375396
SZL 19.281103
THB 37.973479
TJS 10.972544
TMT 4.127163
TND 3.415955
TOP 2.839205
TRY 53.473293
TTD 7.970562
TWD 36.927538
TZS 3063.662984
UAH 51.6595
UGX 4406.652233
USD 1.179189
UYU 46.905654
UZS 14265.63688
VES 588.693738
VND 31022.113342
VUV 139.685143
WST 3.192143
XAF 655.756438
XAG 0.014675
XAU 0.00025
XCD 3.186819
XCG 2.119552
XDR 0.815551
XOF 655.756438
XPF 119.331742
YER 281.384102
ZAR 19.315959
ZMK 10614.123377
ZMW 22.390152
ZWL 379.698489
  • AEX

    -1.9400

    1017.5

    -0.19%

  • BEL20

    -6.5600

    5463.32

    -0.12%

  • PX1

    -89.4000

    8112.57

    -1.09%

  • ISEQ

    -222.6400

    12721.67

    -1.72%

  • OSEBX

    -8.9100

    1970.28

    -0.45%

  • PSI20

    -66.6800

    9067.26

    -0.73%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -6.0000

    3992.65

    -0.15%

  • N150

    -9.6600

    4189.18

    -0.23%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

F.El-Yamahy--DT