Dubai Telegraph - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.385863
AFN 77.625902
ALL 96.496787
AMD 452.681252
ANG 2.137792
AOA 1095.121647
ARS 1725.099786
AUD 1.696815
AWG 2.151132
AZN 2.027435
BAM 1.952691
BBD 2.406679
BDT 146.017548
BGN 2.005577
BHD 0.450221
BIF 3539.6096
BMD 1.194244
BND 1.507819
BOB 8.256856
BRL 6.211184
BSD 1.194903
BTN 109.757731
BWP 15.63511
BYN 3.397506
BYR 23407.179097
BZD 2.403184
CAD 1.618338
CDF 2675.106521
CHF 0.917907
CLF 0.026011
CLP 1027.037422
CNY 8.305548
CNH 8.29219
COP 4383.304789
CRC 593.065805
CUC 1.194244
CUP 31.647462
CVE 110.090204
CZK 24.311759
DJF 212.780375
DKK 7.46686
DOP 75.181574
DZD 154.372194
EGP 55.928108
ERN 17.913657
ETB 185.802613
FJD 2.619036
FKP 0.866545
GBP 0.866042
GEL 3.218488
GGP 0.866545
GHS 13.060209
GIP 0.866545
GMD 87.179544
GNF 10485.439474
GTQ 9.167444
GYD 249.992027
HKD 9.321013
HNL 31.5338
HRK 7.530184
HTG 156.480891
HUF 380.865847
IDR 20062.102125
ILS 3.681119
IMP 0.866545
INR 109.817706
IQD 1565.314661
IRR 50307.521589
ISK 144.802028
JEP 0.866545
JMD 187.31181
JOD 0.846677
JPY 183.213121
KES 153.997363
KGS 104.436889
KHR 4803.41357
KMF 492.028581
KPW 1074.899637
KRW 1713.788253
KWD 0.366179
KYD 0.995819
KZT 602.054085
LAK 25743.126182
LBP 107003.50448
LKR 370.002526
LRD 221.059012
LSL 18.999733
LTL 3.526292
LVL 0.722386
LYD 7.504023
MAD 10.803901
MDL 20.038184
MGA 5331.512534
MKD 61.593164
MMK 2508.405093
MNT 4259.73915
MOP 9.602953
MRU 47.700862
MUR 53.919881
MVR 18.463461
MWK 2072.001491
MXN 20.51293
MYR 4.690389
MZN 76.145062
NAD 18.999733
NGN 1664.513237
NIO 43.970554
NOK 11.432294
NPR 175.612171
NZD 1.970777
OMR 0.459185
PAB 1.194898
PEN 3.998135
PGK 5.114922
PHP 70.471092
PKR 334.274054
PLN 4.204049
PYG 8024.192345
QAR 4.344602
RON 5.09585
RSD 117.380227
RUB 90.473105
RWF 1743.324726
SAR 4.478888
SBD 9.646715
SCR 16.801913
SDG 718.34237
SEK 10.56403
SGD 1.511052
SHP 0.895992
SLE 29.017334
SLL 25042.695149
SOS 681.714749
SRD 45.491212
STD 24718.436143
STN 24.461366
SVC 10.455399
SYP 13207.829097
SZL 18.991846
THB 37.271749
TJS 11.166371
TMT 4.179853
TND 3.417274
TOP 2.875452
TRY 51.860284
TTD 8.110123
TWD 37.505822
TZS 3039.350406
UAH 51.077388
UGX 4278.189365
USD 1.194244
UYU 45.218204
UZS 14457.04573
VES 428.107931
VND 31050.339618
VUV 142.79457
WST 3.244534
XAF 654.914413
XAG 0.010053
XAU 0.000216
XCD 3.227503
XCG 2.153481
XDR 0.814503
XOF 654.911676
XPF 119.331742
YER 284.711769
ZAR 18.850494
ZMK 10749.631313
ZMW 23.748293
ZWL 384.546026
  • AEX

    9.4700

    1006.63

    +0.95%

  • BEL20

    5.3800

    5385.62

    +0.1%

  • PX1

    48.4000

    8115.3

    +0.6%

  • ISEQ

    -15.6100

    12990.85

    -0.12%

  • OSEBX

    10.8500

    1760.35

    +0.62%

  • PSI20

    58.0400

    8721.22

    +0.67%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -125.5000

    4085.85

    -2.98%

  • N150

    17.6700

    3944.95

    +0.45%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

F.El-Yamahy--DT