Dubai Telegraph - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

EUR -
AED 4.278799
AFN 77.332466
ALL 96.575617
AMD 445.1876
ANG 2.085576
AOA 1068.388216
ARS 1684.735918
AUD 1.75613
AWG 2.09862
AZN 1.984015
BAM 1.955298
BBD 2.351906
BDT 142.873314
BGN 1.955951
BHD 0.439244
BIF 3450.13256
BMD 1.165091
BND 1.512264
BOB 8.068928
BRL 6.18139
BSD 1.167705
BTN 104.895516
BWP 15.51395
BYN 3.380546
BYR 22835.780461
BZD 2.348507
CAD 1.624445
CDF 2598.152383
CHF 0.935795
CLF 0.027249
CLP 1068.972737
CNY 8.239114
CNH 8.235468
COP 4423.838268
CRC 572.550529
CUC 1.165091
CUP 30.874907
CVE 110.236695
CZK 24.215228
DJF 207.947498
DKK 7.468599
DOP 74.200629
DZD 151.573688
EGP 55.422094
ERN 17.476363
ETB 182.080866
FJD 2.631882
FKP 0.872491
GBP 0.87341
GEL 3.139877
GGP 0.872491
GHS 13.301585
GIP 0.872491
GMD 85.051785
GNF 10146.786517
GTQ 8.944742
GYD 244.307269
HKD 9.07004
HNL 30.745973
HRK 7.537941
HTG 152.955977
HUF 381.927241
IDR 19422.821609
ILS 3.76036
IMP 0.872491
INR 104.791181
IQD 1529.71378
IRR 49079.451231
ISK 149.003201
JEP 0.872491
JMD 187.141145
JOD 0.82607
JPY 180.711448
KES 150.704566
KGS 101.886647
KHR 4676.939601
KMF 491.66861
KPW 1048.573823
KRW 1715.887947
KWD 0.35759
KYD 0.973154
KZT 590.220982
LAK 25331.604319
LBP 104570.198293
LKR 360.448994
LRD 206.107962
LSL 19.822595
LTL 3.44021
LVL 0.704752
LYD 6.347397
MAD 10.774234
MDL 19.862985
MGA 5193.64414
MKD 61.624177
MMK 2446.620372
MNT 4131.997126
MOP 9.362236
MRU 46.266921
MUR 53.675364
MVR 17.954132
MWK 2024.871384
MXN 21.185039
MYR 4.789718
MZN 74.447687
NAD 19.822595
NGN 1690.547045
NIO 42.970442
NOK 11.774198
NPR 167.831186
NZD 2.017279
OMR 0.448002
PAB 1.1678
PEN 3.926892
PGK 4.952877
PHP 68.813177
PKR 329.883811
PLN 4.230421
PYG 8097.955442
QAR 4.268104
RON 5.093784
RSD 117.405001
RUB 89.428762
RWF 1699.056442
SAR 4.372624
SBD 9.581501
SCR 15.83572
SDG 700.739077
SEK 10.962357
SGD 1.508886
SHP 0.87412
SLE 26.796781
SLL 24431.370198
SOS 666.226074
SRD 45.023191
STD 24115.028075
STN 24.494657
SVC 10.21742
SYP 12883.858981
SZL 19.816827
THB 37.09708
TJS 10.731491
TMT 4.077818
TND 3.427635
TOP 2.805259
TRY 49.532165
TTD 7.917001
TWD 36.455959
TZS 2842.8212
UAH 49.235746
UGX 4139.936989
USD 1.165091
UYU 45.74845
UZS 13910.428222
VES 289.625154
VND 30711.794538
VUV 142.222766
WST 3.250779
XAF 655.7858
XAG 0.020016
XAU 0.000276
XCD 3.148716
XCG 2.104569
XDR 0.815587
XOF 655.791427
XPF 119.331742
YER 277.75676
ZAR 19.715959
ZMK 10487.212054
ZMW 26.828226
ZWL 375.158775
  • AEX

    3.0300

    950.79

    +0.32%

  • BEL20

    37.1000

    5050.3

    +0.74%

  • PX1

    4.8700

    8126.99

    +0.06%

  • ISEQ

    52.2600

    12798.14

    +0.41%

  • OSEBX

    7.1500

    1632.45

    +0.44%

  • PSI20

    -18.1300

    8220.77

    -0.22%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -40.8400

    4350.18

    -0.93%

  • N150

    21.6600

    3693.4

    +0.59%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: Chris Delmas - AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

F.El-Yamahy--DT