Dubai Telegraph - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

EUR -
AED 4.233821
AFN 72.629104
ALL 95.991075
AMD 434.073714
ANG 2.063687
AOA 1057.158744
ARS 1604.449029
AUD 1.67734
AWG 2.078002
AZN 1.956585
BAM 1.958849
BBD 2.322314
BDT 141.480201
BGN 1.970567
BHD 0.435213
BIF 3425.834841
BMD 1.152844
BND 1.485099
BOB 7.967366
BRL 5.972307
BSD 1.152995
BTN 107.392832
BWP 15.818552
BYN 3.416488
BYR 22595.748257
BZD 2.318899
CAD 1.603515
CDF 2645.776996
CHF 0.921235
CLF 0.026765
CLP 1056.811394
CNY 7.922371
CNH 7.956949
COP 4234.293354
CRC 536.530408
CUC 1.152844
CUP 30.550374
CVE 110.436885
CZK 24.540137
DJF 205.301725
DKK 7.472166
DOP 69.698177
DZD 153.489499
EGP 62.657017
ERN 17.292664
ETB 180.04945
FJD 2.598281
FKP 0.864816
GBP 0.872732
GEL 3.100899
GGP 0.864816
GHS 12.677677
GIP 0.864816
GMD 84.731883
GNF 10114.74269
GTQ 8.82069
GYD 241.304638
HKD 9.03519
HNL 30.629406
HRK 7.541676
HTG 151.33554
HUF 383.82279
IDR 19609.881523
ILS 3.633909
IMP 0.864816
INR 107.312516
IQD 1510.537914
IRR 1520457.524098
ISK 144.404935
JEP 0.864816
JMD 181.782929
JOD 0.817333
JPY 184.021045
KES 149.996484
KGS 100.814851
KHR 4611.156853
KMF 491.976371
KPW 1037.553462
KRW 1748.334103
KWD 0.356632
KYD 0.960891
KZT 546.378019
LAK 25388.404664
LBP 103252.455374
LKR 363.754599
LRD 211.560924
LSL 19.592669
LTL 3.40405
LVL 0.697344
LYD 7.373476
MAD 10.83276
MDL 20.287488
MGA 4820.481741
MKD 61.719914
MMK 2420.536169
MNT 4118.322511
MOP 9.308548
MRU 45.805299
MUR 54.126351
MVR 17.811475
MWK 1999.13807
MXN 20.679433
MYR 4.656362
MZN 73.73584
NAD 19.592925
NGN 1592.043957
NIO 42.425664
NOK 11.22947
NPR 171.828531
NZD 2.019444
OMR 0.443271
PAB 1.15299
PEN 3.989109
PGK 4.987763
PHP 69.925199
PKR 321.718535
PLN 4.285174
PYG 7458.446663
QAR 4.204107
RON 5.098795
RSD 117.41149
RUB 92.457343
RWF 1684.013713
SAR 4.327653
SBD 9.234254
SCR 16.05308
SDG 692.85901
SEK 10.947756
SGD 1.483659
SHP 0.864932
SLE 28.360267
SLL 24174.581004
SOS 658.868318
SRD 43.0749
STD 23861.549402
STN 24.538191
SVC 10.088702
SYP 127.445693
SZL 19.583782
THB 37.7666
TJS 11.050741
TMT 4.034955
TND 3.399191
TOP 2.775772
TRY 51.292921
TTD 7.822141
TWD 36.863364
TZS 3003.159558
UAH 50.498597
UGX 4325.732615
USD 1.152844
UYU 46.691659
UZS 14008.499192
VES 545.670264
VND 30361.307453
VUV 138.494083
WST 3.194388
XAF 656.976676
XAG 0.016311
XAU 0.00025
XCD 3.115619
XCG 2.078025
XDR 0.811002
XOF 656.97953
XPF 119.331742
YER 275.097466
ZAR 19.603391
ZMK 10376.981865
ZMW 22.281583
ZWL 371.215394
  • AEX

    -1.0700

    975.66

    -0.11%

  • BEL20

    9.9200

    5230.92

    +0.19%

  • PX1

    -14.3700

    7966.9

    -0.18%

  • ISEQ

    -103.0100

    12160.63

    -0.84%

  • OSEBX

    -14.8900

    2053.05

    -0.72%

  • PSI20

    82.7700

    9382.76

    +0.89%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    164.1800

    3853.54

    +4.45%

  • N150

    0.0000

    3940.02

    0%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: Omar AL-QATTAA - AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

C.Masood--DT