Dubai Telegraph - L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude

EUR -
AED 4.248913
AFN 72.302456
ALL 96.16159
AMD 436.412601
ANG 2.070297
AOA 1060.752925
ARS 1614.18075
AUD 1.616293
AWG 2.085067
AZN 1.969238
BAM 1.950849
BBD 2.317219
BDT 141.653751
BGN 1.905938
BHD 0.436692
BIF 3440.216605
BMD 1.156764
BND 1.472681
BOB 7.985698
BRL 5.96786
BSD 1.156565
BTN 106.445384
BWP 15.505647
BYN 3.414279
BYR 22672.577489
BZD 2.318845
CAD 1.572384
CDF 2519.431812
CHF 0.902096
CLF 0.026291
CLP 1038.126384
CNY 7.942632
CNH 7.955281
COP 4285.649257
CRC 544.917012
CUC 1.156764
CUP 30.65425
CVE 110.615566
CZK 24.392457
DJF 205.580536
DKK 7.472004
DOP 70.562275
DZD 152.396696
EGP 60.00155
ERN 17.351462
ETB 180.921268
FJD 2.566633
FKP 0.859551
GBP 0.862408
GEL 3.140588
GGP 0.859551
GHS 12.533572
GIP 0.859551
GMD 85.019661
GNF 10150.605179
GTQ 8.867571
GYD 242.313965
HKD 9.051737
HNL 30.73571
HRK 7.535281
HTG 151.754849
HUF 387.666672
IDR 19653.423038
ILS 3.596669
IMP 0.859551
INR 106.842497
IQD 1515.361046
IRR 1528981.944058
ISK 144.815458
JEP 0.859551
JMD 181.160219
JOD 0.820133
JPY 183.836449
KES 149.445668
KGS 101.158614
KHR 4650.191876
KMF 492.781685
KPW 1041.127414
KRW 1708.146899
KWD 0.355034
KYD 0.963783
KZT 567.945821
LAK 24795.23989
LBP 104004.354951
LKR 359.550374
LRD 212.036566
LSL 18.737409
LTL 3.415623
LVL 0.699715
LYD 7.351262
MAD 10.833107
MDL 19.944296
MGA 4823.706751
MKD 61.61365
MMK 2428.552636
MNT 4142.267719
MOP 9.323796
MRU 46.409212
MUR 53.106814
MVR 17.872244
MWK 2009.299565
MXN 20.451018
MYR 4.529896
MZN 73.928924
NAD 18.735079
NGN 1613.109574
NIO 42.476105
NOK 11.159539
NPR 170.313747
NZD 1.956198
OMR 0.444762
PAB 1.15658
PEN 3.954397
PGK 4.974953
PHP 68.609959
PKR 323.321843
PLN 4.250588
PYG 7495.975377
QAR 4.211893
RON 5.090923
RSD 117.41848
RUB 91.644394
RWF 1687.718906
SAR 4.340577
SBD 9.306379
SCR 16.597249
SDG 695.215128
SEK 10.673697
SGD 1.47418
SHP 0.867873
SLE 28.450724
SLL 24256.765251
SOS 661.09289
SRD 43.348001
STD 23942.682565
STN 24.870429
SVC 10.11923
SYP 128.691491
SZL 19.063821
THB 36.773619
TJS 11.085465
TMT 4.048675
TND 3.382089
TOP 2.785211
TRY 50.997447
TTD 7.848183
TWD 36.800105
TZS 3007.586684
UAH 50.98424
UGX 4273.154826
USD 1.156764
UYU 46.521728
UZS 14060.468123
VES 506.266209
VND 30365.059137
VUV 138.141927
WST 3.158829
XAF 654.304873
XAG 0.01349
XAU 0.000223
XCD 3.126213
XCG 2.084464
XDR 0.811611
XOF 650.676578
XPF 119.331742
YER 276.00758
ZAR 19.079726
ZMK 10412.268188
ZMW 22.495199
ZWL 372.477587
  • AEX

    0.5000

    1002.9

    +0.05%

  • BEL20

    -70.8400

    5176.84

    -1.35%

  • PX1

    -15.3100

    8041.81

    -0.19%

  • ISEQ

    63.8200

    12826.96

    +0.5%

  • OSEBX

    8.5800

    1914.28

    +0.45%

  • PSI20

    52.3400

    9076.37

    +0.58%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -64.5400

    3800.33

    -1.67%

  • N150

    -18.3500

    3885.24

    -0.47%

L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude
L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude / Photo: Kirill KUDRYAVTSEV - AFP/Archives

L'IA peut encourager les passages à l'acte lors de tueries ou attentats, alerte une étude

Choisir la bonne arme, trouver une cible, adopter la bonne tactique d'attaque... Qu'il s'agisse de poser une bombe dans une synagogue ou d'attaquer une école, la plupart des logiciels d'intelligence artificielle sont beaucoup trop coopératifs avec des assaillants potentiels, alerte une étude mercredi.

Taille du texte:

Des chercheurs du Centre pour la lutte contre la haine numérique (CCDH), organisme de surveillance à but non lucratif, et de CNN se sont fait passer pour de jeunes garçons de 13 ans aux États-Unis et en Irlande pour tester 10 chatbots, dont ChatGPT, Google Gemini, Perplexity, Deepseek et Meta AI.

Les tests ont montré que huit de ces chatbots ont aidé les agresseurs potentiels dans plus de la moitié des réponses, leur fournissant des conseils sur les "lieux à cibler" ou les "armes à utiliser" lors d'une attaque, selon l'étude.

Les chatbots, ajoute-t-elle, sont devenus un "puissant accélérateur de dommages".

"En quelques minutes, un utilisateur peut passer d'une vague pulsion violente à un plan très détaillé et réalisable", explique Imran Ahmed, directeur général du CCDH. "La majorité des chatbots testés ont fourni des conseils sur les armes, les tactiques et le choix des cibles. Ces demandes auraient dû susciter un refus immédiat et total."

Perplexity et Meta AI sont les "moins sûrs", aidant les chercheurs dans la plupart de leurs réponses, tandis que seuls My AI, de Snapchat, et Claude, d'Anthropic, ont refusé de les assister dans plus de la moitié des réponses.

Dans un exemple effrayant, DeepSeek, un modèle d'IA chinois, a conclu ses conseils sur le choix des armes par la phrase: "Bonne chasse!".

Gemini a lui suggéré à un utilisateur discutant d'attaques contre des synagogues que "les éclats métalliques sont généralement plus mortels".

- Claude le plus raisonnable -

Les chercheurs ont également découvert que Character.AI encourageait "activement" les attaques violentes, suggérant notamment à l'utilisateur "d'utiliser une arme à feu" contre le PDG d'une compagnie d'assurance maladie et d'agresser physiquement un homme politique qu'il n'aimait pas.

La conclusion la plus accablante de cette étude est que "ce risque est tout à fait évitable", souligne Imran Ahmed. "Claude a démontré sa capacité à reconnaître les risques et à dissuader les actes violents. La technologie permettant d'éviter ces risques existe. Ce qui manque, c'est la volonté de faire passer la sécurité des consommateurs et la sécurité nationale avant la rapidité de mise sur le marché et les profits."

L'AFP a contacté plusieurs entreprises d'IA pour obtenir leurs commentaires. "Nous disposons de protections solides pour aider à prévenir les réponses inappropriées des IA, et nous avons pris des mesures immédiates pour corriger le problème identifié", a affirmé un porte-parole de Meta. "Nos politiques interdisent à nos IA de promouvoir ou de faciliter des actes violents, et nous travaillons constamment à améliorer nos outils."

Et du côté de Google, un porte-parole a indiqué que ces tests avaient "été réalisés sur un ancien modèle qui n'alimente plus Gemini. Notre examen interne avec notre modèle actuel montre que Gemini a répondu de manière appropriée à la grande majorité des requêtes, sans fournir d'informations +exploitables+ au-delà de celles que l'on peut trouver dans une bibliothèque ou sur le web classique. Lorsque les réponses pouvaient être améliorées, nous avons rapidement pris des mesures pour y remédier dans le modèle actuel".

Mardi, la famille d'une jeune fille blessée lors d'une tuerie au Canada a poursuivi OpenAI en justice, reprochant à l'entreprise de ne pas avoir signalé à la police d'inquiétants messages écrits par l'assaillante à ChatGPT.

A.Ragab--DT