Dubai Telegraph - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 4.301343
AFN 77.611852
ALL 96.514738
AMD 446.868239
ANG 2.096972
AOA 1074.017289
ARS 1697.403887
AUD 1.766826
AWG 2.11114
AZN 1.995739
BAM 1.956099
BBD 2.35916
BDT 143.251875
BGN 1.956099
BHD 0.441567
BIF 3463.32887
BMD 1.171229
BND 1.514231
BOB 8.094236
BRL 6.490135
BSD 1.171279
BTN 104.951027
BWP 16.475516
BYN 3.442526
BYR 22956.085522
BZD 2.35576
CAD 1.613778
CDF 2996.593612
CHF 0.937635
CLF 0.027188
CLP 1066.568306
CNY 8.246564
CNH 8.23796
COP 4521.190411
CRC 584.989331
CUC 1.171229
CUP 31.037565
CVE 110.281841
CZK 24.338023
DJF 208.581852
DKK 7.472562
DOP 73.371204
DZD 152.341263
EGP 55.872532
ERN 17.568433
ETB 181.965387
FJD 2.67474
FKP 0.875386
GBP 0.880988
GEL 3.144796
GGP 0.875386
GHS 13.453054
GIP 0.875386
GMD 85.500123
GNF 10238.563486
GTQ 8.975371
GYD 245.057422
HKD 9.144374
HNL 30.857712
HRK 7.53616
HTG 153.573452
HUF 386.728509
IDR 19556.008162
ILS 3.75619
IMP 0.875386
INR 104.915757
IQD 1534.434317
IRR 49308.735131
ISK 147.141933
JEP 0.875386
JMD 187.41862
JOD 0.830448
JPY 184.451022
KES 150.983056
KGS 102.424413
KHR 4700.717826
KMF 491.916529
KPW 1054.105695
KRW 1728.406292
KWD 0.359837
KYD 0.976149
KZT 606.152563
LAK 25368.873969
LBP 104891.417505
LKR 362.65538
LRD 207.321659
LSL 19.649501
LTL 3.458335
LVL 0.708465
LYD 6.34897
MAD 10.73654
MDL 19.830028
MGA 5326.813434
MKD 61.5594
MMK 2459.916548
MNT 4159.16935
MOP 9.388034
MRU 46.876158
MUR 54.052655
MVR 18.095929
MWK 2031.110162
MXN 21.355061
MYR 4.775145
MZN 74.845892
NAD 19.649501
NGN 1710.181964
NIO 43.106583
NOK 11.874743
NPR 167.921643
NZD 1.99613
OMR 0.451419
PAB 1.171279
PEN 3.944502
PGK 4.982761
PHP 68.60009
PKR 328.173614
PLN 4.207347
PYG 7858.199991
QAR 4.270252
RON 5.07775
RSD 117.397927
RUB 94.264395
RWF 1705.460433
SAR 4.393324
SBD 9.541707
SCR 17.757712
SDG 704.49846
SEK 10.855305
SGD 1.514521
SHP 0.878725
SLE 28.168488
SLL 24560.087729
SOS 668.202038
SRD 45.023799
STD 24242.072559
STN 24.503742
SVC 10.248565
SYP 12951.989104
SZL 19.647
THB 36.805911
TJS 10.793648
TMT 4.099301
TND 3.428524
TOP 2.820038
TRY 50.065939
TTD 7.950214
TWD 36.91585
TZS 2922.446274
UAH 49.525863
UGX 4189.639781
USD 1.171229
UYU 45.987022
UZS 14081.15027
VES 330.473524
VND 30817.959199
VUV 141.753524
WST 3.265184
XAF 656.057184
XAG 0.017437
XAU 0.00027
XCD 3.165305
XCG 2.111022
XDR 0.815925
XOF 656.057184
XPF 119.331742
YER 279.225162
ZAR 19.652061
ZMK 10542.469351
ZMW 26.501047
ZWL 377.135213
  • AEX

    4.5100

    944.59

    +0.48%

  • BEL20

    19.7100

    5074.52

    +0.39%

  • PX1

    0.8200

    8151.38

    +0.01%

  • ISEQ

    28.7700

    13105.03

    +0.22%

  • OSEBX

    10.3900

    1660.14

    +0.63%

  • PSI20

    83.7200

    8211.61

    +1.03%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    46.5400

    4164.85

    +1.13%

  • N150

    9.6800

    3734.28

    +0.26%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

G.Gopinath--DT