Dubai Telegraph - "Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

EUR -
AED 4.302619
AFN 72.638318
ALL 95.603094
AMD 431.878807
ANG 2.097662
AOA 1075.507446
ARS 1630.8359
AUD 1.615579
AWG 2.110304
AZN 1.99945
BAM 1.956238
BBD 2.359669
BDT 143.812209
BGN 1.95644
BHD 0.441978
BIF 3486.028541
BMD 1.171577
BND 1.490921
BOB 8.096055
BRL 5.888817
BSD 1.171582
BTN 112.066143
BWP 15.783006
BYN 3.264603
BYR 22962.916957
BZD 2.356308
CAD 1.60594
CDF 2625.505158
CHF 0.91581
CLF 0.026408
CLP 1039.329512
CNY 7.956124
CNH 7.950219
COP 4445.398123
CRC 533.328553
CUC 1.171577
CUP 31.046801
CVE 110.655135
CZK 24.327919
DJF 208.212632
DKK 7.472548
DOP 69.416143
DZD 155.118147
EGP 61.994247
ERN 17.573661
ETB 184.376952
FJD 2.560893
FKP 0.866041
GBP 0.866089
GEL 3.139424
GGP 0.866041
GHS 13.242448
GIP 0.866041
GMD 85.525666
GNF 10283.522856
GTQ 8.938002
GYD 245.111173
HKD 9.172924
HNL 31.1758
HRK 7.533714
HTG 153.009493
HUF 358.229119
IDR 20516.663355
ILS 3.410104
IMP 0.866041
INR 112.115446
IQD 1534.766388
IRR 1538281.120455
ISK 143.612268
JEP 0.866041
JMD 185.285963
JOD 0.830666
JPY 184.939933
KES 151.344328
KGS 102.454005
KHR 4699.197143
KMF 493.234395
KPW 1054.43934
KRW 1745.468735
KWD 0.361116
KYD 0.976348
KZT 549.878462
LAK 25716.123453
LBP 105150.026727
LKR 380.231651
LRD 214.57466
LSL 19.226057
LTL 3.459363
LVL 0.708675
LYD 7.410193
MAD 10.747758
MDL 20.0931
MGA 4891.33573
MKD 61.635919
MMK 2459.473576
MNT 4193.865493
MOP 9.450699
MRU 46.863218
MUR 54.84144
MVR 18.053649
MWK 2040.295627
MXN 20.113167
MYR 4.599628
MZN 74.860808
NAD 19.225688
NGN 1605.623002
NIO 43.002772
NOK 10.739627
NPR 179.312517
NZD 1.975525
OMR 0.450414
PAB 1.171602
PEN 4.016757
PGK 5.108019
PHP 71.952469
PKR 326.382702
PLN 4.2477
PYG 7164.604642
QAR 4.268647
RON 5.208363
RSD 117.382677
RUB 86.904361
RWF 1710.502998
SAR 4.402872
SBD 9.410412
SCR 16.330594
SDG 703.542135
SEK 10.926465
SGD 1.490557
SHP 0.874701
SLE 28.823398
SLL 24567.394667
SOS 669.559557
SRD 43.575646
STD 24249.286687
STN 24.89602
SVC 10.251296
SYP 129.551813
SZL 19.313411
THB 37.889169
TJS 10.971838
TMT 4.112237
TND 3.374732
TOP 2.820877
TRY 53.230856
TTD 7.948916
TWD 36.980249
TZS 3043.348516
UAH 51.5192
UGX 4393.058898
USD 1.171577
UYU 46.541218
UZS 14150.311878
VES 595.237083
VND 30868.721224
VUV 138.221382
WST 3.166467
XAF 656.120751
XAG 0.013399
XAU 0.00025
XCD 3.166246
XCG 2.111455
XDR 0.81421
XOF 654.332389
XPF 119.331742
YER 279.567675
ZAR 19.234782
ZMK 10545.588979
ZMW 22.113613
ZWL 377.247443
  • AEX

    10.6900

    1010.12

    +1.07%

  • BEL20

    38.8400

    5508.78

    +0.71%

  • PX1

    27.9300

    8007.97

    +0.35%

  • ISEQ

    54.9000

    12531.64

    +0.44%

  • OSEBX

    1.5900

    1985.91

    +0.08%

  • PSI20

    21.7200

    9072.35

    +0.24%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -21.8500

    4101.58

    -0.53%

  • N150

    27.5500

    4202.3

    +0.66%

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA
"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA / Photo: Stefani REYNOLDS - AFP/Archives

"Cela peut détruire une vie": des adolescentes américaines victimes de faux nus créés par l'IA

Ellis, adolescente texane de 14 ans, s'est réveillée un matin d'octobre avec plusieurs appels manqués et messages affolés sur son téléphone. De fausses photographies d'elle, dénudée, circulaient sur les réseaux sociaux.

Taille du texte:

"C'étaient des photos d'une de mes meilleures amies et de moi tirées d'Instagram. Des corps nus avaient été édités dessus", raconte la collégienne à l'AFP.

"Je me souviens avoir eu très très peur car ces faux nus étaient en train d'être envoyés autour de moi. Et je n'ai jamais rien fait de tel".

Comme plusieurs camarades de son collège de la périphérie de Dallas, au Texas, la jeune fille a été victime de montages hyperréalistes (deepfakes) à caractère sexuel, fabriqués sans leur consentement par un élève puis partagés sur le réseau Snapchat.

Avec la popularisation de l'intelligence artificielle (IA), il est devenu plus facile de fabriquer ces montages photo ou vidéo et de les rendre hyperréalistes, ouvrant la voie à leur utilisation à des fins de harcèlement ou d'humiliation.

"Les filles ne faisaient que pleurer, et pleurer à ne plus en finir, elles avaient honte", se souvient Anna Berry McAdams, mise au courant immédiatement par sa fille Ellis.

"Elle me disait: +Maman, on dirait moi+, et je lui répondais +mais non ma chérie, j'étais avec toi quand la photo a été prise et je sais que ce n'est pas le cas+", poursuit la quinquagénaire, qui se dit "horrifiée" par le réalisme des clichés.

- Quelques dollars -

Fin octobre, d'autres "deepfakes" à caractère sexuel ont été découverts dans un lycée du New Jersey, au nord-est des Etats-Unis. Une enquête a été ouverte pour identifier toutes les victimes et le ou les auteurs.

"Nous commençons à voir de plus en plus de cas émerger (...) mais en matière d'abus sexuels, de +revenge porn+ (divulgation malveillante d'images intimes) ou de +deepfakes pornographiques+, beaucoup de personnes ne se manifestent pas et souffrent en silence parce qu'elles ont peur de rendre l'affaire publique", expose Renée Cummings, criminologue et chercheuse en intelligence artificielle.

S'il est impossible d'évaluer l'ampleur du phénomène, "n'importe qui ayant un smartphone et quelques dollars peut maintenant fabriquer un +deepfake+", précise cette professeure de l'Université de Virginie.

Et ce, grâce aux récents progrès et à la démocratisation de l'IA générative, capable de produire textes, lignes de code, images et sons sur simple requête en langage courant.

De fait, les montages hyperréalistes, qui touchaient auparavant à l'image des célébrités "ayant des tas et des tas de photos et de vidéos d'eux en ligne" concernent à présent tout un chacun, explique Hany Farid, professeur à l'Université de Californie à Berkeley.

"Si vous avez un profil LinkedIn avec une photo de votre tête, quelqu'un peut créer une image sexuelle de vous", poursuit ce spécialiste en détection d'images manipulées numériquement, notant que ces montages "visent principalement les femmes et les jeunes filles".

- "Traumatisme bien réel"-

Face à cette menace grandissante, les systèmes scolaires et judiciaires apparaissent dépassés.

"Bien que votre visage ait été superposé à un corps, ce corps n'est pas vraiment le vôtre, donc ce n'est pas comme si quelqu'un avait partagé un nu de vous" aux yeux de la loi, explique Mme Cummings.

Aux Etats-Unis, aucune loi fédérale ne punit la fabrication et la transmission de fausses images à caractère sexuel, et seule une poignée d'Etats dispose de législations spécifiques.

Fin octobre, Joe Biden a exhorté les législateurs à instaurer des garde-fous, afin d'empêcher notamment "l'IA générative de produire des contenus pédocriminels ou des images intimes non consenties de personnes réelles".

Si la responsabilité des créateurs de ces images -aujourd'hui difficilement identifiables- est centrale, celle des entreprises derrière les sites ou logiciels utilisés, et des réseaux sociaux, vecteurs des contenus, doit aussi être posée, insiste M. Farid.

Car si ces images sont fausses, "le traumatisme est lui bien réel", abonde Renée Cummings, décrivant des personnes "souffrant d'anxiété, de crises de panique, de dépression ou encore de syndromes post-traumatiques après avoir été victimes de +deepfakes pornographiques". "Cela peut détruire une vie".

La texane Ellis, qui se décrit comme une adolescente "sociable" et sportive, raconte avoir à présent "constamment peur", bien que l'élève à l'origine des "deepfakes" ait été identifié et exclu temporairement du collège.

"Je ne sais pas combien de photos il a pu faire ni combien de personnes ont pu les recevoir", explique-t-elle, disant avoir demandé à changer d'établissement scolaire.

Face à cette inconnue, sa mère se mobilise pour faire reconnaître ces images comme de la "pornographie infantile" et les voir punir comme telles.

"Cela pourrait les affecter toute leur vie. Cela ne va jamais sortir d'internet. Donc quand elles vont postuler à l'université par exemple, qui sait si (ces images) ne vont pas resurgir?", s'inquiète Anna Berry McAdams.

G.Gopinath--DT