Dubai Telegraph - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 4.250678
AFN 72.918041
ALL 96.067465
AMD 436.932685
ANG 2.071904
AOA 1061.367148
ARS 1614.573682
AUD 1.634575
AWG 2.086276
AZN 1.972142
BAM 1.972698
BBD 2.332168
BDT 142.080747
BGN 1.978413
BHD 0.436949
BIF 3437.580732
BMD 1.157435
BND 1.485596
BOB 8.001925
BRL 6.042616
BSD 1.157939
BTN 107.880297
BWP 15.801103
BYN 3.580572
BYR 22685.717965
BZD 2.32886
CAD 1.590258
CDF 2633.163673
CHF 0.913169
CLF 0.026762
CLP 1056.726175
CNY 7.98682
CNH 7.967438
COP 4274.220751
CRC 541.77124
CUC 1.157435
CUP 30.672017
CVE 112.32935
CZK 24.46157
DJF 205.69948
DKK 7.470818
DOP 68.086114
DZD 153.068157
EGP 60.468898
ERN 17.361519
ETB 181.942975
FJD 2.556252
FKP 0.868855
GBP 0.862243
GEL 3.142482
GGP 0.868855
GHS 12.612219
GIP 0.868855
GMD 85.650189
GNF 10159.345308
GTQ 8.857761
GYD 242.257739
HKD 9.066706
HNL 30.752706
HRK 7.534086
HTG 151.887632
HUF 390.323942
IDR 19551.674454
ILS 3.619692
IMP 0.868855
INR 107.73737
IQD 1516.239313
IRR 1522171.1655
ISK 143.799756
JEP 0.868855
JMD 181.912765
JOD 0.820653
JPY 182.822601
KES 150.005481
KGS 101.215228
KHR 4641.312752
KMF 495.381662
KPW 1041.677217
KRW 1723.362105
KWD 0.354453
KYD 0.965012
KZT 556.866583
LAK 24855.907577
LBP 103648.268002
LKR 360.942102
LRD 212.274287
LSL 19.479641
LTL 3.417604
LVL 0.70012
LYD 7.384117
MAD 10.832141
MDL 20.292792
MGA 4820.714971
MKD 61.634594
MMK 2430.311069
MNT 4150.377902
MOP 9.342916
MRU 46.424425
MUR 53.832532
MVR 17.88262
MWK 2010.463866
MXN 20.538231
MYR 4.559163
MZN 73.961088
NAD 19.479093
NGN 1570.409946
NIO 42.500812
NOK 10.997709
NPR 172.603009
NZD 1.971059
OMR 0.445035
PAB 1.157979
PEN 3.99836
PGK 4.979257
PHP 69.211938
PKR 323.097975
PLN 4.267571
PYG 7524.225019
QAR 4.218386
RON 5.093054
RSD 117.434432
RUB 99.715141
RWF 1688.697067
SAR 4.345484
SBD 9.315708
SCR 16.728436
SDG 695.617571
SEK 10.760999
SGD 1.479253
SHP 0.868376
SLE 28.53087
SLL 24270.837165
SOS 661.476645
SRD 43.40615
STD 23956.559163
STN 24.884844
SVC 10.132098
SYP 127.929815
SZL 19.479951
THB 37.605283
TJS 11.087547
TMT 4.051021
TND 3.369582
TOP 2.786824
TRY 51.283377
TTD 7.848604
TWD 36.825979
TZS 3006.437007
UAH 50.920909
UGX 4376.679727
USD 1.157435
UYU 46.903191
UZS 14114.91435
VES 526.268876
VND 30428.955372
VUV 138.207434
WST 3.162366
XAF 661.659074
XAG 0.015864
XAU 0.000249
XCD 3.128025
XCG 2.086894
XDR 0.822888
XOF 661.473924
XPF 119.331742
YER 276.106212
ZAR 19.366681
ZMK 10418.297556
ZMW 22.667344
ZWL 372.693466
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

K.Javed--DT