Dubai Telegraph - Indignación en EEUU por imágenes pornográficas falsas de Taylor Swift

EUR -
AED 4.246011
AFN 72.838394
ALL 95.900007
AMD 432.670294
ANG 2.069629
AOA 1060.201196
ARS 1612.785171
AUD 1.631697
AWG 2.083985
AZN 1.96758
BAM 1.955189
BBD 2.311377
BDT 140.815959
BGN 1.976241
BHD 0.436492
BIF 3407.948889
BMD 1.156163
BND 1.47234
BOB 7.930554
BRL 6.037467
BSD 1.147641
BTN 106.919948
BWP 15.660102
BYN 3.54859
BYR 22660.802746
BZD 2.308078
CAD 1.58721
CDF 2630.271542
CHF 0.912364
CLF 0.026733
CLP 1055.566138
CNY 7.978048
CNH 7.973447
COP 4269.514908
CRC 536.929751
CUC 1.156163
CUP 30.63833
CVE 110.231478
CZK 24.467774
DJF 204.366084
DKK 7.470608
DOP 69.387999
DZD 152.897099
EGP 60.398557
ERN 17.342451
ETB 179.181285
FJD 2.551767
FKP 0.866034
GBP 0.862186
GEL 3.139009
GGP 0.866034
GHS 12.52719
GIP 0.866034
GMD 85.556476
GNF 10057.854367
GTQ 8.779368
GYD 240.096985
HKD 9.056771
HNL 30.376368
HRK 7.533103
HTG 150.53292
HUF 390.449684
IDR 19565.753309
ILS 3.615716
IMP 0.866034
INR 107.439086
IQD 1503.329828
IRR 1520499.398226
ISK 143.803649
JEP 0.866034
JMD 180.303609
JOD 0.819667
JPY 183.061713
KES 148.856534
KGS 101.104059
KHR 4600.561157
KMF 494.837917
KPW 1040.490233
KRW 1730.01369
KWD 0.354145
KYD 0.956401
KZT 551.897392
LAK 24621.299593
LBP 102773.857076
LKR 357.679463
LRD 210.017041
LSL 19.336952
LTL 3.41385
LVL 0.699352
LYD 7.349701
MAD 10.783421
MDL 20.11171
MGA 4775.506442
MKD 61.619725
MMK 2427.680761
MNT 4127.12739
MOP 9.259504
MRU 45.803477
MUR 53.773403
MVR 17.862421
MWK 1990.077595
MXN 20.522305
MYR 4.554122
MZN 73.881892
NAD 19.336952
NGN 1563.69962
NIO 42.23679
NOK 10.988478
NPR 171.068758
NZD 1.964547
OMR 0.44454
PAB 1.147641
PEN 3.952981
PGK 4.953451
PHP 69.199276
PKR 320.500462
PLN 4.26885
PYG 7457.667585
QAR 4.185227
RON 5.093134
RSD 117.453481
RUB 99.602209
RWF 1675.37602
SAR 4.340832
SBD 9.305477
SCR 17.168814
SDG 694.853891
SEK 10.753528
SGD 1.47934
SHP 0.867422
SLE 28.499321
SLL 24244.181045
SOS 654.695242
SRD 43.358429
STD 23930.248207
STN 24.49234
SVC 10.041859
SYP 128.06281
SZL 19.341951
THB 37.747573
TJS 10.988463
TMT 4.046572
TND 3.389584
TOP 2.783763
TRY 51.227637
TTD 7.778567
TWD 36.90359
TZS 2992.051478
UAH 50.467616
UGX 4337.680891
USD 1.156163
UYU 46.485461
UZS 13989.685172
VES 525.690886
VND 30426.75234
VUV 137.625456
WST 3.172703
XAF 655.751911
XAG 0.015594
XAU 0.000245
XCD 3.124589
XCG 2.068253
XDR 0.815545
XOF 655.751911
XPF 119.331742
YER 275.80244
ZAR 19.377588
ZMK 10406.858107
ZMW 22.464974
ZWL 372.284145
Indignación en EEUU por imágenes pornográficas falsas de Taylor Swift
Indignación en EEUU por imágenes pornográficas falsas de Taylor Swift / Foto: Michael Tran - AFP/Archivos

Indignación en EEUU por imágenes pornográficas falsas de Taylor Swift

Fanáticos de la cantante pop Taylor Swift, políticos estadounidenses e incluso la Casa Blanca expresaron su indignación el viernes por imágenes pornográficas falsas de la estrella, generadas por inteligencia artificial, que se volvieron virales en la red social X y todavía estaban disponibles en otras plataformas.

Tamaño del texto:

Una de esas imágenes fue vista 47 millones de veces en X, antes Twitter, antes de su eliminación el jueves. Según medios estadounidenses, la publicación estuvo visible en la plataforma durante aproximadamente 17 horas.

Las imágenes pornográficas "deepfake" -falsas pero extremadamente realistas- de celebridades no son nuevas. Pero a activistas y autoridades les preocupa que herramientas fáciles de usar que emplean inteligencia artificial (IA) generativa creen una avalancha incontrolable de contenido tóxico o dañino.

El ataque a Swift, la segunda artista más escuchada del mundo en la plataforma Spotify después del rapero canadiense Drake, podría arrojar nueva luz sobre el fenómeno.

"El único lado positivo de que esto le haya sucedido a Taylor Swift es que probablemente tenga suficiente poder para aprobar una legislación que lo elimine. Ustedes están enfermos", escribió la influencer Danisha Carter en X.

- "Alarmados" -

Incluso la Casa Blanca expresó su preocupación sobre el tema.

"Estamos alarmados por las noticias sobre la circulación de estas imágenes falsas", dijo a los periodistas Karine Jean-Pierre, secretaria de prensa del presidente Joe Biden.

"Infortunadamente, con demasiada frecuencia notamos que la falta de aplicación de la ley tiene un impacto desproporcionado en las mujeres y las niñas, los principales blancos del acoso en línea", añadió.

X es una de las plataformas de contenido pornográfico más grandes del mundo, afirman algunos analistas, ya que sus políticas sobre desnudez son más flexibles que las de Facebook o Instagram, propiedad de Meta.

Apple y Google tienen la potestad de intervenir para controlar los contenidos que circulan en las aplicaciones mediante las reglas que imponen sus sistemas operativos móviles, pero hasta ahora ambos han tolerado esta situación en X.

En un comunicado, X aclaró que "publicar imágenes de desnudos no consensuales (NCN) está estrictamente prohibido" en su plataforma. "Tenemos una política de tolerancia cero hacia ese contenido".

La red social, propiedad del magnate Elon Musk, afirmó que estaba "eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas".

Además, resaltó que estaba "vigilando de cerca la situación para garantizar que cualquier otra violación se aborde de inmediato y se elimine el contenido".

Los representantes de Swift no respondieron de inmediato a una solicitud de comentarios de la AFP.

-"Barreras necesarias"-

Yvette Clarke, congresista demócrata de Nueva York que ha respaldado una legislación para luchar contra las fotos pornográficas falsas, resaltó que "con los avances en IA, crear deepfakes es más fácil y barato".

De su lado, el legislador republicano Tom Kean, advirtió que "la tecnología de inteligencia artificial está avanzando más rápido que las barreras necesarias". "Ya sea que la víctima sea Taylor Swift o cualquier joven de nuestro país, debemos establecer salvaguardias para combatir esta tendencia alarmante", añadió.

Un estudio de 2019 estimó que el 96% de los vídeos del tipo "deepfake" eran pornográficos.

Según una investigación citada por la revista Wired, en los primeros nueve meses de 2023 se subieron 113.000 vídeos "deepfake" a los sitios web pornográficos más populares.

A.El-Nayady--DT