Dubai Telegraph - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

EUR -
AED 4.276798
AFN 76.973093
ALL 96.541337
AMD 443.660189
ANG 2.0846
AOA 1067.888653
ARS 1669.958677
AUD 1.752514
AWG 2.096182
AZN 1.984351
BAM 1.955625
BBD 2.34549
BDT 142.477215
BGN 1.956439
BHD 0.438161
BIF 3440.791247
BMD 1.164546
BND 1.508565
BOB 8.047278
BRL 6.334667
BSD 1.164496
BTN 104.702605
BWP 15.471612
BYN 3.348
BYR 22825.091832
BZD 2.34209
CAD 1.610159
CDF 2599.265981
CHF 0.936209
CLF 0.027366
CLP 1073.571668
CNY 8.233458
CNH 8.232219
COP 4424.302993
CRC 568.848955
CUC 1.164546
CUP 30.860456
CVE 110.255106
CZK 24.203336
DJF 207.371392
DKK 7.470448
DOP 74.533312
DZD 151.068444
EGP 55.295038
ERN 17.468183
ETB 180.629892
FJD 2.632397
FKP 0.873977
GBP 0.872678
GEL 3.138497
GGP 0.873977
GHS 13.246811
GIP 0.873977
GMD 85.012236
GNF 10119.091982
GTQ 8.9202
GYD 243.638138
HKD 9.065875
HNL 30.671248
HRK 7.535429
HTG 152.446321
HUF 381.994667
IDR 19435.740377
ILS 3.768132
IMP 0.873977
INR 104.760771
IQD 1525.563106
IRR 49041.926882
ISK 149.038983
JEP 0.873977
JMD 186.393274
JOD 0.825709
JPY 180.924237
KES 150.636483
KGS 101.839952
KHR 4662.581612
KMF 491.43861
KPW 1048.137083
KRW 1716.311573
KWD 0.357481
KYD 0.970513
KZT 588.927154
LAK 25252.733992
LBP 104283.942272
LKR 359.197768
LRD 204.961608
LSL 19.736529
LTL 3.438601
LVL 0.704422
LYD 6.330432
MAD 10.755735
MDL 19.814222
MGA 5194.533878
MKD 61.634469
MMK 2445.172268
MNT 4132.506664
MOP 9.338362
MRU 46.438833
MUR 53.651052
MVR 17.938355
MWK 2019.3188
MXN 21.165153
MYR 4.787492
MZN 74.426542
NAD 19.736529
NGN 1688.68458
NIO 42.856154
NOK 11.767853
NPR 167.523968
NZD 2.015483
OMR 0.44694
PAB 1.164595
PEN 3.914449
PGK 4.941557
PHP 68.66747
PKR 326.476804
PLN 4.229804
PYG 8009.281302
QAR 4.244719
RON 5.092096
RSD 117.389466
RUB 89.441974
RWF 1694.347961
SAR 4.370508
SBD 9.584899
SCR 15.747587
SDG 700.4784
SEK 10.946786
SGD 1.508673
SHP 0.873711
SLE 27.603998
SLL 24419.93473
SOS 664.340387
SRD 44.985272
STD 24103.740676
STN 24.497802
SVC 10.190086
SYP 12876.900539
SZL 19.72123
THB 37.119932
TJS 10.684641
TMT 4.087555
TND 3.416093
TOP 2.803946
TRY 49.523506
TTD 7.894292
TWD 36.437508
TZS 2841.64501
UAH 48.888813
UGX 4119.630333
USD 1.164546
UYU 45.545913
UZS 13931.74986
VES 296.437311
VND 30697.419423
VUV 142.156724
WST 3.247609
XAF 655.898144
XAG 0.019964
XAU 0.000277
XCD 3.147243
XCG 2.098812
XDR 0.815727
XOF 655.898144
XPF 119.331742
YER 277.802752
ZAR 19.711451
ZMK 10482.311144
ZMW 26.923584
ZWL 374.983176
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: Kirill KUDRYAVTSEV - AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

A.El-Ahbaby--DT