Dubai Telegraph - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

EUR -
AED 4.256694
AFN 73.006558
ALL 96.183185
AMD 437.462357
ANG 2.074413
AOA 1062.652651
ARS 1616.583177
AUD 1.634887
AWG 2.088802
AZN 1.968976
BAM 1.975086
BBD 2.334991
BDT 142.252756
BGN 1.980809
BHD 0.437517
BIF 3441.742426
BMD 1.158836
BND 1.487395
BOB 8.011612
BRL 6.048742
BSD 1.159341
BTN 108.010902
BWP 15.820233
BYN 3.584907
BYR 22713.182337
BZD 2.331679
CAD 1.591719
CDF 2636.351736
CHF 0.91339
CLF 0.026784
CLP 1057.587983
CNY 7.996489
CNH 7.972918
COP 4277.55277
CRC 542.427133
CUC 1.158836
CUP 30.70915
CVE 112.464864
CZK 24.472182
DJF 205.948898
DKK 7.471133
DOP 68.168493
DZD 153.256108
EGP 60.532024
ERN 17.382538
ETB 182.173906
FJD 2.558248
FKP 0.869907
GBP 0.862579
GEL 3.146225
GGP 0.869907
GHS 12.629381
GIP 0.869907
GMD 85.754443
GNF 10171.680078
GTQ 8.868484
GYD 242.551028
HKD 9.078147
HNL 30.790613
HRK 7.5344
HTG 152.071514
HUF 390.82922
IDR 19560.279743
ILS 3.624074
IMP 0.869907
INR 108.151817
IQD 1518.074942
IRR 1524013.975298
ISK 143.799646
JEP 0.869907
JMD 182.132997
JOD 0.821554
JPY 182.779731
KES 150.179997
KGS 101.337763
KHR 4646.931796
KMF 495.9811
KPW 1042.938319
KRW 1723.368534
KWD 0.354812
KYD 0.96618
KZT 557.540752
LAK 24885.999794
LBP 103773.749324
LKR 361.379075
LRD 212.536652
LSL 19.502855
LTL 3.421741
LVL 0.700968
LYD 7.393341
MAD 10.845255
MDL 20.31736
MGA 4826.550671
MKD 61.840893
MMK 2433.253315
MNT 4155.40254
MOP 9.354227
MRU 46.481248
MUR 53.891672
MVR 17.903794
MWK 2012.897608
MXN 20.545118
MYR 4.564685
MZN 74.050655
NAD 19.503121
NGN 1573.11839
NIO 42.552008
NOK 10.987384
NPR 172.811971
NZD 1.971968
OMR 0.445583
PAB 1.159381
PEN 4.0032
PGK 4.985268
PHP 68.413043
PKR 323.488759
PLN 4.267587
PYG 7533.334191
QAR 4.223496
RON 5.094213
RSD 117.478165
RUB 99.83641
RWF 1690.741481
SAR 4.350755
SBD 9.326986
SCR 17.598041
SDG 696.460551
SEK 10.757867
SGD 1.480649
SHP 0.869427
SLE 28.565483
SLL 24300.220556
SOS 662.27146
SRD 43.458668
STD 23985.562074
STN 24.91497
SVC 10.144364
SYP 128.084693
SZL 19.503003
THB 37.627637
TJS 11.10097
TMT 4.055925
TND 3.373661
TOP 2.790198
TRY 51.308384
TTD 7.858106
TWD 36.841128
TZS 3010.068531
UAH 50.982556
UGX 4381.978336
USD 1.158836
UYU 46.959974
UZS 14132.002921
VES 526.906001
VND 30465.794063
VUV 138.374754
WST 3.166195
XAF 662.460109
XAG 0.015907
XAU 0.000249
XCD 3.131812
XCG 2.08942
XDR 0.823884
XOF 662.273593
XPF 119.331742
YER 276.440433
ZAR 19.405896
ZMK 10430.917809
ZMW 22.694786
ZWL 373.144666
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: Kirill KUDRYAVTSEV - AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

T.Jamil--DT