Dubai Telegraph - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

EUR -
AED 4.359312
AFN 78.343327
ALL 96.027945
AMD 449.451262
ANG 2.124849
AOA 1088.491795
ARS 1717.340716
AUD 1.703709
AWG 2.136624
AZN 2.022635
BAM 1.943176
BBD 2.391206
BDT 145.078707
BGN 1.993435
BHD 0.447513
BIF 3517.2352
BMD 1.187013
BND 1.50352
BOB 8.203841
BRL 6.242865
BSD 1.187207
BTN 109.023557
BWP 15.531157
BYN 3.381404
BYR 23265.46415
BZD 2.387728
CAD 1.612742
CDF 2679.687577
CHF 0.916511
CLF 0.026023
CLP 1027.514946
CNY 8.247849
CNH 8.256296
COP 4350.9979
CRC 587.890629
CUC 1.187013
CUP 31.455857
CVE 109.554196
CZK 24.329563
DJF 210.956502
DKK 7.467728
DOP 74.744104
DZD 153.828685
EGP 55.701348
ERN 17.805202
ETB 184.429348
FJD 2.615233
FKP 0.860501
GBP 0.866188
GEL 3.199049
GGP 0.860501
GHS 13.005726
GIP 0.860501
GMD 87.250062
GNF 10417.410267
GTQ 9.105996
GYD 248.380562
HKD 9.27016
HNL 31.335952
HRK 7.533861
HTG 155.369973
HUF 381.142317
IDR 19906.21601
ILS 3.668351
IMP 0.860501
INR 108.897452
IQD 1555.289393
IRR 50002.942908
ISK 145.006024
JEP 0.860501
JMD 186.041368
JOD 0.84164
JPY 183.360944
KES 153.125155
KGS 103.804785
KHR 4773.945484
KMF 489.049968
KPW 1068.410471
KRW 1718.522957
KWD 0.364224
KYD 0.989186
KZT 597.100949
LAK 25549.446568
LBP 106315.059642
LKR 367.144816
LRD 213.988904
LSL 18.850653
LTL 3.504943
LVL 0.718013
LYD 7.449665
MAD 10.769128
MDL 19.964515
MGA 5305.621026
MKD 61.594706
MMK 2492.783053
MNT 4234.917227
MOP 9.546897
MRU 47.370055
MUR 53.926471
MVR 18.339807
MWK 2058.660443
MXN 20.675003
MYR 4.679253
MZN 75.672557
NAD 18.850653
NGN 1647.883777
NIO 43.686921
NOK 11.410464
NPR 174.434041
NZD 1.968893
OMR 0.456389
PAB 1.187207
PEN 3.96938
PGK 5.082027
PHP 69.967368
PKR 332.14877
PLN 4.211002
PYG 7952.33704
QAR 4.32848
RON 5.094073
RSD 117.393304
RUB 90.210804
RWF 1731.820826
SAR 4.452007
SBD 9.565075
SCR 16.377624
SDG 713.99297
SEK 10.543285
SGD 1.508861
SHP 0.890568
SLE 28.933499
SLL 24891.078237
SOS 678.489285
SRD 45.166461
STD 24568.782404
STN 24.342269
SVC 10.387604
SYP 13127.864451
SZL 18.844496
THB 37.423019
TJS 11.082502
TMT 4.166417
TND 3.41104
TOP 2.858043
TRY 51.618117
TTD 8.060768
TWD 37.458351
TZS 3056.560101
UAH 50.883858
UGX 4244.496821
USD 1.187013
UYU 46.071084
UZS 14513.832063
VES 435.452037
VND 30791.129595
VUV 141.976983
WST 3.222026
XAF 651.717577
XAG 0.013945
XAU 0.000245
XCD 3.207964
XCG 2.139636
XDR 0.812564
XOF 651.728487
XPF 119.331742
YER 282.988273
ZAR 19.142082
ZMK 10684.549964
ZMW 23.299029
ZWL 382.217855
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: Kirill KUDRYAVTSEV - AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

A.El-Ahbaby--DT