Dubai Telegraph - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

EUR -
AED 4.244975
AFN 72.820848
ALL 95.94014
AMD 432.845748
ANG 2.069125
AOA 1059.9439
ARS 1612.448734
AUD 1.630495
AWG 2.083478
AZN 1.975557
BAM 1.955854
BBD 2.312344
BDT 140.86392
BGN 1.97576
BHD 0.436373
BIF 3409.360338
BMD 1.155882
BND 1.472956
BOB 7.933839
BRL 6.034974
BSD 1.148121
BTN 106.962842
BWP 15.666656
BYN 3.550075
BYR 22655.290457
BZD 2.309044
CAD 1.587587
CDF 2629.632268
CHF 0.912315
CLF 0.02673
CLP 1055.440177
CNY 7.976107
CNH 7.970767
COP 4269.250781
CRC 537.156773
CUC 1.155882
CUP 30.630877
CVE 110.276655
CZK 24.461703
DJF 204.451609
DKK 7.470992
DOP 69.417337
DZD 152.86546
EGP 60.38409
ERN 17.338232
ETB 179.257046
FJD 2.552824
FKP 0.865823
GBP 0.862028
GEL 3.138164
GGP 0.865823
GHS 12.532325
GIP 0.865823
GMD 85.53555
GNF 10062.063468
GTQ 8.782928
GYD 240.195386
HKD 9.054875
HNL 30.389212
HRK 7.534385
HTG 150.595917
HUF 390.905473
IDR 19574.864484
ILS 3.583986
IMP 0.865823
INR 107.871312
IQD 1503.841849
IRR 1520129.533815
ISK 143.802901
JEP 0.865823
JMD 180.379064
JOD 0.819543
JPY 183.053012
KES 148.900854
KGS 101.079471
KHR 4602.486441
KMF 494.717881
KPW 1040.237132
KRW 1733.840599
KWD 0.354151
KYD 0.956727
KZT 552.128355
LAK 24631.603335
LBP 102816.866801
LKR 357.867823
LRD 210.101297
LSL 19.345045
LTL 3.41302
LVL 0.699181
LYD 7.352777
MAD 10.78784
MDL 20.120127
MGA 4777.504939
MKD 61.659387
MMK 2427.090222
MNT 4126.123457
MOP 9.262658
MRU 45.822843
MUR 53.702177
MVR 17.857711
MWK 1990.910421
MXN 20.5022
MYR 4.552961
MZN 73.864954
NAD 19.345045
NGN 1563.781237
NIO 42.254466
NOK 10.986195
NPR 171.141088
NZD 1.965433
OMR 0.444448
PAB 1.148032
PEN 3.95431
PGK 4.955524
PHP 69.242543
PKR 320.634588
PLN 4.267078
PYG 7460.788537
QAR 4.186943
RON 5.094202
RSD 117.457276
RUB 99.582279
RWF 1676.077146
SAR 4.339533
SBD 9.303214
SCR 16.360031
SDG 694.685812
SEK 10.751888
SGD 1.478948
SHP 0.867211
SLE 28.492821
SLL 24238.283596
SOS 654.969224
SRD 43.347864
STD 23924.427123
STN 24.50259
SVC 10.04528
SYP 128.031659
SZL 19.350045
THB 37.827979
TJS 10.992206
TMT 4.045588
TND 3.390958
TOP 2.783086
TRY 51.215642
TTD 7.781822
TWD 36.948699
TZS 2991.323614
UAH 50.488736
UGX 4339.458641
USD 1.155882
UYU 46.504915
UZS 13994.389439
VES 525.56301
VND 30414.149497
VUV 137.591978
WST 3.171932
XAF 656.026336
XAG 0.015839
XAU 0.000246
XCD 3.123829
XCG 2.068958
XDR 0.815886
XOF 656.026336
XPF 119.331742
YER 275.735655
ZAR 19.390507
ZMK 10404.313415
ZMW 22.474375
ZWL 372.193586
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: Olivier Douliery - AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

K.Javed--DT