Jefe de OpenAI advierte que un "descuadre social" podría hacer peligrosa la inteligencia artificial
DUBÁI, Emiratos Árabes Unidos (AP) — El director general de Open AI, la firma creadora de ChatGPT, dijo el martes que el riesgo asociado a la inteligencia artificial que le quita el sueño es que un “descuadre social muy sutil” pueda hacer que los sistemas sean destructivos.
En una intervención por videoconferencia en la Cumbre Mundial de Gobiernos en Dubái, Sam Altman reiteró su petición de que se forme un organismo similar al Organismo Internacional de la Energía Atómica que supervise la IA, que probablemente está avanzando más deprisa de lo que espera el mundo.
“Hay algunas cosas ahí en las que resulta fácil imaginar que las cosas salgan mal. Y no me interesa tanto la idea de robots asesinos caminando por la calle como los descuadres sociales muy sutiles, en los que teniendo estos sistemas en la sociedad y ninguna intención maligna en particular, las cosas salen terriblemente mal”.
Sin embargo, Altman recalcó que la industria de la IA, como la firma OpenAI, no debería llevar la voz cantante a la hora de trazar la regulación que rige el sector.
“Aún estamos en la fase de mucho diálogo. Todo el mundo tiene una conferencia. Alguien tiene una idea, un documento de normas, y eso está bien”, dijo Altman. “Creo que aún estamos en un momento en el que hace falta un debate sano, pero en algún momento en los próximos años, creo que tendremos que avanzar hacia un plan de acción con implicaciones reales en el mundo”.
La firma de inteligencia artificial OpenAI, con sede en San Francisco, es uno de los líderes del sector. Microsoft ha invertido unos 1.000 millones de dólares en OpenAI. The Associated Press ha firmado un acuerdo con OpenAI para que acceda a su archivo de noticias. Por su parte, The New York Times ha demandado a OpenAI y Microsoft por utilizar sus historias sin autorización para entrenar a los bots conversacionales de OpenAI.
El éxito de OpenAI ha convertido a Altman en el rostro público de la rápida comercialización de la IA generativa, y de los temores sobre lo que podría traer la nueva tecnología.
Emiratos Árabes Unidos, una federación autocrática de siete reinos gobernados por jeques que heredan el cargo, muestra indicios de esos riesgos. La libertad de expresión sigue muy restringida. Esos límites afectan al flujo de información fiable, y los programas de IA como ChatGPT son sistemas de aprendizaje automático que dependen de la información disponible para elaborar sus respuestas a los usuarios.
En Emiratos está la firma de Abu Dabi G42, supervisada por el poderoso asesor de seguridad nacional del país. G42 tiene lo que los expertos describen como el modelo de inteligencia artificial en árabe más destacado del mundo. La compañía ha recibido acusaciones de espionaje por sus lazos con una app para celulares identificada como software espía. También ha enfrentado acusaciones de que podría haber reunido material genético de estadounidenses para el gobierno chino.
G42 dijo que cortaría sus lazos con proveedores chinos ante las preocupaciones estadounidenses. Sin embargo, la conversación con Altman, moderada por el ministro estatal emiratí para Inteligencia Artificial, Omar al-Olama, no tocó ninguna de las preocupaciones locales.
Por su parte, Altman dijo sentirse animado al ver que las escuelas, donde los maestros temían que los alumnos emplearan la IA para hacer sus trabajos, ahora aceptan la tecnología como un elemento crucial para el futuro. Pero añadió que la IA aún está dando sus primeros pasos.
“Creo que el motivo es que la tecnología actual que tenemos es como (...) ese primer celular con una pantalla blanca y negra”, dijo Altman. “De modo que dennos algo de tiempo. Les diré que creo que en unos pocos años será mucho mejor que ahora. Y en una década debería ser bastante llamativa”.