Ciencias y Tecnología

Exempleado OpenAI advierte sobre riesgos de IA más inteligente

Un exempleado de OpenAI, que monitoreaba la seguridad y alineación de modelos de IA con valores humanos, alertó sobre los peligros de una carrera por crear una súper inteligencia artificial (IA) más inteligente que los humanos.

Exempleado de OpenAI advirtió riesgos de inteligencia artificial. Foto: El Comercio Perú.

Carroll Wainwright, un exempleado de OpenAI que formaba parte del equipo encargado de vigilar la seguridad y alineación de los modelos de inteligencia artificial (IA) más potentes con los valores humanos, lanzó una advertencia sobre el peligro latente en la carrera por crear una súper IA o inteligencia artificial general (IAG) que sea tan o más inteligente que el ser humano.

Wainwright, quien renunció la semana pasada a su puesto, fue uno de los firmantes de una carta en la que empleados de la empresa creadora de ChatGPT denunciaron la opacidad sobre los posibles riesgos de la IA. Su preocupación gira en torno a la ambición de desarrollar una IA que no solo pueda reproducir acciones humanas, como escribir o dibujar, sino que también comprenda la complejidad y el contexto de sus propias acciones.

Lea más: La IA transforma el duelo: Chatbots reviven a seres queridos

Si bien esta tecnología aún no existe, expertos como Elon Musk predicen su creación en un plazo de dos años, mientras que otros, como Robin Li, director ejecutivo de Baidu, estiman que podría tardar una década. Wainwright, por su parte, cree que es posible que una IAG vea la luz en unos cinco años, aunque advirtió que también podría llevar mucho más tiempo.

El extrabajador subrayó tres riesgos principales de la IAG: la sustitución de trabajadores humanos, especialmente en empleos calificados; el impacto social y mental que conllevaría tener un asistente personal de IA; y, por último, la falta de control sobre esta tecnología. “El riesgo de desalineación a largo plazo se produce si se obtiene un modelo que es más inteligente que los humanos. ¿Cómo se puede estar seguro de que ese modelo realmente está haciendo lo que el humano desea o que la máquina no tenga un objetivo propio? Y si tiene un objetivo propio, es preocupante”, explicó Wainwright.

Lea más: NASA y Nokia se alían para llevar internet 4G a la Luna

Aunque no encontró nada “aterrador” durante su estancia en OpenAI, ya que la empresa solo investiga la posibilidad de crear esta tecnología, el principal detonante de su renuncia fue el cambio de visión de la compañía, que pasó de ser un laboratorio sin fines de lucro enfocado en beneficiar a la humanidad, a estar impulsada casi en su totalidad por incentivos para obtener ganancias tras el éxito de ChatGPT.

Wainwright confía en que las grandes empresas de IA respetarán las regulaciones, pero advirtió que el problema radica en la ausencia actual de un marco normativo sólido. Por ello, los empleados de este sector pidieron la creación de un sistema en el que puedan alertar a un organismo independiente sobre los peligros que vean en sus empresas.

Según el exempleado, el problema no es la falta de seguridad de los gigantes de la IA, sino la rapidez con la que se enfrentan debido a la rivalidad entre empresas, especialmente entre OpenAI y Google. “El hecho de que nadie quiera que ocurra un desastre no significa que vayan a tomarse el tiempo para asegurarse de que no suceda, ya que existe el incentivo de competir y vencer a todos los demás”, resaltó.

Unite a nuestro canal de WhatsApp

Mientras tanto, el Parlamento Europeo ratificó en marzo la ley de IA de la Unión Europea (UE), la primera que regula esta tecnología a nivel mundial, aunque no entrará en vigor hasta 2026. Además, según anunció la prensa especializada, los reguladores de Estados Unidos abrirán investigaciones antimonopolio contra Microsoft, OpenAI y Nvidia para analizar su influencia en el sector de la IA.

Fuente: ABC.