La industria de la inteligencia artificial (IA) está experimentando una expansión acelerada hacia el ámbito militar, impulsada por los recientes movimientos de grandes empresas tecnológicas como Meta, Anthropic, OpenAI y Microsoft. La creciente aplicación de IA en defensa y seguridad plantea desafíos éticos y de seguridad global, mientras surgen acuerdos entre tecnológicas y agencias militares de Estados Unidos, lo que despierta inquietud sobre el futuro de esta tendencia.
Anthropic anunció esta semana su asociación con Palantir y Amazon Web Services para proporcionar a las agencias de defensa e inteligencia de Estados Unidos acceso a sus modelos de IA Claude. Esta colaboración busca ofrecer soluciones de IA para el análisis y procesamiento de grandes volúmenes de datos, una ventaja crucial para la inteligencia militar. La empresa se suma así a un sector donde Meta y OpenAI también han marcado su presencia en los últimos meses.
Meta, por su parte, recientemente actualizó los términos de uso de su modelo de IA generativa Llama, permitiendo a Estados Unidos y sus aliados utilizar su tecnología con fines militares. Esta decisión llega tras reportes de que una versión previa de Llama fue utilizada en China para desarrollar un chatbot con aplicaciones en defensa, lo que Meta desautorizó públicamente. El cambio de política indica la disposición de Meta para colaborar en el sector militar, siempre que sea en alineación con los intereses de sus países socios.
OpenAI también ha modificado sus términos de uso este año, eliminando restricciones que prohibían el uso de sus modelos para fines militares. La empresa ha establecido un acuerdo con Carahsoft, un contratista gubernamental que asigna contratos para el Departamento de Defensa de EE. UU. Estos cambios subrayan la importancia estratégica que OpenAI le asigna a la industria militar, en sintonía con el crecimiento del gasto en IA en el sector de defensa.
Microsoft, en una línea similar, anunció en agosto una asociación con Palantir, enfocada en ofrecer infraestructura de nube y soluciones de IA a las agencias de defensa e inteligencia de Estados Unidos. Esta colaboración se enmarca en la competencia cada vez más intensa por proporcionar tecnología de vanguardia en el ámbito militar, una industria que solo en 2023 experimentó un aumento del 1,200% en contratos relacionados con IA, según un estudio del Brookings Institute.
El crecimiento de la inversión en IA militar plantea riesgos importantes. Aunque varias agencias de defensa estadounidenses han mostrado entusiasmo, algunos sectores del ejército y expertos en seguridad recomiendan cautela. Condoleezza Rice, exsecretaria de Estado, comentó en Axios que “el apetito por el riesgo en Washington no es muy grande”, destacando los riesgos asociados con la IA generativa, la cual puede amplificar conflictos e incluso sugerir la escalada hacia armas nucleares.
Unite a nuestro canal de WhatsApp
A medida que la industria militar se abre al uso de IA, los desafíos éticos también se intensifican. La tecnología de IA generativa, capaz de tomar decisiones autónomas y procesar información a alta velocidad, plantea la posibilidad de que se tomen decisiones críticas sin intervención humana. Este factor ha generado preocupación entre quienes advierten que las implicaciones éticas de la IA en el ámbito militar aún no están suficientemente evaluadas.
En un contexto global cada vez más interconectado, la competencia por la hegemonía tecnológica en aplicaciones de defensa involucra a múltiples países y empresas. Sin embargo, la inclusión de IA en la industria bélica sigue siendo un terreno resbaladizo, con consecuencias que podrían redefinir el concepto de seguridad global. Los avances recientes invitan a una reflexión profunda sobre el papel que debe jugar la tecnología en conflictos y estrategias de defensa.
Fuente: Xataka
Esta web usa cookies.