Microsoft presentó ChatGPT y DALL-E al Departamento de Defensa de EE. UU.

Microsoft presentó ChatGPT y DALL-E al Departamento de Defensa de EE. UU.

Microsoft propuso al Departamento de Defensa de EE. UU. (DoD) utilizar herramientas OpenAI y Azure AI, como ChatGPT y Dall-E. Con ellos, el Departamento de Defensa puede crear software y ejecutar operaciones militares. Además, el Pentágono podría beneficiarse del uso de herramientas de inteligencia artificial para diversas tareas, como el análisis de documentos y el mantenimiento de máquinas.

Según The Intercept , la propuesta de Microsoft para que el Departamento de Defensa de EE. UU. (DoD) utilizara herramientas de inteligencia artificial se produjo en 2023. Sin embargo, en 2024, OpenAI eliminó su prohibición de uso militar. Sin embargo, Liz Bourgeous, portavoz de la empresa, se adelantó y dijo que las políticas de OpenAI no permiten el uso de sus herramientas para dañar a otros.

Sin embargo, hay un problema. Las herramientas de la empresa están disponibles a través de Microsoft Azure. Por lo tanto, incluso si OpenAI no los vende debido a sus políticas, Microsoft puede usar su versión Azure OpenAI para la guerra.

¿Cómo se utiliza la IA en el ejército?

Por otro lado, la presentación de Microsoft al Departamento de Defensa tiene algunos ejemplos de cómo utilizar herramientas de IA para la guerra. Por ejemplo, Dall-E puede crear imágenes para mejorar el entrenamiento de los sistemas de gestión del campo de batalla.

Además, las herramientas de Azure OpenAI pueden ayudar a identificar patrones y realizar predicciones y decisiones estratégicas. Además de eso, el Departamento de Defensa de EE. UU. (DoD) puede utilizar el AOAI para vigilancia, investigación científica y otros fines de seguridad.

Según Anna Makanju, después de que OpenAI eliminara la prohibición de uso militar, la empresa comenzó a trabajar con el Pentágono. Sin embargo, la empresa todavía prohíbe el uso de sus herramientas de inteligencia artificial para la guerra. Sin embargo, el Pentágono puede utilizarlos para tareas como analizar imágenes de vigilancia.

¿Podría la IA ser una amenaza para los humanos?

Hay un poco de controversia. Según Brianna Rosen, especializada en ética tecnológica, un sistema de batalla sin duda nos causará daño, especialmente si utiliza IA. Por lo tanto, lo más probable es que las herramientas de OpenAI infrinjan las políticas de la empresa.

Heidy Khlaaf, ingeniera de seguridad de aprendizaje automático, dijo indirectamente que las herramientas de inteligencia artificial utilizadas por el Pentágono y el Departamento de Defensa podrían convertirse en una amenaza. Después de todo, la IA no siempre genera resultados precisos. Además de eso, sus respuestas se deterioran cuando los investigadores lo entrenan con contenido generado por IA. Además, los generadores de imágenes de IA ni siquiera muestran un número exacto de extremidades o dedos. Por lo tanto, no pueden generar una presencia realista sobre el terreno.

Otra preocupación son las alucinaciones de la IA. Después de todo, la mayoría de nosotros sabemos lo que pasó con el generador de imágenes de Google. Además, la IA podría intentar utilizar predicciones en sus respuestas. Por lo tanto, el sistema de gestión de batalla podría resultar defectuoso.

En última instancia, Microsoft y OpenAI están obteniendo miles de millones de sus contratos de herramientas de inteligencia artificial con el Departamento de Defensa (DoD) de EE. UU. y el Pentágono. Además, su IA inevitablemente provocará daños, especialmente cuando se utiliza para entrenamiento bélico y vigilancia. Sin embargo, deberían trabajar para reducir la cantidad de errores de IA. De lo contrario, sus errores podrían provocar desastres. Además de eso, el gobierno de EE.UU. debería tener cuidado con los servicios de Microsoft, especialmente después de las filtraciones de datos de Azure.

¿Cuáles son tus pensamientos? ¿Deberían los gobiernos utilizar la IA para mejorar su poder militar? Háganos saber en los comentarios.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *