Microsoft apresentou ChatGPT e DALL-E ao Departamento de Defesa dos EUA
A Microsoft propôs ao Departamento de Defesa dos EUA (DoD) o uso de ferramentas OpenAI e Azure AI, como ChatGPT e Dall-E. Com eles, o DoD pode construir software e executar operações militares. Além disso, o Pentágono poderia beneficiar da utilização de ferramentas de IA para diversas tarefas, tais como análise de documentos e manutenção de máquinas.
De acordo com o The Intercept , a proposta da Microsoft para o Departamento de Defesa dos EUA (DoD) usar ferramentas de IA aconteceu em 2023. Mesmo assim, em 2024, a OpenAI removeu a proibição do uso militar. No entanto, Liz Bourgeous, porta-voz da empresa, se manifestou e disse que as políticas da OpenAI não permitem o uso de suas ferramentas para prejudicar terceiros.
No entanto, há um porém. As ferramentas da empresa estão disponíveis através do Microsoft Azure. Assim, mesmo que a OpenAI não os venda devido às suas políticas, a Microsoft pode usar a sua versão Azure OpenAI para a guerra.
Como a IA é usada nas forças armadas?
Por outro lado, a apresentação da Microsoft ao DoD traz alguns exemplos de como usar ferramentas de IA para a guerra. Por exemplo, Dall-E pode criar imagens para melhorar o treinamento em sistemas de gerenciamento de campo de batalha.
Além disso, as ferramentas Azure OpenAI podem ajudar a identificar padrões e fazer previsões e decisões estratégicas. Além disso, o Departamento de Defesa dos EUA (DoD) pode utilizar a AOAI para vigilância, investigação científica e outros fins de segurança.
Segundo Anna Makanju, depois que a OpenAI removeu a proibição do uso militar, a empresa começou a trabalhar com o Pentágono. No entanto, a empresa ainda proíbe o uso de suas ferramentas de IA para a guerra. No entanto, o Pentágono pode usá-los para tarefas como análise de imagens de vigilância.
A IA poderia ser uma ameaça para os humanos?
Há um pouco de controvérsia acontecendo. Segundo Brianna Rosen, que se concentra na ética tecnológica, um sistema de batalha sem dúvida nos causará danos, especialmente se usar IA. Assim, as ferramentas da OpenAI provavelmente violarão as políticas da empresa.
Heidy Khlaaf, engenheira de segurança de aprendizado de máquina, disse indiretamente que as ferramentas de IA usadas pelo Pentágono e pelo DoD podem se tornar uma ameaça. Afinal, a IA nem sempre gera resultados precisos. Além disso, as suas respostas deterioram-se quando os investigadores o treinam em conteúdo gerado por IA. Além disso, os geradores de imagens de IA nem mostram um número preciso de membros ou dedos. Assim, eles não conseguem gerar uma presença de campo realista.
Outra preocupação são as alucinações de IA. Afinal, a maioria de nós sabe o que aconteceu com o gerador de imagens do Google. Além disso, a IA poderia tentar usar previsões em suas respostas. Assim, o sistema de gerenciamento de batalha pode apresentar falhas.
Em última análise, a Microsoft e a OpenAI estão a obter milhares de milhões dos seus contratos de ferramentas de IA com o Departamento de Defesa dos EUA (DoD) e o Pentágono. Além disso, a sua IA conduzirá inevitavelmente a danos, especialmente quando utilizada para treino de guerra e vigilância. No entanto, eles devem trabalhar para reduzir a quantidade de erros de IA. Caso contrário, os seus erros poderão levar a desastres. Além disso, o governo dos EUA deveria ter cuidado com os serviços da Microsoft, especialmente após as violações de dados do Azure.
Quais são seus pensamentos? Deverão os governos usar a IA para aumentar o seu poder militar? Deixe-nos saber nos comentários.
Deixe um comentário