Microsoft a présenté ChatGPT et DALL-E au ministère américain de la Défense

Microsoft a présenté ChatGPT et DALL-E au ministère américain de la Défense

Microsoft a proposé au Département américain de la Défense (DoD) d’utiliser les outils OpenAI et Azure AI, tels que ChatGPT et Dall-E. Avec eux, le DoD peut créer des logiciels et exécuter des opérations militaires. De plus, le Pentagone pourrait bénéficier de l’utilisation d’outils d’IA pour diverses tâches telles que l’analyse de documents et la maintenance des machines.

Selon The Intercept , la proposition de Microsoft au Département américain de la Défense (DoD) d’utiliser des outils d’IA a eu lieu en 2023. Pourtant, en 2024, OpenAI a levé son interdiction d’utilisation militaire. Cependant, Liz Bourgeous, porte-parole de l’entreprise, s’est manifestée et a déclaré que les politiques d’OpenAI n’autorisent pas l’utilisation de ses outils pour nuire à autrui.

Cependant, il y a un hic. Les outils de l’entreprise sont disponibles via Microsoft Azure. Ainsi, même si OpenAI ne les vend pas en raison de ses politiques, Microsoft peut utiliser sa version Azure OpenAI pour la guerre.

Comment l’IA est-elle utilisée dans l’armée ?

D’un autre côté, la présentation de Microsoft au DoD contient quelques exemples d’utilisation des outils d’IA pour la guerre. Par exemple, Dall-E peut créer des images pour améliorer la formation aux systèmes de gestion du champ de bataille.

De plus, les outils Azure OpenAI peuvent aider à identifier des modèles et à faire des prédictions et des décisions stratégiques. En plus de cela, le Département américain de la Défense (DoD) peut utiliser l’AOAI à des fins de surveillance, de recherche scientifique et à d’autres fins de sécurité.

Selon Anna Makanju, après qu’OpenAI ait levé l’interdiction d’utilisation militaire, l’entreprise a commencé à travailler avec le Pentagone. Cependant, la société interdit toujours l’utilisation de ses outils d’IA à des fins de guerre. Pourtant, le Pentagone peut les utiliser pour des tâches telles que l’analyse des images de surveillance.

L’IA pourrait-elle constituer une menace pour l’homme ?

Il y a une petite controverse en cours. Selon Brianna Rosen, spécialiste de l’éthique technologique, un système de combat nous causera sans aucun doute du tort, surtout s’il utilise l’IA. Ainsi, les outils d’OpenAI enfreindront très probablement les politiques de l’entreprise.

Heidy Khlaaf, ingénieur en sécurité en apprentissage automatique, a indirectement déclaré que les outils d’IA utilisés par le Pentagone et le DoD pourraient devenir une menace. Après tout, l’IA ne génère pas toujours des résultats précis. De plus, ses réponses se détériorent lorsque les chercheurs le forment sur du contenu généré par l’IA. De plus, les générateurs d’images IA n’affichent même pas un nombre précis de membres ou de doigts. Ils ne peuvent donc pas générer une présence réaliste sur le terrain.

Une autre préoccupation concerne les hallucinations de l’IA. Après tout, la plupart d’entre nous savent ce qui est arrivé au générateur d’images de Google. L’IA pourrait également essayer d’utiliser des prédictions dans ses réponses. Ainsi, le système de gestion de combat pourrait devenir défectueux.

En fin de compte, Microsoft et OpenAI obtiennent des milliards grâce à leurs contrats d’outils d’IA avec le département américain de la Défense (DoD) et le Pentagone. De plus, leur IA entraînera inévitablement des dommages, en particulier lorsqu’elle est utilisée à des fins d’entraînement à la guerre et de surveillance. Cependant, ils devraient s’efforcer de réduire le nombre d’erreurs d’IA. Sinon, leurs erreurs pourraient conduire à des désastres. En plus de cela, le gouvernement américain devrait être prudent avec les services de Microsoft, surtout après les violations de données Azure.

Quelles sont vos pensées? Les gouvernements devraient-ils utiliser l’IA pour renforcer leur puissance militaire ? Faites le nous savoir dans les commentaires.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *