Microsoft ha presentato ChatGPT e DALL-E al Dipartimento della Difesa degli Stati Uniti

Microsoft ha presentato ChatGPT e DALL-E al Dipartimento della Difesa degli Stati Uniti

Microsoft ha proposto al Dipartimento della Difesa degli Stati Uniti (DoD) di utilizzare gli strumenti OpenAI e Azure AI, come ChatGPT e Dall-E. Con loro, il Dipartimento della Difesa può creare software ed eseguire operazioni militari. Inoltre, il Pentagono potrebbe trarre vantaggio dall’utilizzo di strumenti di intelligenza artificiale per vari compiti come l’analisi dei documenti e la manutenzione delle macchine.

Secondo The Intercept , la proposta di Microsoft al Dipartimento della Difesa degli Stati Uniti (DoD) di utilizzare strumenti di intelligenza artificiale è avvenuta nel 2023. Tuttavia, nel 2024, OpenAI ha rimosso il divieto di uso militare. Tuttavia, Liz Bourgeous, portavoce dell’azienda, si è fatta avanti e ha affermato che le politiche di OpenAI non consentono l’utilizzo dei suoi strumenti per danneggiare gli altri.

Tuttavia, c’è un problema. Gli strumenti dell’azienda sono disponibili tramite Microsoft Azure. Pertanto, anche se OpenAI non li vende a causa delle sue politiche, Microsoft può utilizzare la sua versione di Azure OpenAI per la guerra.

Come viene utilizzata l’intelligenza artificiale in campo militare?

D’altra parte, la presentazione di Microsoft al Dipartimento della Difesa contiene alcuni esempi di come utilizzare gli strumenti di intelligenza artificiale per la guerra. Ad esempio, Dall-E può creare immagini per migliorare la formazione sui sistemi di gestione del campo di battaglia.

Inoltre, gli strumenti di Azure OpenAI possono aiutare a identificare modelli e fare previsioni e decisioni strategiche. Oltre a ciò, il Dipartimento della Difesa degli Stati Uniti (DoD) può utilizzare l’AOAI per sorveglianza, ricerca scientifica e altri scopi di sicurezza.

Secondo Anna Makanju, dopo che OpenAI ha rimosso il divieto di uso militare, la società ha iniziato a collaborare con il Pentagono. Tuttavia, l’azienda vieta ancora l’uso dei propri strumenti di intelligenza artificiale per la guerra. Tuttavia, il Pentagono può usarli per compiti come l’analisi dei filmati di sorveglianza.

L’intelligenza artificiale potrebbe rappresentare una minaccia per l’uomo?

C’è un po’ di polemica in corso. Secondo Brianna Rosen, che si concentra sull’etica della tecnologia, un sistema di battaglia ci causerà senza dubbio danni, soprattutto se utilizza l’intelligenza artificiale. Pertanto, molto probabilmente gli strumenti di OpenAI violeranno le politiche dell’azienda.

Heidy Khlaaf, un ingegnere di sicurezza basato sull’apprendimento automatico, ha affermato indirettamente che gli strumenti di intelligenza artificiale utilizzati dal Pentagono e dal Dipartimento della Difesa potrebbero diventare una minaccia. Dopotutto, l’intelligenza artificiale non sempre genera risultati accurati. Inoltre, le sue risposte peggiorano quando i ricercatori lo addestrano su contenuti generati dall’intelligenza artificiale. Inoltre, i generatori di immagini AI non mostrano nemmeno un numero preciso di arti o dita. Pertanto, non possono generare una presenza sul campo realistica.

Un’altra preoccupazione sono le allucinazioni dell’intelligenza artificiale. Dopotutto, molti di noi sanno cosa è successo al generatore di immagini di Google. Inoltre, l’intelligenza artificiale potrebbe provare a utilizzare le previsioni nelle sue risposte. Pertanto, il sistema di gestione della battaglia potrebbe diventare difettoso.

Alla fine, Microsoft e OpenAI stanno ottenendo miliardi dai loro contratti di strumenti di intelligenza artificiale con il Dipartimento della Difesa degli Stati Uniti (DoD) e il Pentagono. Inoltre, la loro intelligenza artificiale porterà inevitabilmente a danni, soprattutto se utilizzata per l’addestramento e la sorveglianza bellica. Tuttavia, dovrebbero lavorare per ridurre la quantità di errori dell’IA. Altrimenti, i loro errori potrebbero portare a disastri. Oltre a ciò, il governo degli Stati Uniti dovrebbe fare attenzione ai servizi di Microsoft, soprattutto dopo la violazione dei dati di Azure.

Quali sono i tuoi pensieri? I governi dovrebbero utilizzare l’intelligenza artificiale per migliorare la propria potenza militare? Fateci sapere nei commenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *