Microsoft heeft ChatGPT en DALL-E gepitcht voor het Amerikaanse ministerie van Defensie

Microsoft heeft ChatGPT en DALL-E gepitcht voor het Amerikaanse ministerie van Defensie

Microsoft heeft het Amerikaanse ministerie van Defensie (DoD) voorgesteld om OpenAI- en Azure AI-tools te gebruiken, zoals ChatGPT en Dall-E. Hiermee kan het Ministerie van Defensie software bouwen en militaire operaties uitvoeren. Bovendien zou het Pentagon kunnen profiteren van het gebruik van AI-tools voor verschillende taken, zoals documentanalyse en machineonderhoud.

Volgens The Intercept gebeurde het voorstel van Microsoft aan het Amerikaanse ministerie van Defensie (DoD) om AI-tools te gebruiken in 2023. Toch hief OpenAI in 2024 het verbod op militair gebruik op. Liz Bourgeous, een woordvoerder van het bedrijf, kwam echter naar voren en zei dat het beleid van OpenAI het gebruik van zijn tools niet toestaat om anderen schade te berokkenen.

Er is echter een addertje onder het gras. De tools van het bedrijf zijn beschikbaar via Microsoft Azure. Dus zelfs als OpenAI ze vanwege zijn beleid niet verkoopt, kan Microsoft zijn Azure OpenAI-versie gebruiken voor oorlogsvoering.

Hoe wordt AI gebruikt in het leger?

Aan de andere kant bevat de presentatie van Microsoft aan DoD enkele voorbeelden van hoe AI-tools kunnen worden gebruikt voor oorlogsvoering. Dall-E kan bijvoorbeeld afbeeldingen maken om de training van slagveldmanagementsystemen te verbeteren.

Bovendien kunnen de Azure OpenAI-tools helpen bij het identificeren van patronen en het maken van voorspellingen en strategische beslissingen. Bovendien kan het Amerikaanse ministerie van Defensie (DoD) de AOAI gebruiken voor surveillance, wetenschappelijk onderzoek en andere veiligheidsdoeleinden.

Volgens Anna Makanju begon het bedrijf samen te werken met het Pentagon nadat OpenAI het verbod op militair gebruik had opgeheven. Het bedrijf verbiedt echter nog steeds het gebruik van hun AI-tools voor oorlogsvoering. Toch kan het Pentagon ze gebruiken voor taken als het analyseren van bewakingsbeelden.

Kan AI een bedreiging vormen voor de mens?

Er is een beetje controverse gaande. Volgens Brianna Rosen, die zich richt op technologie-ethiek, zal een gevechtssysteem ons ongetwijfeld schade berokkenen, vooral als het gebruik maakt van AI. De tools van OpenAI zullen dus hoogstwaarschijnlijk in strijd zijn met het beleid van het bedrijf.

Heidy Khlaaf, een veiligheidsingenieur op het gebied van machine learning, zei indirect dat AI-tools die door het Pentagon en het Ministerie van Defensie worden gebruikt een bedreiging kunnen worden. AI genereert immers niet altijd nauwkeurige resultaten. Bovendien verslechteren de antwoorden wanneer onderzoekers deze trainen op basis van door AI gegenereerde inhoud. Bovendien tonen de AI-beeldgeneratoren niet eens een nauwkeurig aantal ledematen of vingers. Ze kunnen dus geen realistische aanwezigheid in het veld genereren.

Een andere zorg zijn AI-hallucinaties. De meesten van ons weten tenslotte wat er met de beeldgenerator van Google is gebeurd. Ook zou AI kunnen proberen voorspellingen te gebruiken in zijn antwoorden. Het gevechtsbeheersysteem kan dus defect raken.

Uiteindelijk krijgen Microsoft en OpenAI miljarden uit hun contracten voor AI-tools met het Amerikaanse ministerie van Defensie (DoD) en het Pentagon. Bovendien zal hun AI onvermijdelijk tot schade leiden, vooral wanneer deze wordt gebruikt voor oorlogstraining en surveillance. Ze moeten er echter aan werken om het aantal AI-fouten te verminderen. Anders zouden hun fouten tot rampen kunnen leiden. Bovendien moet de Amerikaanse overheid voorzichtig zijn met de diensten van Microsoft, vooral na de Azure-datalekken.

Wat zijn uw gedachten? Moeten regeringen AI gebruiken om hun militaire macht te vergroten? Laat het ons weten in de reacties.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *