Microsoft hat dem US-Verteidigungsministerium ChatGPT und DALL-E vorgestellt
Microsoft hat dem US-Verteidigungsministerium (DoD) vorgeschlagen, OpenAI- und Azure-KI-Tools wie ChatGPT und Dall-E zu verwenden. Mit ihnen kann das DoD Software erstellen und militärische Operationen durchführen. Darüber hinaus könnte das Pentagon von der Verwendung von KI-Tools für verschiedene Aufgaben wie Dokumentenanalyse und Maschinenwartung profitieren.
Laut The Intercept kam der Vorschlag von Microsoft für das US-Verteidigungsministerium (DoD), KI-Tools zu verwenden, im Jahr 2023. Doch im Jahr 2024 hob OpenAI sein Verbot der militärischen Nutzung auf. Liz Bourgeous, eine Sprecherin des Unternehmens, erklärte jedoch, dass die Richtlinien von OpenAI die Verwendung seiner Tools zum Schaden anderer nicht zulassen.
Allerdings gibt es einen Haken. Die Tools des Unternehmens sind über Microsoft Azure verfügbar. Selbst wenn OpenAI sie aufgrund seiner Richtlinien nicht verkauft, kann Microsoft seine Azure OpenAI-Version für die Kriegsführung verwenden.
Wie wird KI im Militär eingesetzt?
Andererseits enthält die Präsentation von Microsoft vor dem US-Verteidigungsministerium einige Beispiele für den Einsatz von KI-Tools in der Kriegsführung. So kann Dall-E beispielsweise Bilder erstellen, um das Training von Gefechtsfeld-Managementsystemen zu verbessern.
Darüber hinaus können die Azure OpenAI-Tools dabei helfen, Muster zu erkennen und Vorhersagen und strategische Entscheidungen zu treffen. Darüber hinaus kann das US-Verteidigungsministerium (DoD) die AOAI für Überwachung, wissenschaftliche Forschung und andere Sicherheitszwecke nutzen.
Laut Anna Makanju begann das Unternehmen mit dem Pentagon zusammenzuarbeiten, nachdem OpenAI das Verbot der militärischen Nutzung aufgehoben hatte. Allerdings verbietet das Unternehmen weiterhin die Verwendung seiner KI-Tools für Kriegszwecke. Das Pentagon kann sie jedoch für Aufgaben wie die Analyse von Überwachungsmaterial verwenden.
Könnte KI eine Bedrohung für die Menschheit sein?
Es gibt einige Kontroversen. Laut Brianna Rosen, die sich auf Technologieethik konzentriert, wird uns ein Kampfsystem zweifellos Schaden zufügen, insbesondere wenn es KI verwendet. Daher verstoßen die Tools von OpenAI höchstwahrscheinlich gegen die Richtlinien des Unternehmens.
Heidy Khlaaf, eine Sicherheitsingenieurin für maschinelles Lernen, sagte indirekt, dass die vom Pentagon und dem Verteidigungsministerium verwendeten KI-Tools zu einer Bedrohung werden könnten. Schließlich liefert KI nicht immer genaue Ergebnisse. Darüber hinaus verschlechtern sich ihre Antworten, wenn Forscher sie mit KI-generierten Inhalten trainieren. Außerdem zeigen die KI-Bildgeneratoren nicht einmal eine genaue Anzahl von Gliedmaßen oder Fingern. Daher können sie keine realistische Feldpräsenz erzeugen.
Ein weiteres Problem sind Halluzinationen der KI. Schließlich wissen die meisten von uns, was mit Googles Bildgenerator passiert ist. Außerdem könnte die KI versuchen, in ihren Antworten Vorhersagen zu verwenden. Dadurch könnte das Kampfmanagementsystem fehlerhaft werden.
Letztendlich verdienen Microsoft und OpenAI Milliarden aus ihren Verträgen mit dem US-Verteidigungsministerium (DoD) und dem Pentagon über KI-Tools. Außerdem wird ihre KI unweigerlich Schaden anrichten, insbesondere wenn sie für Kriegstraining und Überwachung eingesetzt wird. Sie sollten jedoch daran arbeiten, die Anzahl der KI-Fehler zu reduzieren. Andernfalls könnten ihre Fehler zu Katastrophen führen. Darüber hinaus sollte die US-Regierung mit den Diensten von Microsoft vorsichtig sein, insbesondere nach den Azure-Datenlecks.
Was denken Sie? Sollten Regierungen KI nutzen, um ihre militärische Macht zu stärken? Lassen Sie es uns in den Kommentaren wissen.
Schreibe einen Kommentar