Microsoft zaproponował ChatGPT i DALL-E Departamentowi Obrony USA
Microsoft zaproponował Departamentowi Obrony USA (DoD) wykorzystanie narzędzi OpenAI i Azure AI, takich jak ChatGPT i Dall-E. Dzięki nim Departament Obrony może tworzyć oprogramowanie i przeprowadzać operacje wojskowe. Ponadto Pentagon mógłby odnieść korzyść z wykorzystania narzędzi sztucznej inteligencji do różnych zadań, takich jak analiza dokumentów i konserwacja maszyn.
Według The Intercept propozycja Microsoftu skierowana do Departamentu Obrony Stanów Zjednoczonych (DoD) dotycząca wykorzystania narzędzi AI miała miejsce w 2023 r. Jednak w 2024 r. OpenAI usunęła zakaz stosowania narzędzi do celów wojskowych. Jednak Liz Bourgeous, rzeczniczka firmy, wystąpiła i powiedziała, że zasady OpenAI nie pozwalają na używanie jego narzędzi do wyrządzania krzywdy innym.
Jednakże jest pewien haczyk. Narzędzia firmy dostępne są poprzez Microsoft Azure. Zatem nawet jeśli OpenAI nie sprzeda ich ze względu na swoje zasady, Microsoft może wykorzystać wersję Azure OpenAI do działań wojennych.
Jak sztuczna inteligencja jest wykorzystywana w wojsku?
Z drugiej strony prezentacja Microsoftu dla Departamentu Obrony zawiera kilka przykładów wykorzystania narzędzi sztucznej inteligencji w działaniach wojennych. Na przykład Dall-E może tworzyć obrazy w celu usprawnienia szkolenia w zakresie systemów zarządzania polem walki.
Ponadto narzędzia Azure OpenAI mogą pomóc w identyfikowaniu wzorców oraz dokonywaniu prognoz i podejmowaniu strategicznych decyzji. Ponadto Departament Obrony Stanów Zjednoczonych (DoD) może używać AOAI do nadzoru, badań naukowych i innych celów związanych z bezpieczeństwem.
Zdaniem Anny Makanju, po usunięciu przez OpenAI zakazu zastosowań wojskowych firma nawiązała współpracę z Pentagonem. Jednak firma nadal zabrania wykorzystywania swoich narzędzi sztucznej inteligencji do działań wojennych. Jednak Pentagon może ich używać do zadań takich jak analiza nagrań z monitoringu.
Czy sztuczna inteligencja może stanowić zagrożenie dla ludzi?
Trwa trochę kontrowersji. Według Brianny Rosen, która skupia się na etyce technologicznej, system walki niewątpliwie wyrządzi nam krzywdę, zwłaszcza jeśli wykorzystuje sztuczną inteligencję. Tym samym narzędzia OpenAI najprawdopodobniej naruszą politykę firmy.
Heidy Khlaaf, inżynier bezpieczeństwa korzystający z uczenia maszynowego, pośrednio powiedziała, że narzędzia AI wykorzystywane przez Pentagon i Departament Obrony mogą stać się zagrożeniem. W końcu sztuczna inteligencja nie zawsze generuje dokładne wyniki. Co więcej, jego odpowiedzi pogarszają się, gdy badacze szkolą go na treściach generowanych przez sztuczną inteligencję. Ponadto generatory obrazów AI nie pokazują nawet dokładnej liczby kończyn ani palców. Dlatego nie mogą wygenerować realistycznej obecności w terenie.
Kolejnym problemem są halucynacje AI. W końcu większość z nas wie, co stało się z generatorem obrazów Google. Ponadto sztuczna inteligencja mogłaby próbować wykorzystywać przewidywania w swoich odpowiedziach. W związku z tym system zarządzania walką może ulec awarii.
Ostatecznie Microsoft i OpenAI otrzymają miliardy dzięki kontraktom na narzędzia AI z Departamentem Obrony USA (DoD) i Pentagonem. Ponadto ich sztuczna inteligencja nieuchronnie doprowadzi do szkód, zwłaszcza gdy będzie wykorzystywana do szkolenia i obserwacji działań wojennych. Powinni jednak popracować nad zmniejszeniem ilości błędów AI. W przeciwnym razie ich błędy mogą doprowadzić do katastrof. Co więcej, rząd USA powinien zachować ostrożność w przypadku usług Microsoftu, zwłaszcza po naruszeniach bezpieczeństwa danych Azure.
Jakie są Twoje myśli? Czy rządy powinny wykorzystywać sztuczną inteligencję do zwiększania swojej siły militarnej? Daj nam znać w komentarzach.
Dodaj komentarz