Microsoft kładzie nacisk na zasady Odpowiedzialnej AI… po zwolnieniu zespołu Ethical AI
Microsoft wyraźnie angażuje się w inicjatywy związane ze sztuczną inteligencją (AI), a firma inwestuje mnóstwo pieniędzy i wysiłku w GPT OpenAI , Bing Chat , GitHub Copilot i wszystkie nadchodzące integracje AI z produktami Microsoft 365 . Pomimo tego gwałtownego rozwoju produktów AI zorientowanych na konsumentów, firma niedawno zwolniła zespół ds. etyki, którego zadaniem było zapewnienie, że odpowiedzialne produkty AI trafią do klientów. Teraz, ironicznie, Microsoft podkreślił swoje zasady odpowiedzialnej sztucznej inteligencji w poście na blogu .
Microsoft zasadniczo ma zestaw zasad Odpowiedzialnej sztucznej inteligencji , które regulują sposób budowania produktów AI. Fundamenty obejmują zapewnienie uczciwości, niezawodności i bezpieczeństwa, prywatności i bezpieczeństwa, integracji, przejrzystości i odpowiedzialności. Spółka zauważa, że:
Wdrażanie strategii odpowiedzialnej sztucznej inteligencji to wyzwanie, z którym boryka się wiele organizacji. W rezultacie firma Microsoft ustandaryzowała praktyki Odpowiedzialnej sztucznej inteligencji i udostępniła je innym firmom lub specjalistom ds. uczenia maszynowego do przyjęcia podczas projektowania, budowania, testowania lub wdrażania ich systemów sztucznej inteligencji. Na przykład klienci lub programiści mogą wykorzystać odpowiedzialny szablon oceny wpływu sztucznej inteligencji, aby pomóc zidentyfikować zamierzone zastosowanie systemów sztucznej inteligencji; integralność danych, jakikolwiek negatywny wpływ na ludzi lub organizacje; oraz w jaki sposób odnosi się do celów każdej z sześciu podstawowych odpowiedzialnych zasad sztucznej inteligencji: uczciwość, integracja, bezpieczeństwo i niezawodność, odpowiedzialność i przejrzystość. Ponadto sprzyja to praktyce, w której twórcy sztucznej inteligencji biorą odpowiedzialność i są w stanie zapewnić użytkownikom końcowym przejrzystość tego, co robi system sztucznej inteligencji; jak należy go używać; jego ograniczenia/ograniczenia i znane problemy. Pomaga to zespołom uczącym się maszyn ocenić ich podejście do cyklu życia oprogramowania, aby sprawdzić, czy nie pomijają czynników, które mogą spowodować, że ich rozwiązanie AI nie będzie działać zgodnie z zamierzeniami.
Chociaż Microsoft twierdzi, że ma zespoły zarządzające, które zapewniają, że jego własne produkty AI również przestrzegają tych zasad, ostatnie wiadomości z Redmond wskazują, że firma zwolniła cały zespół ds. etyki i społeczeństwa . Zespół ten został podobno utworzony w celu zapewnienia, że zasady odpowiedzialnej sztucznej inteligencji firmy Microsoft są ściśle powiązane z projektowaniem produktów. Jednak w tym czasie Microsoft utrzymywał, że nadal utrzymuje aktywny dział Biura ds. Odpowiedzialnej AI, który tworzy reguły i zasady rządzące jego inicjatywami AI i nadal inwestuje w tym obszarze.
Firma nie wyjaśniła też wyraźnie, dlaczego zespół został zwolniony, ale cytowano byłego pracownika, który powiedział:
Ludzie patrzyliby na zasady wychodzące z biura odpowiedzialnej sztucznej inteligencji i mówili: „Nie wiem, jak to się ma do rzeczy”. Naszym zadaniem było je pokazać i stworzyć zasady tam, gdzie ich nie było.
Niezależnie od tego Microsoft podkreślił, że inwestuje w narzędzia i produkty, które zapewniają przestrzeganie zasad Odpowiedzialnej Sztucznej Inteligencji. Godnym uwagi przykładem jest pulpit nawigacyjny Odpowiedzialna sztuczna inteligencja, który uruchomiono w 2021 roku . Oczywiście tylko czas pokaże, czy te inicjatywy wystarczą, aby ograniczyć potencjalne szkodliwe skutki produktów AI . Ostatnio wybitne osobistości technologiczne, takie jak Steve Wozniak, Evan Sharp i Elon Musk, zwróciły się do laboratoriów sztucznej inteligencji o wstrzymanie rozwoju produktów na co najmniej sześć miesięcy i nie spieszyć się z nim bez przygotowania.
Dodaj komentarz