Kolejne partnerstwo Microsoftu w zakresie sztucznej inteligencji chce, aby sztuczna inteligencja nie szkodziła ludziom

Kolejne partnerstwo Microsoftu w zakresie sztucznej inteligencji chce, aby sztuczna inteligencja nie szkodziła ludziom

Tydzień temu Microsoft ogłosił Llama 2 , partnerstwo AI z Meta, na Microsoft Inspire 2023. Llama 2 to duży model językowy typu open source, którego można używać do tworzenia i trenowania własnej sztucznej inteligencji. Mówi się również, że ten LLM jest pierwszą wskazówką do osiągnięcia AGI , co jest ostatecznie jednym z głównych celów AI.

Otóż ​​w ciągu tygodnia od ogłoszenia sporo się wydarzyło. Krążą również pogłoski, że OpenAI, firma stojąca za ChatGPT, wypuszcza własny LLM typu open source o nazwie kodowej G3PO. Nie ma jeszcze daty premiery, ale ma to nastąpić w 2023 lub 2024 roku.

Z kolei wydaje się, że Microsoft nawiązał współpracę z Anthropic, Google i Open AI na Frontier Model Forum. Zgodnie z komunikatem prasowym partnerstwo jest organem branżowym skoncentrowanym na zapewnieniu bezpiecznego i odpowiedzialnego rozwoju pionierskich modeli sztucznej inteligencji .

Dzisiaj Anthropic, Google, Microsoft i OpenAI ogłaszają utworzenie Frontier Model Forum, nowego organu branżowego skupionego na zapewnieniu bezpiecznego i odpowiedzialnego rozwoju modeli Frontier AI. Frontier Model Forum będzie korzystać z wiedzy technicznej i operacyjnej swoich firm członkowskich, aby przynieść korzyści całemu ekosystemowi sztucznej inteligencji, na przykład poprzez postęp w ocenach technicznych i testach porównawczych oraz rozwój publicznej biblioteki rozwiązań wspierających najlepsze praktyki i standardy branżowe.

Forum modeli Frontier

Zasadniczo Frontier Model Forum chce budować sztuczną inteligencję, która nie stanowi zagrożenia dla ludzi. Jeśli pamiętacie, jeden z partnerów, Anthropic, właśnie wypuścił Claude 2 AI , a model słynie ze sposobu, w jaki bezpiecznie wchodzi w interakcje z ludźmi. Tak więc będziemy mieć wiele sztucznej inteligencji podobnej do sztucznej inteligencji Claude 2, a prawdopodobnie nawet lepszej. Tak czy inaczej, jest to doskonała wiadomość, jeśli chodzi o tę branżę.

Co zrobi Frontier Model Forum, jeśli chodzi o sztuczną inteligencję

Partnerstwo ustaliło zestaw podstawowych celów i celów i będzie działać zgodnie z nimi. Oni są:

  1. Postęp w badaniach nad bezpieczeństwem sztucznej inteligencji w celu promowania odpowiedzialnego rozwoju modeli pionierskich, minimalizowania ryzyka i umożliwienia niezależnej, ustandaryzowanej oceny możliwości i bezpieczeństwa.
  2. Identyfikacja najlepszych praktyk w zakresie odpowiedzialnego rozwoju i wdrażania modeli pionierskich, pomagając społeczeństwu zrozumieć naturę, możliwości, ograniczenia i wpływ technologii.
  3. Współpraca z decydentami, naukowcami, społeczeństwem obywatelskim i firmami w celu dzielenia się wiedzą na temat zagrożeń związanych z zaufaniem i bezpieczeństwem.
  4. Wspieranie wysiłków na rzecz rozwoju aplikacji, które mogą pomóc sprostać największym wyzwaniom społeczeństwa , takim jak łagodzenie zmiany klimatu i adaptacja do niej, wczesne wykrywanie i zapobieganie rakowi oraz zwalczanie cyberzagrożeń.

Partnerstwo jest również otwarte na współpracę z organizacjami

Jeśli reprezentujesz organizację opracowującą sztuczną inteligencję w modelu Frontier, możesz zgłosić chęć przyłączenia się i współpracy z Frontier Model Forum.

Forum modeli Frontier

Aby dołączyć do partnerstwa, jako organizacja musicie spełnić następujące kryteria:

  • Opracowujecie już i wdrażacie modele pionierskie (zgodnie z definicją Forum).
  • Organizacja jest w stanie wykazać silne zaangażowanie w bezpieczeństwo modeli pionierskich, w tym poprzez podejście techniczne i instytucjonalne.
  • Wy, jako organizacja, jesteście gotowi przyczynić się do postępu prac Forum, w tym poprzez udział we wspólnych inicjatywach oraz wspieranie rozwoju i funkcjonowania inicjatywy.

To właśnie zrobi Forum, jeśli chodzi o sztuczną inteligencję

Frontier Model Forum chce wspierać bezpieczny i odpowiedzialny proces rozwoju sztucznej inteligencji i skupi się na 3 kluczowych obszarach w 2023 r.:

  • Identyfikacja najlepszych praktyk: Promuj dzielenie się wiedzą i najlepszymi praktykami, koncentrując się na normach bezpieczeństwa i praktykach bezpieczeństwa w celu złagodzenia szerokiego zakresu potencjalnych zagrożeń.
  • Postęp w badaniach nad bezpieczeństwem sztucznej inteligencji: Wspieraj ekosystem bezpieczeństwa sztucznej inteligencji, identyfikując najważniejsze otwarte pytania badawcze dotyczące bezpieczeństwa sztucznej inteligencji. Forum będzie koordynować badania, aby poczynić postępy w tych obszarach, takich jak odporność na ataki, mechanistyczna interpretacja, skalowalny nadzór, niezależny dostęp do badań, pojawiające się zachowania i wykrywanie anomalii. Początkowo duży nacisk zostanie położony na rozwój i udostępnianie publicznej biblioteki ocen technicznych i testów porównawczych dla pionierskich modeli sztucznej inteligencji.
  • Ułatwianie wymiany informacji między firmami i rządami: Ustanowienie zaufanych, bezpiecznych mechanizmów wymiany informacji między firmami, rządami i odpowiednimi zainteresowanymi stronami w zakresie bezpieczeństwa i zagrożeń związanych ze sztuczną inteligencją. Forum będzie przestrzegać najlepszych praktyk w zakresie odpowiedzialnego ujawniania informacji z obszarów takich jak cyberbezpieczeństwo.

W ciągu 2023 roku forum Frontier Model będzie pracowało nad złożeniem zarządu, a następnie zbuduje strategię i ustali priorytety. Ale organizacja już teraz chce współpracować z jak największą liczbą instytucji, prywatnych lub publicznych. Obejmuje to również społeczeństwa obywatelskie i rządy, a także inne instytucje zainteresowane sztuczną inteligencją.

Co sądzisz o tym nowym partnerstwie? Czy jesteś zainteresowany dołączeniem? A może interesują Cię pionierskie modele sztucznej inteligencji? Daj nam znać w sekcji komentarzy poniżej.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *