Microsoft, OpenAI, Google i Anthropic uruchamiają Frontier Model Forum na rzecz odpowiedzialnej sztucznej inteligencji

Microsoft, OpenAI, Google i Anthropic uruchamiają Frontier Model Forum na rzecz odpowiedzialnej sztucznej inteligencji

Generatywna sztuczna inteligencja stała się modnym hasłem w branży technologicznej w 2023 roku. Istnieje również wiele obaw związanych z tym, jak generatywna sztuczna inteligencja może wymknąć się spod kontroli. Dzisiaj cztery wiodące firmy zajmujące się sztuczną inteligencją połączyły siły, aby stworzyć Frontier Model Forum. Celem tej grupy jest zapewnienie „bezpiecznego i odpowiedzialnego rozwoju” generatywnej sztucznej inteligencji, w szczególności dla pionierskich modeli sztucznej inteligencji.

Modele Frontier AI są opisywane przez tę grupę jako „wielkoskalowe modele uczenia maszynowego, które przekraczają możliwości obecne w najbardziej zaawansowanych istniejących modelach i mogą wykonywać różnorodne zadania”.

Członkami założycielami grupy są Microsoft, OpenAI, Google i Anthropic. W poście na blogu Google , który ogłosił Frontier Model Forum, grupa ogłosiła swoje cele:

  • Postęp w badaniach nad bezpieczeństwem sztucznej inteligencji w celu promowania odpowiedzialnego rozwoju pionierskich modeli, minimalizowania ryzyka i umożliwienia niezależnej, ustandaryzowanej oceny możliwości i bezpieczeństwa.
  • Identyfikacja najlepszych praktyk w zakresie odpowiedzialnego rozwoju i wdrażania modeli pionierskich, pomagając społeczeństwu zrozumieć naturę, możliwości, ograniczenia i wpływ technologii.
  • Współpraca z decydentami, naukowcami, społeczeństwem obywatelskim i firmami w celu dzielenia się wiedzą na temat zagrożeń związanych z zaufaniem i bezpieczeństwem.
  • Wspieranie wysiłków na rzecz rozwoju aplikacji, które mogą pomóc sprostać największym wyzwaniom społeczeństwa, takim jak łagodzenie zmiany klimatu i adaptacja do niej, wczesne wykrywanie i zapobieganie rakowi oraz zwalczanie zagrożeń cybernetycznych.

Nowa grupa rozpocznie od ustanowienia rady doradczej, aby mogła zacząć opracowywać zalecenia dotyczące standardów bezpieczeństwa dla pionierskich modeli sztucznej inteligencji, a także pracować nad badaniami nad bezpieczeństwem sztucznej inteligencji i dzielić się informacjami na temat tych wysiłków z innymi firmami i rządami.

Wspólna wiadomość zawierała cytat prezesa Microsoftu, Brada Smitha:

Firmy tworzące technologię sztucznej inteligencji mają obowiązek zapewnić, że jest ona bezpieczna i pozostaje pod kontrolą człowieka. Inicjatywa ta jest istotnym krokiem w kierunku zjednoczenia sektora technologicznego w odpowiedzialnym rozwoju sztucznej inteligencji i stawianiu czoła wyzwaniom, tak aby przynosiła korzyści całej ludzkości.

Frontier Model Forum jest również otwarte na dodanie większej liczby firm do tej grupy, jeśli pracują one również nad pionierskimi modelami sztucznej inteligencji i „wykażą silne zaangażowanie w bezpieczeństwo modeli granicznych, w tym poprzez podejście techniczne i instytucjonalne”.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *