Systemy AI firm Microsoft, Google, OpenAI i innych zostaną przetestowane na DEFCON 31 w sierpniu
Rozwój generatywnej sztucznej inteligencji powoduje, że wiele osób obawia się, że nie będą zachowywać się w sposób etyczny i odpowiedzialny. Rzeczywiście, jeden z najwyżej postawionych badaczy sztucznej inteligencji w Google, Geoffrey Hinton, niedawno opuścił firmę , aby móc ostrzec świat o potencjalnych zagrożeniach związanych ze sztuczną inteligencją.
Dziś wiceprezydent USA Kamala Harris spotka się z dyrektorami generalnymi czterech wiodących firm zajmujących się rozwojem sztucznej inteligencji: Satyą Nadellą z Microsoftu, Sundarem Pichai z Google, Samem Altmanem z OpenAI i Dario Amodei z Anthropic. Biały Dom mówi, że uczestnicy omówią rosnące wykorzystanie sztucznej inteligencji oraz „znaczenie prowadzenia odpowiedzialnych, godnych zaufania i etycznych innowacji z zabezpieczeniami, które zmniejszają ryzyko i potencjalne szkody dla jednostek i naszego społeczeństwa”.
Administracja Bidena ogłosiła również, że te cztery firmy, wraz z Hugging Face, NVIDIA i Stability AI, zgodziły się przetestować swoje systemy AI na dorocznej konferencji hakerskiej DEFCON. DEFCON 31 odbędzie się w Las Vegas w dniach 10-13 sierpnia. W komunikacie prasowym Białego Domu stwierdzono:
To niezależne ćwiczenie dostarczy naukowcom i opinii publicznej krytycznych informacji na temat wpływu tych modeli i umożliwi firmom i programistom AI podjęcie kroków w celu rozwiązania problemów wykrytych w tych modelach. Testowanie modeli AI niezależnie od rządu lub firm, które je opracowały, jest ważnym elementem ich skutecznej oceny.
Ponadto amerykańskie Biuro Zarządzania i Budżetu stworzy projekt dokumentu dotyczącego polityki dotyczącej tego, w jaki sposób rząd USA powinien wykorzystywać sztuczną inteligencję i przedstawi go do publicznego komentowania. Ponadto National Science Foundation przeznaczy 140 milionów dolarów na sfinansowanie siedmiu nowych National AI Research Institutes, co zwiększy liczbę tych grup do 25.
Dodaj komentarz