Microsoft, OpenAI, Google en Anthropic lanceren Frontier Model Forum voor verantwoorde AI

Microsoft, OpenAI, Google en Anthropic lanceren Frontier Model Forum voor verantwoorde AI

Generatieve kunstmatige intelligentie is in 2023 de buzzwords geworden voor de technologie-industrie. Er is ook veel bezorgdheid over hoe generatieve AI uit de hand kan lopen. Vandaag hebben vier toonaangevende AI-technologiebedrijven de handen ineengeslagen om het Frontier Model Forum te creëren. Het doel van deze groep is om te zorgen voor “veilige en verantwoorde ontwikkeling” van generatieve AI, specifiek voor frontier AI-modellen.

Frontier AI-modellen worden door deze groep beschreven als “grootschalige machine-learning-modellen die de mogelijkheden die momenteel aanwezig zijn in de meest geavanceerde bestaande modellen overtreffen, en die een breed scala aan taken kunnen uitvoeren.”

De stichtende leden van de groep zijn Microsoft, OpenAI, Google en Anthropic. In een Google-blogpost waarin het Frontier Model Forum werd aangekondigd, maakte de groep haar doelen bekend:

  • Het bevorderen van AI-veiligheidsonderzoek om verantwoorde ontwikkeling van grensverleggende modellen te bevorderen, risico’s te minimaliseren en onafhankelijke, gestandaardiseerde evaluaties van capaciteiten en veiligheid mogelijk te maken.
  • Best practices identificeren voor de verantwoorde ontwikkeling en inzet van frontier-modellen, om het publiek te helpen de aard, mogelijkheden, beperkingen en impact van de technologie te begrijpen.
  • Samenwerken met beleidsmakers, academici, maatschappelijke organisaties en bedrijven om kennis over vertrouwen en veiligheidsrisico’s te delen.
  • Ondersteuning van inspanningen om toepassingen te ontwikkelen die kunnen helpen de grootste uitdagingen van de samenleving aan te gaan, zoals beperking van en aanpassing aan klimaatverandering, vroegtijdige opsporing en preventie van kanker en bestrijding van cyberdreigingen.

De nieuwe groep zal beginnen met het oprichten van een adviesraad, zodat deze kan beginnen met het opstellen van aanbevelingen over veiligheidsnormen voor grensverleggende AI-modellen, samen met het werken aan AI-veiligheidsonderzoek en het delen van informatie over deze inspanningen met andere bedrijven en overheden.

Het gezamenlijke bericht bevatte een citaat van Microsoft-president Brad Smith:

Bedrijven die AI-technologie creëren, hebben de verantwoordelijkheid om ervoor te zorgen dat deze veilig en beveiligd is en onder menselijke controle blijft. Dit initiatief is een essentiële stap om de technologiesector samen te brengen om AI op verantwoorde wijze te bevorderen en de uitdagingen aan te gaan, zodat de hele mensheid er baat bij heeft.

Het Frontier Model Forum staat ook open voor het toevoegen van meer bedrijven aan deze groep als ze ook werken aan grensverleggende AI-modellen en “een sterk engagement tonen voor de veiligheid van grensverleggende modellen, onder meer door middel van technische en institutionele benaderingen.”

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *