Het volgende AI-partnerschap van Microsoft wil dat AI mensen geen schade toebrengt

Het volgende AI-partnerschap van Microsoft wil dat AI mensen geen schade toebrengt

Een week geleden kondigde Microsoft Llama 2 aan , zijn AI-partnerschap met Meta, op Microsoft Inspire 2023. Llama 2 is een open-source groot taalmodel dat je kunt gebruiken om je eigen AI te bouwen en te trainen. Het gerucht gaat ook dat deze LLM de eerste aanwijzing is voor het bereiken van AGI , wat uiteindelijk een van de centrale doelen van AI is.

Nou, in een week na de aankondiging is er veel gebeurd. Er gaan ook geruchten dat OpenAI, het bedrijf achter ChatGPT, zijn eigen open-source LLM uitbrengt, codenaam G3PO. Er is nog geen releasedatum voor, maar het gaat gebeuren in 2023 of in 2024.

En het lijkt erop dat Microsoft samenwerkt met Anthropic, Google en Open AI voor het Frontier Model Forum. Het partnerschap is een brancheorganisatie die zich richt op het waarborgen van de veilige en verantwoorde ontwikkeling van grensverleggende AI-modellen, aldus het persbericht .

Vandaag kondigen Anthropic, Google, Microsoft en OpenAI de oprichting aan van het Frontier Model Forum, een nieuw brancheorgaan dat zich richt op het waarborgen van een veilige en verantwoorde ontwikkeling van frontier AI-modellen. Het Frontier Model Forum zal gebruikmaken van de technische en operationele expertise van de aangesloten bedrijven om het gehele AI-ecosysteem ten goede te komen, bijvoorbeeld door technische evaluaties en benchmarks te bevorderen en een openbare bibliotheek met oplossingen te ontwikkelen ter ondersteuning van best practices en standaarden in de branche.

Frontier-modelforum

Kortom, het Frontier Model Forum wil AI’s bouwen die geen risico vormen voor mensen. Weet je nog dat een van de partners, Anthropic, zojuist Claude 2 AI heeft uitgebracht , en het model staat bekend om de manier waarop het veilig met mensen omgaat. We zullen dus veel AI’s hebben die vergelijkbaar zijn met Claude 2 AI, en waarschijnlijk zelfs beter. Hoe dan ook, het is uitstekend nieuws als het gaat om deze branche.

Wat gaat het Frontier Model Forum doen op het gebied van AI

Het partnerschap heeft een reeks kerndoelen en doelstellingen vastgesteld en zal daarnaar werken. Zij zijn:

  1. Het bevorderen van AI-veiligheidsonderzoek om verantwoorde ontwikkeling van grensverleggende modellen te bevorderen, risico’s te minimaliseren en onafhankelijke, gestandaardiseerde evaluaties van capaciteiten en veiligheid mogelijk te maken.
  2. Best practices identificeren voor de verantwoorde ontwikkeling en inzet van frontier-modellen, om het publiek te helpen de aard, mogelijkheden, beperkingen en impact van de technologie te begrijpen.
  3. Samenwerken met beleidsmakers, academici, maatschappelijke organisaties en bedrijven om kennis over vertrouwen en veiligheidsrisico’s te delen.
  4. Ondersteuning van inspanningen om toepassingen te ontwikkelen die kunnen helpen de grootste uitdagingen van de samenleving aan te gaan , zoals beperking van en aanpassing aan klimaatverandering, vroegtijdige opsporing en preventie van kanker en bestrijding van cyberdreigingen.

Het samenwerkingsverband staat ook open voor samenwerking met organisaties

Als u een organisatie bent die frontiermodel-AI ontwikkelt, kunt u zich aanmelden om lid te worden van en samen te werken met het Frontier Model Forum.

Frontier-modelforum

Om lid te worden van het partnerschap, moet u als organisatie aan de volgende criteria voldoen:

  • U ontwikkelt en implementeert al grensmodellen (zoals gedefinieerd door het Forum).
  • De organisatie kan blijk geven van een sterke toewijding aan de veiligheid van frontiermodellen, onder meer door middel van technische en institutionele benaderingen.
  • U, als organisatie, bent bereid bij te dragen aan het bevorderen van de inspanningen van het Forum, onder meer door deel te nemen aan gezamenlijke initiatieven en de ontwikkeling en werking van het initiatief te ondersteunen.

Dit is wat het Forum gaat doen als het om AI gaat

Het Frontier Model Forum wil een veilig en verantwoord AI-ontwikkelingsproces ondersteunen en zal zich in 2023 concentreren op 3 belangrijke gebieden:

  • Identificeren van best practices: Bevorder het delen van kennis en best practices met een focus op veiligheidsnormen en veiligheidspraktijken om een ​​breed scala aan potentiële risico’s te beperken.
  • Onderzoek naar AI-veiligheid bevorderen: Ondersteun het AI-veiligheidsecosysteem door de belangrijkste openstaande onderzoeksvragen over AI-veiligheid te identificeren. Het Forum zal onderzoek coördineren om deze inspanningen te bevorderen op gebieden als vijandige robuustheid, mechanistische interpreteerbaarheid, schaalbaar toezicht, onafhankelijke toegang tot onderzoek, opkomend gedrag en detectie van afwijkingen. Er zal in eerste instantie een sterke focus liggen op het ontwikkelen en delen van een openbare bibliotheek met technische evaluaties en benchmarks voor grensverleggende AI-modellen.
  • Het delen van informatie tussen bedrijven en overheden vergemakkelijken: Stel betrouwbare, veilige mechanismen in voor het delen van informatie tussen bedrijven, overheden en relevante belanghebbenden met betrekking tot de veiligheid en risico’s van AI. Het Forum volgt best practices op het gebied van verantwoorde openbaarmaking op het gebied van bijvoorbeeld cyberbeveiliging.

In de loop van 2023 zal het Frontier Model-forum werken aan het samenstellen van een bord, vervolgens het bouwen van een strategie en het vaststellen van prioriteiten. Maar de organisatie is al op zoek naar samenwerking met zoveel mogelijk instellingen, privé of publiek. Dit omvat ook maatschappelijke organisaties en overheden, evenals andere instellingen die geïnteresseerd zijn in AI.

Wat vind je van deze nieuwe samenwerking? Heb je interesse om mee te doen? Of ben je benieuwd naar frontier AI-modellen? Laat het ons weten in de comments hieronder.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *