Microsoft, OpenAI, Google e Anthropic lanciano Frontier Model Forum per un’IA responsabile

Microsoft, OpenAI, Google e Anthropic lanciano Frontier Model Forum per un’IA responsabile

L’intelligenza artificiale generativa è diventata la parola d’ordine per l’industria tecnologica nel 2023. C’è anche molta preoccupazione su come l’IA generativa possa sfuggire al controllo. Oggi, quattro importanti aziende tecnologiche di intelligenza artificiale si sono unite per creare il Frontier Model Forum. L’obiettivo di questo gruppo è garantire uno “sviluppo sicuro e responsabile” dell’IA generativa, in particolare per i modelli di IA di frontiera.

I modelli di intelligenza artificiale di frontiera sono descritti da questo gruppo come “modelli di apprendimento automatico su larga scala che superano le capacità attualmente presenti nei modelli esistenti più avanzati e possono eseguire un’ampia varietà di attività”.

I membri fondatori del gruppo sono Microsoft, OpenAI, Google e Anthropic. In un post sul blog di Google che annunciava il Frontier Model Forum, il gruppo ha annunciato i suoi obiettivi:

  • Promuovere la ricerca sulla sicurezza dell’IA per promuovere lo sviluppo responsabile di modelli di frontiera, ridurre al minimo i rischi e consentire valutazioni indipendenti e standardizzate di capacità e sicurezza.
  • Identificare le migliori pratiche per lo sviluppo responsabile e l’implementazione di modelli di frontiera, aiutando il pubblico a comprendere la natura, le capacità, i limiti e l’impatto della tecnologia.
  • Collaborare con responsabili politici, accademici, società civile e aziende per condividere le conoscenze sulla fiducia e sui rischi per la sicurezza.
  • Sostenere gli sforzi per sviluppare applicazioni che possano aiutare a far fronte alle maggiori sfide della società, come la mitigazione e l’adattamento ai cambiamenti climatici, la diagnosi precoce e la prevenzione del cancro e la lotta alle minacce informatiche.

Il nuovo gruppo inizierà istituendo un comitato consultivo in modo che possa iniziare a formulare raccomandazioni sugli standard di sicurezza per i modelli di IA di frontiera, oltre a lavorare sulla ricerca sulla sicurezza dell’IA e condividere informazioni su questi sforzi con altre aziende e governi.

Il messaggio congiunto includeva una citazione del presidente di Microsoft Brad Smith:

Le aziende che creano la tecnologia AI hanno la responsabilità di garantire che sia sicura, protetta e rimanga sotto il controllo umano. Questa iniziativa è un passo fondamentale per riunire il settore tecnologico nel far progredire l’IA in modo responsabile e affrontare le sfide in modo che vada a beneficio di tutta l’umanità.

Il Frontier Model Forum è aperto anche all’aggiunta di altre aziende che si uniscano a questo gruppo se stanno lavorando anche su modelli di IA di frontiera e “dimostrano un forte impegno per la sicurezza dei modelli di frontiera, anche attraverso approcci tecnici e istituzionali”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *