La prossima partnership con l’IA di Microsoft vuole che l’IA non danneggi le persone
Una settimana fa, Microsoft ha annunciato Llama 2 , la sua partnership AI con Meta, a Microsoft Inspire 2023. Llama 2 è un modello di linguaggio di grandi dimensioni open source, che puoi utilizzare per costruire e addestrare la tua IA. Si dice anche che questo LLM sia il primo indizio per raggiungere l’AGI , che è, in definitiva, uno degli obiettivi centrali dell’IA.
Bene, in una settimana dall’annuncio, sono successe molte cose. Ci sono anche voci secondo cui OpenAI, la società dietro ChatGPT, sta rilasciando il proprio LLM open source, nome in codice G3PO. Non c’è ancora una data di uscita, ma avverrà nel 2023 o nel 2024.
E in una serie di eventi, sembra che Microsoft abbia collaborato con Anthropic, Google e Open AI al Frontier Model Forum. La partnership è un ente del settore focalizzato a garantire lo sviluppo sicuro e responsabile di modelli di IA di frontiera, secondo il comunicato stampa .
Oggi, Anthropic, Google, Microsoft e OpenAI annunciano la formazione del Frontier Model Forum, un nuovo ente del settore focalizzato a garantire uno sviluppo sicuro e responsabile dei modelli di IA di frontiera. Il Frontier Model Forum attingerà alle competenze tecniche e operative delle sue aziende associate a vantaggio dell’intero ecosistema di intelligenza artificiale, ad esempio attraverso l’avanzamento di valutazioni tecniche e benchmark e lo sviluppo di una libreria pubblica di soluzioni per supportare le migliori pratiche e gli standard del settore.
Forum del modello di frontiera
Fondamentalmente, il Frontier Model Forum vuole costruire IA che non rappresentino un rischio per l’uomo. Se ricordi, uno dei partner, Anthropic, ha appena rilasciato Claude 2 AI e il modello è famoso per il modo in cui interagisce in sicurezza con le persone. Quindi, avremo molte IA simili a quelle di Claude 2, e probabilmente anche migliori. Ad ogni modo, è un’ottima notizia quando si tratta di questo settore.
Cosa farà il Frontier Model Forum quando si tratta di AI
La partnership ha stabilito una serie di scopi e obiettivi fondamentali e funzionerà in base a essi. Sono:
- Promuovere la ricerca sulla sicurezza dell’IA per promuovere lo sviluppo responsabile di modelli di frontiera, ridurre al minimo i rischi e consentire valutazioni indipendenti e standardizzate di capacità e sicurezza.
- Identificare le migliori pratiche per lo sviluppo responsabile e l’implementazione di modelli di frontiera, aiutando il pubblico a comprendere la natura, le capacità, i limiti e l’impatto della tecnologia.
- Collaborare con responsabili politici, accademici, società civile e aziende per condividere le conoscenze sulla fiducia e sui rischi per la sicurezza.
- Sostenere gli sforzi per sviluppare applicazioni che possano aiutare a far fronte alle maggiori sfide della società , come la mitigazione e l’adattamento ai cambiamenti climatici, la diagnosi precoce e la prevenzione del cancro e la lotta alle minacce informatiche.
La partnership è aperta anche alla collaborazione con le organizzazioni
Se sei un’organizzazione che sviluppa l’IA del modello di frontiera, puoi inviare per partecipare e collaborare con il Frontier Model Forum.
Per aderire alla partnership, tu, come organizzazione, devi soddisfare i seguenti criteri:
- Sviluppi e distribuisci già modelli di frontiera (come definiti dal Forum).
- L’organizzazione è in grado di dimostrare un forte impegno per la sicurezza dei modelli di frontiera, anche attraverso approcci tecnici e istituzionali.
- Voi, come organizzazione, siete disposti a contribuire all’avanzamento degli sforzi del Forum, anche partecipando a iniziative congiunte e sostenendo lo sviluppo e il funzionamento dell’iniziativa.
Questo è ciò che farà il Forum quando si tratta di IA
Il Frontier Model Forum vuole supportare un processo di sviluppo dell’IA sicuro e responsabile e si concentrerà su 3 aree chiave nel 2023:
- Identificazione delle migliori pratiche: promuovere la condivisione delle conoscenze e delle migliori pratiche con particolare attenzione agli standard di sicurezza e alle pratiche di sicurezza per mitigare un’ampia gamma di rischi potenziali.
- Promuovere la ricerca sulla sicurezza dell’IA: supportare l’ecosistema della sicurezza dell’IA identificando le più importanti domande di ricerca aperte sulla sicurezza dell’IA. Il Forum coordinerà la ricerca per far progredire questi sforzi in aree come la robustezza dell’avversario, l’interpretabilità meccanicistica, la supervisione scalabile, l’accesso indipendente alla ricerca, i comportamenti emergenti e il rilevamento delle anomalie. Ci sarà un forte accento iniziale sullo sviluppo e la condivisione di una biblioteca pubblica di valutazioni tecniche e benchmark per i modelli di IA di frontiera.
- Facilitare la condivisione delle informazioni tra aziende e governi: stabilire meccanismi affidabili e sicuri per la condivisione di informazioni tra aziende, governi e parti interessate in merito alla sicurezza e ai rischi dell’IA. Il forum seguirà le migliori pratiche in materia di divulgazione responsabile in settori come la sicurezza informatica.
Nel corso del 2023, il forum Frontier Model lavorerà all’assemblaggio di un consiglio, quindi costruirà una strategia e stabilirà le priorità. Ma l’organizzazione sta già cercando di collaborare con il maggior numero possibile di istituzioni, private o pubbliche. Ciò include anche società civili e governi, nonché altre istituzioni interessate all’IA.
Cosa ne pensi di questa nuova collaborazione? Sei interessato ad unirti? O sei curioso di conoscere i modelli di IA di frontiera? Fateci sapere nella sezione commenti qui sotto.
Lascia un commento