A próxima parceria de IA da Microsoft quer que a IA não prejudique as pessoas
Há uma semana, a Microsoft anunciou o Llama 2 , sua parceria de IA com a Meta, no Microsoft Inspire 2023. O Llama 2 é um modelo de linguagem grande de código aberto que você pode usar para construir e treinar sua própria IA. Há rumores de que este LLM também é a primeira pista para alcançar a AGI , que é, em última análise, um dos objetivos centrais da IA.
Bem, em uma semana desde o anúncio, muita coisa aconteceu. Também há rumores de que a OpenAI, a empresa por trás do ChatGPT, está lançando seu próprio LLM de código aberto, codinome G3PO. Ainda não há data de lançamento, mas acontecerá em 2023 ou 2024.
E, em uma reviravolta, parece que a Microsoft fez parceria com Anthropic, Google e Open AI para o Frontier Model Forum. A parceria é um órgão da indústria focado em garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira, de acordo com o comunicado à imprensa .
Hoje, Anthropic, Google, Microsoft e OpenAI estão anunciando a formação do Frontier Model Forum, um novo órgão da indústria focado em garantir o desenvolvimento seguro e responsável de modelos de IA de fronteira. O Frontier Model Forum aproveitará a experiência técnica e operacional de suas empresas membros para beneficiar todo o ecossistema de IA, por meio do avanço de avaliações e benchmarks técnicos e do desenvolvimento de uma biblioteca pública de soluções para oferecer suporte às melhores práticas e padrões do setor.
Fórum Modelo de Fronteira
Basicamente, o Frontier Model Forum quer construir IAs que não sejam um risco para os humanos. Se você se lembra, um dos parceiros, a Anthropic, acaba de lançar o Claude 2 AI , e o modelo é conhecido pela forma como interage com as pessoas com segurança. Então, teremos muitos AIs semelhantes ao Claude 2 AI, e provavelmente ainda melhores. De qualquer forma, é uma excelente notícia quando se trata desse setor.
O que o Frontier Model Forum fará quando se trata de IA
A parceria estabeleceu um conjunto de metas e objetivos centrais e funcionará de acordo com eles. Eles são:
- Avançar na pesquisa de segurança de IA para promover o desenvolvimento responsável de modelos de fronteira, minimizar riscos e permitir avaliações independentes e padronizadas de capacidades e segurança.
- Identificar as melhores práticas para o desenvolvimento responsável e implantação de modelos de fronteira, ajudando o público a compreender a natureza, capacidades, limitações e impacto da tecnologia.
- Colaborar com formuladores de políticas, acadêmicos, sociedade civil e empresas para compartilhar conhecimento sobre confiança e riscos de segurança.
- Apoiar esforços para desenvolver aplicativos que possam ajudar a enfrentar os maiores desafios da sociedade , como mitigação e adaptação às mudanças climáticas, detecção e prevenção precoce do câncer e combate a ameaças cibernéticas.
A parceria também está aberta à colaboração com organizações
Se você é uma organização que desenvolve IA de modelo de fronteira, pode se inscrever para participar e colaborar com o Frontier Model Forum.
Para aderir à parceria, você, como organização, precisa atender aos seguintes critérios:
- Você já desenvolve e implanta modelos de fronteira (conforme definido pelo Fórum).
- A organização é capaz de demonstrar um forte compromisso com a segurança do modelo de fronteira, inclusive por meio de abordagens técnicas e institucionais.
- Você, como organização, deseja contribuir para o avanço dos esforços do Fórum, inclusive participando de iniciativas conjuntas e apoiando o desenvolvimento e o funcionamento da iniciativa.
Isso é o que o Fórum fará quando o assunto for IA
O Frontier Model Forum deseja apoiar um processo de desenvolvimento de IA seguro e responsável e se concentrará em 3 áreas principais ao longo de 2023:
- Identificação de melhores práticas: Promover o compartilhamento de conhecimento e melhores práticas com foco em padrões e práticas de segurança para mitigar uma ampla gama de riscos potenciais.
- Pesquisa avançada de segurança de IA: apoie o ecossistema de segurança de IA identificando as questões de pesquisa em aberto mais importantes sobre segurança de IA. O Fórum coordenará a pesquisa para progredir nesses esforços em áreas como robustez contraditória, interpretabilidade mecanicista, supervisão escalável, acesso independente à pesquisa, comportamentos emergentes e detecção de anomalias. Haverá um forte foco inicialmente no desenvolvimento e compartilhamento de uma biblioteca pública de avaliações técnicas e benchmarks para modelos de IA de fronteira.
- Facilitar o compartilhamento de informações entre empresas e governos: Estabeleça mecanismos confiáveis e seguros para compartilhar informações entre empresas, governos e partes interessadas relevantes em relação à segurança e aos riscos da IA. O Fórum seguirá as melhores práticas de divulgação responsável de áreas como segurança cibernética.
Ao longo de 2023, o fórum Frontier Model trabalhará na montagem de um conselho, para depois construir uma estratégia e estabelecer prioridades. Mas a organização já procura colaborar com o maior número possível de instituições, privadas ou públicas. Isso também inclui sociedades civis e governos, bem como outras instituições interessadas em IA.
O que você acha dessa nova parceria? Você está interessado em aderir? Ou você está curioso sobre os modelos de IA de fronteira? Deixe-nos saber na seção de comentários abaixo.
Deixe um comentário