Microsoft, OpenAI, Google e Anthropic lançam Frontier Model Forum para IA responsável

Microsoft, OpenAI, Google e Anthropic lançam Frontier Model Forum para IA responsável

A inteligência artificial generativa se tornou a palavra da moda para a indústria de tecnologia em 2023. Também há muita preocupação sobre como a IA generativa pode ficar fora de controle. Hoje, quatro empresas líderes em tecnologia de IA se uniram para criar o Frontier Model Forum. O objetivo deste grupo é garantir o “desenvolvimento seguro e responsável” da IA ​​generativa, especificamente para modelos de IA de fronteira.

Os modelos Frontier AI são descritos por este grupo como “modelos de aprendizado de máquina em grande escala que excedem os recursos atualmente presentes nos modelos existentes mais avançados e podem executar uma ampla variedade de tarefas”.

Os membros fundadores do grupo são Microsoft, OpenAI, Google e Anthropic. Em uma postagem no blog do Google que anunciou o Frontier Model Forum, o grupo anunciou seus objetivos:

  • Avançar na pesquisa de segurança de IA para promover o desenvolvimento responsável de modelos de fronteira, minimizar riscos e permitir avaliações independentes e padronizadas de capacidades e segurança.
  • Identificar as melhores práticas para o desenvolvimento responsável e implantação de modelos de fronteira, ajudando o público a compreender a natureza, capacidades, limitações e impacto da tecnologia.
  • Colaborar com formuladores de políticas, acadêmicos, sociedade civil e empresas para compartilhar conhecimento sobre confiança e riscos de segurança.
  • Apoiar esforços para desenvolver aplicativos que possam ajudar a enfrentar os maiores desafios da sociedade, como mitigação e adaptação às mudanças climáticas, detecção e prevenção precoce do câncer e combate a ameaças cibernéticas.

O novo grupo começará estabelecendo um Conselho Consultivo para que possa começar a apresentar recomendações sobre padrões de segurança para modelos de IA de fronteira, além de trabalhar na pesquisa de segurança de IA e compartilhar informações sobre esses esforços com outras empresas e governos.

A mensagem conjunta incluía uma citação do presidente da Microsoft, Brad Smith:

As empresas que criam tecnologia de IA têm a responsabilidade de garantir que ela seja segura e permaneça sob controle humano. Esta iniciativa é um passo vital para unir o setor de tecnologia no avanço da IA ​​de forma responsável e enfrentar os desafios para que beneficie toda a humanidade.

O Frontier Model Forum também está aberto para adicionar mais empresas a esse grupo, se elas também estiverem trabalhando em modelos de IA de fronteira e “demonstrarem forte compromisso com a segurança do modelo de fronteira, inclusive por meio de abordagens técnicas e institucionais”.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *