A Microsoft enfatiza os princípios de IA responsável… depois de demitir a equipe de IA ética
A Microsoft está claramente empenhada em iniciativas de inteligência artificial (IA), com a empresa investindo muito dinheiro e esforço no GPT da OpenAI , Bing Chat , GitHub Copilot e todas as suas próximas integrações de IA com os produtos Microsoft 365 . Apesar desse crescimento explosivo em produtos de IA voltados para o consumidor, a empresa recentemente demitiu uma equipe de ética projetada para garantir que produtos de IA responsáveis chegassem aos clientes. Agora, ironicamente, a Microsoft enfatizou seus princípios de IA responsável em um post de blog .
A Microsoft basicamente tem um conjunto de princípios de IA responsável que governam como os produtos de IA devem ser construídos. Os fundamentos incluem garantia de justiça, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade. A empresa observa que:
A implementação de uma estratégia de IA responsável é um desafio com o qual muitas organizações lutam. Como resultado, a Microsoft padronizou as práticas de IA responsável e as disponibilizou para outras empresas ou profissionais de aprendizado de máquina adotarem no projeto, construção, teste ou implantação de seus sistemas de IA. Por exemplo, clientes ou desenvolvedores podem aproveitar o modelo de avaliação de impacto de IA responsável para ajudar a identificar o uso pretendido dos sistemas de IA; integridade de dados, qualquer impacto adverso a pessoas ou organizações; e como ele aborda as metas de cada um dos seis princípios básicos de IA responsável: Justiça, Inclusão, Segurança e Confiabilidade, Responsabilidade e Transparência. Além disso, isso promove uma prática para os desenvolvedores de IA assumirem a responsabilidade e serem capazes de fornecer transparência aos usuários finais sobre o que o sistema de IA faz; como deve ser usado; suas limitações/restrições e problemas conhecidos. Isso ajuda as equipes de aprendizado de máquina a avaliar sua abordagem de ciclo de vida de desenvolvimento para validar que não estão negligenciando fatores que podem fazer com que sua solução de IA não se comporte como pretendido.
Embora a Microsoft diga que possui equipes de governança que garantem que seus próprios produtos de IA também sigam esses princípios, notícias recentes de Redmond indicaram que a empresa demitiu toda a equipe de Ética e Sociedade . Essa equipe foi criada para garantir que os princípios de IA responsável da Microsoft estejam intimamente ligados ao design do produto. Naquela época, no entanto, a Microsoft afirmava que ainda mantém um departamento ativo do Office of Responsible AI, que cria regras e princípios para reger suas iniciativas de IA e continua a fazer investimentos na área.
A empresa também não disse claramente por que a equipe foi demitida, mas um ex-funcionário disse:
As pessoas olhariam para os princípios que saem do escritório da IA responsável e diriam: “Não sei como isso se aplica”. Nosso trabalho era mostrá-los e criar regras em áreas onde elas não existiam.
Independentemente disso, a Microsoft enfatizou que está investindo em ferramentas e produtos que garantem que os princípios de IA responsável sejam seguidos. Um exemplo notável é o painel de IA responsável lançado em 2021 . Claro, só o tempo dirá se essas iniciativas são suficientes para conter os potenciais efeitos nocivos dos produtos de IA . Recentemente, personalidades tecnológicas notáveis como Steve Wozniak, Evan Sharp e Elon Musk solicitaram aos laboratórios de IA que interrompessem o desenvolvimento de produtos por pelo menos seis meses e não se apressassem despreparados.
Deixe um comentário