O primeiro NPU para Windows está aqui, com a Microsoft e a Intel lançando o processador Direct ML

O primeiro NPU para Windows está aqui, com a Microsoft e a Intel lançando o processador Direct ML
NPU do Windows

A era do NPU finalmente chegou: a Microsoft e a Intel lançam o primeiro NPU para Windows, e ele é alimentado por Direct ML, uma API que deve simplificar bastante a implantação e o desenvolvimento de IA em todo o ecossistema Windows.

Temos o prazer de anunciar nossa colaboração com a Intel®, um de nossos principais parceiros, para trazer a primeira Unidade de Processamento Neural (NPU) com tecnologia DirectML no Windows. A IA está transformando o mundo, impulsionando a inovação e criando valor em todos os setores. NPUs são componentes essenciais para permitir experiências incríveis de IA para desenvolvedores e consumidores.

Microsoft

A NPU (Unidade de Processamento Neural) do Windows com tecnologia Direct ML será executada nos mais recentes processadores Intel® Core™ Ultra para oferecer novas possibilidades de IA no Windows, de acordo com a Microsoft. Dizemos que chegou bem na hora, já que recentemente foi relatado que a próxima versão do Windows dependerá amplamente de NPUs para fornecer experiências de IA aos usuários.

De acordo com o comunicado de imprensa publicado pela Microsoft, o NPU do Windows baseado em Direct ML entrará em uma prévia do desenvolvedor no início de 2024 e se expandirá gradualmente para uma prévia geral ao longo daquele ano.

Então, o que isso significa para o usuário normal do Windows? Bem, por enquanto, não é tão significativo, já que os NPUs não se destinam a usuários comerciais regulares, mas isso mudará em pouco tempo. Deixe-nos explicar.

NPU do Windows: o que é um NPU?

As NPUs têm sido objeto de discussão desde que a IA ganhou popularidade, e por boas razões, já que esses processadores especiais usam IA para acelerar o processamento de dados com alta precisão e menor consumo de energia.

Em outras palavras, NPU é um microprocessador construído para permitir cargas de trabalho de aprendizado de máquina (ML) que são computacionalmente intensivas, não requerem interações gráficas e fornecem consumo eficiente de energia, como afirma a Microsoft.

Um NPU é muito mais rápido que uma CPU ou GPU padrão e pode realizar milhões de operações em questão de segundos, tornando-o o processador perfeito para cargas de trabalho extensas, como cálculos complexos em aprendizado profundo, precisão e assim por diante.

NPU do Windows

Por isso mesmo, uma NPU é perfeita para ambientes industriais e indústrias onde é necessário processar uma grande quantidade de informações, como transporte, fabricação de hardware, automatização, saúde ou finanças.

Algumas aplicações reais de uma operação baseada em NPU seriam:

  • Carros autônomos, como é o caso da indústria de transportes.
  • Digitalizar imagens médicas com precisão e concluir diagnósticos e tratamentos precisos com base nelas, quando utilizadas na área da saúde.
  • Calculando o gerenciamento de riscos e detectando milhões de ameaças, quando empregados em ambientes financeiros.

E a lista poderia continuar indefinidamente, pois estes são alguns dos exemplos mais óbvios. Uma NPU é capaz de fazer tais coisas usando um processo chamado inferência. Isso significa que o NPU é treinado em dados para reconhecer vários objetos e assuntos. Em palavras mais simples, a NPU ganha consciência do seu ambiente.

O processo de inferência acontece quando uma nova entrada é fornecida à NPU e, usando sua consciência treinada, o processador analisará a nova entrada e oferecerá novas perspectivas. O aspecto excelente do processo de inferência é que ele deve ser construído da forma mais factual possível, para começar.

Portanto, isto significa que as perspectivas oferecidas pela NPU também serão factualmente correctas e existirão dentro das metodologias correctas.

Na verdade, a Microsoft tem sido uma das empresas que tem trabalhado extensivamente na formação de modelos de IA para desenvolver, reconhecer e oferecer novas perspectivas do ponto de vista científico, utilizando metodologias da vida real.

Apenas neste ano, a gigante tecnológica com sede em Redmond tem investido muitos recursos em vários projetos de pesquisa de IA, e muitos deles se destacam: LongMem< a i=2>, Gorrila AI, Kosmos-2 e muitos mais modelos que usam a pesquisa existente para ultrapassar limites e criar metodologias próprias ainda a serem descobertas.

Com o tempo, à medida que a IA se torna mais eficiente e eventualmente atingirá um estado de AGI, as NPUs poderão empregar a tecnologia para construir supercomputadores capazes de resolver problemas complexos e encontrar formas de abordar as maiores preocupações da humanidade.

Parece uma versão de um filme de ficção científica, mas é apenas uma questão de tempo até que isso aconteça. Um dispositivo baseado em NPU com capacidades AGI poderia, teoricamente, encontrar uma cura para doenças graves numa questão de meses, uma vez que poderia realizar milhares de milhões de estudos de investigação num curto espaço de tempo.

Para o usuário comercial padrão, um dispositivo baseado em NPU seria útil, desde que pudesse ser direcionado para concluir uma determinada tarefa. Atualmente, muitas empresas desenvolveram seus próprios recursos de NPU que visam fazer exatamente isso.

Tomemos, por exemplo, o exemplo do Processador de Rede Neural (NNP) da Intel, que é um processador NPU capaz de fornecer desempenhos fortes aos clientes dispositivos. Existem inúmeras outras NPUs no mercado atualmente, como:

  • TPU do Google
  • NNP, Myriad, EyeQ da Intel
  • NVDLA da Nvidia
  • AWS Inferentia da Amazon
  • Ali-NPU da Alibaba
  • Kunlun por Baidu
  • Sófon por Bitmain
  • MLU da Cambricon
  • UIP por Graphcore
  • Ascender pela Huawei
  • Motor Neural da Apple
  • Unidade de Processamento Neural (NPU) da Samsung

Ainda é muito cedo para dizer do que esses NPUs são capazes, mas, teoricamente, eles podem transformar qualquer dispositivo em um minisupercomputador. É isso que a Microsoft pretende fazer ao lançar NPUs baseados em DirectML para Windows?

Talvez, mas teremos que esperar. Felizmente, 2024 está bem à nossa frente.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *