La prima NPU per Windows è qui, con il debutto di Microsoft e Intel sul processore basato su Direct ML

La prima NPU per Windows è qui, con il debutto di Microsoft e Intel sul processore basato su Direct ML
Unità di elaborazione dati Windows

L’era della NPU è finalmente arrivata: Microsoft e Intel debuttano con la prima NPU per Windows, basata su Direct ML, un’API che dovrebbe semplificare notevolmente l’implementazione e lo sviluppo dell’intelligenza artificiale nell’ecosistema Windows.

Siamo entusiasti di annunciare la nostra collaborazione con Intel®, uno dei nostri partner chiave, per portare la prima Neural Processing Unit (NPU) basata su DirectML su Windows. L’intelligenza artificiale sta trasformando il mondo, guidando l’innovazione e creando valore in tutti i settori. Le NPU sono componenti fondamentali per consentire straordinarie esperienze di IA sia agli sviluppatori che ai consumatori.

Microsoft

Secondo Microsoft, la NPU (Neural Processing Unit) Windows basata su Direct ML funzionerà sui più recenti processori Intel® Core™ Ultra per offrire nuove possibilità per l’intelligenza artificiale su Windows. Riteniamo che sia giusto in tempo, poiché recentemente è stato riferito che la prossima versione di Windows farà ampio affidamento sulle NPU per offrire esperienze di intelligenza artificiale agli utenti.

Secondo il comunicato stampa pubblicato da Microsoft, la NPU Windows basata su Direct ML entrerà in anteprima per gli sviluppatori all’inizio del 2024 e si espanderà gradualmente fino a diventare un’anteprima generale nel corso di quell’anno.

Cosa significa questo per l’utente abituale di Windows? Bene, per ora non è così significativo in quanto le NPU non sono destinate agli utenti commerciali regolari, ma ciò cambierà in breve tempo. Spieghiamo.

NPU Windows: cos’è una NPU?

Le NPU sono state oggetto di discussione fin da quando l’intelligenza artificiale ha guadagnato popolarità, e per buone ragioni, poiché questi processori speciali utilizzano l’intelligenza artificiale per accelerare l’elaborazione dei dati con elevata precisione e un minore consumo energetico.

In altre parole, NPU è un microprocessore creato per consentire carichi di lavoro di machine learning (ML) ad alta intensità di calcolo, che non richiedono interazioni grafiche e forniscono un consumo energetico efficiente, come afferma Microsoft.

Una NPU è molto più veloce di una CPU o GPU standard e può eseguire milioni di operazioni in pochi secondi, rendendolo il processore perfetto per carichi di lavoro estesi, come calcoli complessi nel deep learning, precisione e così via.

Unità di elaborazione dati Windows

Proprio per questo motivo, una NPU è perfetta per ambienti industriali e settori in cui è necessario elaborare una grande quantità di informazioni, come i trasporti, la produzione di hardware, l’automazione, la sanità o la finanza.

Alcune applicazioni nella vita reale di un’operazione basata su NPU sarebbero:

  • Auto a guida autonoma, come nel caso del settore dei trasporti.
  • Scansione accurata di immagini mediche e conclusione di diagnosi e trattamenti accurati basati su di esse, se utilizzati in ambito sanitario.
  • Calcolo della gestione del rischio e rilevamento di milioni di minacce, se impiegato in ambienti finanziari.

E l’elenco potrebbe continuare all’infinito, poiché questi sono solo alcuni degli esempi più evidenti. Una NPU è capace di queste cose utilizzando un processo chiamato inferenza. Ciò significa che la NPU è addestrata sui dati per riconoscere vari oggetti e soggetti. In parole più semplici, la NPU acquisisce consapevolezza del proprio ambiente.

Il processo di inferenza avviene quando viene fornito un nuovo input alla NPU e, utilizzando la sua consapevolezza addestrata, il processore analizzerà quindi il nuovo input e offrirà nuove prospettive. L’aspetto eccellente del processo di inferenza è che è pensato per essere costruito nel modo più fattuale possibile, tanto per cominciare.

Ciò significa quindi che le prospettive offerte dalla NPU saranno anche fattivamente corrette ed esisteranno nell’ambito delle giuste metodologie.

In realtà, Microsoft è stata una delle aziende che ha lavorato a lungo sulla formazione di modelli di intelligenza artificiale per sviluppare, riconoscere e offrire nuove prospettive da un punto di vista scientifico, utilizzando metodologie di vita reale.

Proprio quest’anno, il colosso tecnologico con sede a Redmond ha investito molte risorse in vari progetti di ricerca sull’intelligenza artificiale, e molti di essi si distinguono: LongMem< a i=2>, Gorrila AI, Kosmos-2 e molti altri più modelli che utilizzano la ricerca esistente per ampliare i confini e elaborare metodologie proprie ancora da scoprire.

Col tempo, man mano che l’intelligenza artificiale diventerà più performante e alla fine raggiungerà uno stato di AGI, le NPU potranno utilizzare la tecnologia per costruire supercomputer in grado di risolvere problemi complessi e trovare modi per affrontare le maggiori preoccupazioni dell’umanità.

Sembra la ripresa di un film di fantascienza, ma è solo questione di tempo prima che ciò accada. Un dispositivo basato su NPU con funzionalità AGI potrebbe essere in grado, teoricamente, di trovare una cura per malattie gravi nel giro di pochi mesi, poiché potrebbe eseguire miliardi di studi di ricerca in un breve lasso di tempo.

Per l’utente commerciale standard, un dispositivo basato su NPU sarebbe utile purché possa essere mirato a completare una determinata attività. Molte aziende attualmente hanno sviluppato le proprie capacità NPU mirate a fare esattamente questo.

Prendiamo, ad esempio, l’esempio del Neural Network Processor (NNP) di Intel, che è un processore NPU in grado di fornire elevate prestazioni ai clienti dispositivi. Attualmente ci sono innumerevoli altre NPU sul mercato, come ad esempio:

  • TPU di Google
  • NNP, Myriad, EyeQ di Intel
  • NVDLA di Nvidia
  • AWS Inferentia di Amazon
  • Ali-NPU di Alibaba
  • Kunlun di Baidu
  • Sophon di Bitmain
  • MLU di Cambricon
  • IPU di Graphcore
  • Ascesa di Huawei
  • Motore neurale di Apple
  • Unità di elaborazione neurale (NPU) di Samsung

È ancora molto presto per dire di cosa siano capaci queste NPU, ma teoricamente possono trasformare ogni dispositivo in un mini-supercomputer. È questo ciò che Microsoft intende fare rilasciando NPU basate su DirectML per Windows?

Forse, ma dovremo aspettare. Fortunatamente, il 2024 è proprio davanti a noi.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *