Die erste NPU für Windows ist da, da Microsoft und Intel den Direct ML-basierten Prozessor vorstellen
Die Ära der NPU ist endlich da: Microsoft und Intel stellen die erste NPU für Windows vor, und sie basiert auf Direct ML, einer API, die die Bereitstellung und Entwicklung von KI im gesamten Windows-Ökosystem erheblich vereinfachen soll.
Wir freuen uns, unsere Zusammenarbeit mit Intel®, einem unserer wichtigsten Partner, bekannt zu geben, um die erste Neural Processing Unit (NPU) mit DirectML auf Windows zu bringen. KI verändert die Welt, treibt Innovationen voran und schafft branchenübergreifend Mehrwert. NPUs sind entscheidende Komponenten, um Entwicklern und Verbrauchern gleichermaßen erstaunliche KI-Erlebnisse zu ermöglichen.
Microsoft
Die Direct ML-basierte Windows NPU (Neural Processing Unit) wird laut Microsoft auf den neuesten Intel® Core™ Ultra-Prozessoren laufen, um neue Möglichkeiten für KI unter Windows zu bieten. Wir sagen, dass es genau zur rechten Zeit kommt, denn kürzlich wurde berichtet, dass die nächste Version von Windows weitgehend auf NPUs angewiesen sein wird, um Benutzern KI-Erlebnisse zu bieten.
Laut der von Microsoft veröffentlichten Pressemitteilung wird die Direct ML-basierte Windows NPU Anfang 2024 in eine Entwicklervorschau eintreten und im Laufe des Jahres schrittweise zu einer allgemeinen Vorschau erweitert.
Was bedeutet das also für den normalen Windows-Benutzer? Nun, im Moment ist das noch nicht so wichtig, da NPUs nicht für normale kommerzielle Nutzer gedacht sind, aber das wird sich in kurzer Zeit ändern. Lassen Sie es uns erklären.
Windows-NPU: Was ist eine NPU?
NPUs sind seit der zunehmenden Beliebtheit von KI Gegenstand von Diskussionen, und das aus gutem Grund, denn diese speziellen Prozessoren nutzen KI, um die Datenverarbeitung mit hoher Genauigkeit und geringerem Stromverbrauch zu beschleunigen.
Mit anderen Worten handelt es sich bei der NPU um einen Mikroprozessor, der entwickelt wurde, um Arbeitslasten des maschinellen Lernens (ML) zu ermöglichen, die rechenintensiv sind, keine Grafikinteraktionen erfordern und einen effizienten Stromverbrauch bieten, wie Microsoft angibt.
Eine NPU ist viel schneller als die Standard-CPU oder -GPU und kann Millionen von Vorgängen in Sekundenschnelle ausführen, was sie zum perfekten Prozessor für umfangreiche Arbeitslasten wie komplexe Berechnungen im Deep Learning, Genauigkeit usw. macht.
Aus genau diesem Grund eignet sich eine NPU perfekt für industrielle Umgebungen und Branchen, in denen eine große Menge an Informationen verarbeitet werden muss, wie zum Beispiel Transport, Hardware-Herstellung, Automatisierung, Gesundheitswesen oder Finanzen.
Einige reale Anwendungen einer NPU-basierten Operation wären:
- Selbstfahrende Autos, wie im Fall der Transportindustrie.
- Präzises Scannen medizinischer Bilder und Ableiten präziser Diagnosen und darauf basierender Behandlungen im Gesundheitswesen.
- Berechnung des Risikomanagements und Erkennung von Millionen von Bedrohungen beim Einsatz in Finanzumgebungen.
Und die Liste ließe sich beliebig fortsetzen, denn dies sind einige der offensichtlichsten Beispiele. Eine NPU ist zu solchen Dingen in der Lage, indem sie einen Prozess namens Inferenz verwendet. Dies bedeutet, dass die NPU anhand von Daten darauf trainiert wird, verschiedene Objekte und Subjekte zu erkennen. Einfacher ausgedrückt: Die NPU erlangt ein Bewusstsein für ihre Umgebung.
Der Inferenzprozess findet statt, wenn der NPU neue Eingaben übermittelt werden. Mithilfe seines geschulten Bewusstseins analysiert der Prozessor dann die neuen Eingaben und bietet neue Perspektiven an. Der hervorragende Aspekt des Inferenzprozesses besteht darin, dass er zunächst so sachlich wie möglich aufgebaut sein soll.
Das bedeutet also, dass die von der NPU angebotenen Perspektiven auch sachlich korrekt sind und im Rahmen der richtigen Methodologien vorliegen.
Tatsächlich gehört Microsoft zu den Unternehmen, die intensiv daran gearbeitet haben, KI-Modelle zu trainieren, um neue Perspektiven aus wissenschaftlicher Sicht zu entwickeln, zu erkennen und anzubieten und dabei reale Methoden anzuwenden.
Erst in diesem Jahr hat der in Redmond ansässige Technologieriese viele Ressourcen in verschiedene KI-Forschungsprojekte investiert, und viele davon stechen heraus: LongMem< a i=2>, Gorrila AI, Kosmos-2 und viele Weitere Modelle, die die vorhandene Forschung nutzen, um Grenzen zu überschreiten und eigene, noch zu entdeckende Methoden zu entwickeln.
Mit der Zeit, wenn die KI leistungsfähiger wird und schließlich den Zustand der AGI erreicht, können NPUs die Technologie nutzen, um Supercomputer zu bauen, die in der Lage sind, komplexe Probleme zu lösen, und Wege finden, um die größten Probleme der Menschheit anzugehen.
Es klingt zwar wie eine Anspielung auf einen Science-Fiction-Film, aber es ist nur eine Frage der Zeit, bis es dazu kommt. Ein NPU-basiertes Gerät mit AGI-Fähigkeiten könnte theoretisch in der Lage sein, innerhalb weniger Monate ein Heilmittel für schwere Krankheiten zu finden, da es in kurzer Zeit Milliarden von Forschungsstudien durchführen könnte.
Für den normalen kommerziellen Benutzer wäre ein NPU-basiertes Gerät nützlich, solange es gezielt für die Erledigung einer bestimmten Aufgabe eingesetzt werden kann. Viele Unternehmen haben derzeit eigene NPU-Fähigkeiten entwickelt, die genau darauf abzielen.
Nehmen Sie zum Beispiel das Beispiel Intels Neural Network Processor (NNP), einem NPU-Prozessor, der in der Lage ist, Kunden starke Leistungen zu liefern Geräte. Derzeit gibt es unzählige weitere NPUs auf dem Markt, wie zum Beispiel:
- TPU von Google
- NNP, Myriad, EyeQ von Intel
- NVDLA von Nvidia
- AWS Inferentia von Amazon
- Ali-NPU von Alibaba
- Kunlun von Baidu
- Sophon von Bitmain
- MLU von Cambricon
- IPU von Graphcore
- Ascend von Huawei
- Neural Engine von Apple
- Neural Processing Unit (NPU) von Samsung
Es ist noch sehr früh, zu sagen, wozu diese NPUs in der Lage sind, aber theoretisch können sie jedes Gerät in einen Mini-Supercomputer verwandeln. Beabsichtigt Microsoft dies mit der Veröffentlichung von DirectML-basierten NPUs für Windows?
Vielleicht, aber wir müssen warten. Glücklicherweise liegt das Jahr 2024 unmittelbar vor uns.
Schreibe einen Kommentar