Neueste aiWare4+ Automotive NPU bietet verbesserte Programmierbarkeit, Flexibilität und Skalierbarkeit bei höchster Effizienz

Die 4. Generation der aiWare™ Automotive NPU-Hardware-IP wurde sowohl in der Hardware als auch in der Software erheblich verbessert. Sie liefert bis zu 1000 TOPS mit einer branchenführenden Effizienz von bis zu 98 % und unterstützt die neuesten KI-Trends wie Transformer Networks, FP8 und strukturierte feinkörnige Sparsity


BUDAPEST, Ungarn, Dec. 14, 2022 (GLOBE NEWSWIRE) -- aiMotive preisgekrönten aiWare Automotive NPU Hardware IP vorgestellt. aiWare4+ baut auf dem Erfolg von aiWare4 in automobilen Produktions-SoCs wie dem Apache5 und Apache6 von Nextchip auf, indem die Hardware-Architektur verfeinert und das Software-SDK erheblich verbessert wurde. Zusammen ermöglichen sie die effizientere Ausführung einer weitaus breiteren Palette von Workloads, wie z. B. Transformator-Netzwerke und andere neue KI-Netzwerktopologien. Unterstützung für FP8 sowie INT8-Berechnungen und spezielle Sparsity-Hardwareunterstützung sind ebenfalls in aiWare4+ enthalten.

Die einzigartige, skalierbare „Data-First“ -Hardwarearchitektur kombiniert Konzepte wie Fast-Memory-Ausführung, parallele On-Chip-E/A, hierarchische Hardware-Kachelung und Wellenfrontverarbeitung, um die höchstmögliche PPA zu liefern.

Zu den erweiterten Funktionen für aiWare4 + gehören:

  • Verbesserte Programmierbarkeit: Signifikante Verbesserungen der aiWare-Hardwarearchitektur und des SDK-Portfolios an Tools ermöglichen es den Anwendern, vollen Zugriff auf jeden Teil der internen Ausführungspipeline von aiWare zu erhalten, ohne den hochgradig KI-zentrierten Ansatz zu beeinträchtigen, der Tools wie das interaktive aiWare Studio sowohl bei Forschungs- als auch bei Produktionsingenieuren so beliebt macht
  • Volle FP8-Unterstützung: Mit aiWare4+ wurde die volle Unterstützung für FP8 zusätzlich zur INT8-Quantisierung für die Workload-Ausführung hinzugefügt
  • Breitere Netzwerkunterstützung: SDK-Upgrades ermöglichen es Anwendern, eine höhere Leistung nicht nur für CNNs, sondern auch für die neuesten aufkommenden Branchentrends wie Transformatornetze, Belegungsnetze und LSTMs zu erzielen. Benutzer von aiWare4+ werden auch von Hardwareverbesserungen profitieren, die erhebliche Leistungs- und Effizienzsteigerungen für Workloads wie Transformatorennetzwerke bieten
  • Erweiterte Sparsity-Unterstützung: aiWare4+ Hardware-Upgrades bedeuten, dass jede gewichtete Sparsamkeit zu einem minimalen Stromverbrauch der NPU pro Takt führt, was einen optimierten Stromverbrauch für eine möglichst breite Palette von Workloads gewährleistet
  • Verbesserte Skalierbarkeit: aiWare4+ ist so konzipiert, dass es von 10 TOPS bis zu 1000+ TOPS skaliert werden kann. Dabei wird eine Multi-Core-Architektur verwendet, um den Durchsatz zu erhöhen und gleichzeitig eine hohe Effizienz beizubehalten (Einschränkungen bei der Ct- und externen Speicherbandbreite). Darüber hinaus bietet aiWare4+ verschachteltes Multitasking, das die Leistung und Effizienz bei mehreren Workloads optimiert.

Das aiMotive-Team von KI-Forschern verfolgt ständig die neuesten Entwicklungen in der KI-Branche im Automobilbereich und vergleicht unsere Methoden unermüdlich mit den besten in der Branche. aiWare4+ bietet weiterhin die höchste NPU-Effizienz der Automobilbranche von bis zu 98 % für eine Vielzahl von KI-Workloads und ermöglicht so eine überragende Leistung mit weniger Silizium und weniger Energie.

„Als wir aiWare4 auslieferten, wussten wir, dass unsere hochgradig angepasste Hardware-Architektur uns in die Lage versetzte, im Vergleich zu anderen automobilen Inferenz-NPUs auf dem Markt eine überragende Effizienz und PPA zu liefern“, erklärt Mustafa Ali, Product Director, aiWare bei aiMotive. „Einige unserer Kunden erkannten zwar unsere führende Rolle bei der CNN-Effizienz an, waren jedoch besorgt über die Programmierbarkeit von aiWare im Vergleich zu konventionelleren Architekturen wie DSP- oder GPU-basierten NPUs. Diese neuesten aiWare4+ und aiWare SDK Upgrades stellen sicher, dass unsere Kunden aiWare für eine breite Palette von KI-Workloads programmieren können und dabei eine zukunftssichere Flexibilität erreichen, die mit einigen der bekanntesten SoCs und DSP-basierten NPUs vergleichbar ist, ohne unsere branchenführende NPU-Effizienz zu beeinträchtigen.“

aiMotive wird aiWare4+ RTL ab dem zweiten Quartal 2023 an führende Kunden ausliefern, während das SDK bereits heute eine frühe Unterstützung für die meisten der neuen Funktionen bietet und 2023 in Produktionsqualität verfügbar sein wird.

Anmerkungen

Anmerkung 1: PPA: Power, Performance and Area

Anmerkung 2: Siehe aiWare3 Benchmarks auf dem Apache5 SoC von Nextchip

Über aiMotive:

Weitere Informationen: aimotive.com/about-us

Für weitere Informationen über aiWare4+ klicken Sie hier.

Kontakt:
Bence Boda
Marketing & Communications Manager
T: +36301828085
E: bence.boda@aimotive.com