Künstliche Intelligenz (KI) treibt eine neue Ära des intelligenten Embedded Computing voran

Datum der Veröffentlichung:
January 15, 2022

KI-gestütztes Computing ermöglicht vielfältige Einblicke und Sicherheitsverbesserungen in der gesamten Embedded-Computing-Branche. Wir beobachten einen enormen Anstieg des Bedarfs an Systemen mit hohem Rechenaufwand, die in schwierigen Umgebungen eingesetzt werden können, sowie an KI-basierten Plattformen, die die Verarbeitungsanforderungen erfüllen können, die Objekterkennung und -verfolgung, Videoüberwachung, Zielerkennung und zustandsbasierte Überwachung ermöglichen.

Betriebssysteme, die auf KI-Computing basieren, bieten optimierte Visualisierungsmöglichkeiten, um Video- und andere Vision-Sensoren in einer einheitlichen Viewer-Anwendung zu kombinieren, die anschließend für die gleichzeitige Lokalisierung und Kartierung von Robotern verwendet werden kann.

Dies schafft die Voraussetzungen für intuitivere Anwendungen, wie die Schätzung der menschlichen Pose, um Robotern beizubringen, Flugbahnen zu folgen, was letztendlich in autonomen Navigationssystemen verwendet werden kann, sowie die Extraktion von Gesichtsmerkmalen bei der automatisierten visuellen Interpretation, der menschlichen Gesichtserkennung und -verfolgung. Diese Aktivitäten dienen der Verbesserung von Sicherheit und Überwachung, Bewegungserfassung und erweiterter Realität (AR).

Operative Intelligenz in komplexen Umgebungen

Komplexe GPGPU-Inferenzberechnungen am Netzwerkrand ermöglichen diese visuelle Intelligenz ebenfalls, darunter hochauflösende Sensorsysteme, Sicherheitssysteme zur Bewegungsverfolgung, automatische Zielerkennung, Erkennung und Vorhersage von Bedrohungsorten. Bereiche wie Maschinenzustandsüberwachung und vorausschauende Wartung, teilautonomes Fahren und Fahrerberatungssysteme verlassen sich ebenfalls auf die Parallelverarbeitungsarchitektur von GPGPU.

Ein Großteil der hohen Rechenleistung, die in diesen kritischen eingebetteten Systemen stattfindet, basiert auf kompakten NVIDIA-Supercomputern und den zugehörigen CUDA-Kernen und Deep-Learning-SDKs, die zur Entwicklung datengesteuerter Anwendungen verwendet werden. Verkehrssteuerung, Mensch-Computer-Interaktion und visuelle Überwachung sowie der schnelle Einsatz von KI-gestützter Wahrnehmungsverarbeitung sind alles Bereiche, in denen Dateneingaben in verwertbare Informationen umgewandelt werden können.

Verarbeitung, die Konventionen übertrifft

Der NVIDIA Jetson AGX Xavier setzt neue Maßstäbe für Rechendichte, Energieeffizienz und KI-Inferenzfunktionen auf Edge-Geräten. Es ist ein Quantensprung in der intelligenten Maschinenverarbeitung, der die Flexibilität eines 8-Kern-ARM-Prozessors mit der reinen Rechenleistung von 512 NVIDIA-CUDA-Kernen und 64 Tensorkernen verbindet.

Mit seiner branchenführenden Leistung, Energieeffizienz, integrierten Deep-Learning-Funktionen und umfangreichen I/O ermöglicht Xavier neue Technologien mit rechenintensiven Anforderungen. Der neue Jetsys-5320 von Elma verwendet beispielsweise das Xavier-Modul, um den wachsenden Datenverarbeitungsanforderungen extrem robuster und mobiler Embedded-Computing-Anwendungen gerecht zu werden. Es bewältigt mühelos datenintensive Rechenaufgaben und ermöglicht Deep-Learning- (DL) - und maschinelles Lernen (ML) -Operationen in KI-Anwendungen.

Was treibt den Daten-Push voran

Die Geschwindigkeiten steigen, was Platinen- und Backplane-Lieferanten dazu veranlasst, neue Designs mit einer Kapazität von 25 Gbit/s pro Leitung zu entwickeln, die Hochgeschwindigkeits-PCIe Gen 3- und Gen 4-Designs unterstützen. Die Sensoren werden außerdem damit beginnen, 100 GbE für die Übertragung innerhalb und zwischen Gehäusen zu nutzen.

Wenn ein System in der Lage ist, leistungsstarke Deep-Learning-basierte Inferenz-Engines auszuführen, kann es komplexe Daten- und Videoverarbeitungsaufgaben wie Objekterkennung und Bildsegmentierung mehrerer Videobildströme, die über HD-SDI-, Ethernet- und USB3.0-Kameras aufgenommen wurden, und dergleichen, zuverlässig ausführen, die über Hochgeschwindigkeits-Rundsteckverbinder verbunden sind.

Neuere Softwareumgebungen werden zu austauschbaren Beschleunigern und GPGPUs bei den Anbietern führen. In Umgebungen, die auf offenen Standards basieren, wie der Sensor Open System Architecture™ (SOSA) -Initiative von The Open Group, sind lokale Verbindungen mit hoher Bandbreite zwischen SBCs und GPGPUs erforderlich, bei denen zwei Steckkarten (PICs) ein SOSA-Modul bilden können, und müssen möglicherweise skaliert werden, um den wachsenden Datenanforderungen gerecht zu werden.

Robuste KI für den militärischen Vorteil von morgen

Die heutigen Entwickler robuster eingebetteter Systeme sehnen sich nach unternehmenskritischer SFF-Autonomie mit KI-Verarbeitung auf Serverklasse, um sie an entfernten Standorten einzusetzen und schwierige Konnektivität zu bewältigen. Diese Systeme benötigen Reaktionsfähigkeit in Echtzeit, minimale Latenz und geringen Stromverbrauch. Fortschrittliche KI-Systeme, die die Datenverarbeitung vom Netzwerkrand bis hin zur gesamten Cloud ermöglichen, definieren die Möglichkeiten für den Einsatz robuster, kompakter Technologien in autonomen, rauen und mobilen Umgebungen neu.

Downloads

Weitere Blog-Beiträge lesen

Partner’s Corner: Flow Down - Redefining Partnership in Today’s Military Embedded Systems

How Elma and its partners Interface Concept and EIZO Rugged Solutions define what partnering means within our ecosystem when working together.

System integration challenges have changed over the past few years, with new demands being put on manufacturers for integration, troubleshooting and system upgrades. This blog explores how Elma and its partners Interface Concept, Concurrent Technologies and EIZO Rugged Solutions define what partnering means within our ecosystem when working together.

Partners Corner: What is Edge AI Enabling in Industrial Computing Applications?

Similar to how cloud computing evolved over the last decade to the de facto way of storing and managing data, Edge AI is taking off. Edge AI is one of the most notable trends in artificial intelligence, as it allows people to run AI processes without having to be concerned about security or slowdowns due to data transmission. And its impact is notable in industrial embedded computing, since it allows platforms to react quickly to inputs without access to the cloud. We asked some Edge AI partners: If analytics can be performed in the cloud, what is the benefit of an Edge AI approach, especially as it’s related to industrial embedded computing?