KI-gestütztes Computing ermöglicht vielfältige Einblicke und Sicherheitsverbesserungen in der gesamten Embedded-Computing-Branche. Wir beobachten einen enormen Anstieg des Bedarfs an Systemen mit hohem Rechenaufwand, die in schwierigen Umgebungen eingesetzt werden können, sowie an KI-basierten Plattformen, die die Verarbeitungsanforderungen erfüllen können, die Objekterkennung und -verfolgung, Videoüberwachung, Zielerkennung und zustandsbasierte Überwachung ermöglichen.
Betriebssysteme, die auf KI-Computing basieren, bieten optimierte Visualisierungsmöglichkeiten, um Video- und andere Vision-Sensoren in einer einheitlichen Viewer-Anwendung zu kombinieren, die anschließend für die gleichzeitige Lokalisierung und Kartierung von Robotern verwendet werden kann.
Dies schafft die Voraussetzungen für intuitivere Anwendungen, wie die Schätzung der menschlichen Pose, um Robotern beizubringen, Flugbahnen zu folgen, was letztendlich in autonomen Navigationssystemen verwendet werden kann, sowie die Extraktion von Gesichtsmerkmalen bei der automatisierten visuellen Interpretation, der menschlichen Gesichtserkennung und -verfolgung. Diese Aktivitäten dienen der Verbesserung von Sicherheit und Überwachung, Bewegungserfassung und erweiterter Realität (AR).
Komplexe GPGPU-Inferenzberechnungen am Netzwerkrand ermöglichen diese visuelle Intelligenz ebenfalls, darunter hochauflösende Sensorsysteme, Sicherheitssysteme zur Bewegungsverfolgung, automatische Zielerkennung, Erkennung und Vorhersage von Bedrohungsorten. Bereiche wie Maschinenzustandsüberwachung und vorausschauende Wartung, teilautonomes Fahren und Fahrerberatungssysteme verlassen sich ebenfalls auf die Parallelverarbeitungsarchitektur von GPGPU.
Ein Großteil der hohen Rechenleistung, die in diesen kritischen eingebetteten Systemen stattfindet, basiert auf kompakten NVIDIA-Supercomputern und den zugehörigen CUDA-Kernen und Deep-Learning-SDKs, die zur Entwicklung datengesteuerter Anwendungen verwendet werden. Verkehrssteuerung, Mensch-Computer-Interaktion und visuelle Überwachung sowie der schnelle Einsatz von KI-gestützter Wahrnehmungsverarbeitung sind alles Bereiche, in denen Dateneingaben in verwertbare Informationen umgewandelt werden können.
Der NVIDIA Jetson AGX Xavier setzt neue Maßstäbe für Rechendichte, Energieeffizienz und KI-Inferenzfunktionen auf Edge-Geräten. Es ist ein Quantensprung in der intelligenten Maschinenverarbeitung, der die Flexibilität eines 8-Kern-ARM-Prozessors mit der reinen Rechenleistung von 512 NVIDIA-CUDA-Kernen und 64 Tensorkernen verbindet.
Mit seiner branchenführenden Leistung, Energieeffizienz, integrierten Deep-Learning-Funktionen und umfangreichen I/O ermöglicht Xavier neue Technologien mit rechenintensiven Anforderungen. Der neue Jetsys-5320 von Elma verwendet beispielsweise das Xavier-Modul, um den wachsenden Datenverarbeitungsanforderungen extrem robuster und mobiler Embedded-Computing-Anwendungen gerecht zu werden. Es bewältigt mühelos datenintensive Rechenaufgaben und ermöglicht Deep-Learning- (DL) - und maschinelles Lernen (ML) -Operationen in KI-Anwendungen.
Die Geschwindigkeiten steigen, was Platinen- und Backplane-Lieferanten dazu veranlasst, neue Designs mit einer Kapazität von 25 Gbit/s pro Leitung zu entwickeln, die Hochgeschwindigkeits-PCIe Gen 3- und Gen 4-Designs unterstützen. Die Sensoren werden außerdem damit beginnen, 100 GbE für die Übertragung innerhalb und zwischen Gehäusen zu nutzen.
Wenn ein System in der Lage ist, leistungsstarke Deep-Learning-basierte Inferenz-Engines auszuführen, kann es komplexe Daten- und Videoverarbeitungsaufgaben wie Objekterkennung und Bildsegmentierung mehrerer Videobildströme, die über HD-SDI-, Ethernet- und USB3.0-Kameras aufgenommen wurden, und dergleichen, zuverlässig ausführen, die über Hochgeschwindigkeits-Rundsteckverbinder verbunden sind.
Neuere Softwareumgebungen werden zu austauschbaren Beschleunigern und GPGPUs bei den Anbietern führen. In Umgebungen, die auf offenen Standards basieren, wie der Sensor Open System Architecture™ (SOSA) -Initiative von The Open Group, sind lokale Verbindungen mit hoher Bandbreite zwischen SBCs und GPGPUs erforderlich, bei denen zwei Steckkarten (PICs) ein SOSA-Modul bilden können, und müssen möglicherweise skaliert werden, um den wachsenden Datenanforderungen gerecht zu werden.
Die heutigen Entwickler robuster eingebetteter Systeme sehnen sich nach unternehmenskritischer SFF-Autonomie mit KI-Verarbeitung auf Serverklasse, um sie an entfernten Standorten einzusetzen und schwierige Konnektivität zu bewältigen. Diese Systeme benötigen Reaktionsfähigkeit in Echtzeit, minimale Latenz und geringen Stromverbrauch. Fortschrittliche KI-Systeme, die die Datenverarbeitung vom Netzwerkrand bis hin zur gesamten Cloud ermöglichen, definieren die Möglichkeiten für den Einsatz robuster, kompakter Technologien in autonomen, rauen und mobilen Umgebungen neu.
In the past few years, several end-of-life (EOL) announcements in the embedded computing market have both caused angst and opportunity. Making the shift away from a tried-and-true solution always brings with it the need to review not only the mechanical elements of an embedded system, but the integration and networking elements as well. And when that review is forced upon a designer, as in the case of an EOL announcement, it may mean forced choices of not-as-optimum alternatives. Or it could be something different altogether.
Rugged platforms for demanding applications have historically been constrained by the limited operational temperature ranges of high-performance processors and other key system components. These applications often operate in challenging temperatures, and high-performance processors aren’t generally offered with these operational temperature ranges. Until now.