KI-gestütztes Computing ermöglicht vielfältige Einblicke und Sicherheitsverbesserungen in der gesamten Embedded-Computing-Branche. Wir beobachten einen enormen Anstieg des Bedarfs an Systemen mit hohem Rechenaufwand, die in schwierigen Umgebungen eingesetzt werden können, sowie an KI-basierten Plattformen, die die Verarbeitungsanforderungen erfüllen können, die Objekterkennung und -verfolgung, Videoüberwachung, Zielerkennung und zustandsbasierte Überwachung ermöglichen.
Betriebssysteme, die auf KI-Computing basieren, bieten optimierte Visualisierungsmöglichkeiten, um Video- und andere Vision-Sensoren in einer einheitlichen Viewer-Anwendung zu kombinieren, die anschließend für die gleichzeitige Lokalisierung und Kartierung von Robotern verwendet werden kann.
Dies schafft die Voraussetzungen für intuitivere Anwendungen, wie die Schätzung der menschlichen Pose, um Robotern beizubringen, Flugbahnen zu folgen, was letztendlich in autonomen Navigationssystemen verwendet werden kann, sowie die Extraktion von Gesichtsmerkmalen bei der automatisierten visuellen Interpretation, der menschlichen Gesichtserkennung und -verfolgung. Diese Aktivitäten dienen der Verbesserung von Sicherheit und Überwachung, Bewegungserfassung und erweiterter Realität (AR).
Komplexe GPGPU-Inferenzberechnungen am Netzwerkrand ermöglichen diese visuelle Intelligenz ebenfalls, darunter hochauflösende Sensorsysteme, Sicherheitssysteme zur Bewegungsverfolgung, automatische Zielerkennung, Erkennung und Vorhersage von Bedrohungsorten. Bereiche wie Maschinenzustandsüberwachung und vorausschauende Wartung, teilautonomes Fahren und Fahrerberatungssysteme verlassen sich ebenfalls auf die Parallelverarbeitungsarchitektur von GPGPU.
Ein Großteil der hohen Rechenleistung, die in diesen kritischen eingebetteten Systemen stattfindet, basiert auf kompakten NVIDIA-Supercomputern und den zugehörigen CUDA-Kernen und Deep-Learning-SDKs, die zur Entwicklung datengesteuerter Anwendungen verwendet werden. Verkehrssteuerung, Mensch-Computer-Interaktion und visuelle Überwachung sowie der schnelle Einsatz von KI-gestützter Wahrnehmungsverarbeitung sind alles Bereiche, in denen Dateneingaben in verwertbare Informationen umgewandelt werden können.
Der NVIDIA Jetson AGX Xavier setzt neue Maßstäbe für Rechendichte, Energieeffizienz und KI-Inferenzfunktionen auf Edge-Geräten. Es ist ein Quantensprung in der intelligenten Maschinenverarbeitung, der die Flexibilität eines 8-Kern-ARM-Prozessors mit der reinen Rechenleistung von 512 NVIDIA-CUDA-Kernen und 64 Tensorkernen verbindet.
Mit seiner branchenführenden Leistung, Energieeffizienz, integrierten Deep-Learning-Funktionen und umfangreichen I/O ermöglicht Xavier neue Technologien mit rechenintensiven Anforderungen. Der neue Jetsys-5320 von Elma verwendet beispielsweise das Xavier-Modul, um den wachsenden Datenverarbeitungsanforderungen extrem robuster und mobiler Embedded-Computing-Anwendungen gerecht zu werden. Es bewältigt mühelos datenintensive Rechenaufgaben und ermöglicht Deep-Learning- (DL) - und maschinelles Lernen (ML) -Operationen in KI-Anwendungen.
Die Geschwindigkeiten steigen, was Platinen- und Backplane-Lieferanten dazu veranlasst, neue Designs mit einer Kapazität von 25 Gbit/s pro Leitung zu entwickeln, die Hochgeschwindigkeits-PCIe Gen 3- und Gen 4-Designs unterstützen. Die Sensoren werden außerdem damit beginnen, 100 GbE für die Übertragung innerhalb und zwischen Gehäusen zu nutzen.
Wenn ein System in der Lage ist, leistungsstarke Deep-Learning-basierte Inferenz-Engines auszuführen, kann es komplexe Daten- und Videoverarbeitungsaufgaben wie Objekterkennung und Bildsegmentierung mehrerer Videobildströme, die über HD-SDI-, Ethernet- und USB3.0-Kameras aufgenommen wurden, und dergleichen, zuverlässig ausführen, die über Hochgeschwindigkeits-Rundsteckverbinder verbunden sind.
Neuere Softwareumgebungen werden zu austauschbaren Beschleunigern und GPGPUs bei den Anbietern führen. In Umgebungen, die auf offenen Standards basieren, wie der Sensor Open System Architecture™ (SOSA) -Initiative von The Open Group, sind lokale Verbindungen mit hoher Bandbreite zwischen SBCs und GPGPUs erforderlich, bei denen zwei Steckkarten (PICs) ein SOSA-Modul bilden können, und müssen möglicherweise skaliert werden, um den wachsenden Datenanforderungen gerecht zu werden.
Die heutigen Entwickler robuster eingebetteter Systeme sehnen sich nach unternehmenskritischer SFF-Autonomie mit KI-Verarbeitung auf Serverklasse, um sie an entfernten Standorten einzusetzen und schwierige Konnektivität zu bewältigen. Diese Systeme benötigen Reaktionsfähigkeit in Echtzeit, minimale Latenz und geringen Stromverbrauch. Fortschrittliche KI-Systeme, die die Datenverarbeitung vom Netzwerkrand bis hin zur gesamten Cloud ermöglichen, definieren die Möglichkeiten für den Einsatz robuster, kompakter Technologien in autonomen, rauen und mobilen Umgebungen neu.
Over the past several years, the Modular Open RF Architecture (MORA) has evolved to address the challenges of increasingly complex radio frequency (RF) systems through an open standards-based infrastructure. With several industry partners working together to develop a collaborative framework, MORA’s interoperability and modularity has been realized, resulting in successful demonstrations of multiple manufacturers’ technologies working together. So, we asked some of our open standards partners: What’s next for MORA-based systems and the embedded computing community, now that interoperability demonstrations have been successfully deployed?
Looking back we can now see a shift in how development platforms are designed and how they are used by our integrator customer base. That shift is making it easier and less expensive to perform the development stages of a deployable system project and put solutions into the hands of the warfighter faster than ever before. Development hardware can also be shared between projects, or inherited by subsequent projects. This saves not only on lab budget, but the time to order and receive all new hardware for a new development project.