Mehr Leistung an die EdgeEmbedded AI für dezentrale Entscheidungen
Quelle: Pressemitteilung
Christoph Stockhammer und Dr. Frank Graeber
4 min Lesedauer
Moderne Edge-Systeme arbeiten mehr und mehr mit Embedded AI, um beispielsweise Echtzeitanalysen energieeffizienz laufen zu lassen. Mathworks liefert dafür eine integrierte Umgebung für die Entwicklung und Bereitstellung von KI auf eingebetteten Systemen.
Automatische Codegenerierung von Matlab.
(Bild: Mathworks)
Mit Embedded AI verschiebt sich Künstliche Intelligenz (KI) von der Cloud direkt dorthin, wo sie gebraucht wird – auf die Geräte am Rand des Netzwerks. Diese Entwicklung wird von folgenden Faktoren vorangetrieben:
Embedded Hardware mit geringem Stromverbrauch sorgt für Kosten- und Energieeinsparungen.
Die lokale Verarbeitung schützt die Daten und erlaubt den Offline-Betrieb, während
Edge-KI die Entscheidungsfindung in Echtzeit bei minimaler Latenz unterstützt.
Dies ist für autonome Systeme und die industrielle Automatisierung erforderlich. Da generative KI und große Sprachmodelle (LLMs) immer näher an den Rand des Netzwerks rücken, werden fortschrittliche Komprimierungs- und Optimierungstechniken zunehmend unverzichtbar.
Bildergalerie
Embedded AI im Aufwind: Markt, Trends und Technologietreiber
Embedded AI entwickelt sich zunehmend zu einem zentralen Treiber moderner Edge-Systeme. Der Markt wächst rasant, getragen von spezialisierten Hardwarekomponenten wie Neural Processing Units (NPUs) und heterogenen Architekturen, die immer häufiger direkt in Mikrocontroller und Systems on Chips (SoCs) integriert werden. Dadurch stehen Ingenieure vor der Herausforderung, komplexe Modelle auf Geräten mit begrenzten Speicher- und Rechenressourcen einzusetzen. Techniken wie Quantisierung, Pruning und andere Methoden der Modellkomprimierung sind daher essenziell. Neben der Hardware gewinnen leistungsfähige Bibliotheken und Tools zunehmend an Bedeutung, um KI über verschiedene Plattformen hinweg zuverlässig nutzbar zu machen.
Ein konkretes Beispiel für diesen Trend ist die Kombination von Wake-Word-Erkennung mit Objekterkennung und -verfolgung auf Qualcomm Snapdragon-Plattformen. YOLOX-basierte Netzwerke für die Objekterkennung werden hierfür eingesetzt, wobei die Inferenz auf die Hexagon NPU ausgelagert ist. Die NPU wird hierbei nur im Bedarfsfall aktiviert, falls vorher ein entsprechendes wakeword (Audiosignal) gegeben wurde und dieses von einer zweiten, stromsparenderen NPU erkannt wurde. Dieser Ansatz zeigt, wie heterogene Architekturen, die eine NPU mit geringem Stromverbrauch mit Hexagon DSP kombinieren, Bildverarbeitungsaufgaben in Echtzeit ermöglichen und gleichzeitig die Energieeffizienz aufrechterhalten.
Embedded AI effizient gestalten: Shift Left für smarte KI
Mit der zunehmenden Komplexität eingebetteter KI steigt auch der Bedarf an klar strukturierten Workflowprozessen. Model-Based Design bietet hierfür einen Rahmen: Statt Low-Level-Code zu schreiben, modellieren Ingenieure ihre Algorithmen visuell in Simulink. Anforderungen, Modelle und Testartefakte werden dabei in einem einheitlichen digitalen Thread zusammengeführt, was die Zusammenarbeit und Rückverfolgbarkeit über den gesamten Produktlebenszyklus hinweg unterstützt.
Ein zentraler Vorteil dieses Ansatzes liegt in der frühzeitigen Validierung. Mithilfe von Hardware-in-the-Loop- (HIL) und Processor-in-the-Loop- (PIL) Tests lassen sich potenzielle Probleme frühzeitig erkennen und die Entwicklung beschleunigen, ganz im Sinne des „Shift-Left-“Prinzips. Wie dieser Ansatz funktioniert, lässt sich anhand eines Beispiels aus der Automobilbranche erklären. Bei der KI-basierten Trajektorienplanung und -steuerung auf Infineon Aurix TC4x werden neuronale Netzwerksteuerungen vor dem Einsatz mithilfe von Model-Based Design entworfen und validiert. Durch die Nutzung einer Parallelverarbeitungseinheit (PPU) auf der Hardware erzielt diese Lösung im Vergleich zu herkömmlichen Ansätzen eine um 50 Prozent höhere Genauigkeit und 5 Prozent Energieeinsparungen – ein Beispiel dafür, wie strukturierte Workflows und hardwarebewusste Optimierung greifbare Vorteile bieten.
Von Matlab zum Microcontroller: Embedded AI live
Mathworks bietet eine integrierte Umgebung für die Entwicklung und Bereitstellung von KI auf eingebetteten Systemen. Ingenieure können ihre Modelle in Matlab entwerfen und trainieren oder bereits trainierte Modelle aus Frameworks wie Pytorch, Tensorflow und ONNX importieren. Mithilfe automatischer Codegenerierungstools wie Matlab Coder und GPU Coder lassen sich diese Modelle in optimierten C-, C++-, CUDA- oder HDL-Code für CPUs, GPUs, FPGAs und MCUs übersetzen. Auf diese Weise wird die Lücke zwischen High-Level-Design und Hardware-Implementierung geschlossen.
Zudem sind Optimierungs-Workflows für Quantisierung, Pruning und Komprimierung in die Toolchain integriert. Sie ermöglichen den Einsatz auf Geräten mit begrenzten Ressourcen, ohne dass die Leistung beeinträchtigt wird. Ergänzend sorgen Verifizierungswerkzeuge wie Polyspace für zusätzliche Zuverlässigkeit, indem sie den generierten Code statisch und dynamisch analysieren, Fehler frühzeitig im Entwicklungszyklus erkennen – oder deren Abwesenheit nachweisen. Gerade in sicherheitskritischen Bereichen sind diese Funktionen von entscheidender Bedeutung, um Compliance und Robustheit zu gewährleisten.
Ein praxisnahes Beispiel für diesen Workflow ist die Temperaturvorhersage für Elektromotoren auf TI C2000-Hardware. Dabei werden virtuelle Sensormodelle in Matlab oder Python entwickelt und trainiert, für den Einsatz komprimiert und mithilfe von Processor-in-the-Loop-Tests validiert. Dieser Ansatz ersetzt physische Sensoren durch softwarebasierte Schätzfunktionen, wodurch Kosten und Komplexität reduziert werden, während die Genauigkeit erhalten bleibt oder sogar zunimmt.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Zudem findet Embedded AI bereits in zahlreichen Anwendungsbereichen Einsatz: Im Gesundheitswesen wird sie beispielsweise für die Echtzeit-Signalverarbeitung in der EKG-Analyse auf STM32-Boards genutzt. Hierbei werden Deep-Learning- und Signalverarbeitungsalgorithmen kombiniert. Mithilfe automatischer C/C++-Codegenerierung lassen sich Sensordaten in Echtzeit verarbeiten. Auch im Bereich der Arbeitssicherheit kommen eingebettete KI-Lösungen zum Einsatz: Die Erkennung von persönlicher Schutzausrüstung auf Raspberry Pi und die Posenerkennung auf Nvidia-Jetson-Plattformen zeigen, wie eingebettete Bildverarbeitung und GPU-Beschleunigung kompakte, leistungsstarke KI-Lösungen für Überwachung und Compliance ermöglichen.
Die genannten Beispiele stehen exemplarisch für einen breiteren Trend: Embedded KI ist nicht länger eine Nischentechnologie, sondern entwickelt sich zu einem Standard für intelligente Systeme in verschiedenen Branchen. Durch strukturierte Workflows und den Einsatz integrierter Toolchains können Ingenieure ihre Entwicklungsprozesse beschleunigen, deren Zuverlässigkeit sicherstellen und die Leistung für Edge-Bereitstellungen optimieren. Da generative KI und fortschrittliche Workflows immer näher an die Edge rücken, werden effiziente Methoden und Optimierung unter Berücksichtigung der Hardware der Schlüssel sein, um ihr volles Potenzial auszuschöpfen.
* Christoph Stockhammer ist Principal Application Engineer, Dr. Frank Graeber ist Manager Application Engineering, beide bei MathWorks