Expertenbeitrag

 Timo Sachse

Timo Sachse

Product Analyst EMEA, Axis Communications

Datenverarbeitung in Kameras KI-basierte Videoanalyse performant und flexibel einsetzen

Von Timo Sachse

Anbieter zum Thema

Ein KI-Anwendungsfall im Industrie-Kontext, der zunehmend an Relevanz gewinnt, ist die Videoanalyse. Noch ist der Einsatz oft aber komplex. Warum er sich dennoch lohnt und welche Rolle Standards auch hier spielen, lesen Sie in diesem Artikel.

Industrielle Prozessabläufe, die das menschliche Auge kaum erfassen und das Gehirn nicht verarbeiten kann, sind ein vielversprechender Einsatzbereich für die KI-basierte Videoanalyse.
Industrielle Prozessabläufe, die das menschliche Auge kaum erfassen und das Gehirn nicht verarbeiten kann, sind ein vielversprechender Einsatzbereich für die KI-basierte Videoanalyse.
(Bild: gemeinfrei / Pexels )

Videoanalyse ist kein neues Thema im Bereich der IP-Kameras. Sämtliche Hersteller rühmen sich inzwischen mit Deep-Learning-Chipsätzen. Was in der Theorie gut klingt, scheitert in der Praxis oftmals an einer komplizierten Implementierung. Lange Entwicklungszyklen und nur wenige spezialisierte Fachkräfte für die Programmierung der Algorithmen machen insbesondere die Entwicklung von hochspezialisierten Anwendungen zu einer Herausforderung.

Individuelle Anforderungen nehmen zu

Aus diesem Grund sollten Hersteller viel Wert auf die Schaffung eines effizienten Developer-Frameworks legen. Was früher mehrere Monate gedauert hat, gelingt so oftmals in wenigen Wochen. Auch das Prototyping von Anwendungen, mit den richtigen Daten zum Trainieren von neuralen Netzwerken, geht damit wesentlich einfacher. So können die Experten in kürzester Zeit evaluieren, ob eine Anwendung grundsätzlich realisierbar ist.

Neben den Standardanwendungsfällen der Sicherheitsbranche, in denen typischerweise Personen und Fahrzeuge zu detektieren und analysieren sind, nehmen spezialisierte Anwendungsfälle heute stetig zu. Diese Anwendungen zu ermöglichen, ist einer der Kernpunkte bei der Gestaltung der Entwicklungsumgebung. Die Anwendungsprogrammierer können dabei auf flexible API und eine Containerarchitektur zugreifen und so wesentlich schneller und kosteneffizienter arbeiten.

Weniger Analyseaufwand auf dem Server

Noch vor einem Jahrzehnt hatten Kameras nicht die erforderliche Rechenleistung, um weitreichende Analysen am Rande des Netzwerks, also der Edge, umzusetzen. Deshalb setzten Hersteller vermehrt auf serverbasierte Analysen. Ein Server bringt genug Rechenleistung mit, hat aber auch gewisse Einschränkungen. Beispielsweise kann die Komprimierung von Videos vor der Übertragung von der Kamera zum Server die Qualität der analysierten Bilder stark beeinträchtigen.

Zudem ist die Skalierung von Lösungen, bei denen die Analyse vollständig auf dem Server stattfindet, eine kostenintensive Angelegenheit. Das ist insbesondere dann der Fall, wenn Deep Learning in der Analyse eingesetzt wird, denn eine DL-basierte Analyse ist rechenintensiv. Bei der serverbasierten Analyse muss das Videomaterial zudem kodiert und anschließend dekodiert werden, bevor der Stream verarbeitet wird. Das nimmt kostbare Zeit in Anspruch. Und die Verarbeitung einer Reihe von Videostreams, selbst in einem relativ kleinen System mit 20 bis 30 Kameras – bei ungefähr 20 oder 30 Bildern pro Sekunde – erfordert bei hoher Auflösung erhebliche Ressourcen.

Dank der technologischen Fortschritte der letzten Jahre, sind die Verarbeitungsleistung und die Fähigkeiten der Edge-Geräte jetzt auf einem Level, bei dem die Analysefunktion wieder auf sie zurückverlagert wird. Mehr Analysefunktionen in der Kamera selbst reduzieren den Bedarf an rechenintensiven server- und cloudbasierten Analysen.

Verbesserte Skalierbarkeit

Generell gilt, Analysen am Rande des Netzwerks reduzieren die Menge der über das Netzwerk gesendeten Daten und steigern so die Effizienz von Bandbreite, Speicher und Servern. Durch die Aufteilung der Verarbeitungslast zwischen Edge und Server werden die Systeme skalierbarer, da das Hinzufügen einer neuen Kamera mit Edge-Analysefunktion nicht automatisch eine Erhöhung der Verarbeitungsleistung des Servers verlangt.

Das heißt nicht, dass serverbasierte Analysen in Zukunft nicht weiterhin eine Rolle spielen werden. Ganz im Gegenteil: Hybride Ansätze, die die Stärken der Edge-Analytik und der server- und cloudbasierten Analytik nutzen, sind die Zukunft. Während Stand-alone-Edge-Systeme weiterhin für Szenenanalyseanwendungen zum Einsatz kommen, werden hybride Server- und Edge-Analytics-Lösungen für erweiterte Verarbeitungsanforderungen, typischerweise im Bereich der statistischen Auswertungen, an Bedeutung gewinnen.

Diese Anforderungen werden durch die Metadaten ermöglicht, die von der Edge-Analyse zusammen mit den Videobildern erstellt werden. Metadaten im Videokontext kennzeichnen im Wesentlichen Elemente einer Szene. Sie fügen Deskriptoren oder Informationen über die Szene hinzu. Die Videoverwaltungssoftware, kurz VMS, nutzt die Daten, um nach Elementen zu suchen, auf die Szene einzuwirken oder bestimmte Aktionen in Echtzeit oder im Nachhinein, zum Beispiel einen Audio-Alarm, auszulösen.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Für Maschinen und Menschen optimierte Bilder

Die Fortschritte bei der Bildqualität wiederum tragen der Tatsache Rechnung, dass Bilder zunehmend von Maschinen und nicht mehr von Menschen betrachtet werden. Ausgehend vom aktuellen technischen Stand ist es möglich, Videobilder sowohl für die Analyse durch eine KI als auch für das menschliche Auge zu optimieren– ein wichtiger Unterschied. Optimiert man zum Beispiel ein Bild für einen menschlichen Betrachter, versucht man normalerweise, das Bildrauschen zu reduzieren. Für eine KI-Analyse ist das oftmals kontraproduktiv.

Schutz der Privatsphäre

Die Edge-Analytik bietet außerdem Vorteile im Betrieb, die zur Wahrung der Privatsphäre beitragen und gleichzeitig eine erhöhte Sicherheit bieten. Beispielsweise werden bei Edge-basierten Analysen zur Personenzählung, die im Einzelhandel nützlich sein können, nur die Daten von der Kamera übertragen, nicht aber die Videobilder.

Zudem ist durch Edge-Analytik eine intelligente Maskierung der Kamerabilder möglich. Gesichter von Personen in einer Szene werden damit in Echtzeit unkenntlich gemacht – auch das trägt zur Privatsphäre bei. Durch die zusätzliche Übermittlung des Originalstreams, der nur bei Bedarf angezeigt wird, kann das Personal bei einem Zwischenfall aber immer noch auf das Video ohne Maskierung zugreifen.

Fortschrittliche Objekterkennung braucht Offenheit

Fortschritte bei der Objekterkennung, bei der die Kameras zunehmend ein kontextbezogenes Verständnis einer Szene entwickeln, also zum Beispiel zwischen einer Straße, einer Wiese und einem Parkplatz unterscheiden können, werden die Sicherheitsbranche in den nächsten Jahren mit großen Schritten voranbringen.

Vor allem wenn Hersteller die ONVIF-Metadaten-Spezifikationen für eine offene Umgebung vorantreiben, ist das Potenzial für Edge Analytics riesig. Das Akronym steht dabei für das namensgebende Open Network Video Interface Forum, das einen Standard schaffen will, über den unter anderem IP-Produkte in der Videoüberwachung miteinander kommunizieren können. Entwickler können dann mit verschiedenen ONVIF-konformen Produkten hybride Architekturen erstellen.
Diese offene Umgebung ist eine der wichtigsten Voraussetzungen dafür, dass ein hybrides Analyse-System überhaupt funktionieren kann.

(ID:48425610)