Skip to main content Skip to main navigation Skip to search Skip to footer

Verbessertes Visionssystem für Luftüberwachung und Air Traffic Management

Computervision und Bildverarbeitung bieten vielschichtige Möglichkeiten für die Entwicklung von Produkten in der Luft- und Raumfahrtindustrie. Bestimmte Anwendungen werden mit Kernfunktionen entwickelt, die sich über zivile und militärische Anwendungsbereiche erstrecken. Mit unserer firmeneigenen Technologie bieten wir Bildverarbeitungslösungen für unbemannte Raumfahrzeuge (UAV) durch Echtzeit-Video-Erfassung und Bildverwertung unter Verwendung eingebetteter Technologie für Überwachungs- & Aufklärungsanwendung, verbesserte Fusionsvision für Situationserkennungsanwendungen, automatische Visionsinspektionssysteme für die schnelle Prüfung von Komponenten in der Fertigungsindustrie. Wir haben außerdem Fachwissen im Bereich Bildverarbeitung von Fernerkundungsbildern mit hochauflösenden Daten von Satelliten. Diese Technologien werden in reale Anwendungen übertragen, welchen den individuellen Bedürfnissen unserer Kunden entsprechen und bewährte Lösungen bieten.

  • Videoüberwachung aus der Luft
  • Multi-Sensor-Fusion
  • Automatische visuelle Flugzeugrumpfüberprüfung
  • Verarbeitung von Satellitenbildern

Video-Luftüberwachung

Luftgestützte Überwachung wird in vielen verschiedenen Anwendungsbereichen in zivilen und militärischen Anwendungen genutzt, wie z.B. Such- und Rettungsmissionen, Grenzsicherung, Ressourcenerkundung, Flächenbrand- und Ölverschmutzungserkennung, Zielverfolgung, Überwachung, Verteidigung, usw. Das unbemannte Luftfahrzeug (UAV) ist mit speziellen Sensoren (Tag/ Nacht) ausgestattet, um Objekte am Boden darzustellen, und es weist die tatsächliche Erkennungsaufgabe (Überwachung) der Crew zu oder zeichnet Bilddaten auf und analysiert sie offline am Boden. Luftfahrzeuge ohne Pilot mit sensortragenden Plattformen übertragen Daten an eine Bodenkontrollstation zur Analyse und Datenauslegung.

Aerial Image Surveillance

 

HCL nutzt sein eingehendes Fachwissen, um ein vollständiges Angebot an Videoüberwachungsmöglichkeiten aus der Luft in Echtzeit zu bieten, von undeutlichen Geräuschbildern zu klaren Bildern hin zu großflächiger Visualisierung und Videoverarbeitung. Wir bieten Bildverarbeitungstechnologien für Bilderfassung in Echtzeit, Bildvorverarbeitung für Geräuschunterdrückung und adaptive Verbesserung, um ein umfassendes Panoramafeld der Displayansicht zu erstellen. Unsere Echtzeitfunktionen umfassen neben der Verbesserung auch Georegistrierungsfunktionen mit Referenzbildern zur Verbesserung von Genauigkeit, Suchbereich, Verfolgung beweglicher Objekte, Interessenbereichsverarbeitung, Geopositionsidentifizierung, Bildflächenmessung, Erstellung von Bilddatenbanken von Zielen unter verschiedenen Auflösungen mit Funktionsdetails.

 

Eingebettetes Visionsgerät für die Aerospace-Branche

Wir haben für eine Luftfahrtagentur ein eingebettetes Visionsgerät entworfen und entwickelt, bekannt als GIES (Ground Image Exploitation System = Bodenbildauswertungssystem). Das System besteht aus mehreren eingebetteten Visionsprozessoren auf einem Industriecomputer mit Bilddigitalisierer, Grafikkarte für Mehrfachanzeige mit entwickelter GUI-Software, die Bildverarbeitungsalgorithmen für Luftüberwachungsstudien verwendet. Bildauswertung ist ein Prozess, der durch Erfassung und Verarbeitung sensorischer Informationen von einer Szene oder von Zielen für Überwachungsanwendungen ausgeführt wird. Bei diesem Prozess werden große Bilddatenmengen verarbeitet, die von Multi-Sensoren erfasst werden, z.B. optische, Infrarot- und Radar-Daten. Für die Informationsextraktion und schnelle Analyse müssen die Bilddaten mit schnellen rechnerischen Bildverarbeitungsalgorithmen und effizienten eingebetteten Prozessoren verarbeitet werden. Das Bildauswertungssystem hat integrierte Tools mit funktionalen Eigenschaften, um Informationen aus Bilddaten während einer Fahrzeugmission zu erfassen, zu speichern, abzurufen, zu bearbeiten, zu analysieren, zu interpretieren und anzuzeigen. Von der Kamera erfasste Daten werden auf die Arbeitsstation übertragen und analysiert, um Bildinformationen zur Verfügung zu stellen.

Bildinformationen sind in Form von Video-Clips, Video-Frames und den entsprechenden Flugdaten, der berechneten Position der Ziele und damit verbundene Informationen verfügbar. Die Auswertung und Nutzung der Bildinformationen aus der Luftüberwachung hilft dabei, den Inhalt der Szenen besser zu verstehen und zu interpretieren, ermöglicht dem Fahrzeug, entfernte Ziele zu sehen, und verbessert die Überwachungsfähigkeiten. Nachfolgend eine Momentaufnahme der Bildverarbeitung.
 

Target Area Image Processing

Mission Video Image Display

 

Multi-Sensor-Fusion für leistungsfähigere Avionics Systems

 

Multi-Sensor-Datenfusion zielt darauf ab, Informationen von mehreren Sensoren und Quellen zu kombinieren, um Rückschlüsse zu ziehen, die nicht aus einem einzigen Sensor oder einer einzigen Quelle erhältlich sind. Die Fusion von Informationen von Sensoren mit unterschiedlichen physikalischen Eigenschaften verbessert das Verständnis unserer Umgebung und bildet die Grundlage für Planung, Entscheidungsfindung und Steuerung von autonomen und intelligenten Maschinen. In den letzten Jahrzehnten wurde dieser Vorgang in verschiedenen Bereichen wie Mustererkennung, visuelle Verbesserung, Objekterkennung, Bereichsüberwachung usw. eingesetzt. Bildfusion ist ein Prozess, in dem Bilder kombiniert werden, die von Sensoren mit verschiedenen Wellenlängen erhalten werden und gleichzeitig dieselbe Szene anzeigen, um so ein zusammengesetzte Bild zu erstellen. Das zusammengesetzte Bild wird zur Verbesserung des Bildinhalts erstellt und um es dem Benutzer leichter zu machen, Ziele zu erkennen, zu identifizieren und sein Situationsbewusstsein zu erhöhen.

HCL führt Forschungsarbeiten vor allem im Bereich der Entwicklung von Fusionsalgorithmen durch, die den Informationsgehalt der zusammengesetzten Bilder erhöhen und das System gegenüber Veränderungen in der Szene wie Staub oder Rauch und Umweltbedingungen (z.B. Tag und Nacht) widerstandsfähig machen. Das verschmolzene Bild enthält verbesserte Informationen, die verständlicher und leichter für die menschliche Wahrnehmung erkennbar sind und vorzugsweise dem maschinellen Lernen und der Computeranzeige dienen. Eine der Multi-Sensor-Anwendungen, die für zivile Studien entwickelt wurden, ist das Enhanced Fusion Vision System (EVFS).

Enhanced Fusion Vision Systems

Bei schlechter Sicht durch Regen, Schnee, Nebel oder bei ungünstigen Wetterbedingungen ist das Landen und Abheben für den Flugzeugpiloten schwierig. Um mit dieser Situation umzugehen und als Hilfsmittel für den Piloten haben wir als Zusatz für die üblichen Flight Management Systems das Enhanced Fusion Vision System entwickelt, das zwei Sensorquellen kombiniert, sichtbare und Infrarotsensorbilder, die mit Hilfe einer CCD-Kamera von der Landschaft aufgenommen wurden. Diese Bilder werden mit dem eingebetteten Fusions-Vision-Prozessor verarbeitet. Die Kernfunktion des Systems ist es, die Sensordaten zu verbessern und zu verschmelzen, um den Informationsgehalt zu verbessern und die Qualität des Bildes für die Anzeige zu erhöhen. Diese Tätigkeiten erfolgen in Echtzeit und können vom Piloten während des Fluges verwendet werden. Der eingebettete Visionsprozessor besteht aus Bildverarbeitungsalgorithmen für die Vorverarbeitung des Eingabebilds für Geräuschentwicklung, Bildverbesserung und Registrierung und Bildfusionslogik. Die Verarbeitungslogik und ein Musterbild des verbesserten Eingabebilds sowie die Ergebnisse der Bildfusion sind unten angegeben.

Enhanced Fusion Vision system

 

Automatische visuelle Flugzeugrumpfüberprüfung mit dem Visionssystem

 

Die Inspektion von Flugzeugkomponenten an Bord eines Flugzeugs ist ein mühsamer und zeitaufwändiger Prozess bei der Montage oder während der Herstellung und wenn es durch eine Person ausgeführt werden muss. Sichtkontrollen von Komponenten erfolgen durch Menschen entweder blockweise oder abschnittsweise, um den Montageprozess zu überprüfen, oder während des Einbaus von Teilen. Die wiederkehrende Prüfung von Fertigungsstrecken ist eine arbeitsintensive Tätigkeit. Automatisierte Systeme werden für die Prüfung mit Sichtsensoren erstellt, die nicht nur kostengünstig sind, sondern eine einheitliche Beurteilung und dokumentierte Rückverfolgbarkeit des Prüfprozesses ermöglichen. Einer der wichtigsten Bereiche des Flugzeugs ist der Rumpf, der die Besatzung und Passagiere oder Fracht beherbergt. Die meisten Flugzeugrümpfe sind lange, zylindrische Rohre oder rechteckige Formen und alle Komponenten des Flugzeugs sind am Rumpf befestigt. Während des Montageprozesses sammelt sich in vielen Teile oder Elementen wie Dichtungen, Muttern, Nieten usw. Schmutz an. Wird dieser nicht entfernt oder ordnungsgemäß geprüft, kann es zu einem Kurzschluss und in der Folge zur Katastrophe kommen. Eine der Lösungen für automatische Inspektionen sind die auf Maschinenvisionskameras basierten Prüfsysteme, die die Fähigkeit haben, visuelle Bilder der Komponenten zu erfassen und die Teile automatisch durch Mustervergleich mit vorherigen Bildern der Flugzeugkomponenten im Bereich des Rumpfes zu vergleichen. Dieser Vorgang senkt die Kosten für die Beseitigung von Verschmutzungen bei gleichzeitig schnellerer Bearbeitungszeit.

In den vergangenen drei Jahren wurden erhebliche Fortschritte im Hinblick auf neue Systeme erzielt, die externe elektronische Sensoren und Kameras für zerstörungsfreie Prüfung (NDI) von Flugzeugen verwenden. Die Funktionalität wurde für "autonome'' Einsatzszenarien nachgewiesen. Diese Fortschritte wurden im zivilen Bereich in erster Linie im Hinblick auf ANDI (Automated Nondestructive Inspector = automatisierte zerstörungsfreie Prüfung) gemacht. Derzeit werden diese Prüfungen von hochqualifiziertem Luftfahrzeugwartungspersonal auf unkomplizierte, manuelle Weise durchgeführt. Ein Flugzeug wird außer Betrieb gesetzt, Gerüste und andere Zugangsmittel zu allen Teilen der Flugzeugoberfläche werden angeordnet, Sicherheitsgurte und andere Sicherheitsausrüstung wird bereitgestellt und eine direkte Sichtkontrolle erfolgt. Dies ist in der Tat eine der komplexesten, schwierigsten, unzuverlässigsten und zeitaufwändigsten Lösungen und somit nicht optimal. Die IT-Experte von HCL haben Kompetenzen im Bereich zerstörungsfreier Prüfungen und Oberflächendefekterkennung mit Hilfe von Maschinenvisionskameras und Bildverarbeitungstechniken entwickelt. Defekte Teile werden mit Hilfe der Maschinenvisions-Bildverarbeitungstechnologie automatisch erkannt. Das System besteht aus CCD-Kamera und Optik, Bilddigitalisierer, Beleuchtung, Teilesensor, Computer und Prüfbildverarbeitungs-Software mit Hardwareschnittstellen. Prüfsoftware besteht aus entwickelter Bildverarbeitungssoftware, die defekte Teile, die in einem Produktionsprozess (Echtzeit) hergestellt wurden, automatisch erkennt. Einige der Aufgaben der Software bestehen darin, Mängel wie Rost, Kratzer, vorhandene / fehlende Teile, Mess- & Kalibrierstudien usw.. zu erkennen. Nachfolgend eine beispielhafte Flugzeugrumpfinspektion von Flugzeugteilen.

Teilansicht des inneren Rumpfes

Automatic Fuselage Vision 1

 

Ein Computersystemdesign für Maschinenvision wird für die automatische kamerabasierte Prüfung des Flugzeugrumpfes angeboten, um sowohl die Effizienz als auch die Effektivität des Prüfprozesses durch die Integration von sichtbaren und Infrarotinformationen zu verbessern. Zu den kritischen Prüfaufgaben, die untersucht werden, gehören fehlende Teile, verschleißtragende Komponenten, beginnender Ausfall der elektrischen Anlagen und Ermittlung fehlender Ausrüstung usw. Darüber hinaus wird ein Prozess entwickelt, um Fremdkörper unter dem Rumpf des Flugzeugs zu erkennen.

 

Wir haben eine Bildverarbeitungssoftware entwickelt, die aus Algorithmen zur Bildverbesserung, Kantenerkennung, Filtern, geometrischem Mustervergleich, Tropfenerkennung, Teilepositionierung, Messung, Barcodelesung, Objekterkennung und Fehlererkennung, Messwerkzeugen und Farb-Tools besteht. Ergebnisse verarbeiteter Muster mit GUI sind unten angegeben.

 

Automatic Fuselage Vision 2
 

 

Satelliten-Bildverarbeitung durch Vision Systems

In den letzten zehn Jahren wurde durch einen "experimentellen" Ansatz Fernerkundungsanwendungen von Satellitenbildern untersucht: einige bildgebende Satelliten wurden gestartet und von nationalen und internationalen Raumfahrtbehörden genutzt, um die Machbarkeit der ferngesteuerten Sensoranwendungen im Bereich Kartographie, Ressourcen- oder Katastrophenüberwachung, usw. zu demonstrieren. Bildbearbeitung ist eine Schlüsseltechnologie für die betriebliche Nutzung von Satellitenbildern. Satelliten können große Mengen an Daten bereitstellen, die im Prinzip verarbeitet werden könnten und sehr nützliche Informationen in Bereichen wie beispielsweise der Landwirtschaft und der Verteidigung bieten könnten. Häufige Arten von Analysen dieser Bilder sind Klassifizierung (z. B. Identifizierung von Straßen, städtischen Gebieten, Anbauformen, usw.) und Begradigung und Ansammlungen. Die Größe des Bildes, das von Endbenutzern der Fernerkundung verarbeitet wird, hat in der Regel eine Größe von 20-40 MByte pro Spektralband. Digitale Bildverarbeitung umfasst die Umsetzung von Computeralgorithmen, die für mehrere Aufgaben der Erfassung, Verwaltung und Verbesserung und Verarbeitung von Bildern in digitaler Form verwendet werden können. Daher wurde diese Vorgehensweise dank der weit verbreiteten Entwicklung der Computertechnologie zum Thema vieler nützlicher Computeranwendungen, mit bemerkenswerten technologischen Auswirkungen.

Digitale Bildverarbeitung umfasst die Erkennung, Wahrnehmung, Auslegung oder Verbesserung von Zielen innerhalb von Bildern. HCL hat Fachwissen im Bereich der Bildverarbeitungstechniken entwickelt, das die Entwicklung von Tools und Techniken wie Histogrammkorrektur und -ausgleich, Faltung und morphologische Filterung, spektrale Verarbeitung, Segmentierung, Beschreibung, Klassifikation, usw. für Bildinterpretation und Bildanalyse umfasst. Aus diesen Techniken muss der Benutzer die Anwendung wählen, die am besten geeignet ist, und diese mit den passenden Parametern anwenden. Diese Entscheidungen (das Verarbeitungstool und die entsprechenden Parameter) erfolgen meist auf Basis von Versuch und Irrtum. Insbesondere haben wir bereits einige fortschrittliche Bildverarbeitungstechniken wie Fourier-Transformation, geometrische Segmentierung und Klassifikation umgesetzt. Wir haben auch Datenfusionstechniken entwickelt, indem wir die besten Attribute mehrerer Sensoren in einem Produkt zusammengefasst haben. Die häufigste Form ist die Verschmelzung eines panchromatischen Bildes mit hoher räumlicher Auflösung mit einem Satz spektraler Bilder mit geringerer räumlicher Auflösung. Beispielergebnisse der Satellitenverarbeitung werden unten gegeben.

Satellite Image Processing

SIW Optimized: 
SEO Optimized: 
Site Section: 
Kontaktieren Sie uns
MAX CHARACTERS: 10,000

We will treat any information you submit with us as confidential. Please read our privacy statement for additional information.

We will treat any information you submit with us as confidential. Please read our privacy statement for additional information.