Techtipps

Sortieren nach:
Thema:

Bandbreite im Griff mit IDS GigE Vision Kameras

GigE Vision Kameras übertragen Bilddaten in kleinen Paketen über das Netzwerk, noch bevor ein aufgenommenes Sensorbild komplett ausgelesen ist. Das minimiert die Latenz der Bildübertragung. Wenn jedoch zu viele Daten zeitgleich übertragen werden, kann die maximale Übertragungsbandbreite eines GigE-Netzwerks sehr schnell überschritten werden.

Gerade der Mehrkamerabetrieb ist hiervon betroffen. In der Folge kommt es zu Übertragungsverlusten und erhöhten Übertragungszeiten, wenn Daten nachgefordert werden müssen. Der GigE Vision Standard ermöglicht die gezielte Konfiguration von Übertragungsparametern, um solche Situationen zu vermeiden. Mit den erweiterten Einstellungsmöglichkeiten der IDS GigE Vision Firmware 1.3 verwalten Sie die verfügbare Bandbreite mit Leichtigkeit.

Embedded Vision Baukasten: Prototypen-Entwicklung mit uEye Python Interface und OpenCV

Die Evolution der klassischen Machine Vision zur Embedded Vision entwickelt sich rasant weiter. Doch die Erstellung eines Embedded Vision Geräts kann sehr zeit- und kostenintensiv sein. Gerade bei Eigenentwicklungen verlieren Sie u.U. sehr viel Zeit bis erste Ergebnisse vorliegen.

Mittlerweile gibt es eine Reihe geeigneter Embedded Standard-Komponenten, die erste Tests out-of-the-box ermöglichen. In Kombination mit geeigneten Softwarelösungen lassen sich damit sehr schnell erste Ergebnisse der späteren Vision Anwendung ableiten.

Unser TechTipp zeigt in wenigen einfachen Schritten, wie Sie mit einer uEye Kamera und einem Raspberry Pi 3 eine einfache Embedded Vision Anwendung realisieren können.

Ohne Abgleich der RGB-Verstärkung ist die Bayer-Matrix deutlich sichtbar

Mehr Auflösung im Monochrom-Betrieb: So holen Sie mehr Auflösung aus Ihrem Farbsensor

Der 18 Megapixel Sensor AR1820HS in unseren UI-3590 Kameramodellen ist vom Sensorhersteller  ON Semiconductor als reiner Farbsensor erschienen. Durch den Bayer-Filter erhalten Sie daher wie bei allen Farbsensoren die Farbbilder effektiv "nur" mit circa einem Viertel der nominalen Sensorauflösung, da die Farbinformation eines Pixels jeweils aus 4 Nachbarn gewonnen wird.

 

Zur Verwendung jedes einzelnen Pixels reicht es aber nicht, den Sensor im Daten-RAW-Format (ohne Bayer-Interpolation) zu betreiben. Die Bayer-Matrix sorgt dabei für eine unterschiedliche Helligkeitswahrnehmung der einzelnen Pixel. Wir zeigen Ihnen, wie Sie den Farbsensor durch eine geeignete Parametrierung und die Nutzung geeigneter Lichtquellen dennoch wie einen „reinen“ Monosensor verwenden können, um eine deutlich höhere Auflösung zu erhalten.

Die neue "Adaptive Hotpixelkorrektur" wird ab IDS Software Suite 4.82 unterstützt.

Flexibel und dynamisch: Adaptive Hotpixelkorrektur verwenden

Was ist das für ein Punkt in meinem Bild? Wer sich diese Frage stellt, ist wahrscheinlich einem Hotpixel auf der Spur. Diese in jedem gängigen Bildsensor in gewisser Anzahl vorhandenen Pixel werden vom Betrachter im Bild als störend wahrgenommen, da sie überdurchschnittlich hell oder dunkel wirken. Selbst mit hohem Aufwand in der Sensorfertigung lassen sich Hotpixel nicht gänzlich vermeiden.

 

Wäre es da nicht geschickt, wenn Hotpixel direkt in der Anwendung bei allen Betriebsbedingungen dynamisch bestimmt und korrigiert werden könnten? Mit der neuen "Adaptiven Hotpixelkorrektur" ab IDS Software Suite 4.82 ist dies jetzt möglich.

Was bisher als spezielle Funktion den Kameramodellen mit e2v-Sensoren vorbehalten war, wird mit der IDS Software Suite 4.81 für die gesamte USB 3 uEye CP Rev. 2 Kamerafamilie eingeführt: der Sequencer-Modus.

Parameterwechsel in Echtzeit: Sequencer-Modus verwenden

Sie möchten Aufnahmesequenzen mit unterschiedlichen Belichtungszeiten oder Bildausschnitten aufnehmen ohne die Konfiguration der Kamera zwischen den Bildern manuell zu ändern? Geht nicht so einfach? Geht doch!

 

Was bisher als spezielle Funktion den Kameramodellen mit e2v-Sensoren vorbehalten war, wird mit der IDS Software Suite 4.81 für die gesamte USB 3 uEye CP Rev. 2 Kamerafamilie eingeführt: der Sequencer-Modus. Um den Einstieg zu erleichtern, gibt es dazu speziell das "uEye Sequencer-Demo".