Ohne Abgleich der RGB-Verstärkung ist die Bayer-Matrix deutlich sichtbar

Mehr Auflösung für Farbsensor

Hintergrund

Digitale Bildsensoren wie der 18 MP onsemi AR1820HS erfassen aus Prinzip nur Helligkeits- aber keine Farbinformation. Deshalb wird bei der Herstellung von Farbsensoren ein Farbfilter auf jeden Pixel aufgebracht. Die so genannte Bayer-Matrix.

Die RGB-Filterschichten leiten nur Licht mit bestimmter Wellenlänge weiter
Die RGB-Filterschichten leiten nur Licht mit bestimmter Wellenlänge weiter

Von jeweils vier Pixeln sind zwei Pixel mit einem grünen Farbfilter, ein Pixel mit einem roten und ein Pixel mit einem blauen Farbfilter versehen. Diese Farbverteilung entspricht der Wahrnehmung des menschlichen Auges und wird als Bayer-Matrix bezeichnet. Ein Pixel gibt dabei nur die Informationen für eine Farbe wieder.

Um die vollständigen RGB-Werte für jedes Pixel zu erhalten, werden die fehlenden Grundfarben aus jeweils vier Nachbarpixeln durch geeignete Algorithmen interpoliert. Bei dieser Farbinterpolation wird davon ausgegangen, dass zwischen zwei benachbarten Pixeln gleicher Farbe nur geringe Farbunterschiede sind. Streng betrachtet verfügt daher ein Sensor mit Bayer-Matrix nur über ein Viertel der nativen Sensorauflösung.

Mono-Betrieb des Sensors

Obwohl sich die Bayer-Matrix für den Mono-Betrieb nicht einfach unsichtbar schalten lässt, zeigen folgende zwei Lösungsansätze, wie Sie je nach Art der Anwendung trotzdem zum Ziel gelangen.

1) … bei "grauen Szenen"

Soll der 18 MP Farbsensor im Mono-Betrieb für "unbunte" (achromatische) Szenen verwendet werden, ist zu beachten, dass trotzdem eine breitbandige Lichtquelle (weißes Licht) verwendet werden muss! Grund dafür ist die Bayer-Matrix des Sensors. Monochromatisches (einfarbiges) Licht hätte bei diesem Sensor zur Folge, dass die einzelnen Pixel durch die verwendeten RGB-Filterschichten je nach Wellenlänge des Lichts keine oder weniger Information weiterleiten (siehe Abbildung 2). Dadurch kann eine unterschiedliche Helligkeitswahrnehmung der einzelnen Pixel entstehen. In diesem Fall muss die RGB-Verstärkung einmalig separat für R, G und B abgeglichen werden. Im Ergebnis erhalten Sie dann für alle Pixel eine identische Helligkeitswahrnehmung wie bei einem Mono-Sensor.

Ohne Abgleich der RGB-Verstärkung ist die Bayer-Matrix deutlich sichtbar (links).
Nach RGB-Abgleich (siehe RGB Histogramm, rechts) entsteht eine homogene Helligkeitswahrnehmung wie bei einem Mono-Sensor.

Hinweis: Dieser RGB-Abgleich ist nur für diese spezielle Lichtquelle und eine "graue" Szene gültig. Ändert sich die Lichtquelle (Wellenlänge) müssen die RGB-Verstärkungsfaktoren neu justiert werden.

So schalten Sie die Bayer-Matrix mit dem uEye Cockpit auf "unsichtbar":

  • Szene mit weißer Lichtquelle beleuchten.
  • Histogramm einblenden mit Option "Show Bayer RGB"
  • Belichtungszeit so wählen, dass keine wesentlichen Bildteile überstrahlt sind (Clipping). Im Histogramm zu sehen, wenn viele Pixel den Wert 255 annehmen. Gegenmaßnahme z.B. mittels AES (Tab "AES / AGC") auf 128 regeln lassen.
  • Dann die AWB (Auto White Balance) auf "Grey World" ausregeln lassen. Im Histogramm sehen Sie, wie sich die Farbkurven übereinander ausrichten.
  • Kontrolle im 8-Bit-RAW-Modus (Tab "Format"). Die Bayer-Matrix sollte nicht zu sehen sein.
  • Ansonsten die RGB-Verstärkungsfaktoren manuell nachjustieren (Tab "Image").


Nach der Kalibrierung sehen Sie in "unfarbigen" Szenen keine Bayer-Matrix mehr. Bringen Sie hingegen einen farbigen Gegenstand ins Bild, werden Sie die Bayer-Matrix ausschließlich darauf sehen.

Nach dem RGB-Abgleich ist die Bayer-Matrix nur in farbigen Bildanteilen zu sehen, da die RGB-Filterschichten je nach Wellenlänge des Lichts keine oder weniger Information weiterleiten (siehe Abbildung 2)

2) … bei "farbigen oder grauen Szenen"

Arbeiten Sie in Ihrer Applikation mit farbigen Szenen wird sich das Helligkeitsempfinden der einzelnen Bayer-Pixel mit der Variation der Farbanteile ständig ändern. Doch auch in diesem Fall gibt es einen Weg zu echtem Mono-Betrieb. Die Lösung liegt im Farbspektrum des 18 MP onsemi AR1820HS.

Ab einer Wellenlänge von etwa 900 nm besitzen die Farbfilter der einzelnen Pixel ähnliche spektrale Eigenschaften. Jenseits dieser Schwelle reagieren alle Pixel des Sensors auf einfallendes Licht wieder praktisch gleich – genau wie bei einem dezidierten Mono-Sensor. Das bedeutet, dass sich auf diesem Weg die Bayer-Matrix ebenfalls "unsichtbar schalten" lässt, und zwar sowohl für farbige als auch für graue Szenen.

Das Farbspektrum des AR1820HS zeigt ab 900 nm ähnliche spektrale Eigenschaften der Farbfilter
Das Farbspektrum des AR1820HS zeigt ab 900 nm ähnliche spektrale Eigenschaften der Farbfilter

Damit Sie diese spektrale Eigenschaft des Sensors wie beschrieben nutzen können, müssen Sie folgendes beachten:

  • Sorgen Sie für definierte Lichtverhältnisse, d.h. schotten Sie Licht anderer, kürzerer Wellenlängen als 900 nm weitestgehend ab.
  • Bestellen Sie Ihre uEye-Kamera mit AR1820HS-Sensor ausdrücklich mit GL-Filter (Glas). Der üblicherweise mit diesem Sensor georderte HQ-Filter würde das hier benötigte langwellige Licht aussperren. Dahingegen lässt der GL-Filter insbesondere auch Licht jenseits der 900 nm nahezu ungeschwächt passieren. Beim Sensor kommt somit die höchstmögliche Signalstärke an.

Geeignetes Objektiv

Unter den beschriebenen Bedingungen bietet eine uEye Kamera mit AR1820HS-Sensor im Mono-Betrieb alle Voraussetzungen für eine weitaus höhere Bildauflösung als im Farb-Betrieb. Im überwiegenden Teil aller Anwendungsfälle wird die Kamera jedoch zusammen mit einem Objektiv genutzt. Im vorliegenden Fall mit einer erreichbaren nominalen Sensorauflösung von 18 MP ist dann das Objektiv der limitierende Faktor beim Auflösungsvermögen des Gesamtsystems.

Die optische Auflösung eines Objektivs wird meist in Megapixel angegeben. Diese Zahl bezieht sich auf das größte Sensorformat, für welches das Objektiv konstruiert ist. Sie bestimmt, wie fein die Strukturen sein können, die noch durch das Objektiv übertragen werden können. D.h. je kleiner das Sensorformat, desto feiner muss das Objektiv auflösen. Nutzen Sie ein Objektiv mit einer zu kleinen optischen Auflösung, erfolgt eine Unterabtastung der Sensorpixel. Darstellbare Details verteilen sich dann auf mehr aneinandergrenzende Pixel. Infolgedessen erreichen Sie nicht die Bildschärfe, die mit der Sensorauflösung möglich wäre. Vermieden werden sollte jedoch die Kombination eines Objektivs, das bildseitig höher auflöst als der jeweilige Sensor. Dadurch können unerwünschte Aliasing-/Moiré-Effekte im Bild sichtbar werden.

In der Praxis wird empfohlen das kleinste Detail mit circa 2 Pixel abzubilden. Insgesamt bedeutet dies, dass die Suche nach einem geeigneten Objektiv zwar vom Abbildungsmaßstab abhängt, aber eben auch ganz wesentlich von der Pixelgröße des verwendeten Sensors.