Farbsensoren und Bayer-Filter in der Bildverarbeitung

Auf Siliziumebene ist ein Bildsensor von Natur aus farbenblind. Eine Photodiode zählt nur die auftreffenden Photonen; sie kann nicht unterscheiden, ob diese rot, blau oder grün sind. Ein Farbsensor ist ein Bildgebungs-Bauteil, das spektrale Daten erfasst, indem ein mikroskopisches Color Filter Array (CFA) über den Pixeln platziert wird. Dieser Filter zerlegt das einfallende Weißlicht in bestimmte Wellenlängen und ermöglicht es der Bildverarbeitungssoftware, ein Vollfarbbild durch mathematische Interpolation zu rekonstruieren.

(Hinweis: Wie sich diese Architektur beim Entwurf eines neuen Inspektionssystems auf Geschwindigkeit und Auflösung auswirkt, erfahren Sie in unserem Vergleich Monochrome vs. Farbkameras).

Wie der Bayer-Filter Farbe erzeugt

Um Farbdaten zu erzeugen, bringen Hersteller direkt über dem Pixel-Array ein physisches Gitter mikroskopischer Filter an. Industriestandard ist das Bayer-Muster, benannt nach seinem Erfinder bei Kodak.

Dieses Array unterteilt den Sensor in sich wiederholende 2×2-Raster mit je einem roten, einem blauen und zwei grünen Filtern. Warum doppelt so viel Grün? Das menschliche Auge ist von Natur aus am empfindlichsten für grüne Wellenlängen. Durch die Verdopplung der grünen Daten erfasst der Sensor die Helligkeitsverteilung (Luminanz) deutlich präziser, sodass das Bild für menschliche Bediener natürlich wirkt.

Wenn Licht in die Kamera eintritt, trennt das Filter-Array es physikalisch auf. Ein Pixel mit rotem Filter lässt nur rote Photonen zum Silizium durch und absorbiert bzw. blockiert die grünen und blauen Photonen, sodass diese keine Ladung erzeugen.

Die Mathematik des Debayering (Demosaicing)

Aufgrund des Bayer-Filters sind die rohen Sensordaten kein normales, anzeigbares Farbbild. Es handelt sich um ein Mosaik aus Einzelfarbintensitäten, das oft wie ein dunkles Schachbrettmuster aussieht.

Um daraus ein nutzbares Vollfarbbild (etwa im RGB24-Format) zu gewinnen, muss das System einen Debayering- bzw. Demosaicing-Algorithmus ausführen. Diese Software rekonstruiert für jedes einzelne Pixel die fehlenden Farbwerte, indem sie die Daten der direkten Nachbarn interpoliert. Wenn ein bestimmtes Pixel nur rotes Licht gemessen hat, berechnet der Algorithmus, welche Werte für Grün und Blau gewesen wären, basierend auf den umgebenden grünen und blauen Pixeln.

Diese Berechnung kann direkt in der Kamera über ein FPGA erfolgen oder die Rohdaten können von der CPU des Host-PCs verarbeitet werden.

Wichtige Farb-Spezifikationen

Beim Konfigurieren einer Farbkamera müssen Ingenieure bestimmte Hardware- und Software-Parameter berücksichtigen, die bei monochromen Sensoren nicht existieren:

Spezifikation

Technische Auswirkung

Weißabgleich

Die Möglichkeit, die analoge oder digitale Verstärkung der Rot-, Grün- und Blau-Kanäle unabhängig voneinander einzustellen. So erscheinen weiße Objekte unter unterschiedlichen industriellen Lichtquellen (Leuchtstoffröhre vs. LED) tatsächlich weiß.

Farbtiefe

Gemessen in Bit pro Kanal (z. B. 8 Bit vs. 10 Bit oder 12 Bit). Eine höhere Farbtiefe liefert weichere Verläufe und eine präzisere Farbabstimmung für die Markeninspektion.

Farbraummatrix

Mathematische Transformationen, die auf das debayerte Bild angewendet werden, um es an Standard-Farbräume (wie sRGB oder Adobe RGB) anzupassen. So entspricht die Kameraausgabe der Anzeige auf dem Monitor.

Häufig gestellte Fragen

Silizium ist von Natur aus empfindlich für nahes Infrarot (NIR). Die chemischen Farbstoffe der roten, grünen und blauen Mikrofilter eines Bayer-Arrays werden für NIR-Wellenlängen praktisch durchlässig. Wenn das NIR-Licht nicht physikalisch über einen IR-Sperrfilter blockiert wird, fluten die NIR-Photonen alle Pixel gleichmäßig und beeinträchtigen die Farbgenauigkeit des Bildes erheblich.

In der Regel nicht. Für eine korrekte Farbwiedergabe muss das Objekt mit Breitband-Weißlicht beleuchtet werden. Wenn Sie eine schmalbandige rote LED einsetzen, erhalten die grünen und blauen Pixel des Bayer-Arrays kaum Photonen - das Ergebnis ist ein dunkles, verrauschtes, monochromatisch rotes Bild.

Ja, sie sind jedoch sehr spezialisiert. Zeilensensorkameras setzen häufig auf trilineare Sensoren mit drei separaten, parallelen Pixelzeilen - eine vollständig rot, eine grün und eine blau. Daneben gibt es prismenbasierte Spezialkameras, die das Licht intern auf drei separate, ungefilterte Sensoren aufteilen. Für die klassische Flächen-Scan-Bildverarbeitung bleibt das Bayer-Muster jedoch die dominierende Architektur.