CMOS-Sensoren in der Bildverarbeitung

Jede moderne Industriekamera nutzt einen spezialisierten Siliziumchip, um Photonen in Daten zu übersetzen. Ein CMOS-Sensor (Complementary Metal-Oxide-Semiconductor) ist ein integrierter Schaltkreis mit einer Anordnung mikroskopischer Photodioden, wobei jedes Pixel über einen eigenen Verstärker und eine eigene Ausleseelektronik verfügt. Diese Active-Pixel-Architektur wandelt Licht direkt auf Pixelebene in elektrische Spannung um, bevor diese als digitales Signal übertragen wird. Durch die parallele Datenverarbeitung über den gesamten Chip liefern diese Bauteile die hohen Bildraten, den geringen Stromverbrauch und das exakte Timing, die für Fabrikautomation und präzise Inspektionsaufgaben erforderlich sind.

So funktioniert ein CMOS-Sensor

Der Bildgebungsprozess beginnt, wenn Licht auf die Photodiode innerhalb eines Pixels trifft und durch den Photoeffekt eine lokal begrenzte elektrische Ladung erzeugt. In dieser Architektur muss die Ladung keine weite Strecke zurücklegen. Jedes Pixel arbeitet als Active Pixel Sensor (APS) und enthält eine eigene Mikroelektronik, um die gesammelte Ladung zu verstärken und in eine messbare Spannung umzuwandeln.

Nach der Umwandlung wird die Spannung an einen Analog-Digital-Wandler (ADC) auf demselben Die geleitet. Da die Verstärkung direkt im Pixel erfolgt, kann der Chip mehrere Zeilen oder Spalten gleichzeitig auslesen. Diese parallele Verarbeitung ist der Grund, warum moderne Bildverarbeitungssysteme außergewöhnlich hohe Bildraten erreichen und gleichzeitig das Ausleserauschen minimal halten können.

CMOS vs. CCD: Der Wandel in der industriellen Bildverarbeitung

Jahrzehntelang war die CCD-Technologie (Charge-Coupled Device) der Standard für hochwertige industrielle Bildgebung. CCDs verschoben Ladung sequentiell über den gesamten Chip zu einem einzigen zentralen Verstärker, was zu sehr rauscharmen Bildern führte, die Geschwindigkeit jedoch stark einschränkte und einen erheblichen Stromverbrauch verursachte.

Heute hat CMOS CCD in der Bildverarbeitung vollständig abgelöst. Fortschritte in der Halbleiterfertigung haben den historischen Rauschvorteil von CCDs aufgehoben. Moderne Architekturen, wie sie in Sonys STARVIS-, Pregius- und Pregius-S-Reihen zu finden sind, kombinieren überlegene Quanteneffizienz mit der Möglichkeit, fortgeschrittene Funktionen wie Hardware-Trigger und Analog-Digital-Wandlung direkt im Silizium zu integrieren.

Warum die CMOS-Architektur für die Bildverarbeitung wichtig ist

Die industrielle Inspektion erfordert zuverlässige Daten bei hoher Geschwindigkeit. Egal, ob Sie eine GigE-Kamera zur Inspektion von Leiterplatten oder ein eingebettetes MIPI-CSI-2-Modul in einem autonomen Fahrzeug einsetzen - die Sensorarchitektur definiert die physikalischen Grenzen des Systems.

Eigenschaft

Auswirkung auf die Anwendung

Paralleles Auslesen

Ermöglicht die ultrahohen Bildraten, die nötig sind, um Objekte auf schnellen Förderbändern zuverlässig zu erfassen.

On-Chip-Integration

Die Platzierung von ADCs und Signalverarbeitung auf demselben Die reduziert den physischen Platzbedarf und die Leistungsaufnahme der Kamera - entscheidend für Embedded-Vision-Plattformen.

Region of Interest (ROI)

Erlaubt der Software, nur einen bestimmten Pixelbereich auszulesen, was die Bildraten für gezielte Verfolgungs- und Ausrichtungsaufgaben exponentiell erhöht.

Flexible Shutter-Designs

Unterstützt sowohl Global-Shutter-Logik zum Einfrieren schneller Bewegungen als auch Rolling-Shutter-Logik zur Maximierung der Empfindlichkeit bei wenig Licht.

Wichtige Spezifikationen für die Bewertung

Beim Vergleich von Kameras stützen sich Ingenieure auf standardisierte Kennzahlen, typischerweise gemessen nach dem EMVA-1288-Standard, um die reale Leistung vorherzusagen:

Spezifikation

Was sie misst

Warum sie wichtig ist

Quanteneffizienz (QE)

Der Anteil der Photonen, die erfolgreich in Elektronen umgewandelt werden.

Bestimmt, wie gut die Kamera bei wenig Licht oder bei sehr kurzen Belichtungszeiten arbeitet.

Full-Well-Kapazität

Die maximale Anzahl an Elektronen, die ein einzelnes Pixel aufnehmen kann, bevor es sättigt.

Definiert die obere Grenze des Dynamikbereichs; entscheidend bei der Inspektion stark reflektierender Metallteile.

Ausleserauschen

Das elektronische Grundrauschen, das durch Verstärker und ADCs entsteht.

Geringeres Rauschen bedeutet sauberere Bilder und besseren Kontrast in den schattigen Bereichen eines Bauteils.

Pixelraster

Die physische Größe des einzelnen Pixels (z. B. 3,45 µm).

Größere Pixel sammeln mehr Licht und bieten eine höhere Full-Well-Kapazität, erfordern aber eine größere Optik, um die Auflösung zu erhalten.

Häufig gestellte Fragen

Der Sensor ist der reine Siliziumchip, der das Licht erfasst. Die Kamera ist das vollständige System, einschließlich Gehäuse, Wärmemanagement, Schnittstellenelektronik, Objektivanschluss und Firmware. Erst dadurch werden die Rohdaten des Sensors für einen Host-PC oder eine Embedded-Plattform nutzbar.

Nein. Im Gegensatz zu älteren CCDs, bei denen überschüssige Ladung aus einer intensiven Lichtquelle physikalisch in benachbarte Pixel überlaufen und diese stören konnte (ein Phänomen namens Blooming), isoliert die Active-Pixel-Architektur die Ladung jedes einzelnen Pixels von Natur aus.

Ein größeres Pixelraster bedeutet eine physikalisch größere Photodiode. Das erhöht die Full-Well-Kapazität und verbessert die absolute Empfindlichkeit. Um jedoch eine hohe Megapixel-Anzahl bei großen Pixeln zu erreichen, vergrößert sich die physische Sensorfläche, was wiederum ein Objektiv mit größerem Bildkreis erfordert, um Vignettierung zu vermeiden.