Bildauflösung in der Bildverarbeitung

Die Bildauflösung bestimmt das kleinste physische Merkmal, das ein Bildverarbeitungssystem zuverlässig erkennen und vermessen kann. Sie ergibt sich aus der gesamten Pixelanzahl des Sensors in Kombination mit dem optischen Auflösungsvermögen des Objektivs. In der industriellen Automatisierung bedeutet die Wahl der richtigen Kamera, exakt zu berechnen, wie viele Pixel benötigt werden, um Ihr Sichtfeld abzudecken und gleichzeitig den zu erkennenden Defekt klar abzubilden. Den höchsten Megapixelwert anzustreben ist selten die richtige Entscheidung - es senkt Bildraten, belastet die Schnittstellen-Bandbreite und verlangt nach teureren Optiken, um die vom Sensor gelieferte Detailauflösung überhaupt nutzbar zu machen.

Sensorauflösung vs. räumliche Auflösung

Beim Vergleich von Kameras schauen Käufer zuerst auf die Sensorauflösung. Das ist die absolute Pixelanzahl auf dem CMOS-Chip, üblicherweise in Megapixel angegeben. Eine Kamera mit 2448×2048 Pixeln liefert eine Sensorauflösung von 5 MP.

Bildverarbeitungsalgorithmen messen jedoch keine Megapixel, sondern reale physische Distanzen. Die räumliche Auflösung beschreibt, welche tatsächliche Größe ein einzelnes Pixel bei einem bestimmten Arbeitsabstand abbildet.

Wenn Ihr Sichtfeld 100 mm breit ist und Ihr Sensor 2000 Pixel breit ist, beträgt die räumliche Auflösung 0,05 mm pro Pixel. Wenn das Ziel die Erkennung eines 0,02 mm kleinen Mikrorisses an einem gefrästen Bauteil ist, scheitert dieser 5-MP-Sensor unabhängig von seiner Megapixelzahl - der Defekt ist kleiner als ein einzelnes Pixel.

Der Kompromiss zwischen Auflösung und Geschwindigkeit

Mehr Daten zu transportieren kostet mehr Zeit. Jedes vom Sensor erzeugte Pixel muss ausgelesen, über eine Hardware-Schnittstelle übertragen und vom Host-PC verarbeitet werden.

Eine 1,6-MP-Kamera kann über eine Standard-USB3-Vision-Verbindung problemlos 200 Bilder pro Sekunde liefern. Tauschen Sie sie gegen einen 20-MP-Sensor, sinkt die maximale Bildrate drastisch, schon allein weil die Schnittstellen-Bandbreite zum Engpass wird. Systemintegratoren müssen den Detailbedarf gegen die mechanische Geschwindigkeit der Produktionslinie abwägen.

Wie viel Auflösung brauchen Sie wirklich?

Die gängige Faustregel in der Bildverarbeitung lautet, die niedrigste Auflösung zu nutzen, die die Anwendung zuverlässig löst. Um diese zu bestimmen, berechnen Ingenieure die kleinste zu detektierende Merkmalsgröße und stellen sicher, dass sie eine bestimmte Anzahl von Pixeln abdeckt.

Inspektionsaufgabe

Pixel-Anforderung (Faustregel)

Technische Begründung

Anwesenheits-/Abwesenheitsprüfung

1 bis 2 Pixel

Sie müssen lediglich prüfen, ob eine grobe Kante oder ein Volumen vorhanden ist, um das Teil zu akzeptieren oder zu verwerfen.

Maßmessung

3 bis 4 Pixel

Sub-Pixel-Algorithmen können präzise Maße bestimmen, sofern die Kante des Bauteils mehrere Pixel überspannt.

Barcode / OCR

3 bis 5 Pixel pro schmalstem Element

Schriftzeichen und 2D-Matrixcodes erfordern eine hohe räumliche Auflösung, um eng beieinander liegende Linien sauber zu trennen.

Warum das Objektiv die tatsächliche Auflösung diktiert

Ein 24-MP-Sensor hinter einem minderwertigen Objektiv liefert kein 24-MP-Bild. Objektive haben eigene physikalische Grenzen, die typischerweise in Linienpaaren pro Millimeter (lp/mm) angegeben werden.

Wenn das Objektiv keine Details auflösen kann, die der Größe der einzelnen Sensorpixel (dem Pixelraster) entsprechen, wird das resultierende Bild weich und unscharf. Hochauflösende Sensoren haben in der Regel sehr kleine Pixelraster und benötigen hochwertige Präzisionsoptik, damit das einfallende Licht so scharf fokussiert wird, dass das teure Silizium tatsächlich genutzt werden kann.

Häufig gestellte Fragen

Häufig ja. Um mehr Pixel auf derselben physischen Sensorfläche unterzubringen, muss das Pixelraster verkleinert werden. Kleinere Pixel haben eine geringere Full-Well-Kapazität und sammeln physikalisch weniger Photonen. Das senkt die Quanteneffizienz und die Gesamtempfindlichkeit der Kamera, sodass eine intensivere industrielle Stroboskop-Beleuchtung erforderlich wird, um dies auszugleichen.

Es handelt sich um eine softwareseitige mathematische Technik. Fortgeschrittene Bildverarbeitungsalgorithmen können auf Basis von Grauwertgradienten zwischen physischen Pixeln interpolieren. Dadurch kann die Software Kanten und Geometrien mit einer Präzision messen, die deutlich über der physischen räumlichen Auflösung der Kamera liegt.

Ja. Die meisten modernen CMOS-Sensoren erlauben es, den aktiven Sensorbereich in Hardware zu beschneiden. Wenn Sie nur einen 1000×1000-Pixel-Bereich eines 20-MP-Sensors benötigen, um ein bestimmtes Bauteil zu verfolgen, reduziert eine aktivierte ROI die Datenmenge drastisch. Die Bildrate steigt erheblich, ohne dass Sie auf eine Kamera mit niedrigerer Auflösung wechseln müssten.