Bildrate bei Industriekameras
Die Bildrate ist die Frequenz, mit der eine Industriekamera einzelne Bilder erfasst und überträgt - gemessen in Bildern pro Sekunde (FPS). Wenn Sie die Bildrate einer Industriekamera spezifizieren, definieren Sie die absolute Geschwindigkeitsgrenze einer Produktionslinie. Bewegt ein Förderband 50 Teile pro Sekunde am Objektiv vorbei, muss das System in genau diesem Zeitfenster zuverlässig mindestens 50 Bilder erfassen, übertragen und verarbeiten - ohne Datenverlust. Wer einen höheren Durchsatz erreichen möchte, muss als Ingenieur die Sensorauflösung gegen die harten physikalischen Grenzen von Schnittstellen-Bandbreite und Belichtungszeit abwägen.
Die Physik der Kamerageschwindigkeit
Die Bildrate ist nicht einfach eine Zielgröße, die Sie in einen Software-Schieberegler eintragen, sondern eine physikalische Größe, die durch drei aufeinanderfolgende Prozesse bestimmt wird: Belichtung, Sensor-Auslesen und Datenübertragung.
Die Gesamtzeit zur Erzeugung eines einzelnen Bildes wird in erster Linie durch die Belichtungszeit (wie lange der Bildsensor dem Licht ausgesetzt ist) und die Auslesezeit (wie lange der CMOS-Sensor benötigt, um die akkumulierte Ladung in ein digitales Signal umzuwandeln) bestimmt. Wenn eine Inspektionsaufgabe lichtarm ist und 20 Millisekunden Belichtungszeit benötigt, um ein akzeptables Signal-Rausch-Verhältnis zu erreichen, kann die theoretische maximale Bildrate 50 FPS nicht überschreiten - egal wie schnell die Sensorarchitektur oder das Kabel sind.
Der Engpass der Schnittstellen-Bandbreite
Sobald die Bilddaten den Sensor verlassen, müssen sie zum Host-PC oder zum Embedded-Vision-Board übertragen werden. Bei hochauflösenden Anwendungen ist die Hardware-Schnittstelle fast immer der primäre Engpass.
Ein 20-Megapixel-Sensor erzeugt eine enorme Datenmenge pro Bild. Kann die Schnittstelle diese Daten nicht schnell genug über das Kabel transportieren, muss die Kamera ihre Aufnahmerate drosseln, um ein Überlaufen des internen Puffers zu verhindern.
|
Schnittstellenstandard |
Praktische Bandbreite |
Auswirkung auf die Bildrate |
|
GigE Vision (1 GigE) |
~115 MB/s |
Begrenzt hochauflösende Kameras auf niedrigere Bildraten. Hervorragend für lange Kabelwege. |
|
USB3 Vision |
~400 MB/s |
Das Standard-Arbeitspferd. Unterstützt hohe Bildraten bei mittleren bis hohen Auflösungen. |
|
MIPI CSI-2 |
Skaliert über Lanes (z. B. ~1,25 GB/s bei 4 Lanes) |
Direkte Board-zu-Board-Verbindung. Umgeht klassische Verkabelung für maximale FPS in eingebetteten Systemen. |
So erhöhen Sie die Bildrate ohne Hardware-Wechsel
Stößt Ihre aktuelle Kamera an eine Bandbreitengrenze, Ihre Produktionslinie soll aber schneller werden, gibt es zwei wesentliche softwareseitige Methoden, um die FPS ohne Hardware-Upgrade zu steigern:
1. Region of Interest (ROI)
Statt den gesamten Sensor auszulesen, können Sie die Kamera so konfigurieren, dass nur ein bestimmter Pixelausschnitt gelesen wird. Wenn Sie etwa einen kleinen Barcode in der Bildmitte verfolgen, reduziert das Beschneiden eines 5-MP-Sensors auf eine 1000×1000-Pixel-ROI die Datenlast drastisch. Die Schnittstelle überträgt das kleinere Bild deutlich schneller, und die Bildrate der Kamera schnellt nach oben.
2. Binning / Decimation
Wenn Sie das volle optische Sichtfeld behalten und gleichzeitig höhere Geschwindigkeiten erzielen möchten, können Sie Binning (Zusammenfassen benachbarter Pixel) oder Decimation (Auslassen von Pixeln) einsetzen. Beides reduziert die übertragene Gesamtauflösung, senkt den Bandbreitenbedarf und erhöht die Bildrate - allerdings auf Kosten der räumlichen Auflösung.
Bildrate vs. Belichtungszeit: Welcher Kompromiss bleibt?
Um die Bildrate zu erhöhen, müssen Sie häufig die Belichtungszeit verkürzen. An diesem physikalischen Kompromiss führt kein Weg vorbei.
Kürzere Belichtungen bedeuten weniger Photonen auf der Photodiode. Verdoppeln Sie die Bildrate von 60 FPS auf 120 FPS, halbieren Sie effektiv die maximal mögliche Belichtungszeit, was die Bildhelligkeit und die pro Bild gesammelte Photonenzahl reduziert und das Signal-Rausch-Verhältnis verschlechtert. Um auch bei hohen Bildraten ein scharfes, kontrastreiches Bild zu erzielen, müssen Sie den Inspektionsbereich mit intensiver industrieller Beleuchtung fluten oder auf eine synchronisierte Strobeleuchte umsteigen.
Häufig gestellte Fragen
Dropped Frames entstehen, wenn die Kamera Daten schneller erzeugt, als das Hostsystem sie verarbeiten kann. Das ist selten ein Kameradefekt. Typische Ursachen sind eine ausgelastete Schnittstellen-Bandbreite, ein überlasteter Netzwerk-Switch (bei GigE-Setups) oder eine Host-PC-CPU, die die eingehenden Bildpuffer nicht schnell genug verarbeiten kann.
Das hängt davon ab, wo die Verarbeitung stattfindet. Wenn eine Farbkamera rohe Bayer-Daten ausgibt (typischerweise 8-Bit), entspricht der Bandbreitenbedarf exakt dem einer Monochromkamera. Konfigurieren Sie die Kamera jedoch so, dass das Debayering bereits an Bord erfolgt und ein verarbeitetes RGB24-Format ausgegeben wird, verdreifacht sich die Datenmenge pro Pixel über das Kabel. Dieser massive Bandbreitenanstieg senkt Ihre maximale Bildrate erheblich.
Nicht immer. Eine USB-3.1-Kamera kann zwar 200 FPS erfassen und übertragen, doch wenn Ihre Bildverarbeitungssoftware 15 Millisekunden für einen komplexen Algorithmus pro Bild benötigt, ist Ihr effektiver Durchsatz ohne Hardware-Pipelining oder Multi-Thread-Buffering bei rund 66 FPS gedeckelt. Die Aufnahmerate Ihrer Kamera muss letztlich zur tatsächlichen Verarbeitungskapazität Ihres Systems passen.