Produkt in den Warenkorb gelegt
Kamerasensoren für industrielle Bildverarbeitung | Edmund Optics
Edmund Optics Inc.

Kamerasensoren für industrielle Bildverarbeitung | Edmund Optics

Konstruktion | Merkmale | Spektraleigenschaften

Imaging Electronics 101: Understanding Camera Sensors for Machine Vision Applications

Die Eigenschaften eines Bildgebungssystems hängen nicht nur von der Optik, sondern auch von den verwendeten Elektronikkomponenten ab. Die optimale Systemleistung ergibt sich nur durch die richtige Integration aller Komponenten, beispielsweise Kamera, Bilderfassungskarte, Software und Kabel. Bevor wir weitere Themen behandeln, muss zuerst der Kamerasensor verstanden werden, sowohl was die Funktionsweise als auch die Terminologie angeht.

Das Herz jeder Kamera ist der Sensor; moderne Sensoren sind elektronische Halbleiterdetektoren mit Millionen diskreter Fotodetektoren, sogenannter Pixel. Es gibt zwar viele Kamerahersteller, die meisten Sensoren werden jedoch von einigen wenigen, spezialisierten Unternehmen hergestellt. Dennoch können zwei Kameras mit dem gleichen Sensor aufgrund der Schnittstelle und der Elektronikumgebung sehr unterschiedliche Eigenschaften und Leistungen haben. In der Vergangenheit wurden in Kameras Fotoröhren, beispielsweise Vidicons und Plumbicons, als Bildsensoren verwendet. Diese werden zwar nicht mehr eingesetzt, die Fachbegriffe zur Sensorgröße und zum Format haben sich jedoch bis heute gehalten. Fast alle Sensoren, die heutzutage in der industriellen Bildverarbeitung eingesetzt werden, lassen sich zwei Kategorien zuordnen: CCD-Sensoren ("charge coupled device", etwa "ladungsgekoppeltes Gerät") und CMOS-Sensoren ("complementary metal oxide semiconductor", etwa "gekoppelte Metall-Oxid-Halbleiter Feldeffekttransistoren").

SENSORAUFBAU

CCD-Sensoren

CCD-Sensoren wurden 1969 von Wissenschaftlern der Bell Laboratories in New Jersey, USA, erfunden. Jahrelang war dies die dominierende Technologie zur Bilderfassung, von der digitalen Astrofotografie bis zur industriellen Bildgebung. Der CCD-Sensor ist ein Siliziumchip, der ein Array mit Photodioden enthält (Abb.1). Das einfallende Licht erzeugt Ladungspakete innerhalb des Halbleiterchips. Der Begriff "ladungsgekoppeltes Gerät" geht auf das Verfahren zurück, mit dem die Ladungspakete auf dem Chip von dem Potentialtopf der Photodiode, auf die das Licht aufgetroffen ist, zum Ausgang verschoben werden: mit einem Schieberegister, das ähnlich wie eine Eimerkette funktioniert. Taktimpulse beeinflussen die Potenzialtöpfe, um die Ladungspakete auf dem Chip zu verschieben, und dann durch einen Kondensator in eine Spannung umzuwandeln. Der CCD-Sensor selbst ist ein analoges Gerät, in Digitalkameras wird das Ausgangssignal jedoch mit einem Analog-Digital-Wandler (ADC) sofort in ein Digitalsignal umgewandelt, entweder direkt auf dem Chip oder extern. Bei Analogkameras wird die Spannung jeder einzelnen Photodiode in einer bestimmten Reihenfolge ausgelesen. Dazu werden Synchronisationsimpulse an einem bestimmten Punkt der Signalkette eingefügt, um das Bild korrekt wiederherzustellen.

Die Übertragungsgeschwindigkeit der Ladungspakete ist begrenzt. Das ist die Ursache für den Hauptnachteil von CCD-Sensoren, die geringe Geschwindigkeit. Andererseits bieten CCD-Sensoren eine sehr hohe Lichtempfindlichkeit und sind pixelgenau. Das heißt, das Bild eines CCD-Sensors ist für alle Photodioden und damit Pixel sehr einheitlich, da jedes Ladungspaket die gleiche Spannungsumwandlung erfährt . Der Ladungstransfer ist auch für das sogenannte "Blooming" verantwortlich. Dabei treten Ladungen von einer fotoempfindlichen Zelle in benachbarte Zellen über, weil die Ladungskapazität bzw. die Tiefe des Potenzialtopfs endlich und somit der nutzbare Dynamikbereich des Sensors nach oben begrenzt ist. Dieses Phänomen zeigt sich durch ein Verschmieren besonders heller Bereiche in Bildern von CCD-Kameras.

Um den effektiven lichtempfindlichen Bereich zu erhöhen und damit den Füllfaktor der einzelnen Pixel zu verbessern, werden Mikrolinsen eingesetzt. Damit wird der Platz kompensiert, den die Schieberegister-Technik auf dem Sensor beansprucht. Somit erhöht sich die Effizienz der Pixel, aber auch die Winkelempfindlichkeit für einfallende Lichtstrahlen, das heißt, diese müssen zur effizienten Erfassung nahezu senkrecht auf den Sensor treffen.

Block Diagram of a Charge-Coupled Device
Abb.1: Blockschaltplan eines ladungsgekoppelten Sensors (CCD-Sensors)

CMOS-Sensoren

Der CMOS-Sensor wurde 1963 von Frank Wanlass erfunden. Er erhielt jedoch erst 1967 dafür ein Patent, und der Sensor wird für Bildgebungsanwendungen erst seit den 1990er Jahren umfassend eingesetzt. Bei einem CMOS-Sensor wird die Ladung des lichtempfindlichen Pixels direkt im Pixel in eine Spannung umgewandelt. Das resultierende Signal jedes Pixels kann direkt ausgelesen und zu den auf dem Chip verbauten Digital-Analog-Wandlern übertragen werden. Aufgrund seines Designs ist der CMOS-Sensor ein digitaler Sensor. Jedes Pixel ist im Grunde eine Fotodiode mit drei Transistoren. Mit den Transistoren kann jedes einzelne Pixel zurückgesetzt, aktiviert und angesteuert werden, sowie die Ladung umgewandelt und das Signal verstärkt werden (Abb.2). Dadurch sind CMOS-Sensoren sehr schnell, zeigen aber auch einige prinzipbedingte Nachteile. So benötigt die aufwändige Ausleseelektronik Platz auf dem Sensor und die aktive Fläche und damit die Empfindlichkeit ist geringer. Außerdem gibt es dadurch, dass das Signal jedes Pixels von den eigenen Transistorschaltungen umgewandelt wird, ein Rauschen mit festem Muster, das durch die Fertigungstoleranzen der Transistoren verursacht wird.

Block Diagram of a Complementary Metal Oxide Semiconductor
Abb.2: Blockschema eines CMOS-Sensors

Die Multiplexkonfiguration eines CMOS-Sensors wird oft mit einem "Rolling Shutter" kombiniert (zu deutsch etwa "rollender Verschluss"). Mit zusätzlichen Transistoren an der Pixelstelle kann jedoch auch ein globaler Verschluss implementiert werden, bei dem alle Pixel gleichzeitig belichtet und dann nacheinander ausgelesen werden. Ein weiterer Vorteil von CMOS-Sensoren ist die niedrige Leistungsaufnahme und Verlustleistung im Vergleich zu einem äquivalenten CCD-Sensor, da weniger Ladungen bzw. geringere Ströme fließen. Ein weiterer Vorteil des CMOS-Sensors ist die Möglichkeit, hohe Lichtstärken ohne "Blooming" zu verarbeiten, sodass er in speziellen Kameras mit hohem Dynamikbereich eingesetzt werden kann, selbst zur Bilderfassung von Schweißnähten oder Glühdrähten. CMOS-Kameras sind außerdem meist kleiner als entsprechende digitale CCD-Kameras, da digitale CCD-Kameras zusätzliche Analog-Digital-Wandler erfordern, die nicht auf dem Chip untergebracht werden können.

Durch den mehrschichtigen Aufbau der Feldeffekttransistoren, können auf dem CMOS-Chip keine Mikrolinsen untergebracht werden. Damit sinkt die Effizienz bzw. der "Füllfaktor" des Sensors im Vergleich zu einem entsprechenden CCD-Sensor. Der geringe Wirkungsgrad, zusammen mit dem bereits erläuterten Rauschen zwischen verschiedenen Pixeln, verursachen ein niedrigeres Signal-Rausch-Verhältnis und eine geringere Gesamtbildqualität als bei CCD-Sensoren. Einen allgemeinen Vergleich von CCD- und CMOS-Sensoren finden Sie in Tabelle 1.

Tabelle 1: Vergleich von CCD- und CMOS-Sensoren
SensorCCDCMOS
Pixelsignal Ladungspaket Spannung
Sensorsignal Analog Digital
Füllfaktor Hoch Mittel
Ansprechempfindlichkeit Mittel Mittel bis hoch
Rauschpegel Niedrig Mittel bis hoch
Dynamikbereich Hoch Mittel
Gleichförmigkeit Hoch Niedrig
Auflösung Niedrig bis hoch Niedrig bis hoch
Geschwindigkeit Mittel bis hoch Hoch
Leistungsaufnahme Mittel bis hoch Niedrig
Komplexität Niedrig Mittel
Kosten Mittel Mittel

Alternative Sensormaterialien

Kurzwelliges Infrarotlicht (SWIR-Spektrum) ist eine Zukunftstechnologie in der Bildgebung. Als SWIR-Spektrum wird in der Regel Licht mit einer Wellenlänge zwischen 0,9 – 1,7 μm bezeichnet, mitunter auch zwischen 0,7 – 2,5 μm. Im SWIR-Spektrum können Dichteunterschiede sichtbar gemacht werden, außerdem können Hindernisse wie Nebel transparent werden. Normale, siliziumbasierte CCD- und CMOS-Sensoren sind jedoch nicht empfindlich genug im Infrarotspektrum und damit für solche Anwendungen ungeeignet. Dafür werden spezielle Indium-Gallium-Arsenid-Sensoren (InGaAs) verwendet. Die Bandlücke von Indium-Gallium-Arsenid passt besser zu den Photonenenergien von Infrarotlicht und damit lässt sich ein ausreichender Photostrom erzeugen. Solche Sensoren bestehen aus einem Array von InGaAs-Fotodioden, meist mit der gleichen Architektur wie bei CMOS-Sensoren. Ein Vergleich zwischen Bildern, die im sichtbaren Spektrum und im SWIR-Spektrum aufgenommen wurden, finden Sie unter: Was ist SWIR?.

Noch längere Wellenlängen als SWIR werden zur Wärmebildgebung eingesetzt. Hierbei wird aufgrund seiner Empfindlichkeit im Bereich zwischen 7 – 14 μm Wellenlänge ein Mikrobolometer-Array verwendet. In einem Mikrobolometer-Array besitzt jedes Pixel ein Bolometer, dessen elektrischer Widerstand sich ändert, wenn es durch die einfallende Infrarotstrahlung erwärmt wird. Diese Widerstandsänderung wird durch Umwandlung in eine Spannung von der Elektronik auf dem Substrat ausgelesen (Abb.3). Solche Sensoren erfordern im Gegensatz zu vielen Infrarotbildgebungsgeräten keine aktive Kühlung, daher sind sie sehr praktisch.<

Illustration of Cross-Section of Microbolometer Sensor Array
Abb.3: Querschnitt eines Mikrobolometer-Arrays

Sensormerkmale

Pixel

Camera Sensor Features

Wenn Licht von einem Objekt auf einen Kamerasensor fällt, wird es durch eine Matrix kleiner Potenzialtöpfe, sogenannter "Pixel", erfasst. Das Bild wird auf diese kleinen, diskreten Pixel aufgeteilt. Die Informationen dieser fotosensitiven Stellen werden erfasst, organisiert und zur Anzeige auf einen Monitor übertragen. Die Pixel können Fotodioden oder Fotokondensatoren sein, die eine Ladung proportional zu der Lichtmenge erzeugen, die auf einen diskreten Punkt des Sensors fällt, der räumlich beschränkt ist und die Ladung dort speichert. Die Wahrscheinlichkeit, mit der ein Pixel ein einfallendes Photon in eine Ladung umwandelt, wird als Quantenausbeute bezeichnet. Wenn beispielsweise aus zehn einfallenden Photonen im Durchschnitt vier Fotoelektronen erzeugt werden, beträgt die Quantenausbeute 40 %. Typische Werte für die Quantenausbeute bei Halbleiter-Bildgebungssensoren liegen zwischen 30 – 60 %. Die Quantenausbeute hängt von der Wellenlänge ab und stimmt nicht notwendigerweise mit der Reaktion auf die Lichtstärke überein. In Spektralkennlinien wird der Quantenausbeute oft als Funktion der Wellenlänge dargestellt. Weitere Informationen finden Sie im Abschnitt Spektraleigenschaften.

Bei Digitalkameras sind die Pixel in der Regel quadratisch. Übliche Pixelgrößen liegen zwischen 3 und 10 μm. Obwohl Sensoren oft ausschließlich durch die Anzahl der Pixel definiert werden, ist die Pixelgröße für die Eigenschaften des Systems und damit die engültige Bildqualität absolut entscheidend. Große Pixel haben allgemein höhere Ladungssättigungskapazitäten und höhere Signal-Rausch-Verhältnisse (SNRs). Mit kleinen Pixeln ist es relativ einfach, die Auflösung bei fester Sensorgröße zu erhöhen, allerdings muss die passende Optik sehr sorgfältig ausgewählt werden. Zudem kommt es bei kleinen Pixeln verstärkt zum sogenannten "Blooming" sowie zur gegenseitigen Störung der Pixel, was den Kontrast bei hohen Raumfrequenzen reduziert. Ein einfaches Maß für die Sensorauflösung ist die Anzahl der Pixel pro Millimeter.

Analoge CCD-Kameras haben rechteckige Pixel (diese sind in vertikaler Richtung länger). Begründet ist dies durch die begrenzte Anzahl der Bildzeilen in den gängigen Signalnormen NTSC und PAL, die durch die Beschränkung der typischen Bandbreite bedingt ist. Asymmetrische Pixel ergeben eine höhere horizontale als vertikale Auflösung. Analoge CCD-Kameras haben (bei gleicher Signalnorm) in der Regel die gleiche vertikale Auflösung. Aus diesem Grund wird in der Bildgebungsbranche die Auflösung als horizontale Auflösung angegeben.

Illustration of Camera Sensor Pixels with RGB Color and Infrared Blocking Filters
Abb.4: Kamerasensorpixel mit RGB-Farb- und Infrarot-Sperrfiltern

Sensorgröße

Die Größe der aktiven Fläche eines Kamerasensors ist für die Bestimmung des Systembildfelds (FOV) wichtig. Bei einer festen Primärvergrößerung des Objektivs ergeben größere Sensoren größere Bildfelder. Es gibt verschiedene Standardgrößen für die Sensoren: ¼", 1/3", ½", 1/1,8", 2/3", 1" und 1,2", wobei auch größere Ausführungen lieferbar sind (Abb.5). Die Bennenung der verschiedenen Größen geht auf die Vidicon-Vakuumröhren zurück, die für Fernsehkameras verwendet wurden. Die tatsächlichen Abmessungen der Sensoren stimmen nicht damit überein. So hat ein ½"-Sensor typischerweise eine 8 mm Diagonale, statt der zu erwartenden 12,7 mm. Hinweis: Es gibt keinen festen, geometrischen Zusammenhang zwischen der Sensorgröße, die diagonal gemessen wird und den Kantelängen des Sensors. Historisch wurde grundsätzlich ein 4:3 Verhältnis zu Grunde gelegt, das allerdings bis heute in den meisten Fällen Verwendung findet.

Abb.5: Sensorgröße und Abmessungen von Standardkamerasensoren

Bei Bildgebungsanwendungen tritt oft das Problem auf, dass die maximale Sensorgröße durch das verwendete Objektiv begrenzt wird. Wenn ein Sensor zu groß für das eingesetzte Objektiv ist, kann das Bild und die Sensorausleuchtung zu den Rändern hin schlechter werden, weil Vignettierung auftritt. Darunter versteht man den Effekt, dass Licht durch die begrenzten Aperturen des Objektivs abgeschattet wird. Dieser Effekt wird oft als Tunneleffekt bezeichnet, da die Kanten des Bildfelds dunkel erscheinen. Bei passenden Sensorgrößen tritt diese Vignettierung nicht auf.

Bildwiederholfrequenz und Verschlusszeit

Die Bildwiederholfrequenz bezieht sich auf die Anzahl der vollständigen Einzelbilder pro Sekunde. Bei Analogkameras werden die Einzelbilder in zwei Teilfelder aufgeteilt, die mit doppelter Frequenz übertragen werden, d.h. eine Analogkamera mit einer Bildwiederholfrequenz von 30 Einzelbildern pro Sekunde arbeitet mit zwei Feldern bei je 60 Hertz. Bei Hochgeschwindigkeitsanwendungen ist eine hohe Bildfrequenz vorteilhaft, da mehr Bilder aufgenommen werden können, während das Objekt das Bildfeld passiert.

elationship between Shutter Speed, Fields, and Full Frame for Interlaced Display
Abb.6: Zusammenhang zwischen Verschlussgeschwindigkeit, Bildfeldern und Vollbild bei Anzeige mit Zeilensprung

Die Verschlusszeit entspricht der Belichtungszeit des Sensors und steuert die Menge des einfallenden Lichts. Damit hat die Einstellung natürlich auch einen direkten Einfluss auf die Bildqualität. Der Blooming-Effekt beispielsweise (siehe Abschnitt "CCD-Sensoren") entsteht durch Überbelichtung und kann somit durch kürzere Verschlusszeiten oder eine Anpassung der Beleuchtung unterdrückt werden. Auch bei niedriger, vorgegebener Bildfrequenz, wie z.B. den typischen 30 Hz bei Analogaufnahmen, lässt sich die Verschlusszeit anpassen, um schnell bewegte Objekte scharf abzubilden.

Im Gegensatz zu Analogkameras, bei denen in den meisten Fällen die Bildwiederholfrequenz vom verwendeten Anzeigegerät abhängt, kann bei Digitalkameras die Bildwiederholfrequenz eingestellt werden. Die maximale Bildwiederholfrequenz eines Systems hängt von der Auslesegeschwindigkeit des Sensors ab, von der Datentransferrate der Schnittstelle einschließlich der Kabel und der Datenmenge pro Bild, das heißt der Anzahl der Pixel und der Pixeltiefe. Abhängig vom Sensortyp kann die Bildwiederholfrequenz durch verschiedene Methoden, die die effektive Auflösung reduzieren, erhöht werden. Einerseits können mehrere Pixel zusammengefasst werden (Binning), andererseits besteht die Möglichkeit, den Sensor nur teilweise auszulesen (Area-of-Interest). Genaueres dazu finden Sie unter Bildgebungselektronik 101: Bessere Bilder durch richtige Digitalkameraeinstellungen. Mit diesen Methoden kann die Datenmenge pro Einzelbild reduziert werden und es können bei fester Datentransferrate mehr Einzelbilder übertragen werden. Die Belichtungszeit verhält sich, grob gesagt, umgekehrt zur Bildwiederholfrequenz. Aufgrund der Tatsache, dass die Pixel zurückgesetzt und ausgelesen werden müssen, existiert jedoch eine endliche Mindestzeit zwischen den Belichtungen (in der Größenordnung von hundert Mikrosekunden). Diese Mindestzeit ist oft in den Datenblättern der Kameras angegeben. Allerdings ist zu beachten, dass viele Kameras die Möglichkeit besitzen, das Auslesen und den nächsten Belichtungsvorgang gleichzeitig auszuführen.

Bei CMOS-Kameras sind höhere Bildwiederholfrequenzen möglich, da das Auslesen der einzelnen Pixel schneller ist, als das Verschieben der Ladungen im CCD-Sensor. Bei Digitalkameras können die Belichtungszeiten zwischen Zehntelsekunden und Minuten liegen. Die längsten Belichtungszeiten sind aber nur mit CCD-Kameras möglich, die niedrigere Dunkelströme und ein niedrigeres Rauschen als CMOS-Sensoren haben. Durch das typische Rauschen der CMOS-Sensoren sind die verwendbaren Belichtungszeiten auf den Sekundenbereich begrenzt.

Elektronischer Verschluss

Bis vor wenigen Jahren verwendeten CCD-Kameras elektronische oder globale Verschlüsse ("global shutter") und CMOS-Kameras ausschließlich den bereits erwähnten Rolling Shutter. Ein globaler Verschluss entspricht einem mechanischen Verschluss, da alle Pixel gleichzeitig belichtet und gesampelt und dann nacheinander ausgelesen werden; die Erfassung der Photonen beginnt und endet bei allen Pixeln zur gleichen Zeit. Beim Rolling Shutter dagegen erfolgen Belichtung, Sampling und Auslesen nacheinander; das heißt, jede Bildzeile wird zu einer etwas anderen Zeit aufgenommen. Bei schnell bewegten Objekten kann das offensichtlich zu einem verzerrten Bild führen. Diesem Effekt kann aber mit der Beleuchtung entgegengewirkt werden. Synchronisiert man eine geblitzte Beleuchtung so mit der Kamera, dass das Objekt nur in dem Moment beleuchtet wird, in dem sich die Belichtungszeiträume aller Zeilen überschneiden. Bei niedrigen Geschwindigkeiten ist dieser Effekt kein Problem. Die Verwendung eines globalen Verschlusses für CMOS-Sensoren erfordert eine kompliziertere Architektur als die Standardausführung mit Rollverschluss, genauer gesagt, einen zusätzlichen Transistor und Speicherkondensator pro Pixel. Auf diese Weise ist auch (ein) Pipelining möglich, oder eine Belichtung des nächsten Bildes, während noch das Letzte ausgelesen wird. Da das Angebot an CMOS-Sensoren mit globalen Verschlüssen ständig zunimmt, eignen sich sowohl CCD- als auch CMOS-Kameras für Anwendungen mit hohen Bewegungsgeschwindigkeiten.

Zusätzlich zu den besprochenen Verschluss-Varianten gibt es noch den asynchronen Verschluss mit getriggerter Belichtung. Das heißt, die Kamera ist Aufnahmebereit, aktiviert die Pixel jedoch erst, wenn sie ein externes Triggersignal empfängt. Das steht im Gegensatz zur normalen, konstanten Bildwiederholfrequenz, die man sich als interne Auslösung des Verschlusses vorstellen kann.

Sensor Chip on a Fast-Moving Conveyer with Triggered Global Shutter
Sensor Chip on a Fast-Moving Conveyer with Continuous Global Shutter
Abb.7a: Vergleich der Bewegungsunschärfe. Platine auf einem schnellen Transportband, aufgenommen mit triggergesteuertem, globalen Verschluss (links) und kontinuierlichem globalem Verschluss (rechts)
Sensor Chip on a Slow-Moving Conveyer with Global Shutter
Sensor Chip on a Slow-Moving Conveyer with Rolling Shutter
Abb.7b: Bewegungsunschärfe bei globalem Verschluss und Rolling Shutter. Platine auf einem langsamen Transportband, aufgenommen mit global (globalem Verschluss) (links) und rolling Shutter (Rollverschluss) (rechts)

Sensorausgänge

Eine Möglichkeit zur Erhöhung der Auslesegeschwindigkeit eines Kamerasensors ist die Verwendung mehrerer "Taps" für den Sensor. Das heißt, statt alle Pixel nacheinander über einen einzigen Ausgangsverstärker und Analog-Digital-Wandler auszulesen, wird das Bildfeld aufgeteilt und über mehrere Ausgänge ausgelesen. Meist wird ein doppelter Ausgang verwendet, wobei die linke und rechte Hälfte des Bildfelds separat ausgelesen werden. Damit wird die Bildwiederholfrequenz effektiv verdoppelt, und das Bild kann durch Software einfach rekonstruiert werden. Wenn der Gain zwischen den einzelnen Sensor-Ausgängen nicht gleich ist oder wenn die Eigenschaften der Analog-Digital-Wander leicht voneinander abweichen, wie es die Regel ist, dann erkennt man in dem rekonstruierten Bild eine deutliche Trennung zwischen den beiden Bildhälften. Solche Fehler können allerdings durch Kalibrierung beseitigt werden. Vor allem große Sensoren mit mehreren Millionen Pixeln nutzen diese Technik. Man spricht dabei von "Multi-Tap-Sensoren". Diese Methode wird meist nur für sog. "progressive scan" Digitalkameras verwendet, die nach dem Vollbildverfahren arbeiten und vollständige Bilder an das Anzeigegerät übergeben. Bei anderen Kameras kann es zu Darstellungsfehlern kommen. Die Eigenschaften eines Multi-Tap-Sensors hängt vor allem von der Implementierung der internen Kamera-Hardware ab.

SPEKTRALEIGENSCHAFTEN

Monochrome Kameras

CCD- und CMOS-Sensoren sind für Wellenlängen zwischen etwa 350 und 1050 nm empfindlich, allerdings wird als Bereich meist 400 bis 1000 nm angegeben. Diese Empfindlichkeit wird graphisch in Abhängigkeit der Wellenlänge dargestellt (Abb.8). Die meisten hochwertigen Kameras enthalten einen Infrarotfilter (IR-Filter), damit nur das sichtbare Spektrum abgebildet wird. Für eine Bildgebung im nahen Infrarotbereich können diese Filter zum Teil entfernt werden.

Normalized Spectral Response of a Typical Monochrome CCD
Abb.8: Normalisierte Kurve der Empfindlichkeit in Abhängigkeit der Wellenlänge (Spektralantwort) eines typischen monochromen CCD-Sensors

CMOS-Sensoren sind im Allgemeinen empfindlicher für Infrarotwellenlängen als CCD-Sensoren. Dies hängt mit der größeren Dicke der aktiven Fläche bzw. Schicht zusammen. Die Eindringtiefe eines Photons in die Siliziumoxid-Schicht, in dem der Photoeffekt stattfindet, hängt von seiner Frequenz bzw. Wellenlänge ab. Je höher die Wellenlänge, desto tiefer dringt das Photon ein. Mit einer dickeren Schicht verschiebt sich die Empfindlichkeit daher zu höheren Wellenlängen.

Farbkameras

Der Halbleitersensor basiert auf dem fotoelektrischen Effekt und kann daher nicht zwischen Farben unterscheiden. Es gibt zwei Arten von Farb-CCD-Kameras: Einzelchip- und Dreichipkameras. Einzelchip-CCD-Kameras sind die übliche, kostengünstige Variante und arbeiten mit einem Mosaikfilter, meist mit dem sogenannten Bayer-Muster, um das einfallende Licht in Spektralfarben zu trennen. Jede Farbe wird dann nur von bestimmten Pixeln aufgenommen (Abb.9a). Neben dem Bayer-Muster gibt es noch andere Varianten solcher Mosaikfilter, das hängt vom Hersteller des Sensors ab. Da mehr Pixel benötigt werden, um die Farben zu erkennen, haben Einzelchip-Farbkameras grundsätzlich eine niedrigere Auflösung als monochrome Kameras mit der identischen Pixelzahl; wie stark sich dieser Effekt bemerkbar macht, hängt von dem herstellerspezifischen Farbinterpolationsalgorithmus ab.

Single-Chip Color CCD Camera Sensor using Mosaic Filter to Filter Colors
Abb.9a: Einzelchip-Farb-CCD-Kamerasensor mit Mosaikfilter zum Filtern der Farben

Dreichip-Farb-CCD-Kameras sollen diese Einschränkung der effektiven Aufösung mit einem Prisma umgehen. Das einfallende Licht wird aufgespaltet und jede Farbe auf einen anderen Chip geworfen (Abb.9b). Dadurch wird eine exakte Farbwiedergabe möglich, da jedem Punkt im Objektraum separate RGB-Helligkeitswerte zugeordnet werden können und keine Interpolation zur Bestimmung der Farbe nötig ist. Dreichipkameras haben extrem hohe Auflösungen, sind aber nicht so lichtempfindlich und können teuer sein. Allgemein werden spezielle 3CCD-Objektive benötigt, die gut farbkorrigiert sind und die Änderungen des optischen Weges durch das Prisma kompensieren. Bei C-Mount-Objektiven muss außerdem darauf geachtet werden, dass die hinterste Linse nicht zu weit vorsteht, um das Prisma nicht zu beschädigen. Letztendlich hängt die Entscheidung für Einzelchipkamera oder Dreichipkamera von den Anforderungen an die Bildqualität ab.

Three-Chip Color CCD Camera Sensor using Prism to Disperse Colors
Abb.9b: Dreichip-Farb-CCD-Kamerasensor mit Prismen zur Aufteilung der Farben

 

Die wichtigste Komponente eines Kamerasystems ist der Sensor. Die Art des Sensors und seine Eigenschaften beeinflussen die Bildqualität erheblich. Nur wenn der Anwender weiß, wie er die technischen Daten des Kamerasensors interpretieren muss, kann er die passende Optik dafür auswählen. Wenn Sie mehr über Bildgebungselektronik erfahren wollen, verweisen wir auf unsere zusätzlichen Serien zur Bildgebungselektronik 101 zu den Themen Kameraauflösung, Kamera-Typen und Kamera-Einstellungen.

War dieser Inhalt nützlich für Sie?

Passende Produkte

 

 
Vertrieb & Beratung
 
weitere regionale Telefonnummern
Einfaches
ANGEBOTSTOOL
Geben Sie zum Starten die Produktnummer ein.