Kamerasensoren für industrielle Bildverarbeitung | Edmund Optics
Konstruktion | Merkmale | Spektraleigenschaften
Die Eigenschaften eines Bildgebungssystems hängen nicht nur von der Optik, sondern auch von den verwendeten Elektronikkomponenten ab. Die optimale Systemleistung ergibt sich nur durch die richtige Integration aller Komponenten, beispielsweise Kamera, Bilderfassungskarte, Software und Kabel. Bevor wir weitere Themen behandeln, muss zuerst der Kamerasensor verstanden werden, sowohl was die Funktionsweise als auch die Terminologie angeht.
Das Herz jeder Kamera ist der Sensor; moderne Sensoren sind elektronische Halbleiterdetektoren mit Millionen diskreter Fotodetektoren, sogenannter Pixel. Es gibt zwar viele Kamerahersteller, die meisten Sensoren werden jedoch von einigen wenigen, spezialisierten Unternehmen hergestellt. Dennoch können zwei Kameras mit dem gleichen Sensor aufgrund der Schnittstelle und der Elektronikumgebung sehr unterschiedliche Eigenschaften und Leistungen haben. In der Vergangenheit wurden in Kameras Fotoröhren, beispielsweise Vidicons und Plumbicons, als Bildsensoren verwendet. Diese werden zwar nicht mehr eingesetzt, die Fachbegriffe zur Sensorgröße und zum Format haben sich jedoch bis heute gehalten. Fast alle Sensoren, die heutzutage in der industriellen Bildverarbeitung eingesetzt werden, lassen sich zwei Kategorien zuordnen: CCD-Sensoren ("charge coupled device", etwa "ladungsgekoppeltes Gerät") und CMOS-Sensoren ("complementary metal oxide semiconductor", etwa "gekoppelte Metall-Oxid-Halbleiter Feldeffekttransistoren").
SENSORAUFBAU
CCD-Sensoren
CCD-Sensoren wurden 1969 von Wissenschaftlern der Bell Laboratories in New Jersey, USA, erfunden. Jahrelang war dies die dominierende Technologie zur Bilderfassung, von der digitalen Astrofotografie bis zur industriellen Bildgebung. Der CCD-Sensor ist ein Siliziumchip, der ein Array mit Photodioden enthält (Abb.1). Das einfallende Licht erzeugt Ladungspakete innerhalb des Halbleiterchips. Der Begriff "ladungsgekoppeltes Gerät" geht auf das Verfahren zurück, mit dem die Ladungspakete auf dem Chip von dem Potentialtopf der Photodiode, auf die das Licht aufgetroffen ist, zum Ausgang verschoben werden: mit einem Schieberegister, das ähnlich wie eine Eimerkette funktioniert. Taktimpulse beeinflussen die Potenzialtöpfe, um die Ladungspakete auf dem Chip zu verschieben, und dann durch einen Kondensator in eine Spannung umzuwandeln. Der CCD-Sensor selbst ist ein analoges Gerät, in Digitalkameras wird das Ausgangssignal jedoch mit einem Analog-Digital-Wandler (ADC) sofort in ein Digitalsignal umgewandelt, entweder direkt auf dem Chip oder extern. Bei Analogkameras wird die Spannung jeder einzelnen Photodiode in einer bestimmten Reihenfolge ausgelesen. Dazu werden Synchronisationsimpulse an einem bestimmten Punkt der Signalkette eingefügt, um das Bild korrekt wiederherzustellen.
Die Übertragungsgeschwindigkeit der Ladungspakete ist begrenzt. Das ist die Ursache für den Hauptnachteil von CCD-Sensoren, die geringe Geschwindigkeit. Andererseits bieten CCD-Sensoren eine sehr hohe Lichtempfindlichkeit und sind pixelgenau. Das heißt, das Bild eines CCD-Sensors ist für alle Photodioden und damit Pixel sehr einheitlich, da jedes Ladungspaket die gleiche Spannungsumwandlung erfährt . Der Ladungstransfer ist auch für das sogenannte "Blooming" verantwortlich. Dabei treten Ladungen von einer fotoempfindlichen Zelle in benachbarte Zellen über, weil die Ladungskapazität bzw. die Tiefe des Potenzialtopfs endlich und somit der nutzbare Dynamikbereich des Sensors nach oben begrenzt ist. Dieses Phänomen zeigt sich durch ein Verschmieren besonders heller Bereiche in Bildern von CCD-Kameras.
Um den effektiven lichtempfindlichen Bereich zu erhöhen und damit den Füllfaktor der einzelnen Pixel zu verbessern, werden Mikrolinsen eingesetzt. Damit wird der Platz kompensiert, den die Schieberegister-Technik auf dem Sensor beansprucht. Somit erhöht sich die Effizienz der Pixel, aber auch die Winkelempfindlichkeit für einfallende Lichtstrahlen, das heißt, diese müssen zur effizienten Erfassung nahezu senkrecht auf den Sensor treffen.
Abb.1: Blockschaltplan eines ladungsgekoppelten Sensors (CCD-Sensors)
CMOS-Sensoren
Der CMOS-Sensor wurde 1963 von Frank Wanlass erfunden. Er erhielt jedoch erst 1967 dafür ein Patent, und der Sensor wird für Bildgebungsanwendungen erst seit den 1990er Jahren umfassend eingesetzt. Bei einem CMOS-Sensor wird die Ladung des lichtempfindlichen Pixels direkt im Pixel in eine Spannung umgewandelt. Das resultierende Signal jedes Pixels kann direkt ausgelesen und zu den auf dem Chip verbauten Digital-Analog-Wandlern übertragen werden. Aufgrund seines Designs ist der CMOS-Sensor ein digitaler Sensor. Jedes Pixel ist im Grunde eine Fotodiode mit drei Transistoren. Mit den Transistoren kann jedes einzelne Pixel zurückgesetzt, aktiviert und angesteuert werden, sowie die Ladung umgewandelt und das Signal verstärkt werden (Abb.2). Dadurch sind CMOS-Sensoren sehr schnell, zeigen aber auch einige prinzipbedingte Nachteile. So benötigt die aufwändige Ausleseelektronik Platz auf dem Sensor und die aktive Fläche und damit die Empfindlichkeit ist geringer. Außerdem gibt es dadurch, dass das Signal jedes Pixels von den eigenen Transistorschaltungen umgewandelt wird, ein Rauschen mit festem Muster, das durch die Fertigungstoleranzen der Transistoren verursacht wird.
Abb.2: Blockschema eines CMOS-Sensors
Die Multiplexkonfiguration eines CMOS-Sensors wird oft mit einem "Rolling Shutter" kombiniert (zu deutsch etwa "rollender Verschluss"). Mit zusätzlichen Transistoren an der Pixelstelle kann jedoch auch ein globaler Verschluss implementiert werden, bei dem alle Pixel gleichzeitig belichtet und dann nacheinander ausgelesen werden. Ein weiterer Vorteil von CMOS-Sensoren ist die niedrige Leistungsaufnahme und Verlustleistung im Vergleich zu einem äquivalenten CCD-Sensor, da weniger Ladungen bzw. geringere Ströme fließen. Ein weiterer Vorteil des CMOS-Sensors ist die Möglichkeit, hohe Lichtstärken ohne "Blooming" zu verarbeiten, sodass er in speziellen Kameras mit hohem Dynamikbereich eingesetzt werden kann, selbst zur Bilderfassung von Schweißnähten oder Glühdrähten. CMOS-Kameras sind außerdem meist kleiner als entsprechende digitale CCD-Kameras, da digitale CCD-Kameras zusätzliche Analog-Digital-Wandler erfordern, die nicht auf dem Chip untergebracht werden können.
Durch den mehrschichtigen Aufbau der Feldeffekttransistoren, können auf dem CMOS-Chip keine Mikrolinsen untergebracht werden. Damit sinkt die Effizienz bzw. der "Füllfaktor" des Sensors im Vergleich zu einem entsprechenden CCD-Sensor. Der geringe Wirkungsgrad, zusammen mit dem bereits erläuterten Rauschen zwischen verschiedenen Pixeln, verursachen ein niedrigeres Signal-Rausch-Verhältnis und eine geringere Gesamtbildqualität als bei CCD-Sensoren. Einen allgemeinen Vergleich von CCD- und CMOS-Sensoren finden Sie in Tabelle 1.
Tabelle 1: Vergleich von CCD- und CMOS-Sensoren | ||
---|---|---|
Sensor | CCD | CMOS |
Pixelsignal | Ladungspaket | Spannung |
Sensorsignal | Analog | Digital |
Füllfaktor | Hoch | Mittel |
Ansprechempfindlichkeit | Mittel | Mittel bis hoch |
Rauschpegel | Niedrig | Mittel bis hoch |
Dynamikbereich | Hoch | Mittel |
Gleichförmigkeit | Hoch | Niedrig |
Auflösung | Niedrig bis hoch | Niedrig bis hoch |
Geschwindigkeit | Mittel bis hoch | Hoch |
Leistungsaufnahme | Mittel bis hoch | Niedrig |
Komplexität | Niedrig | Mittel |
Kosten | Mittel | Mittel |
Alternative Sensormaterialien
Kurzwelliges Infrarotlicht (SWIR-Spektrum) ist eine Zukunftstechnologie in der Bildgebung. Als SWIR-Spektrum wird in der Regel Licht mit einer Wellenlänge zwischen 0,9 – 1,7 μm bezeichnet, mitunter auch zwischen 0,7 – 2,5 μm. Im SWIR-Spektrum können Dichteunterschiede sichtbar gemacht werden, außerdem können Hindernisse wie Nebel transparent werden. Normale, siliziumbasierte CCD- und CMOS-Sensoren sind jedoch nicht empfindlich genug im Infrarotspektrum und damit für solche Anwendungen ungeeignet. Dafür werden spezielle Indium-Gallium-Arsenid-Sensoren (InGaAs) verwendet. Die Bandlücke von Indium-Gallium-Arsenid passt besser zu den Photonenenergien von Infrarotlicht und damit lässt sich ein ausreichender Photostrom erzeugen. Solche Sensoren bestehen aus einem Array von InGaAs-Fotodioden, meist mit der gleichen Architektur wie bei CMOS-Sensoren. Ein Vergleich zwischen Bildern, die im sichtbaren Spektrum und im SWIR-Spektrum aufgenommen wurden, finden Sie unter: Was ist SWIR?.
Noch längere Wellenlängen als SWIR werden zur Wärmebildgebung eingesetzt. Hierbei wird aufgrund seiner Empfindlichkeit im Bereich zwischen 7 – 14 μm Wellenlänge ein Mikrobolometer-Array verwendet. In einem Mikrobolometer-Array besitzt jedes Pixel ein Bolometer, dessen elektrischer Widerstand sich ändert, wenn es durch die einfallende Infrarotstrahlung erwärmt wird. Diese Widerstandsänderung wird durch Umwandlung in eine Spannung von der Elektronik auf dem Substrat ausgelesen (Abb.3). Solche Sensoren erfordern im Gegensatz zu vielen Infrarotbildgebungsgeräten keine aktive Kühlung, daher sind sie sehr praktisch.<
Abb.3: Querschnitt eines Mikrobolometer-Arrays
Sensormerkmale
Pixel
Wenn Licht von einem Objekt auf einen Kamerasensor fällt, wird es durch eine Matrix kleiner Potenzialtöpfe, sogenannter "Pixel", erfasst. Das Bild wird auf diese kleinen, diskreten Pixel aufgeteilt. Die Informationen dieser fotosensitiven Stellen werden erfasst, organisiert und zur Anzeige auf einen Monitor übertragen. Die Pixel können Fotodioden oder Fotokondensatoren sein, die eine Ladung proportional zu der Lichtmenge erzeugen, die auf einen diskreten Punkt des Sensors fällt, der räumlich beschränkt ist und die Ladung dort speichert. Die Wahrscheinlichkeit, mit der ein Pixel ein einfallendes Photon in eine Ladung umwandelt, wird als Quantenausbeute bezeichnet. Wenn beispielsweise aus zehn einfallenden Photonen im Durchschnitt vier Fotoelektronen erzeugt werden, beträgt die Quantenausbeute 40 %. Typische Werte für die Quantenausbeute bei Halbleiter-Bildgebungssensoren liegen zwischen 30 – 60 %. Die Quantenausbeute hängt von der Wellenlänge ab und stimmt nicht notwendigerweise mit der Reaktion auf die Lichtstärke überein. In Spektralkennlinien wird der Quantenausbeute oft als Funktion der Wellenlänge dargestellt. Weitere Informationen finden Sie im Abschnitt Spektraleigenschaften.
Bei Digitalkameras sind die Pixel in der Regel quadratisch. Übliche Pixelgrößen liegen zwischen 3 und 10 μm. Obwohl Sensoren oft ausschließlich durch die Anzahl der Pixel definiert werden, ist die Pixelgröße für die Eigenschaften des Systems und damit die engültige Bildqualität absolut entscheidend. Große Pixel haben allgemein höhere Ladungssättigungskapazitäten und höhere Signal-Rausch-Verhältnisse (SNRs). Mit kleinen Pixeln ist es relativ einfach, die Auflösung bei fester Sensorgröße zu erhöhen, allerdings muss die passende Optik sehr sorgfältig ausgewählt werden. Zudem kommt es bei kleinen Pixeln verstärkt zum sogenannten "Blooming" sowie zur gegenseitigen Störung der Pixel, was den Kontrast bei hohen Raumfrequenzen reduziert. Ein einfaches Maß für die Sensorauflösung ist die Anzahl der Pixel pro Millimeter.
Analoge CCD-Kameras haben rechteckige Pixel (diese sind in vertikaler Richtung länger). Begründet ist dies durch die begrenzte Anzahl der Bildzeilen in den gängigen Signalnormen NTSC und PAL, die durch die Beschränkung der typischen Bandbreite bedingt ist. Asymmetrische Pixel ergeben eine höhere horizontale als vertikale Auflösung. Analoge CCD-Kameras haben (bei gleicher Signalnorm) in der Regel die gleiche vertikale Auflösung. Aus diesem Grund wird in der Bildgebungsbranche die Auflösung als horizontale Auflösung angegeben.
Abb.4: Kamerasensorpixel mit RGB-Farb- und Infrarot-Sperrfiltern
Sensorgröße
Die Größe der aktiven Fläche eines Kamerasensors ist für die Bestimmung des Systembildfelds (FOV) wichtig. Bei einer festen Primärvergrößerung des Objektivs ergeben größere Sensoren größere Bildfelder. Es gibt verschiedene Standardgrößen für die Sensoren: ¼", 1/3", ½", 1/1,8", 2/3", 1" und 1,2", wobei auch größere Ausführungen lieferbar sind (Abb.5). Die Bennenung der verschiedenen Größen geht auf die Vidicon-Vakuumröhren zurück, die für Fernsehkameras verwendet wurden. Die tatsächlichen Abmessungen der Sensoren stimmen nicht damit überein. So hat ein ½"-Sensor typischerweise eine 8 mm Diagonale, statt der zu erwartenden 12,7 mm. Hinweis: Es gibt keinen festen, geometrischen Zusammenhang zwischen der Sensorgröße, die diagonal gemessen wird und den Kantelängen des Sensors. Historisch wurde grundsätzlich ein 4:3 Verhältnis zu Grunde gelegt, das allerdings bis heute in den meisten Fällen Verwendung findet.
Abb.5: Sensorgröße und Abmessungen von Standardkamerasensoren
Bei Bildgebungsanwendungen tritt oft das Problem auf, dass die maximale Sensorgröße durch das verwendete Objektiv begrenzt wird. Wenn ein Sensor zu groß für das eingesetzte Objektiv ist, kann das Bild und die Sensorausleuchtung zu den Rändern hin schlechter werden, weil Vignettierung auftritt. Darunter versteht man den Effekt, dass Licht durch die begrenzten Aperturen des Objektivs abgeschattet wird. Dieser Effekt wird oft als Tunneleffekt bezeichnet, da die Kanten des Bildfelds dunkel erscheinen. Bei passenden Sensorgrößen tritt diese Vignettierung nicht auf.
Bildwiederholfrequenz und Verschlusszeit
Die Bildwiederholfrequenz bezieht sich auf die Anzahl der vollständigen Einzelbilder pro Sekunde. Bei Analogkameras werden die Einzelbilder in zwei Teilfelder aufgeteilt, die mit doppelter Frequenz übertragen werden, d.h. eine Analogkamera mit einer Bildwiederholfrequenz von 30 Einzelbildern pro Sekunde arbeitet mit zwei Feldern bei je 60 Hertz. Bei Hochgeschwindigkeitsanwendungen ist eine hohe Bildfrequenz vorteilhaft, da mehr Bilder aufgenommen werden können, während das Objekt das Bildfeld passiert.
Abb.6: Zusammenhang zwischen Verschlussgeschwindigkeit, Bildfeldern und Vollbild bei Anzeige mit Zeilensprung
Die Verschlusszeit entspricht der Belichtungszeit des Sensors und steuert die Menge des einfallenden Lichts. Damit hat die Einstellung natürlich auch einen direkten Einfluss auf die Bildqualität. Der Blooming-Effekt beispielsweise (siehe Abschnitt "CCD-Sensoren") entsteht durch Überbelichtung und kann somit durch kürzere Verschlusszeiten oder eine Anpassung der Beleuchtung unterdrückt werden. Auch bei niedriger, vorgegebener Bildfrequenz, wie z.B. den typischen 30 Hz bei Analogaufnahmen, lässt sich die Verschlusszeit anpassen, um schnell bewegte Objekte scharf abzubilden.
Im Gegensatz zu Analogkameras, bei denen in den meisten Fällen die Bildwiederholfrequenz vom verwendeten Anzeigegerät abhängt, kann bei Digitalkameras die Bildwiederholfrequenz eingestellt werden. Die maximale Bildwiederholfrequenz eines Systems hängt von der Auslesegeschwindigkeit des Sensors ab, von der Datentransferrate der Schnittstelle einschließlich der Kabel und der Datenmenge pro Bild, das heißt der Anzahl der Pixel und der Pixeltiefe. Abhängig vom Sensortyp kann die Bildwiederholfrequenz durch verschiedene Methoden, die die effektive Auflösung reduzieren, erhöht werden. Einerseits können mehrere Pixel zusammengefasst werden (Binning), andererseits besteht die Möglichkeit, den Sensor nur teilweise auszulesen (Area-of-Interest). Genaueres dazu finden Sie unter Bildgebungselektronik 101: Bessere Bilder durch richtige Digitalkameraeinstellungen. Mit diesen Methoden kann die Datenmenge pro Einzelbild reduziert werden und es können bei fester Datentransferrate mehr Einzelbilder übertragen werden. Die Belichtungszeit verhält sich, grob gesagt, umgekehrt zur Bildwiederholfrequenz. Aufgrund der Tatsache, dass die Pixel zurückgesetzt und ausgelesen werden müssen, existiert jedoch eine endliche Mindestzeit zwischen den Belichtungen (in der Größenordnung von hundert Mikrosekunden). Diese Mindestzeit ist oft in den Datenblättern der Kameras angegeben. Allerdings ist zu beachten, dass viele Kameras die Möglichkeit besitzen, das Auslesen und den nächsten Belichtungsvorgang gleichzeitig auszuführen.
Bei CMOS-Kameras sind höhere Bildwiederholfrequenzen möglich, da das Auslesen der einzelnen Pixel schneller ist, als das Verschieben der Ladungen im CCD-Sensor. Bei Digitalkameras können die Belichtungszeiten zwischen Zehntelsekunden und Minuten liegen. Die längsten Belichtungszeiten sind aber nur mit CCD-Kameras möglich, die niedrigere Dunkelströme und ein niedrigeres Rauschen als CMOS-Sensoren haben. Durch das typische Rauschen der CMOS-Sensoren sind die verwendbaren Belichtungszeiten auf den Sekundenbereich begrenzt.
Elektronischer Verschluss
Bis vor wenigen Jahren verwendeten CCD-Kameras elektronische oder globale Verschlüsse ("global shutter") und CMOS-Kameras ausschließlich den bereits erwähnten Rolling Shutter. Ein globaler Verschluss entspricht einem mechanischen Verschluss, da alle Pixel gleichzeitig belichtet und gesampelt und dann nacheinander ausgelesen werden; die Erfassung der Photonen beginnt und endet bei allen Pixeln zur gleichen Zeit. Beim Rolling Shutter dagegen erfolgen Belichtung, Sampling und Auslesen nacheinander; das heißt, jede Bildzeile wird zu einer etwas anderen Zeit aufgenommen. Bei schnell bewegten Objekten kann das offensichtlich zu einem verzerrten Bild führen. Diesem Effekt kann aber mit der Beleuchtung entgegengewirkt werden. Synchronisiert man eine geblitzte Beleuchtung so mit der Kamera, dass das Objekt nur in dem Moment beleuchtet wird, in dem sich die Belichtungszeiträume aller Zeilen überschneiden. Bei niedrigen Geschwindigkeiten ist dieser Effekt kein Problem. Die Verwendung eines globalen Verschlusses für CMOS-Sensoren erfordert eine kompliziertere Architektur als die Standardausführung mit Rollverschluss, genauer gesagt, einen zusätzlichen Transistor und Speicherkondensator pro Pixel. Auf diese Weise ist auch (ein) Pipelining möglich, oder eine Belichtung des nächsten Bildes, während noch das Letzte ausgelesen wird. Da das Angebot an CMOS-Sensoren mit globalen Verschlüssen ständig zunimmt, eignen sich sowohl CCD- als auch CMOS-Kameras für Anwendungen mit hohen Bewegungsgeschwindigkeiten.
Zusätzlich zu den besprochenen Verschluss-Varianten gibt es noch den asynchronen Verschluss mit getriggerter Belichtung. Das heißt, die Kamera ist Aufnahmebereit, aktiviert die Pixel jedoch erst, wenn sie ein externes Triggersignal empfängt. Das steht im Gegensatz zur normalen, konstanten Bildwiederholfrequenz, die man sich als interne Auslösung des Verschlusses vorstellen kann.
Abb.7a: Vergleich der Bewegungsunschärfe. Platine auf einem schnellen Transportband, aufgenommen mit triggergesteuertem, globalen Verschluss (links) und kontinuierlichem globalem Verschluss (rechts)
Abb.7b: Bewegungsunschärfe bei globalem Verschluss und Rolling Shutter. Platine auf einem langsamen Transportband, aufgenommen mit global (globalem Verschluss) (links) und rolling Shutter (Rollverschluss) (rechts)
Sensorausgänge
Eine Möglichkeit zur Erhöhung der Auslesegeschwindigkeit eines Kamerasensors ist die Verwendung mehrerer "Taps" für den Sensor. Das heißt, statt alle Pixel nacheinander über einen einzigen Ausgangsverstärker und Analog-Digital-Wandler auszulesen, wird das Bildfeld aufgeteilt und über mehrere Ausgänge ausgelesen. Meist wird ein doppelter Ausgang verwendet, wobei die linke und rechte Hälfte des Bildfelds separat ausgelesen werden. Damit wird die Bildwiederholfrequenz effektiv verdoppelt, und das Bild kann durch Software einfach rekonstruiert werden. Wenn der Gain zwischen den einzelnen Sensor-Ausgängen nicht gleich ist oder wenn die Eigenschaften der Analog-Digital-Wander leicht voneinander abweichen, wie es die Regel ist, dann erkennt man in dem rekonstruierten Bild eine deutliche Trennung zwischen den beiden Bildhälften. Solche Fehler können allerdings durch Kalibrierung beseitigt werden. Vor allem große Sensoren mit mehreren Millionen Pixeln nutzen diese Technik. Man spricht dabei von "Multi-Tap-Sensoren". Diese Methode wird meist nur für sog. "progressive scan" Digitalkameras verwendet, die nach dem Vollbildverfahren arbeiten und vollständige Bilder an das Anzeigegerät übergeben. Bei anderen Kameras kann es zu Darstellungsfehlern kommen. Die Eigenschaften eines Multi-Tap-Sensors hängt vor allem von der Implementierung der internen Kamera-Hardware ab.
SPEKTRALEIGENSCHAFTEN
Monochrome Kameras
CCD- und CMOS-Sensoren sind für Wellenlängen zwischen etwa 350 und 1050 nm empfindlich, allerdings wird als Bereich meist 400 bis 1000 nm angegeben. Diese Empfindlichkeit wird graphisch in Abhängigkeit der Wellenlänge dargestellt (Abb.8). Die meisten hochwertigen Kameras enthalten einen Infrarotfilter (IR-Filter), damit nur das sichtbare Spektrum abgebildet wird. Für eine Bildgebung im nahen Infrarotbereich können diese Filter zum Teil entfernt werden.
Abb.8: Normalisierte Kurve der Empfindlichkeit in Abhängigkeit der Wellenlänge (Spektralantwort) eines typischen monochromen CCD-Sensors
CMOS-Sensoren sind im Allgemeinen empfindlicher für Infrarotwellenlängen als CCD-Sensoren. Dies hängt mit der größeren Dicke der aktiven Fläche bzw. Schicht zusammen. Die Eindringtiefe eines Photons in die Siliziumoxid-Schicht, in dem der Photoeffekt stattfindet, hängt von seiner Frequenz bzw. Wellenlänge ab. Je höher die Wellenlänge, desto tiefer dringt das Photon ein. Mit einer dickeren Schicht verschiebt sich die Empfindlichkeit daher zu höheren Wellenlängen.
Farbkameras
Der Halbleitersensor basiert auf dem fotoelektrischen Effekt und kann daher nicht zwischen Farben unterscheiden. Es gibt zwei Arten von Farb-CCD-Kameras: Einzelchip- und Dreichipkameras. Einzelchip-CCD-Kameras sind die übliche, kostengünstige Variante und arbeiten mit einem Mosaikfilter, meist mit dem sogenannten Bayer-Muster, um das einfallende Licht in Spektralfarben zu trennen. Jede Farbe wird dann nur von bestimmten Pixeln aufgenommen (Abb.9a). Neben dem Bayer-Muster gibt es noch andere Varianten solcher Mosaikfilter, das hängt vom Hersteller des Sensors ab. Da mehr Pixel benötigt werden, um die Farben zu erkennen, haben Einzelchip-Farbkameras grundsätzlich eine niedrigere Auflösung als monochrome Kameras mit der identischen Pixelzahl; wie stark sich dieser Effekt bemerkbar macht, hängt von dem herstellerspezifischen Farbinterpolationsalgorithmus ab.
Abb.9a: Einzelchip-Farb-CCD-Kamerasensor mit Mosaikfilter zum Filtern der Farben
Dreichip-Farb-CCD-Kameras sollen diese Einschränkung der effektiven Aufösung mit einem Prisma umgehen. Das einfallende Licht wird aufgespaltet und jede Farbe auf einen anderen Chip geworfen (Abb.9b). Dadurch wird eine exakte Farbwiedergabe möglich, da jedem Punkt im Objektraum separate RGB-Helligkeitswerte zugeordnet werden können und keine Interpolation zur Bestimmung der Farbe nötig ist. Dreichipkameras haben extrem hohe Auflösungen, sind aber nicht so lichtempfindlich und können teuer sein. Allgemein werden spezielle 3CCD-Objektive benötigt, die gut farbkorrigiert sind und die Änderungen des optischen Weges durch das Prisma kompensieren. Bei C-Mount-Objektiven muss außerdem darauf geachtet werden, dass die hinterste Linse nicht zu weit vorsteht, um das Prisma nicht zu beschädigen. Letztendlich hängt die Entscheidung für Einzelchipkamera oder Dreichipkamera von den Anforderungen an die Bildqualität ab.
Abb.9b: Dreichip-Farb-CCD-Kamerasensor mit Prismen zur Aufteilung der Farben
Die wichtigste Komponente eines Kamerasystems ist der Sensor. Die Art des Sensors und seine Eigenschaften beeinflussen die Bildqualität erheblich. Nur wenn der Anwender weiß, wie er die technischen Daten des Kamerasensors interpretieren muss, kann er die passende Optik dafür auswählen. Wenn Sie mehr über Bildgebungselektronik erfahren wollen, verweisen wir auf unsere zusätzlichen Serien zur Bildgebungselektronik 101 zu den Themen Kameraauflösung, Kamera-Typen und Kamera-Einstellungen.
weitere regionale Telefonnummern
ANGEBOTSTOOL
Geben Sie zum Starten die Produktnummer ein.
Copyright 2023 | Edmund Optics Inc. vertreten durch Edmund Optics GmbH, Isaac-Fulda-Allee 5, 55124 Mainz, Deutschland
Die Edmund Optics GmbH Deutschland fungiert als Handelsvermittler für die Edmund Optics Ltd. in Großbritannien.
Vertragspartner ist die Edmund Optics Ltd. in Großbritannien.