Klick!

Kamera-Handys: Megapixel sind nicht alles

Schnappschuss, Portrait oder Panoramabild?
Von Marie-Anne Winter /

Schema CCD/CMOS
Quelle: Kodak
Als Bildsensoren werden in der Regel CCD-Chips verwendet. Diese können aber zunächst nur Schwarz-Weiß-Bilder aufnehmen. Damit Farbe ins Spiel kommt, wird vor jeden Pixel-Sensors des CCD-Chips ein Farbfilter gesetzt. So "sieht" das eine Pixel dann rot, das andere grün und das dritte blau. In der Regel benutzt man dabei doppelt so viele grüne wie blaue und rote Filter, weil das menschliche Auge im Grünbereich weitaus empfindlicher ist als im übrigen Farbspektrum.

Die Folge des Farbfilter-Mosaiks ist, dass ein CCD-Chip mit 640x480 Pixeln nur 320x240 rote bzw. blaue Pixel hat. Um nun dennoch ein vollfarbiges Bild mit 640x480 Pixeln zu erzeugen, dient die so genannte Farbinterpolation. Dabei werden für jeden Sensor die beiden Farben, die für diesen weggefiltert wurden, aufgrund der Messwerte der umliegenden Pixel rekonstruiert.
Beide Fotos zeigen dieselbe Wand, aufgenommen mit einem VGA-Kamera-Handy. Auf dem linken Foto ist zusätzlich ein Computermonitor mit blauem Hintergrund im Bild. Dieses verwirrt den Weißabgleich so sehr, dass die Wand dahinter knallgelb erscheint. Auf dem rechten Bild hat die Wand hingegen ihre echte Farbe. Ähnliche Effekte können zum Beispiel blaue Möbel oder ein blaues Kleid bewirken.      Weiterhin gibt es das Problem des Weißabgleichs: Kunstlicht hat nämlich eine andere Farbzusammensetzung als Tageslicht. Ein Blatt Papier, dass unter Tageslicht aufgenommen perfekt weiß aussieht, würde mit demselben Sensor im Licht einer Glühbirne nämlich gelblich oder rötlich erscheinen. Der Weißabgleich korrigiert das, indem er den Blauanteil entsprechend verstärkt. Dumm nur, wenn der Weißabgleich dort anspringt, wo man ihn gar nicht braucht. Ein eindrucksvolles Beispiel, wie eine weiße Wand plötzlich gelb wird, findet sich in den beiden Fotos rechts neben diesem Text.

Die Algorithmen für Weißabgleich und Farbinterpolation sind von Hersteller zu Hersteller unterschiedlich. Damit erklären sich viele Qualitätsunterschiede im Bildergebnis - selbst dann, wenn die Hersteller den gleichen CCD-Sensor benutzen.

Drei-CCD-Verfahren würde bessere Farbqualität liefern

Eine bessere Farbqualität als die Ein-CCD-Chip-Technik liefert das Drei-CCD-Verfahren. Dabei wird das Licht auf drei unabhängige CCD-Sensoren gelenkt, die jeweils einen Rot-, Grün- oder Blau-Farbfilter haben. Der Vorteil dieser Methode ist, dass hier keine Interpolationsalgorithmen angewandt werden müssen und deshalb auch keine Schärfeverluste und Moireeffekte entstehen. Jedoch ist diese Technik zu teuer und zu klobig, als dass sie sich für den Einbau ins Handy eignen würde.

Noch eine Alterantive: CMOS

Einige Hersteller verwenden auch CMOS-Sensoren. Diese könnten sich künftig sogar stärker durchsetzen. Bei den CMOS-Sensoren kann jedes Pixel einzeln über seine XY-Koordinaten ausgelesen werden. Das vereinfacht die Signalverarbeitung. Dafür sind CMOS-Sensoren keine großen Leuchten, was ihre Lichtempfindlichkeit angeht. Ihr Hauptvorteil: CMOS-Chips sind in der Herstellung wesentlich billiger als CCD-Chips, weil sie ähnlich wie CPUs und RAMs aufgebaut sind, die seit geraumer Zeit in großen Mengen produziert werden. Es ist sogar möglich, CMOS-Bildsensor und komplexe Auswerteelektronik auf einen Chip zu integrieren.