Arbeitsblatt: Grundlagen der Bilddigitalisierung

Material-Details

Eine kurze Übersicht über die Entstehung des digitalen Bildes.
Bildnerisches Gestalten
Fotografie
10. Schuljahr
4 Seiten

Statistik

11917
3545
31
16.11.2007

Autor/in

Christian Westermann
Land: Schweiz
Registriert vor 2006

Downloads Arbeitsblätter / Lösungen / Zusatzmaterial

Die Download-Funktion steht nur registrierten, eingeloggten Benutzern/Benutzerinnen zur Verfügung.

Textauszüge aus dem Inhalt:

F T FA H A N F A ELEKTRONISCHE FOTOGRAFIE Lernziel Technische Aspekte der lichtempfindliche Sensoren kennen Das Prinzip der Bilddigitalisierung Der Informationsfluss bei digitalen Systemen Bei der elektronischen Bilderfassung werden grundsätzlich optische Signale der Vorlage in elektrische umgewandelt. Das von der Vorlage oder Szene ausgehende Licht trifft auf einen optischen Sensor, der proportional zur Belichtung ein elektrisches Signal bildet. Nach der Digitalisierung können die elektrischen Signale gespeichert und von Computern verarbeitet werden. Spannung (V 10 8 6 Licht 4 0 Dezimalzahlen 6 10 8 4 5 Binärzahlen 0110 1010 1000 0100 0101 7 0111 8 8 6 1000 1000 0110 4 4 3 0100 0100 0011 1 0 0 Umwandlung Analog – Digital Umwandlung Licht in Strom 2 2 0001 0000 0000 0010 Lichtempfindliche Sensoren Ein Bildsensor besteht aus einer Matrix von Pixeln (Picture Elements) zur Messung der Lichtstärke, wobei man den «Fotoelektrischen Effekt» nutzt. Durch das einfallende Licht werden aus der Halbleiterschicht Elektronen gelöst, die gezählt werden. Durch diese Vorgehensweise können Zeilensensor aber nur Helligkeits-, aber keine Farbinformationen gewonnen werden. Gewöhnliche Bildsensoren können daher nur Graustufenbilder aufnehmen. Licht Linsenschicht Filterschicht Aluminium Aluminium Poly Silizium Poly Silizium Flächensensor N Potentialmulde ElektonenVertikal Auslesebarriere Ausleseregister tor Fotosensor ElektonenVertikal barriere Ausleseregister Pixel Um ein Farbbild zu erhalten, wird vor jeden Pixel ein winziger roter, grüner oder blauer Filter gelegt. Die Anordnung dieser Farbfilter ist dabei so festgelegt, dass sich in einer Zeile rote und grüne, in der nächsten grüne und blaue Filter abwechseln. Die grünen Filter sind dabei Zeilenweise um einen Pixel verschoben. Diese spezielle Anordnung geht auf einen Mitarbeiter bei der Firma Kodak namens Bayer zurück. Deshalb spricht man auch vom «Bayer-Filter». Berufsschule für Gestaltung e i n o m fa b / 1 0 c m 1 Grundlagen O O FA H A N F A ELEKTRONISCHE FOTOGRAFIE Da ein Pixel daher nur Informationen über einen Farbanteil liefern kann, müssen die benachbarten Bildpunkte zur Berechnung der tatsächlichen Farbe herangezogen werden. Man nennt das Farbinterpolation. Dabei geht man davon aus, dass es zwischen zwei benachbarten Pixeln zu keinen wesentlichen Farbunterschieden kommt. Weil das menschliche Auge empfindlicher auf Grüntöne ist, gibt es 50% grüne und nur je 25% blaue und rote Sensorpixel. Um einen farbigen Bildpunkt zu erhalten, benötigt man die Informationen von drei nebeneinander liegenden Pixeln und nutzt daher nur 33% der tatsächlichen Sensorauflösung aus. Von einem sechs Megapixel Sensor erhält man also nur ein Bild mit zwei Millionen Farbpunkten. Erst durch Interpolation, also durch Hochrechnen, erreicht man wieder die ursprüngliche Auflösung. Obwohl immer interpoliert wird, geben die Kamerahersteller dies nur für Modelle an, deren maximale Bildgrösse über der physikalischen Auflösung des Sensors liegt. All dies kann bei scharfen Farbkanten und feinen Strukturen zu Fehlern, wie zum Beispiel Moirés, führen. Um diese Probleme zu verringern, liegt ein weiterer Filter über dem Sensor der sogenannte «Antialiasing-Filter». Man kann sich diesen Filter am Besten wie einen Weichzeichner vorstellen, der die scharfen Kanten verwischt. Die Fotos einer Digitalkamera sind daher immer etwas unscharf. Bildschärfe wird erst später softwaretechnisch, entweder schon in der Kamera, oder danach bei der elektronischen Bildverarbeitung am Computer, in das Bild hineingerechnet. Kameras mit schwächerem Antialiasing Filter liefern etwas schärfere Bilder, neigen aber mehr zu Farb-Moirés. Dies alles gilt im Prinzip für alle in aktuellen Digitalkameras eingesetzten CCD und CMOS Sensoren. Die einzige derzeit bekannte Ausnahme ist der «Foveon X3» Sensor, der aus drei lichtempfindlichen Schichten besteht, und daher keinen Bayer-Filter benötigt. Derzeit wird der Foveon X3 allerdings nur in der Sigma eingesetzt. Wenn das Licht durch das Objektiv auf die Filmebene fällt, trifft es nicht überall im gleichen Winkel auf. Je weiter ein Lichtstrahl von der Mitte entfernt auftrifft, desto schräger ist er. Bei der analogen Fotografie ist dies kein Problem, da ein Film durch seinen homogenen Aufbau auch schräg einfallendes Licht gleichmässig gut aufnehmen kann. Bei digitalen Sensoren verursacht dieses Phänomen aufgund des Aufbaus aus einzelnen lichtempfindlichen Zellen sehrwohl Schwierigkeiten. Dadurch können im Randbereich Probleme mit der Farb- und Helligkeitsdifferenzierung sowie stärkeres Rauschen auftreten. Um dies zu verhindern, werden Mikrolinsen vor die Pixel platziert, die das Licht optimal bündeln. Vertikales Schiebe-Register CCD (Charge Coupled Device, ladungsgekoppeltes Bauteil) CMOS (Complementary Metal Oxide Semiconductor, komplementärer Metall-Oxid-Halbleiter) Bei beiden Sensoren handelt es sich um Halbleiter, die wie oben beschrieben durch einfallendes Licht Elektronen abgeben. Der grosse Unterschied zwischen beiden Typen liegt darin, dass beim CCD diese Elektronen vom Chip wegtransportiert werden müssen, und erst ausserhalb in elektrische Spannungen umgewandelt werden. Ein CCD funktioniert wie eine Eimerkette. Anstatt eines Eimers mit Wasser reicht eine CCD-Zelle die in ihr gespeicherte elektrische Ladung an die A/D-Wandler Horizontales Schiebe-Register nächste Zelle weiter und wird selber mit der Ladung aus ihrem zweiten Nachbarn aufgefüllt. So- Fotosensor mit entspricht die CCD einem analogen Schieberegister bei dem der «Inhalt» einer Speicherzelle in die benachbarte Zelle verschoben wird. Bei CMOS Sensoren geschieht dies schon am Chip durch entsprechende Transistoren bei den Pixeln. Der Vorteil der CMOS Sensoren liegt darin, dass sie über eine höhere Empfindlichkeit verfügen, der Nachteil ist, dass sie mehr zu Bildrauschen neigen. CMOS Sensoren können ausserdem sehr kompakt gebaut werden, was vor allem für sehr kleine Kameras wichtig ist. CCD Sensoren dagegen rauschen weniger und bieten einen grösseren Dynamikumfang. Ein weiterer Vorteil der CCD Sensoren ist, dass es bei dieser Technik relativ einfach ist. CCDs sind aber etwas teurer in der Produktion als CMOS Chips. Unter dem Strich gelten beide Varianten mittlerweile als qualitativ Fotosensor Berufsschule für Gestaltung e i n o m fa b / 1 0 c m gleichwertig. 2 Grundlagen O O FA H A N F A ELEKTRONISCHE FOTOGRAFIE Super CCD (Fuji) Bei diesem Sensor-Typ handelt es sich um eine spezielle CCD-Variante, die von der Firma Fuji entwickelt wurde. Die Pixel-Anordnung ist um 45 Grad gedreht, was zu einem geringeren Abstand zwischen den Sensoren in horizontaler und vertikaler Richtung führt. Weiters wurde durch eine achteckige Bauform der Pixel die Lichtempfindliche Oberfläche vergrössert. Was Rauschverhalten und Dynamik betrifft, weist dieser Sensor durchschnittliche Werte auf, zeichnet sich aber durch eine besonders hohe Lichtempfindlichkeit aus. Dadurch verschlechtert sich das Bildrauschen bei höheren Empfindlichkeiten auch nicht so stark wie bei herkömmlichen CCD Sensoren. Bei einer weiteren Variante dieses Sensors, dem Super CCD SR, befindet sich neben jedem Pixel noch ein weiterer, kleinerer weniger empfindlicher Sensor. Dieser zeichnet bei der Aufnahme ein zweites, unterbelichtetes Bild auf, welches mit dem ersten verrechnet wird. Dadurch wird eine weitere Verbesserung des Dynamikumfangs um bis zu drei Blendenstufen erreicht. Ausserdem enthalten die Bilder mehr Zeichnung in den hellen Bereichen. Insgesamt stellt der Super CCD eine interessante Entwicklung dar und die Kameras die ihn verwenden verfügen über eine sehr gute Bildqualität. LBCAST (Lateral Buried Charge Accumulator and Sensing Transistor array, Nikon) (zu deutsch etwa Reihe horizontaler, vollständig eingebetteter Ladungsakkumulatoren und Messtransistoren). Dieser Sensor wird von Nikon angeboten und unterscheidet sich hauptsächlich in elektronischer Hinsicht von anderen CMOS Sensoren, wodurch einige Bildbearbeitungsschritte in der Kamera beschleunigt werden. Foveon X3 Vollfarben-Sensor (Sigma) Der bereits oben erwähnte Foveon X3 Sensor ist derzeit einzigartig, da er mit vielen Nachteilen herkömmlicher Sensoren aufräumen soll. Man macht sich bei diesem Chip die Eigenschaft des Lichts zu Nutze, wonach die Strahlen je nach Wellenlänge unterschiedlich Tief in die Sensoroberfläche eindringen. Der Sensor ist wie ein Sandwich aufgebaut und besteht aus drei Lichtempfindlichen Schichten, je eine für Blau, Grün und Rot. Dadurch benötigt dieser Chip keinen Filter, um Farbinformationen zu erhalten er «sieht Farbe». Durch den Verzicht auf den Bayer-Filter und die damit nicht notwendige Farbinterpolation, wird auch kein Antialiasing Filter benötigt. Man erreicht dadurch wesentlich mehr Schärfe und Detailtreue. Allerdings ist die Farbtrennung nicht ganz perfekt, wodurch der Foveon zu stärkerem Rauschen neigt. Vor allem bei Situationen mit wenig Umgebungslicht zeigt er noch grosse Schwächen. Insgesamt stellt auch dieser Chip eine sehr interessante Weiterentwicklung der Sensortechnologie dar, leidet aber noch unter einigen Kinderkrankheiten und wird derzeit nur in Kameras der Firma Sigma verbaut. Berufsschule für Gestaltung e i n o m fa b / 1 0 c m 3 Grundlagen O O FA H A N F A ELEKTRONISCHE FOTOGRAFIE Sensorgrössen Bei den Kompaktkameras wird als Grösse die Sensordiagonale angegeben. Wenn man nun nachrechnet, stellt man schnell fest, dass das eigene Ergebnis nicht stimmt. Das liegt daran, dass 1 für die Sensoren nicht die mathematisch korrekte Grösse von 2,54cm hat, sondern nur 1,6cm. Dies ist traditionsbedingt und kommt von den alten Fernsehaufnahmeröhren, die zwar einen Durchmesser von 1 2,54cm hatten, der nutzbare Bereich zur Erfassung des Bildes aber nur 1,6cm betrug. Die Grössenangaben auf dieser Basis haben sich auch für die Sensoren von Digicams durchgesetzt. Ein weiterer sehr wichtiger Aspekt eines Bildsensors ist seine Baugrösse. Je grösser ein Chip mit einer bestimmten Auflösung ist, desto grösser sind auch die einzelnen Pixel. Da grössere Pixel mehr Licht aufnehmen können, steigt die Lichtempfindlichkeit und der Dynamikumfang. Sind die Pixel allerdings sehr klein, muss das Signal das sie liefern elektronisch verstärkt werden. Je grösser die Verstärkung ist, desto mehr neigt ein Bildsensor zum Rauschen. Während man mit einer Spiegelreflex Kamera aufgrund der grossen Sensoren problemlos mit ISO 800 und oft auch darüber fotografieren kann, ist mit Kompaktkameras oft kein brauchbares Foto mit ISO 400 mehr zu machen. Aktuelle Bildsensoren werden in Grössen zwischen 5,7mm 4,2mm und 36 24mm verbaut. Letztere werden auch Vollformat-Sensoren bezeichnet, da ihre Grösse der eines 35mm KleinbildFilmes entpspricht. Solche Chips findet man aber nur in sehr teuren Spiegelreflexkameras. Die meisten DSLRs setzen Chips im sogenannten APS-C Format (23,7mm 15,6mm) ein. Eine Ausnahme bilden Olympus Spiegelreflex-Kameras mit Sensoren die dem Four Thirds Standard (18mm 13,5mm) entsprechen. Alle Kompaktkameras, auch die sogenannten Bridge-Kameras, setzen wesentlich kleinere Sensoren ein. Obwohl die Hersteller die Signalverarbeitung bei kleinen Sensoren und die Rauschunterdrückung mittlerweile sehr gut im Griff haben, ist meist eine Kamera mit grösserem Sensor und etwas kleinerer Auflösung einem Megapixel Moster mit mini-Chip vorzuziehen. Chipgrösse Sensorgrösse (mm) Type Verhältnis Diagonale Länge Höhe Faktor 1/2.5 4:3 7,1 5.76 4,29 6x 1/1.8 4:3 8,9 7,17 5,32 4,8 2/3 4:3 11,0 8,80 6,60 3,9 1 4:3 16,0 12,80 9,60 2,7 4/3 4:3 22,5 18,00 13,50 1,9 APS (Canon) 3:2 27,3 22,70 15,10 1,5 Vollformat 3:2 43,3 36,00 24.00 1x Chipgrössen von 1/2.5 bis Vollformat Berufsschule für Gestaltung e i n o m fa b / 1 0 c m 4 Grundlagen