Digitale Medien. Inhalt. Digitalisierung. Digitalisierung. Digitalisierung. Digitalisierung

Inhalt Digitale Medien 1. Digitalisierung 2. Bilderzeugung in der digitalen Kamera 1. 2. Optisches System Parameter (digitaler) Kameras 1. 8 .  BI...
Author: Maria Holtzer
2 downloads 1 Views 936KB Size
Inhalt

Digitale Medien

1. Digitalisierung 2. Bilderzeugung in der digitalen Kamera 1. 2.

Optisches System Parameter (digitaler) Kameras 1.

8 .  BI L D E R ZEU GU NG

2. 3. 4. 5. 6.

3.

Belichtungszeit Brennweite Bl d Blende Belichtungsmessung Autofokus Weißabgleich

Einfluss verschiedener Parameter auf die Bildaufnahme und –qualität 1.

Blende, Brennweite → Tiefenschärfe

3. Scanner 1. 2.

Digitalisierung

Digitalisierung

3

4

 Früher: Verarbeitung von analogen Signalen durch 

Analogrechner  Störanfällig, durch Digitalrechner verdrängt  → analoge Signale müssen digitalisiert werden Bearbeitung von Signalen für menschliche Sinnesorgane mit  Digitaltechnik erfordert Digitalisierung

Amplitude



Parameter Auflösung

 Digitalisierung: Unwandlung zeitlicher/räumlicher 

kontinuierlicher Signale in eine Folge diskreter Werte 

Diskrete Werte: meist ganzzahlig, numerisch → Daten

 Zwei Schritte:   Diskretisierung: Aufzeichnung von Messwerten, meist äquidistant  Quantisierung: Darstellung der Messwerte mit einer (endlichen)  Auflösung durch ganzzahlige Binärwerte

Digitalisierung

Digitalisierung

5

6

0

Zeit

1

Bildaufnahme in einer Digitalkamera – Übersicht 7

Scharfstellen des Bildes = (Auto‐)Fokus Abschätzen einer sinnvollen Zeit/Blende‐Kombination optische Projektion durch das Objektiv  optische Filterung durch Tiefpass‐, Infrarot‐ und RGB‐Filter  Wandlung der Lichtintensitäten in elektrische Signale an diskreten Stellen  (Diskretisierung)  6 Digitalisierung der elektrischen Signale (Quantisierung)  6. Digitalisierung der elektrischen Signale (Quantisierung) 7. Bildverarbeitung der Bildinformationen:  1. 2. 3. 4. 5.

   

Farb‐Rekonstruktion  Interpolation für Digitalzoom  Rauschfilterung  Entfernen bekannter Fehler des Bildaufnahmesystems (defekte Pixel,  Übersprechen, Nachschärfen, Randabschattung, Verzeichnung) 

8. Komprimierung der Bilddatei  9. Speicherung bzw. Anzeigen der Bilddatei

Optisches System Aufbau

Autofokus, Auto-Exposure Auto-WhiteBalance

Belichtungszeit B

B Belichtungszeit Blende B

Fokus F

Bildaufnahme in einer Digitalkamera

Interpolation für Anzeige

Anzeige

Dekompression für Anzeige

Optisches System

Belichtungsmeßsystem

Bildanalyse

Sensor

Farbfilter

Linse

Verschluß

Kompression Interpolation für Farb-Rekonstruktion

JPG

Bildsensor

Interpolation für Digitalzoom

Spiegel (bei SLR‐Kameras) RGB

Bildspeicher

Bildspeicher

Autofokus‐System

Bildspeicher RAW

Objektiv = Anordnung von Linsen

Optisches System Sensoren

Optisches System Lichtweg

 mosaikartige Anordnung 

lichtempfindlicher Zellen

 Zellen sind durch lichtunempfindliche  Objektiv

Verschluß

IR-Filter

Tiefpaß

 Licht fällt durch die Linse und den Verschluss auf IR‐ und Tiefpass‐Filter und 

schließlich auf den Sensor  Infrarot‐Filter  

Silizium ist für nahes Infrarot empfindlich Wahrnehmung des Sensors auf sichtbare Wellenlängen beschränken

Sensor

Bereiche voneinander getrennt.

 Eine Zelle entspricht einem Pixel.  Zellen sind  Zellen sind  



CCD‐Elemente (Charge Coupled Device) CMOS‐Sensoren

basieren auf dem inneren  photoelektrischen Effekt

 (optischer) Tiefpass‐Filter    

wirkt Bildung von Moiré‐Mustern entgegen entstehen wenn Frequenzen im Objekt ähnlich der Pixelfrequenz des Sensors Polarisation und Tiefpass‐Filter  Erzeugt auch Unschärfe Korrektur über Kamerasoft‐ und –hardware (Canon: DIGIC II – Prozessor)

2

Diskretisierung und Quantisierung

Sensoren digitaler Kameras Prinzip 14

 Sensoren liefern ein zum Lichteinfall proportionales analoges Signal 

 Für die Belichtungszeit wird Linse geöffnet

 Diskretisierung = Sampling

 Photonen erreichen die lichtempfindlichen Zellen

(Spannung), das in ein digitales Signal umgewandelt werden muß.  

Messen des Lichteinfalls nur an diskreten Positionen (Sensorzellen) Abstand der Sensorzellen (Auflösung) bestimmt die Qualität des Bildes 

 Umwandlung Photonen → Ladung → Spannung

 Quantisierung    

Umwandlung der (analogen) Spannung in ein digitales Signal Umwandlung der (analogen) Spannung in ein digitales Signal begrenzte Anzahl an Bits zur Speicherung (8, 12, 16) daher begrenzte Anzahl an Farben umwandeln der Spannungswerte in diskrete  Helligkeitswerte, die sich mit den n Bits  darstellen lassen

 nur der Lichteinfall, also die Helligkeit 

wird gemessen  Grauwertbilder

http://www.cambridgeincolour.com/tutorials/camera‐sensors.htm

 Problem: Sensoren können nur Helligkeit erfassen

Farberkennung

Was der Sensor sieht

15

16

 Vorsatz eines Farbfilters  → bestimmte Zellen nehmen Helligkeitswert für 

entsprechende Farben auf  Bayer‐Matrix

http://www.cambridgeincolour.com/tutorials/camera‐sensors.htm

http://www.cambridgeincolour.com/tutorials/camera‐sensors.htm

 Problem: Reduzierung der Auflösung → Demosaicing

Objektive

Brennweite (Focal Length)

17

18

 Objektive setzen sich meist aus mehreren Linsen 

 Brennweite beeinflusst den sichtbaren Bereich des Bildes

zusammen

 Kleine Brennweite → großer sichtbarer Bereich 

 Ziel: möglichst genaue Abbildung des aufzunehmenden 

Bildes auf dem Sensor der Kamera  Unterschiedliche Sensorgrößen bewirken scheinbare  Brennweitenvergrößerung

http://www.c ambridgeinc olour.com/tu torials/camer a‐lenses.htm

(Weitwinkel)  Große Brennweite → kleiner sichtbarer Ausschnitt

http://www.cambridgeincolour.com/tutorials/camera‐lenses.htm

3

Typische Brennweiten 20

19

 Aufnahmen mit unterschiedlichen Brennweiten, aber 

gleichem Abbildungsmaßstab

http://www.cambridgeincolour.com/tutorials/camera‐lenses.htm

17 mm Brennweite (Weitwinkel)

36 mm Brennweite (Normal)

170 mm Brennweite (Tele) http://de.wikipedia.org/wiki/Brennweite

Belichtungsmessung (Metering)

Blende (Aperture) 21

 Regelt Lichteinfall durch die Optik  Größere Blendenzahl → kleinere Blendenöffnung  Sinnvolle Kombination aus Blendenzahl und 

Belichtungszeit → Lichtwert (exposure value) 



Schar von äquivalenten Kombinationen aus Blendenzahl und  Belichtungszeit → die bei gleicher Motivhelligkeit gleich viel Licht auf den Sensor  gelangen lassen

Belichtungsmessung (Metering) Einstellen einer Blende/Zeit-Kombination

 Prinzip: Messung der durch die Blende einfallenden Lichtenergie  Lichtwert (exposure value) Maßzahl für die Motivhelligkeit  eigentlich einfach zu bestimmen: Summe der Signale aller 

Sensorzellen  

typisch bei SLR‐Kameras: Licht wird auf Belichtungssensoren gelenkt typisch bei Kompaktkameras: Messung mit dem Bildaufnahmesensor

 Integralmessung: gemessener Lichtwert wird 

so in Zeit/Blenden‐Kombination  umgerechnet, daß in der Summe ein  mittleres Grau auf dem Film/Sensor entsteht.

Lichtwerte 24

 für Photographie erforderlich: 

Kombination aus Blendenwert  und Belichtungszeit  pro Lichtwert „unendliche“  Anzahl an Kombinationen  Programmkurven bestimmen  Wahl einer Blende‐Zeit‐ Kombination abhängig von  weiteren Bedingungen   

Sensor(‐empfindlichkeit) Eigenschaften der Optik …

 Realisierung über Lookup‐Tables

Canon EOS S2 30 Pro Fuji FinePix Quelle:Fuji Canon Quelle:

http://de.wikipedia.org/wiki/Lichtwert

4

Belichtungsmessung  bisher: gemessener Lichtwert führt zu einer Blende‐

Zeit‐Kombination  aber:

Belichtungsmessung  Problem: unterschiedliche Lichtreflexionen 

und Beleuchtungssituationen

typischerweise Motiv nicht gleichmäßig ausgeleuchtet Kontrastumfang (Differenz von hellster zu dunkelster Stelle des Kontrastumfang (Differenz von hellster zu dunkelster Stelle des  Motivs) höher als Kontrastumfang des Sensors  Kontrastumfang des Motivs zu niedrig   

 Bestimmung des Lichtwertes über verschiedene 

Meßverfahren (keine „simple“ Summierung über das  gesamte Bild)

 mittenbetonte Integralmessung  Integralmessung, aber mittlere Meßfelder haben  höheres Gewicht  optisch durch Filter gelöst optisch durch Filter gelöst  Spotmessung  nur das zentrale Meßfeld wird berücksichtigt  punktgenaue Messung  Matrixmessung oder Mehrfeldmessung  jede Meßzelle liefert ihren eigenen Wert  Vergleich mit Datenbank aus  „Standardsituationen“ (bei Nikon F5 – 30000  Einträge)

Blendenzahl (f-number)

Tiefenschärfe

27

28

 Verhältnis zwischen Brennweite und Durchmesser der 

 Tiefenschärfe: Bereich in dem das Motiv scharf erscheint

Eintrittspupille (Blende)  Gibt an, wie weite die Blende im Verhältnis zur  Brennweite geöffnet werden kann  Berechnung: 

 Objekte davor oder dahinter erscheinen unscharf



 Lässt sich künstlerisch einsetzen

f/#...Blendenzahl, f…Brennweite, D…Blendenöffnung

 Je kleiner der Zahlenwert # desto lichtstärker ist das 

Objektiv  Je größer die Zahl desto besser

http://www.cambridgeincolour.com/tutorials/camera‐lenses.htm

die Tiefenschärfe http://en.wikipedia.org/wiki/F‐number

Tiefenschärfe

Blende und Tiefenschärfe

29

30

 Wichtigster Faktor, da Bildausschnitt konstant bleibt  Kleinere Blende (=größere Blendenzahl) → Tiefenschärfe 

nimmt zu  Beispiel:

http://www.rofrisch.de/ fotokurs/index.php?id= schaerfentiefe

Negativeffekt: kleinere Blende → größere Belichtungszeit

5

Brennweite und Tiefenschärfe

Tiefenschärfe als stilistisches Mittel

31

32

 Je länger die Brennweite → desto geringer die Tiefenschärfe  Vorteil: große Blendenöffnung + hohe Brennweite → geringe 

Tiefenschärfe

 Nachteil: wenn hohe Tiefenschärfe trotz hoher Brennweite 

gewünscht → Blende zu → Verwackelungsgefahr

http://www.flickr.com/photos/whitehouse/

Autofokus 33

 Motiv soll scharf abgebildet werden – es soll „fokussiert sein“.  automatische Änderung der Brennweite des Objektivs durch 

Verschieben der Linsen

 Grundlage: optische Abbildungen

http://www.flickr.com/photos/whitehouse/

Linse(n)

Objektebene

Bildebene

 Verfahren: aktiv und passiv

Autofokus Stereo-Verfahren

Autofokus Kontrastvergleich  zusätzliche CCD‐Sensoren in der Kamera 

 Funktionsprinzip:  Triangulation der 

 bestimmen des Kontrasts im Autofokus‐

 Stereobilder werden durch die 

(Zeilen‐ und/oder Spaltenanordnung) 

Meßfeld = bestimmen der  Frequenzverteilung im Bild  

hoher Kontrast – scharf niedriger Kontrast – g unscharf

 Verstellen der Linse bis höchster Kontrast 

erreicht  Kombination von Zeilen‐ und  Spaltensensorfeldern für genaueres  Arbeiten  mehrere Messungen notwendig, um  Richtung der Fokussierung zu bestimmen

Objektentfernung

gegenüberliegenden Ränder des  Objektivs aufgenommen.  In der Sensorebene wird durch ein  Prisma Licht auf zwei Detektorzeilen  gelenkt.  Durch Mustervergleich kann  (De‐)Fokus bestimmt werden. 

Bilder von beiden Rändern sind seitlich  verschoben und Tiefpaß‐gefiltert, wenn  http://www.kefk.net/Fotografie/Technik/Fokussierung/Autofokus/index.asp nicht im Fokus.

 eingesetzt in modernen SLR‐Kameras

6

Automatischer Weißabgleich  Weißabgleich: Anpassen des Bildes an die Lichttemperatur der Lichtquelle  Herausfiltern des „Farbstichs“ für menschliches Auge kein Problem  Kamera(‐software) muß anhand der Bilddaten Farbtemperatur des Umgebungslichtes 

abschätzen – problematisch  einfachste Möglichkeit für automatischen Weißabgleich: Gray World Assumption 

Annahme: Beleuchtung ergibt über das gesamte Bild ein neutrales Grau

avgR = Mittelwert der Intensitäten im Rot-Kanal; avgG = Mittelwert der Intensitäten im Grün-Kanal; avgB = Mittelwert der Intensitäten im Blau-Kanal; avgRGB = (avgR + avgG + avgB) / 3; skaliere Rot-Kanal mit (avgR / avgRGB); skaliere Grün-Kanal mit (avgG / avgRGB); skaliere Blau-Kanal mit (avgB / avgRGB);

Automatischer Weißabgleich  genauer: probabilistische Ansätze  Wahrscheinlichkeit für das Auftreten diverser Farbtöne und – verteilungen unter bestimmten Beleuchtungssituationen  Ermitteln der wahrscheinlichsten Beleuchtung aus den  Bilddaten  Beispiel: leuchtendes Grün bei Sonnenuntergang sehr  unwahrscheinlich  spezielle Weißabgleichs‐Verfahren bei Kameraherstellern  unter Verschluss  Hewlett‐Packard benutzt „Color by Correlation“

Automatischer Weißabgleich

Automatischer Weißabgleich

 Color by Correlation (Finlayson, 1997)  Grundlage: vorausberechnete Matrix mit den  Wahrscheinlichkeiten des Auftretens verschiedener Farbwerte  bei unterschiedlichen Referenzlichtquellen  Abschätzung der (unbekannten) Beleuchtung eines Bildes: Bestimmen welche Farben in welchen Quantitäten im Bild vorkommen Bestimmen welche Farben in welchen Quantitäten im Bild vorkommen Korrelation zwischen diesen Daten und jeder der Referenzlichtquelle mit  Hilfe der Wahrscheinlichkeitsverteilung berechnen  Auswahl der besten Beleuchtungssituation (maximum‐likelihood)  Berechnen der Skalierungsfaktoren und Anwenden auf das Bild  

Kein Weißabgleich

Weißabgleich basierend auf Messung

Gray World Assumption

Color by Correlation

Quelle: Finlayson, Hordley, Hubel: Color by Correlation: A Simple, Unifying Framework for Color Constancy

Empfindlichkeit (ISO)  Empfindlichkeit gibt Reaktion des Films/Sensors auf 

Lichteinfall an

analog: Empfindlichkeit mit Film festgelegt  digital: Empfindlichkeit kann pro Aufnahme geändert werden 

 ISO‐Einstellung bestimmt Verstärkung des analogen 

Signals vom Sensor vor der Quantisierung

 steigende Verstärkung erhöht auch das Rauschen 

Bildfehler (entspricht gröberer Körnung bei analogen  Filmen)  ISO 100  ISO 400 = vierfache Verstärkung

Digitalzoom  Optischer Zoom:  

optische Vergrößerung durch Linsen vor der  Signalwandlung in ein digitales Bild

 Digitalzoom  

nach der (optischen) Filterung nach der Diskretisierung und Quantisierung

 Funktionsweise:   

Ausschnitt aus der Sensormitte A h itt d S itt Vergrößerung auf Bildgröße durch Interpolation Verfahren herstellerabhängig, aber oft qualitativ  niederwertige Verfahren (Pixelverdoppelung)

 also:  

nicht die Details werden vergrößert und dadurch  sichtbar gemacht problematisch: Artefakte, die im bisherigen Prozeß  entstanden sind, werden vergrößert

7

Weitere Kamerafunktionen

Auflösung

43

 Demosaicing: Interpolation der Farbwerte für Bayer‐

Matrix

44

 absolute Auflösung: Angabe der Anzahl vorhandener 

Bildpunkte

 Tone‐Mapping: Anpassung des aufgenommenen Signals 



an menschliche Wahrnehmung  Bildkompression für Speicherung: meist JPEG  Anzeige des Bildes im Vorschaumonitor



horizontal, vertikal  bei Bildern, Monitoren Gesamtanzahl  bei Digitalkameras

 relative Auflösung: Dichte der Bildpunkte

dpi – dots per inch  Drucker, Scanner ppi – pixel per inch  lpi – lines per inch  Scanner  

1 Zoll = 2.54cm 26dpi horizontal

Scanner – Flachbett

Scanner – wichtige Parameter

45

46

 Bauform: Flachbett, Trommel, Hand, Stift  einlesbare Bildgröße  Farbtiefe: 36Bit, 48Bit  Auflösung: dpi, lpi  Auflösung bestimmt Bildgröße  Beispiel: Scannen eines 10x10cm Bereichs mit 1200dpi B i i l S i 10 10 B i h it 1200d i 10cm/2.54=3,94 Zoll 3,94*1200=4728 Punkte 4728*4728= 22353984 Punkte 

Verwendungszweck ist entscheidend:   

Ausgabe auf dem Monitor Ausgabe auf Drucker Ausbelichten auf Fotopapier

 Wichtig: Scanner erzeugt Rasterbild!!

8