Cheat Sheet / Formelsammlung MMK2 PDF

Title Cheat Sheet / Formelsammlung MMK2
Course Mensch-Maschine Kommunikation 2
Institution Technische Universität München
Pages 4
File Size 494.3 KB
File Type PDF
Total Downloads 203
Total Views 402

Summary

4ei####### * kann Spuren von Katzen enthalten nicht für Humorallergiker geeignet alle Angaben ohne Gewehr MMK 21 SinnesorganeAuge 87% , Ohr 10% , Rest 3%1. Sehen1.1. Das Auge Hornhaut; Pupille; Iris (hell/dunkel Adaption); Zilliarmuskel; Linse (Fo-kus); Glask ̈orper; Retina (optisch aktive Elemente,...


Description

4

2. Allgemeines

1.2. Farbmischung

*

ei

MMK 2

Arten der Farbmischung

an elci h An t üf ga r be Hu nm or oh an el r gi Ge k ewe r h ge r eg i net

1. Additiv aktive Prim¨ arstrahler; RGB;

Auge 87% , Ohr 10% , Rest 3%

Farbw¨ urfel

Grundfarben,

Mischungen,

s/w

definieren

Auge

Dmax ≈ 1, 4 ∗ 1011 m−2

Normfarbtafel nach C.I.E Ziel: Farbeindruck s¨amtlicher spektraler ¨ Farben duch additive Uberlagerung dreie monochromatischer Strahler nachzubilden; λR,CIE = 700nm, λG,CIE = 546.1nm, λB,C IE = 435.8nm sog. Normvalenzen; Im Bereich 350nm < λR < 540nm negativ; ⇒ nachzubildende Farbe mit rot ¨ uberlagert; ⇒ es ist nicht m¨ oglich, alle wahrnehmbaren Farben mit nur drei Prim¨ arstrahlern nachzubilden; Virtuelle Normvalenzen Uneigentliche Farbmischung; X(r), Y(g), Z(b); exist nicht real durch add. Farbmischung, k¨ onnen aber jede wahrnehmbare Farbe darstellen; z 

T

 0.49 X    Y  = 0.177 0 Z 

Psychooptik Bezeichnung

Einheit

Einheit

Strahl.st¨arke I Strahl.dichte LΩ

W sr W sr m2

lm = cd sr lm · s

Strahl.leistung P Strahl.energie E Bestrahl.st¨ arke E

W J = Ws

lx · s

Energiedichte w

Lichtst¨ arke Iv

cd (Candela)

Leuchtdichte L Lichtstrom Φv Lichtmenge Qe Beleucht.st¨arke Ev Belichtung H

Physik Bezeichnung

cd m2

lm lx = m 2

Lichtausbeute µ =

W m2 J m2

Lichtstrom 1 lm W Stahlungsleistung

1.1.3. Farbsehen St¨ abchen sw, hohe Konz(1.2 ∗ 108 ), Nachtsehen; S-Zapfen Blau 430nm, M-Zapfen Gr¨ un 530nm, L-Zapfen Rot 560nm, 1:10:10, insg. 7 ∗ 106 ; 1.1.4. Gesichtsfeld volles Farbemfpinden nur im ¨Uberlappungsbereich der Farbzonen; prim¨ ares Gesichtsfeld horiz. −15◦ < θ < +15◦ und vert. −17◦ < φ < +14◦ ; 3D: −55◦ < θ < 55◦

Homepage: www.latex4ei.de – Fehler bitte sofort an [email protected]

}|

0.31 0.813 0.01

{   0.2 R CIE   0.01 GCIE  0.99 BCIE

Daraus ergibt sich z = 1 − (x + y ); Die Farbeindr¨ ucke durch elmag Wellen best. F, befinden sich auf Begrenzunglinie der Fl¨ache. Im Inneren befinden sich s¨ amtliche Mischfarben, die durch Mischug der x und y Valenzen erzeugen lassen; Weißpunkt im schwerpunkt; Luminanznormierte Normkarte: x+y +z = 1 ⇒ z = 1 − (x + y) x=

X X+Y +Z

Y y = X+Y +Z

Z z = X+Y +Z

1 m

(−jω1 )

dx1 dx2

i=1

g(x1 , x2 )

Gc (ω1 , ω2 ) ω ω 1 G ( 1 , b2 ) |ab| c a

e−j·(ω 1 a+ω 2 b) Gc (ω1 , ω2 )

e−j·(ax1 +bx2 ) g(x1 , x2 ) ∂ m ∂ n g(x , x ) 1 2 ∂xm ∂xn

Gc (ω1 − a, ω2 − b) (jω1 )m (jω2 )n Gc (ω1 , ω2 )

2

∂n ∂m ∂ω m ∂ω n Gc (ω1 , ω2 ) 1 2 (2π)2 g(−ω1 , −ω2 )

(−jω2 )n g(x1 , x2 )

Gc (x1 , x2 ) δ(x1 − a, x2 − b) =

e−j·(ω 1 a+ω 2 b)

2 x2 x2 ) −( 4a1 + 4b , e

e−j·(ω1 a+ω 2 b)

= δ(x1 − a)δ(x2 − b) 1 √ 4π ( ab

2

(a,b>0)

ur|x1 | < a, |x2 | < b 1 f¨ 0 sonst ( ur|x1 | < a 1 f¨ 0

Verwendung der Rechenaufwand

Berechnung

M 1 P a ω2 )ej·(ω 1 x1 +ω 2 x2 ) dω1 dω2 1. Mittelwert der Punkte: a = M i

g(ax1 , bx2 ), (a,b reel)

1.2.1. CIE

Dmin ≈ 5 ∗ 109 m−2

Prinzip des Sehens ca. 380-750nm (4 ∗ 1014 Hz − 7, 5 ∗ 1014 Hz ≈ 1 Oktave; λ = fc ); 100dB; spektr. Empf. je nach Adaption: Tagsehen / photopische Sehen / Farbempfinden bzw. Nachtsehen / scotopische Sehen; Sakkade ⇒ fovea centralis; 1.1.2. Psychooptische und physik. Messgr¨oßen ∼ Lichtst¨arke eines monochromatischen strahles mit 1cd = 1 W arke von 683 f = 5.4 · 1014 Hz und der Strahlungsst¨ sr

−j·(ω 1 x1 +ω 2 x2 )

g(x1 − a, x2 − b), (a,b reel)

1.1.1. Das Auge Hornhaut; Pupille; Iris (hell/dunkel Adaption); Zilliarmuskel; Linse (Fokus); Glask¨ orper; Retina (optisch aktive Elemente, 1 − 2 ∗ 108 Rezeptoren) mit Fovea centralis (h¨ ochste Zapfendichte) und blindem Fleck; 6 Sehnerv(10 Nervenfasern); Aderhaut; Lederhaut; q   hz h = 1 = 2l tan β hz = D 2 xd

g(x1 , x2 ) =

Ecken;

(R, G, B)T = (1, 1, 1)T − (C, M, Y )T ;

1.1. Sehen

Zweck: Reduktion der Merkmale durch rep¨ asentativsten Hauptachsen, geringer

∞ ´

∞ ´

g(x1 , x2 )e −∞ −∞ ∞ ∞ ´ ´ 1 Gc (ω1 , 2 (2π) −∞ −∞

Gc (ω1 , ω2 ) =

2. Subtraktiv CMY ; Absorption best. Prim.farben; Ausgegangen wird von einer weiß beleuchteten Oberfl¨ache;

1. Menschliche Sinnesorgane

2.4. Hauptachsentransformation / PCA

2.1. 2D-Fouriertransformation

* k a n n Spu r e n v on Ka zt e n e n ht a etl n

4

sin(aω 1 ) sin(bω 2 ) ω1 ω2

2

sonst

2

sin(aω 1 ) δ(ω2 ) ω1

2. Mittelwertbefreites Essemble: Ψ = [(a1 − a), ..., (aM − a) 1 ΨeT Kovarianzmatirix: Φ = M Ψ e 0 Eigenwerte: det(Φe − λ · I )e = Eigenvektoren: Φe· uk = e uk · λk ⇒ (Φ − λk · I )uk = 0 e e e sind orthogonal Eigenvektoren normieren ⇒ Eigenvektoren

3. 4. 5. 6.

3. Bildverarbeitung 3.1. Separierbarkeit Das Signal g(x1 , x2 ) l¨ asst sich schreiben als: g(x1 , x2 ) = g1 (x1 ) · g2 (x2 ) Bildfilter m¨ oglichst immer separieren, um Laufzeit bzw. Operationen zu sparen.

3.2. Diskrete Signale 3.2.1. Kausalit¨ at

( beliebig f¨ urn1 , n2 > 0 0 sonst. Bei Z-Transformation: |Grad(Z¨ ahler)| ≥ |Grad(Nenner)| → Infinite Impulse Response(IIR) |Grad(Z¨ ahler)| ≤ |Grad(Nenner)| → Finite Impulse Response(FIR) 3.2.2. Abtastung Ideale Abtastung: ∞ ∞ P P g[x1 , x2 ] = g(x1 , x2 )δ[x1 −l1 ·X1 , x2 −l2 ·X2 ]

kausal, wenn: g[n1 , n2 ] =

2.2. Farbr¨ aume 2.2.1. RGB    R 1     G =  1 B 1

0 −0.395 2.033

2.2.2. YUV

  1.140 Y   −0.581  U  0 V U = 0.492 · (B − Y ) V = 0.877 · (R − Y )

Y: Chrominanz (Helligkeit) U, V: Luminanz (Farbe)

  0.114 R   0.436 G  B −0.1

Ω1 −2πl1 Ω2 −2πl2 ) , x2 x1

3.2.3. Quantisierung

Bereich zwischen dem g¨ oßten (gmax ) und kleinsten Grauwert (gmin )

H: Farbton (hue) S: S¨ attigung (saturation) V: Farbwert (value) ( 0

ur V = 0 f¨

V −min{R,G,B} V

sonst.

f¨ur V = R, S 6= 0

f¨ur V = G, S 6= 0 f¨ur V = B, S 6= 0

sonst.

3.2.5. Speicherbedarf von Grauwertbildern ur Dynamikbereich:b = ⌈ld(gmax − gmin + 1)⌉ # Bits f¨ M: #Zeilen, N: #Spalten Speicherplatz: b · M · N 3.2.6. Z-Transformation ∞ ∞ P P −n −n g[n1 , n2 ]z1 1 z2 2 G(z 1 , z 2 ) = n1 =−∞ n2 =−∞

g[n1 , n2 ] δ[n1 , n2 ] δ[n1 − a, n2 − b]

2.3. Klassifikation Erkennung

X vorhanden

X erkannt

a) richtig positiv

b) falsch positiv

X nicht erkannt

c) falsch negativ

d) richtig negativ

von Hendrik B¨ ottcher und Felix Franzel

Gc (

normalerweise lineare Quantisierung mit N = 2b Stufen. (b: #Bits) f¨ urs menschliche Auge gen¨ ugen 256 Graustufen 3.2.4. Dynamikbereich

2.2.3. HSV (nicht blau, weiß und schwarz!!!)

 G−B  V −min{R,G,B}  B−R 2 + V −min{R,G,B} H = R−G 4 +  V −min{R,G,B}   0

∞ P

l1 =−∞ l2 =−∞

Abtastabst¨ ande: X1 , X2 Abtastheorem: Xπ ≥ ωg,1 und Xπ ≥ ωg,2 2 1 Grenzfrequenz ωg,i : maximal vorkommende Frequenz in Richtung ωi

Y: Garaustufen Projection p auf UV- Ebene: Farbs¨ attigung Winkel α mit U-Achse: Farbton    Y 0.299 0.587    −0.289  U  =  −0.147 V 0.615 −0.515

V = max{R, G, B} , S =

l1 =−∞ l2 =−∞ ∞ P

G(Ω1 , Ω2 ) = x 1x 1 2

G(z 1 , z 2 ) 1 −a −b z2

z1

X nicht vorhanden

Stand: 22. Juli 2018 um 20:12 Uhr

1

3.4.3. SNR b[n1 , n2 ] = bI [n1 , n2 ] + n[n1 , n2 ]

¨ Von der Filtermatrix zur Ubertragungsfunktion  1 0 0   0 2 3 1. Filtermatrix: -1 0 0

SNR =

2. Impulsantwort: g[n1 , n2 ] = = −δ[n1 , n2 ] + 2δ [n1 − 1, n2 − 1] + 3δ[n1 − 2, n2 − 1] + + δ[n1 , n2 − 2] ¨ 3. Ubertragungsfunktion: G(z 1 , z 2 ) = −2 −2 −1 −1 −1 = −1 + 2z1 z2 + 3z1 z2 + z2

N P

M P

n =1 n2 =1 10log1 0( 1 N M P P

n1 =1 n2 =1

3.6.1. Rauschkompensation Mittelwertfilter und Gaußfilter sind lineare Filter. Tiefpass/Rechteckfunktion → langsam abklingendes Spektrum orter Punkte auf umliegende Pixel → starker Einfluss gest¨

) (n[n1 ,n2 ])2 −

1 e Rauschsignal: hn (n1 , n2 ) = 2πσ

Kompensationfilter

(n1 −µ1 )2 +(n2 −µ2 )2 2σ2



3.5. Kantenhervorhebung

3.2.7. Diskrete Fouriertransformation (f¨ ur aperiodische Sequenzen) akt. Pixel ist rot und fett G[K − 1, K − 2] =  q k n k n N −1 N −1 2 2)  1P 2 P −j2π( 1 1 + N  arke: bs [n1 , n2 ] = (bn1 [n1 , n2 ])2 + (bn2 [n1 , n2 ])2 N1  2 0 ≦ k1 ≦ N1 − 1, Kantenst¨ g[n1 , n2 ]e  n1 =0 n2 =0

3.2.8. Filterstukturen Y (z)

H(z) = X(z) =

b0 +b1 z −1 +...+bm z −m 1+a1 z −1 +...+am z −m

Kantenrichtung: bΘ [n1 , n2 ] = arctan( b 2[n 1,n 2] ) n1 1 2 0 ≦ k2 ≦ N2 − 1 sonst 3.5.1. Gradientenfilter in n1 -Richtung Detektion harter h Kanteni h i Pixeldifferenz: 1 −1 separ. Pixeldiff.: 1 0 −1     1 0 −1 1 0 −1     0 −1 Sobel:  2 0 −2  Prewitt: 1 1 0 −1 1 0 −1   1 0 −1 √  √ Frei-Chen:  2 0 − 2 1 0 −1

3.3. Faltung

τ =−∞ τ =−∞ F

s(x1 , x2 )

g(x1 , x2 )

=

g(x1 , x2 )



h(x1 , x2 )

=

g(τ1 , τ2 )h(x1 − τ1 , x2 − τ2 ) dτ1 dτ2



=

m1 =−∞ m2 =−∞

3.4. Bildst¨orungen 3.4.1. Additive Bildst¨o rung • weißes, gaußverteiltes Rauschen: ensteht durch spontane Ladungstrennung oder thermischen St¨ orung bei der Analog/Digitalwandlung • Impulsrauschen ( Salt’n’Pepper“): ” fehlerhafte Pixel erscheinen als schwarze oder weiße Bildpunkte 3.4.2. Lineare, ortsinvariante Bildst¨ o rungen • Motion Blur: Verwischung durch Bewegung von Objekt oder Sensor • Focus Blur: Unsch¨arfe durch falsche Fokussierung

Detektion weicher Kanten   −1 0 −1 0    4 −1  −1 −1 0 −1 0 −1

−1

8 −1

−1



1

  −1 −2 −1 1

1

n2 ] = 1 • Medianfilter: akt. Pixel bekommt den Wert des Medians der Filtermaske zugewiesen 3.6.2. Blurkompensation Finde raus wie die St¨orfunktion H(z 1 , z 2 ) aussieht und musltipliziere mit 1 ⇒ alles roger.... total einfach... am besten mit dieser Aufgabe H(z ,z )

f ´



0

 0  −1

2

´ ! g

pf (f0 ) df0 =

0

´g 0

pg (g0 ) dg0

diskret g K(gnorm ) = ⌊ norm N −1N2 ⌋+⌈ N1Gn2 ⌉|0 ≦ gnorm ≦ G−1 G |Kb (g) − Kb,norm (gnorm )| T (g) = argmin 0≤gnorm ≤G−1

−2

4 −2

1



 −2 1

3.7. Morphologische Operatoren Anwendung auf Bin¨ arbilder mit kleinen Strukturelementen. Vergleich des aktuellen Pixels und Umgebung mit dem Muster des Strukturelements 3.7.1. Erosion X ⊖ m[n1 , n2 ] = {(n1 , n2 )|m[n1 , n2 ] ⊂ X} komplettes Muster stimmt mit der Umgebung des akt. Pixels u¨berein ⇒ akt. Pixel ist 1 (Fl¨ache nimmt ab) 3.7.2. Dilatation X ⊖ m[n1 , n2 ] = {(n1 , n2 )|m[n1 , n2 ] ∩ X 6= ∅} ein Teil des Musters stimmt mit der Umgebung des akt. Pixels uberein ¨ ⇒ akt. Pixel ist 1 (Fl¨ache nimmt zu) ¨ 3.7.3. Offnen X ◦ m[n1 , n2 ] = (X ⊖ m[n1 , n2 ]) ⊕ m[n1 , n2 ] Erosion, dann Dilatation (Unruhige Teile des Bildes werden entfernt) 3.7.4. Schließen X • m[n1 , n2 ] = (X ⊕ m[n1 , n2 ]) ⊖ m[n1 , n2 Dilatation, dann Erosion (kleine, getrennt liegende Teile werde zu einem gr¨oßeren Objekt zusammengefasst) Als Faltung: bm [n1 , n2 ] =

Gesichter werden auf Bildern erkannt.

4.1. Farbbasierte Gesichtsdetektion Hautfarbensegmentierung: Analyse sehr vieler verschiedener Gesichter typische Farbwerte f¨ ur Gesichter im HSV-Raum: 0 ≤ H ≤ 36◦ und 0, 1 ≤ S ≤ 0.57undV: 0 − 255 ⇒Binarisierung der Gesichtsbilder ¨ Fazit: eignet sich f¨ ur genauere Uberpr¨ ufungen von erkannten Gesichtern aus anderen Verfahren 4.1.1. rg-Chrominanzmodell g1 = −0.7279 · r 2 + 0.6066 · r + 0.1766 g2 = −1.8423 · r 2 + 1.5294 · r + 0.0422 Wr2 (r, g) = (r − 0.33)2 + (g − 0.33)2  urg1 ≤ bg [n1 , n2 ] ≤ g2 ,  1 f¨ bbin,HSV [n1 , n2 ] = W (br [n1 , n2 ], bg [n1 , n2 ]) ≤ 0.02   0 sonst

4.2. Multiskalen-basierte Gesichtsdetektion

Skalierte Bilder, um verschiedene Blockgr¨ oßen f¨ur unterschiedliche Gesichtsgr¨ oßen erhalten zu k¨ onnen Tiefpassfilterung des Bildes N neue Bildpunkte Unterabtastung um den Faktor 2 ⇒ 4

Speicherung: Nges = 34 · N (geomtr. Reihe)

4.3. Viola-Jones ist formbasiert hohe Erkennungsrate und geringe Rechenzeit f¨ ur Detektion Anwendung auf Hautfarbenbereiche 4.3.1. Merkmale Allgemeine Form: ms · m × ns · n

pg (g0 ) dg0

bei angestrebter Gleichverteilung: Tf (g) = f =

Median wird aus auf- oder absteigend geordnetet Werten x = {x1 , ...,  xN } gebildet.  x N+1 f¨ ur N ungerade  2 Median(x) =  ur N gerade  0.5 · (x N + x N+2 ) f¨ 2



1 9 9 1  Mittelwertfilter:  1 9 9 1 1 9 9  1 1 1 8 16   16 1 1 1 Gaußfilter (Gaußtiefpass):  8 8  4 1 1 1 16 8 16 2 −n2 +n2 P 1 2σ hGauß [n1 , n2 ] = A · e hGauß [n1 ,

kontinuierlich momentane Verteilung: pg , angestrebte Vereilung: pf , Gesucht: Tf (g) = f

3.5.4. Binarisierung weitere Herausarbeitung der Kanten z.B f¨ur anschließende Segmentierung oder Skelettierung ( 1 f¨ ur b[n1 , n2 ] ≥ s bBin [n1 , n2 ] = 0 f¨ ur b[n1 , n2 ] < s s ist die Entscheiderschwelle. Meist ist s < 50

2

1 9 1 9 1 9

anfangen..... NICHT!!! 3.6.3. Histogrammausgleich ogliche Ausnutzung des dynamikbereichs des Bilds → NormalverteiBestm¨ lung Transformation existent falls Verteilungsdichtefunktion und Transformationsfunktion kontinuierlich und als analytischer Ausdruck vorhanden. Vorteil: Kontrasterverbesserung Nachteil: u.u. unnat¨urliches Bild

3.5.3. Laplacefilter

❜ r S(ω1 , ω2 ) = G(ω1 , ω2 ) ∗ H (ω1 , ω2 ) F · h(x1 , x2 ) ❜ r 1 G(ω1 , ω2 ) ∗ H(ω1 , ω2 ) 2

Normalisierte Faltung: s[n1 , n2 ] = g[n1 , n2 ] ∗ h[n1 , n2 ] ∞ ∞ P P g[m1 , m2 ]h[n1 − m1 , n2 − m2 ]

Detektion harter Kanten   # " −1 −1  separ. Pixeldiff.:  Pixeldifferenz:  0  1 1    1 1 1 1 2    0 0  Sobel:  0 0 Prewitt:  0 −1 −1 −1 −1 −2   √ 1 2 −1   0 0  Frei-Chen:  0 √ −1 − 2 −1

1

1

3.5.2. Gradientenfilter in n2 -Richtung

s(x1 , x2 ) ∞ ∞ ´ ´



bn [n ,n

    0

4. Gesichtsdetektion

3.6. Bildrestauration /-verbesserung

(bI [n1 ,n2 ])2

Typ A B h

1 "

−1 #

1 −1

i

−1 1  1    −1 1 " # 1 −1

C D

E

ohe min. H¨ (ms · m)

Basis h 1



−1

i

1

min. Breite (ns · n)

1·m

2·n

2·m

1·n

1·m

3·n

3·m

1·n

2·m

2·n

max. Skalierung mit Bild M × N : N M ⌋ und n mmax = ⌊ m max = ⌊ n ⌋ s s

Anzahl d. Translationen in n- und m-Richtung: Nm,trans = M − ms m + 1 und Nn,trans = N − ns n + 1 Anzahl d. Realisierungen Nges nmax P mmax P Nn,trans · Nm,trans = Nges = =

=

n=1 m=1 mP max Nm,trans = Nn,trans m=1 n=1 nmax [2N+2−ns (nmax +1)]·mmax [2M +2−ms (mmax +1)] 4

nmax P

bbin [n1 ,n2 ]∗m[−n1 ,−n2 ] |m|

bdil [n1 , n2 ] = ⌈bm [n1 , n2 ]⌉ bero [n1 , n2 ] = ⌊bm [n1 , n2 ]⌋

Homepage: www.latex4ei.de – Fehler bitte sofort an [email protected]

von Hendrik B¨ ottcher und Felix Franzel

Stand: 22. Juli 2018 um 20:12 Uhr

2

4.3.2. Integralbild Integration des Orginalbildes ( Aufsummierung der Pixelwerte bis zum aktuellen Pixel) n2 n1 P P b[n1 , n2 ] bint [n1 , n2 ] = ′ =1 n′ =1 n1 1 N1 , 1 ≤ n2 ≤

mit 1 ≤ n1 ≤ N2 ⇒ Einspaarungen von Operationen: Bei Rechteckfiltern ⇒ Reduzierung auf 4 Operationen (Verrechnung der Eckwerte) ⇒ Unabh¨angigkeit von der Merkmalsskalierung Ia =

P

b[n1 , n2 ] A P Ib = Ia + b[n1 , n2 ] B P Ic = Ia + b[n1 , n2 ] C P P P P Id = b[n1 , n2 ] + b[n1 , n2 ] + b[n1 , n2 ] + b[n1 , n2 ] A B C D P b[n1 , n2 ] = Id + Ia − (Ic + Ib ) D

Schnelles Aufstellen des Integralbildes   1 1 1   1. Orginalbild:  1 1 1 1 1 1   1 1 1   2 2 2. Berechnung d. Spaltensummen:  2 3 3 3   1 2 3   4 6 3. Berechnung d. Zeilensummen:  2 3 6 9

4.3.3. Merkmalselektion

Selektion der geeigneten Merkmale ( 1 f¨ urpj · fj (b[n1 , n2 ) ≤ pj · Θj hj (b[n1 , n2 ) = −1 sonst

5.3. Delaunay-Kriterium

Darstellung von Gesichtsbildern in einem anderen Koordinatensystem duch Hauptachsentransformation Hauptachsen sind Vektoren die selbst als Gesichtsbilder aufgefssst werden onnen ⇒ Eigengesichter k¨ starke Reduktion der Dimensionalit¨ at m¨oglich dann Abstandsklassifikatoren im reduzierten Merkmalsraum M Gesichtsbilder der Gr¨ oße N1 xN2 Verfahren siehe PCA(Allgemeines)

Erf¨ ullt, wenn sich im Umkreis des Dreiecks a, b, c kein weiterer Punkt p befindet. Der Mittelpunkt des Umkreises ist der Schnittpunkt der

5.1.1. Bestimmung der Eigengesichter • Gesichter als (N − 1 · N2 x1) Vektor in Matrix A = [a1 , ..., a m ] • PCA • Vektor in neuem Raum: w = U · (b − a) T P • Sch¨ ui · wi atzung durch Eigenvektoren: b = a + i=1

• nur M-1 sinvolle Eigenvektoren ¨ • Eigenvektoren → Richtung gr¨ oßter Anderung p p • Gewichtsgrenzen: −3 λs,i ≦ ws,i ≦ 3 λs,i

5.2. Prokrustes Analyse ¨ Ziel: M¨ oglichst gute Ubereinstimmung der zwei Vielecke P = [p , ..., p ] , Q = [q , ..., q ] 1 1 N "N # e e ax −ay M(ax , ay ) = = Askal · Arot : Skalierung, Rotation ay ax f e e ax = s cos α, ay = s sin α t: Translation

Q(1) = proc(P, Q) Gewichtungsfaktorci (meistens 1)

Minimierung des Quadrates der gewichteten Fehler: N N P P ci |p − M (ax , ay )[q ] − t|2 Ei = E = i i f i=1 i=1 ∂E = 0 ∂(a ,a ,t ,t ) x

y

x

5. Gesichtsidentifikation Merkmale von bereits erkannten Gesichtern werden weiterverabeitet

Xp ·Xq +Yp ·Yq −N ·C1 2 −Y 2 N·Z−Xq q Xp ·Xq −Yp ·Yq +C ·C2 2 −Y 2 N·Z−Xq q Xp ·Z−C1 ·Xq +C2 ·Yq N·Z−Xq2−Y 2 q Yp ·Z−C1 ·Yq −C2 ·Xq 2 N·Z−X 2 q −Y q

ax = − ay = tx =

ty = q 2 + a2 s= ax y   a  y α = arccos ax = arcsin s s 5.2.1. Projection auf Mittelwertsform P (k) 1 Fk = M · i = 1MFi (k)

Fi

Homepage: www.latex4ei.de – Fehler bitte sofort an [email protected]

x

Seitenhalbierenden. " # 0 −1 g = sa + λ (b − a) 1 0 sa = a + 0.5( " b − a)#

(k−1)

= proc(F k−1 , F i

7.1. Exponentialfunktion und Logarithmus ax = ex ln a

π/4

π/3

ϕ

0◦

30◦

45◦

sin

0

cos

1

1 √2 3 2 √ 3 3

√1 2 √1 2

60◦ ...


Similar Free PDFs