370 lines
		
	
	
		
			19 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
			
		
		
	
	
			370 lines
		
	
	
		
			19 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
| # Bildrepräsentation und Bildeigenschaften
 | ||
| ## Ortsbereich
 | ||
| kontinuierliche Bild: Definition als 2D-Grauwertfunktion $g(x,y)\in \mathbb{R}$
 | ||
| 
 | ||
| Digitalisierung: Quantisierung der Grauwerte
 | ||
| $q(g)=[\frac{g-g_{min}}{g_max}-g_{min} *q_{max}]_{mathbb{N}}$ mit $q_{max}=2^N-1$
 | ||
| 
 | ||
| 4-Nachbarschaft: gemeinsame Kanten
 | ||
| 8-Nachbarschaft: gemeinsame Kanten oder Ecken
 | ||
| 
 | ||
| - Pixel: Jeder Abtastwert $q(m,n)$ entspricht einem quadratischen Bildelement (Pixel) mit homogenem Grauwert.
 | ||
| - Falschfarbendarstellung: $g$ wird als Index in eine Farbtabelle (Video Lookup Table - VLT) behandelt -> Kontrasterhöhung
 | ||
|   
 | ||
| Pfad
 | ||
| - Zwei Pixel $P_A(m_A,n_A)$ und $P_B(m_B,n_B)$ sind durch einen Pfad verbunden, falls es eine Folge von benachbarten Pixeln $(P_A,P_1, ...,P_B)$ gibt, für die eine Homogenitätsbedingung (z.B. alle Pixel haben gleichen Grauwert, d.h. $g(P_A)=g(P_1)=...=g(P_B))$ gilt.
 | ||
| - Offener Pfad: $P_A\not = P_B$
 | ||
| - Geschlossener Pfad: $P_A = P_B$
 | ||
| - Pfade sind an Nachbarschaftsdefinitionen gebunden!
 | ||
| 
 | ||
| Zusammenhang: Eine Menge von Pixeln ist zusammenhängend, wenn zwischen zwei beliebigen Pixeln ein Pfad existiert.
 | ||
| 
 | ||
| Rand:
 | ||
| - Der Rand einer zusammenhängenden Pixelmenge $M$ ist eine Folge von Pixeln in $M$, die mindestens einen Nachbarn haben, der nicht zu $M$ gehört.
 | ||
| - Die Randpixel gehören somit zu $M$ dazu.
 | ||
| - Der Rand ist ein zusammenhängender Pfad und deshalb auch an eine Nachbarschaftsdefinition gebunden.
 | ||
| - Rand in 4-Nachbarschaft zum Hintergrund -> zusammenhängender Pfad gemäß 8-Nachbarschaft
 | ||
| - Rand in 8-Nachbarschaft zum Hintergrund -> zusammenhängender Pfad gemäß 4-Nachbarschaft
 | ||
| 
 | ||
| Distanzmaße:
 | ||
| - Euklidische Distanz (Länge der direkten Verbindung): $D_E=||P_1 - P_2||_2=\sqrt{(m_1-m_2)^2 + (n_1+n_2)^2}$
 | ||
| - Manhatten Distanz (City Block, Länge des kürzesten Pfades unter 4er-Nachbarschaft): $D_4=||P_1-P_2||_1=|m_1-m_2| + |n_1-n_2|$
 | ||
| - Schachbrett-Distanz (Länge des kürzesten Pfades unter 8er-Nachbarschaft): $D_8=||P_1-P_2||_{\infty}= max\{|m_1-m_2|, |n_1-n_2|\}$
 | ||
| - Schachbrett D. $\leq$ Euklidische D. $\leq$ Manhatten D.
 | ||
| 
 | ||
| Diskretisierung im Ortsbereich
 | ||
| - Multiplikation des Bildes mit der Abtastfunktion ( Dirac-Gitter) = Faltung im Ortsfrequenzbereich mit 2D-FT der Abtastfunktion (Dirac-Gitter)
 | ||
| - Periodifizierung im Ortsfrequenzbereich mit den Intervallen $\frac{1}{\Delta x}$ bzw. $\frac{1}{\Delta y}$
 | ||
| - Aliasing (spektrale Überlappung): Vermeidung, wenn $f_{x,max}\leq\frac{1}{2*\Delta x}$ und $f_{y,max}\leq\frac{1}{2*\Delta y}$, dann ist Rekonstruktion mit idealem 2D-Rechteckfilter möglich
 | ||
| 
 | ||
| Diskrete 2D-Faltung
 | ||
| - nicht zyklische vs. zyklische Berechnung
 | ||
|   - Fortsetzung der Bildpunkte außerhalb der Bildgrenzen von $g_1(m,n)$
 | ||
|   - Nicht zyklische Fortsetzung durch Anfügen von Nullen
 | ||
|   - Zyklische Fortsetzung durch periodisches Anfügen von Pixeln (von anderem Bildende)
 | ||
| - Indizierung des Operators
 | ||
|   - Festlegung des Referenzpunktes im Operator
 | ||
|   - positiv indiziert: bei $h(0,0)$
 | ||
|     - Theoretisch konsistent mit der Faltungseigenschaft der 2D - DFT
 | ||
|   - symmetrisch indiziert: in der Operatormitte
 | ||
|     - Genau genommen nicht konsistent mit der Faltungseigenschaft der 2D - DFT
 | ||
|   - jew. um $180°$ gedrehter Operator
 | ||
| - Umfang (Grenzen) der Operatoranwendung auf das Eingangsbild $g_1(m,n)$
 | ||
|   - verschiedene Berechnungs-Modi
 | ||
|   - full: die Berechnung erfolgt, solange mindestens ein Pixel des Bildes von $h(m,n)$ überdeckt wird.
 | ||
|     - Folglich ist das Ausgangsbild $g_2(m,n)$ größer als das Eingangsbild $g_1(m,n)$.
 | ||
|   - same: die Berechnung erfolgt so, dass das Ausgangsbild $g_2(m,n)$ genauso groß wie das Eingangsbild $g_1(m,n)$ ist.
 | ||
|   - valid: Die Berechnung erfolgt nur, wenn $h(m,n)$ vollständig (d.h. $K\times L$) Pixel des Eingangsbildes $g_1(m,n)$ überdeckt.
 | ||
|     - Folglich ist das Ausgangsbild $g_2(m,n)$ kleiner als das Eingangsbild $g_1(m,n)$.
 | ||
| 
 | ||
| Wiener-Filter = Minimum Mean Square Error Filter
 | ||
| - unter der Annahme, dass Rauschen und Bild unkorreliert sind
 | ||
| - $H_W=\frac{H^*}{|H|^2 + \frac{S_{\eta}}{S_f}}$
 | ||
| 
 | ||
| # Bildvorverarbeitung
 | ||
| 
 | ||
| ## Bildfehler
 | ||
| Pin Cushion Verzerrung
 | ||
| Barrel Verzerrung
 | ||
| Verzerrung durch Bewegung
 | ||
| Fokusierungsunschärfe
 | ||
| Verrauschen
 | ||
| Salz und Pfeffer Rauschen
 | ||
| 
 | ||
| ## Bildrestauration
 | ||
| Beseitigen von Störungen / Verzerrungen, die bei der Bildaufnahme entstanden sind
 | ||
| - = Beseitigen von deterministischen Störungen, die i. A. bei der Bildaufnahme entstehen
 | ||
| - mögliche Ursachen: 
 | ||
|   - Aliasing
 | ||
|   - Verschmieren (Blurring) durch Defokussierung und/oder Bewegung
 | ||
|   - Geometrische Verzerrung
 | ||
|   - Pixel- oder Zeilenfehler
 | ||
| - Ursachen von Verschmierungen
 | ||
|   - Defokussierung
 | ||
|   - Bewegungsartefakte (z.B.: Horizontale Kamerabewegung über 5 Pixel auf dem Kamerasensor während der Belichtungszeit:
 | ||
| 
 | ||
| Geometrische Verzerrungen
 | ||
| - Entzerrung mittels Matrixmultiplikation
 | ||
| - Affine Transformation
 | ||
|   - Translation $\hat{r}= \begin{pmatrix}x^* +dx\\ y^* +dy\\ 1\end{pmatrix}=\begin{pmatrix} 1 & 0 & dx \\ 0 & 1 & dy \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x^*\\ y^*\\ 1\end{pmatrix}= T^{*} * \hat{r}^{*}$
 | ||
|   - Skalierung $\hat{r}=\begin{pmatrix} S_x*x^* \\ S_y* y^*\\1 \end{pmatrix} =\begin{pmatrix} S_x & 0 & 0 \\ 0 & S_y & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x^*\\ y^*\\ 1\end{pmatrix}=T^{*} * \hat{r}^{*}$
 | ||
|   - Scherung $\hat{r}=\begin{pmatrix} x^* +b_x*y^* \\ b_y*x^*+y^*\\ 1 \end{pmatrix} =\begin{pmatrix} 1 & b_x & 0 \\ b_y & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x^*\\ y^*\\ 1\end{pmatrix}=T^{*} * \hat{r}^{*}$
 | ||
|   - Rotation $\hat{r}=\begin{pmatrix} cos\ \alpha*x^* - sin\ \alpha*y^* \\ sin\ \alpha*x^* + cos\ \alpha*y^*\\ 1 \end{pmatrix} =\begin{pmatrix} cos\ \alpha & -sin\ \alpha & 0 \\ sin\ \alpha & cos\ \alpha & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x^*\\ y^*\\ 1\end{pmatrix}=T^{*} * \hat{r}^{*}$
 | ||
|   - Eigenschaften: 
 | ||
|     - bestimmt durch 6 Parameter
 | ||
|     - Linear
 | ||
|     - Geraden bleiben Geraden
 | ||
|     - Parallele Geraden bleiben parallel
 | ||
|     - Distanzverhältnisse auf Geraden bleiben erhalten
 | ||
|   - Matrix-Multiplikation ist im Allgemeinen nicht kommutativ, d.h.: Reihenfolge beachten! Aus Ausführungsreihenfolge $T_1,T_2,...,T_{n-1},T_n$ wird Multiplikation $\hat{r}=T_n,T_{n-1}...,T_2,T_1$ 
 | ||
| - Abbildung von 3 Passpunkten (affine 3-punkt-transformation)
 | ||
|   - $\hat{r}=\begin{pmatrix}x\\ y\\ 1\end{pmatrix}= T^*_A*\hat{r}^*=\begin{pmatrix} a_{11} & a_{12} & a_{13}\\ a_{21}& a_{22}& a_{23} \\ 0 & 0 & 1\end{pmatrix}\begin{pmatrix} x^* \\ y^* \\ 1\end{pmatrix}$
 | ||
|   - Rekonstruktion der Inverser: $T_A=\frac{1}{a_{11}a_{22}-a_{12}a_{21}} * \begin{pmatrix} a_{22}& -a_{12}& a_{12}a_{23}-a_{13}a_{22}\\ -a_{21}& a_{11}& a_{13}a_{21}-a_{11}a_{23}\\ 0 & 0 & a_{11}a_{22}-a_{12}a_{21} \end{pmatrix}$
 | ||
| 
 | ||
| Projektive Transformation
 | ||
| - Abbildung von 4 Passpunkten: $\hat{r}=\begin{pmatrix}x\\ y\\ 1\end{pmatrix}=T^*_p * \hat{r}^*=\begin{pmatrix} a_{11}& a_{12}& a_{13}\\ a_{21}&a_{22}&a_{23}\\ a_{31}&a_{32}& 1\end{pmatrix}\begin{pmatrix}x^*\\ y^*\\ 1\end{pmatrix}$
 | ||
| - Eigenschaften: 
 | ||
|   - bestimmt durch 8 Parameter
 | ||
|   - Nur mit homogenen Koordinaten linear darstellbar
 | ||
|   - Geraden bleiben Geraden
 | ||
| 
 | ||
| Radialsymmetrische Transformation
 | ||
| - Rotationssymmetrisch (Pin Cushion, Barrel Verzerrung)
 | ||
| - in Polarkoordinaten $R=\frac{1}{1+k*R^*}*R^*$
 | ||
|   - $k>0$: Barrel Transformation
 | ||
|   - $k<0$: Pin Cushion Transformation
 | ||
| - Eigenschaften: 
 | ||
|   - Nicht linear!
 | ||
|   - Radialsymm. Verzerrungen i. A. bei Linsen-Systemen
 | ||
| 
 | ||
| Interpolation auf 2-Support Grid
 | ||
| - Lineare Interpolation: $g(m,y_0)=g(m,n)+\frac{y_0-n}{(n+1)-n}*[g(m,n+1)-g(m,n)]$
 | ||
| - Nearest Neighbor, Ideale Interpolation, Kubische Interpolation
 | ||
| - Nur die Pixel im jeweiligen SupportGrid sind für die Berechnung von $g(x_0,y_0)$ relevant
 | ||
| - 1D: $g_1(x)=w(x)*g(x)=\sum_m w(x-m)*g(m)$ mit $m\in\mathbb{Z}$
 | ||
| - 2D: $g_1(x,y)=w(w,y)**g(x,y)=\sum_m \sum_n w(x-m,y-n)*g(m,n)$
 | ||
| - Interpolationsbedingung: $w(0)=1$, $w(|m,n|\geq 1)=0$
 | ||
| 
 | ||
| ## Bildregistrierung
 | ||
| Anpassung (Transformation) von Zielbildern auf ein Referenzbild (z.B. mit Ziel der Bildfusion)
 | ||
| - Passpunktbasierte registrierung
 | ||
|   $\begin{pmatrix} x_1\\ x_2 \\ x_3\\y_1\\ y_2\\ y_3\end{pmatrix}=\begin{pmatrix} x_1&y_1&1&0&0&0\\ x_2&y_2&1&0&0&0\\ x_3&y_3&1&0&0&0\\ 0&0&0&x_1&y_1&1\\ 0&0&0&x_2&y_2&1\\ 0&0&0&x_2&y_3&1\end{pmatrix} * \begin{pmatrix} a_{1,1}\\ a_{1,2}\\ a_{1,3}\\ a_{2,1}\\ a_{2,2}\\ a_{2,3} \end{pmatrix}$ 
 | ||
| - Passpunktunabhängige registierung
 | ||
|   - normierte Kreuzkorrelation
 | ||
|   - Fourier-Mellin-Transformation 
 | ||
| 
 | ||
| ## Bildverbesserung
 | ||
| Verbesserung des subjektiven Wahrnehmung
 | ||
| Anhebung der für den Betrachter (diagnostisch) relevanten Bildinformation
 | ||
| 
 | ||
| Pixelbasierte Kontrastverbesserung (Differenz zwischen min. und max. Grauwert erhöhen)
 | ||
| - Intensitäts-Transformatins-Kennlinie (Gradiationskurve)
 | ||
| - Grauwertspreizung -> Histogramm $q=[q_{min}+\frac{g-g_{min}}{g_{max}-g_{min}}*(q_{max}-q_{min})]_{\mathbb{N}}$
 | ||
| - Clipping durch Intensity Transformation Function (ITF)
 | ||
| - Logarithmus Transformation $q=[q_{max}*\frac{ln(g+1)}{ln(g_{max}+1)}]_{\mathbb{N}}$
 | ||
|   - Spreizung niedriger (dunkler) GW
 | ||
|   - Stauchung hoher (heller) GW
 | ||
| - Gammakorrektur (Potenztransformation) $q=[q_{max}(\frac{g}{g_{max}}^y)]_{mathbb{N}}$
 | ||
|   - steile kurve -> spreizung der jew. grauwerte
 | ||
|   - flache kurve -> stauchung der jew. grauwerte
 | ||
| - Histogramm-Linearisierung $q_i=\lceil N_q*\frac{\sum_{k=0}^i h(k)}{M*N} \rceil_{mathbb{N}} -1$
 | ||
|   - Spreizung häufiger GW, Stauchung seltener GW
 | ||
| 
 | ||
| Rauschunterdrückung (Tiefpassfilter)
 | ||
| - Prinzip $g_{TP}(x,y)=g(x,y)** h_{TP}(x,y)$
 | ||
| - gegen Gauß/ Salz&Pfeffer- Rauschen
 | ||
| - Mittelwertfilter $h(x,y)=rect(\frac{x,s_x},\frac{y}{s_y})*\frac{1}{s_x*s_y}$
 | ||
| - Idelaer Tiefpass (erzeugt Ringing-Artefakte aufgrund der Nebenmaxima der entsprechenden Ortsbereichsfunktion (2D-si-Funktion, rotationssymmetrisch))
 | ||
| - Gauß Tiefpass (minimales Zeitdauer-Bandbreite-Produkt)
 | ||
| - Binominal Filter $b=\frac{1}{n}[n\ (n-1)\ ...]$ (ganzzahlige Approximation des Gauß-Filter)
 | ||
| - Medianfilter (sortierte Umgebungspixel)
 | ||
| - nichtlinearer Median-Filter $g(x,y)=median\{g(x',y')\}$
 | ||
|   - Bildung des Medians aller Grauwerte der Pixel in der Umgebung von $(x,y)$
 | ||
|   - gehört zu den Rangordnungsfiltern
 | ||
|   - besonders für Salz- und Pfeffer-Rauschen geeignet
 | ||
|   - starke gerade Kanten bleiben erhalten
 | ||
| 
 | ||
| Hervorhebung von Kanten (Hochpassfilter)
 | ||
| - Lineare Hochpass Filter: Mittelwert, Ideal, Gauß
 | ||
| - Gradientenbild (vertikal, horizontal, kombiniert)
 | ||
|   - Problem: Rauschempfindlichkeit schlecht
 | ||
|   - geringe Verschiebung
 | ||
| - symmetrische Gradientenschätzung
 | ||
|   - keine Verschiebung im Gradientenbild
 | ||
|   - etwas robuster gegen Rauschen
 | ||
| - Prewitt-Operator (robuster gegen Rauscheinflüsse)
 | ||
| - Sobel-Operator (äquivalent zum Prewitt-Operator, jedoch Mittelwert-Filter durch Binomial-Filter ersetzt)
 | ||
| - Laplace-Operator $\Delta g(x,y)=\frac{\delta^2 g}{\delta x^2}+\frac{\delta^2 g}{\delta y^2}$
 | ||
|   - ist sehr rauschempfindlich
 | ||
|   - ist richtungsunabhängig
 | ||
|   - vorheriges Gauß-Filter führt zu ,Laplacian of Gaussian'-Filter (LoG) zur Erhöhung der Robustheit gegen Rauschen
 | ||
| 
 | ||
| # Segmentierung
 | ||
| Unterteilung des Bildes hinsichtlich der Struktur in einzelne Bildabschnitte (Segmente)
 | ||
| - Unterteilung des Bildes in Teilbereiche (Regionen, Segmente, Bildobjekte) mit gleichen Eigenschaften
 | ||
| - Trennung Vordergrund / Hintergrund
 | ||
| - Extraktion von Objekten (Organe, Zellen, ...)
 | ||
| 
 | ||
| Eigenschaften:
 | ||
| - Vollständigkeit: jedes Pixel wird mindestens einem Segment zugeordnet
 | ||
| - Überdeckungsfreiheit: ein Pixel wird maximal einem Segment zugeordnet
 | ||
| - Zusammenhang: jedes Vordergrundsegment bildet ein zusammenhängendes Objekt
 | ||
| 
 | ||
| 
 | ||
| ## Pixel- bzw. histogrammbasierte Segmentierung
 | ||
| Schwellwertsegmentierung
 | ||
| - festlegen von Schwellwert -> trennung von Vorder- und Hintergrund
 | ||
| - durch Gauß Schnittpunkte oder Otsu, Histogramm
 | ||
| - bei Rauschen zuvor Filtern (z.B. Median)
 | ||
| - bei Shading zuvor Filter (z.B. Median)
 | ||
| - optimaler Schwellwert nach Otsu
 | ||
|   - Normierung der Häufigkeit $h(g)$ -> Wahrscheinlichkeit $p(g)
 | ||
|   - Wahrscheinlichkeit eines Grauwerts $g: p(g)=\frac{h(g)}{M*N}$
 | ||
|   - Wahrscheinlichkeit der Klassen $C_1$ und $C_2$: $P_{C_1}(S)=\sum_{g=0}^S p(G)$, $P_{C_2} p(g)=1-P_{C_1}(S)$
 | ||
| 
 | ||
| ## Regionen-basierte Segmentierung
 | ||
| Annahme: Die Pixel eines Segmentes erfüllen ein gegebenes Homogenitätskriterium (Ähnlichkeitskriterium)!
 | ||
| 
 | ||
| Region-Growing
 | ||
| 1. Festlegung eines Saatpunktes (manuell oder automatisch) $P_S$ innerhalb des Segments
 | ||
| 2. Festlegung eines Homogenitätskriteriums $q$ z.B. GW variieren um 20 Stufen um den Grauwert des Saatpunktes
 | ||
| 3. Bestimmung aller Nachbarpixel um die aktuelle Region
 | ||
|     - 1. Region = Saatpunktregion) unter 4- bzw. 8-Nachbarschaft
 | ||
| 4. Hinzufügen aller Nachbarpixel P zur aktuellen Region für die gilt: $q(P,P_S)=1$ (d.h. Homogenitätskriterium erfüllt ist)
 | ||
| 5. Wiederholen von Schritt 3-4 bis keine Nachbarn mehr hinzugefügt werden
 | ||
| 
 | ||
| Region-Mergin
 | ||
| 1. zu Beginn: Jedes Pixel ist ein Segment.
 | ||
| 2. Zwei benachbarte Segmente werden zusammengefasst, wenn sie eine Homogenitätsbedingung erfüllen.
 | ||
| 3. Die Segmentierung ist beendet, wenn nichts mehr zusammengefügt werden kann
 | ||
| 
 | ||
| Split-and-Merge
 | ||
| 1. Gesamtes Bild ≙ einem Segment
 | ||
| 2. Jedes Segment wird (rekursiv) in 4 gleich große Teile (Split) zerlegt, falls es einer Homogenitätsbedingung (HB) nicht genügt
 | ||
| 3. Zerlegung endet, falls alle Segmente homogen sind
 | ||
| 4. Zusammenfassung (Merge) benachbarter homogener Segmente
 | ||
| 
 | ||
| ## Kantenbasierte Segmentierung
 | ||
| Schwellwertsegmentierung des Gradientenbildes
 | ||
| - Originalbild -> Tiefpassfilter -> Gradientenbild -> Schwellwertsegmentierung -> Thinning
 | ||
| - segmentierter Sobel-Gradient
 | ||
| 
 | ||
| Canny-Edge-Operator
 | ||
| - non-maxima-suppression (thinning)
 | ||
| - echte Kanten möglichst zuverlässig detektieren
 | ||
| - Kantenposition zuverlässig detektieren
 | ||
| - Anzahl falscher Kanten minimieren
 | ||
| 1. Tiefpassfilterung des Bildes mit Gauß-Filter der Varianz $\delta$
 | ||
| 2. Berechnung des Gradientenbildes und der Gradientenrichtung
 | ||
| 3. Non-Maximum-Suppression: Extraktion aller lokalen Maxima im Gradientenbild in Gradientenrichtung
 | ||
| 4. Extraktion der starken Kantenpixel
 | ||
| 5. Extraktion der schwachen Kantenpixel
 | ||
| 6. Auffüllen der Lücken in den Kantenzügen mit Lückenpixel
 | ||
| - Merkmale:
 | ||
|   - Empirische Bestimmung der Parameter $\delta$, $S_1$ und $S_2$
 | ||
|   - Optimal für ideale Kanten unter Gauß-förmigem Rausch- und Defokussierungseinfluss
 | ||
| - Ergebnis: Binärbild (Kanten als Vordergrund)
 | ||
| 
 | ||
| ## Wasserscheidentransformation
 | ||
| - Interpretation des Bildes als 2D-Funktion („Gebirge“)
 | ||
| - Wasserscheiden („Gebirgskämme“) trennen in unterschiedliche „entwässernde“ Senken
 | ||
| - Flutungs-Algorithmus
 | ||
| - Kantendetektion: WST auf Gradientenbild berechnen
 | ||
| - Problem: oft Effekt der Übersegmentierung
 | ||
| 
 | ||
| ## Modellbasierte Segmentierung 
 | ||
| Einbringen von Modellinformationen in den Segmentierungsprozess (Detektion von Bildobjekten)
 | ||
| 
 | ||
| Template Matching
 | ||
| - Vorgabe eines Musters, das Form und Orientierung der Segmente im Bild bestimmt
 | ||
| - Bestimmung des normierten Kreuzkorrelationskoeffizienten
 | ||
| - Ergebnis: Segmente befinden sich an den lokalen Extrema 
 | ||
| 
 | ||
| Hough Transformation
 | ||
| - Hough Transformation von Geraden -> Hesse-Normalform
 | ||
|   - $cos\ \phi*x + sin\ \phi*y =d$
 | ||
|   - Koordinaten-Transformation $H_K$ in den Hough-Raum (Parameterraum)
 | ||
|   - Transformation aller Vordergrundpixel von $g$ in die entsprechenden Kurven im $(\phi,d)$-Parameterraum für alle
 | ||
|   - Suche nach Punkten im $(\phi,d)$-Raum, an denen sich besonders viele $H_k$-Kurven schneiden
 | ||
| - für Kreise/Ellipsen Kreisgleichung $(x-x_c)^2 + (y-y_c)^2=r^2$
 | ||
| 
 | ||
| # Morphologische Operationen
 | ||
| Anwendung: 
 | ||
| - Veränderung von Formen
 | ||
| - Extraktion von Formmerkmalen
 | ||
| - Detektion von bekannten Formen
 | ||
| 
 | ||
| ## Grundoperationen
 | ||
| - Dilatation $\oplus$: $B\oplus M$
 | ||
|   - vergrößert Objekte
 | ||
|   - verbindet Strukturen
 | ||
|   - füllt Löcher
 | ||
|   - glättet Segmentrände
 | ||
| - Erosion $\ominus$: $B\ominus M$
 | ||
|   -  verkleinert Objekte
 | ||
|   - entfernt Strukturen „kleiner“ als
 | ||
|   - vergrößert Löcher
 | ||
| - Dualität: $B\oplus M=\overline{\overline{B}\ominus M}$, $B\ominus M=\overline{\overline{B}\oplus M}$ 
 | ||
| - Opening: Erosion & Dilatation  $B\circ M= (B\ominus M)\oplus M$
 | ||
| - Closing: Dilatation & Erosion  $B\circ M= (B\oplus M)\ominus M$
 | ||
| 
 | ||
| 
 | ||
| 
 | ||
| ## Bestimmung von Formmerkmalen
 | ||
| Berechnung des Randes: 
 | ||
| - $R_{4/8}=B\backslash (B\ominus M_{4/8})$
 | ||
| - Erosion mit Strukturelement entfernt alle Pixel in deren 4/8-Nachbarschaft sich mindestens ein Hintergrundpixel befindet
 | ||
| - Rand ergibt sich durch Subtraktion vom Original
 | ||
| - Der Rand gehört also zum Objekt und ist nicht die Umrandung drum herum
 | ||
| 
 | ||
| Hit-or-Miss-Operator
 | ||
| - Detektion von def. Objekten (d.h. def. Vordergrund vor def. Hintergrund)
 | ||
| 1. Bestimmung aller Positionen (Instanzen) an denen der Vordergrund des Objektes liegen kann
 | ||
| 2. Bestimmung aller Positionen an denen der erwartete Hintergrund des Objektes liegen kann
 | ||
| 3. Schnittmenge beider Ergebnisse
 | ||
| - Hit-Operator $M_H$ und Miss-Operator $M_M$ (jew. gegenteilig zueinander)
 | ||
| - 0, 1, X (x für nicht-beachtet)
 | ||
| 
 | ||
| Iterative Distanztransformation
 | ||
| - Allen Pixeln des $k$-ten Randes werden die Grauwerte $k-1$ zugewiesen. (Alternativ ist auch $k$ möglich)
 | ||
| - Distanztransformation ersetzt jeden Pixel (GW) innerhalb eines Objektes durch seinen kürzesten Abstand zum Objektrand
 | ||
| - Iterative Bestimmung durch wiederholte Bestimmung des Objektrandes
 | ||
| 
 | ||
| Skelettierung
 | ||
| - Definition mittels maximal eingeschriebener Kreise
 | ||
| - Der digitale Kreis um das Skelettpixel muss vollständig innerhalb des Segmentes liegen.
 | ||
| - Für ein von einem Kreis berührtes Randpixel darf es keinen Kreis mit größerem Radius geben, der die Bedingung 1 erfüllt, damit der Mittelpunkt ein Skelletpixel ist.
 | ||
| - Skelett besteht aus den Zentren aller maximal eingeschriebenen Kreise
 | ||
| - Kann aus den „Gebirgskämmen“ des distanztransformierten Bildes gewonnen werden.
 | ||
| - Anwendung: Zeichenerkennung, Datenreduktion, Merkmalsextraktion für Klassifizierung
 | ||
| 
 | ||
| Morphing
 | ||
| - Lineare Interpolation zwischen den Distanzwerten von zwei Segmenten
 | ||
| - Vorzeichenbehaftete Distanztransformation -> Linearkombination $A_i=i*A_1+ (1-i)*A_2$
 | ||
| 
 | ||
| # Merkmalsextraktion und Klassifikation
 | ||
| - Merkmalsextraktion: Erfassung von Merkmalen (Eigenschaften) zusammenhängender Bildobjekte (Segmente)
 | ||
| - Merkmal: Skalar, welcher einen bestimmten Aspekt der Objektbedeutung beschreibt
 | ||
| - Klassifikation: Zuordnung von Bildobjekten
 | ||
| - Merkmale werden für jedes zusammenhängende Objekt im Bild bestimmt
 | ||
| 
 | ||
| ## Regionenbasierte Merkmale
 | ||
| Merkmale werden vom Objektinneren (Textur = gemeinsame Eigenschaft der GW-Verteilung einer Region) bestimmt
 | ||
| z.B.: 
 | ||
| - mittlerer GW
 | ||
| - GW-Varianz, Momente (Schiefe, Exzess)
 | ||
| - Haralick’sche Texturmaße
 | ||
| - Frequenzbereichsmerkmale, z.B. mittlere Amplitude in einem Bereich des Spektrums
 | ||
| 
 | ||
| Co-Occurrence-Matrix
 | ||
| - Berechnung der Wahrscheinlichkeit des Auftretens von Grauwertpaaren in definiertem Abstand/Richtung
 | ||
| - Hohe Werte auf der Diagonalen spiegeln geringe Grauwertdifferenzen benachbarter Pixel wider
 | ||
| 
 | ||
| Haralick‘sche Texturmaße
 | ||
| - Skalare Kenngrößen, die aus den normierten Co-Occurrence-Matrizen ermittelt werden
 | ||
| - je mehr Grauwerte (Grauwertpaare), desto kleiner der Wert
 | ||
| - Werte auf der Diagonalen spiegeln Homogenität in Richtung 𝛼𝛼 wider
 | ||
| - je größer die Grauwertdifferenz (Abweichung von der Diagonalen), desto kleiner der Quotient
 | ||
| 
 | ||
| ## Formbasierte Merkmale
 | ||
| Merkmale werden vom Objektrand (Form) bestimmt
 | ||
| - Flächeninhalt des Segments
 | ||
| - Umfang des Segments
 | ||
| - Flächendifferenz zwischen Segment und seiner konvexen Hülle
 | ||
| - Kreisähnlichkeit
 | ||
| - Euler-Zahl $E=V-L$
 | ||
| 
 | ||
| ## Einführung in die Klassifikation
 | ||
| - Bestimmung einer Abbildungsvorschrift, die einem Merkmalsvektor eine Klassennummer zuordnet
 | ||
| - Die Abbildungsvorschrift wird aus einem möglichst repräsentativen, vorklassifizierten Trainingsdatensatz bestimmt
 | ||
| - Annahme: Die Merkmale bilden verschiedene Objekte in getrennte, kompakte Bereiche im Merkmalsraum ab
 | ||
| - Minimum Distance Transformation
 | ||
|   - gegeben Traningsdatensätze
 | ||
|   - berechnung der zentrumsvektoren aller klassen 
 | ||
|   - graphische Darstellung -> Voronoi-Diagramm
 | ||
| - Weitere Klassifikatoren
 | ||
|   - Nearest Neighbor Klassifikation
 | ||
|   - Nearest k-Neighbor Klassifikation
 | ||
|   - Support-Vector Machines
 | ||
|   - Statistische Klassifikatoren
 | ||
|   - Neuronale Netze |