19 KiB
Bildrepräsentation und Bildeigenschaften
Ortsbereich
kontinuierliche Bild: Definition als 2D-Grauwertfunktion g(x,y)\in \mathbb{R}
Digitalisierung: Quantisierung der Grauwerte
q(g)=[\frac{g-g_{min}}{g_max}-g_{min} *q_{max}]_{mathbb{N}}
mit q_{max}=2^N-1
4-Nachbarschaft: gemeinsame Kanten 8-Nachbarschaft: gemeinsame Kanten oder Ecken
- Pixel: Jeder Abtastwert
q(m,n)
entspricht einem quadratischen Bildelement (Pixel) mit homogenem Grauwert. - Falschfarbendarstellung:
g
wird als Index in eine Farbtabelle (Video Lookup Table - VLT) behandelt -> Kontrasterhöhung
Pfad
- Zwei Pixel
P_A(m_A,n_A)
undP_B(m_B,n_B)
sind durch einen Pfad verbunden, falls es eine Folge von benachbarten Pixeln(P_A,P_1, ...,P_B)
gibt, für die eine Homogenitätsbedingung (z.B. alle Pixel haben gleichen Grauwert, d.h.g(P_A)=g(P_1)=...=g(P_B))
gilt. - Offener Pfad:
P_A\not = P_B
- Geschlossener Pfad:
P_A = P_B
- Pfade sind an Nachbarschaftsdefinitionen gebunden!
Zusammenhang: Eine Menge von Pixeln ist zusammenhängend, wenn zwischen zwei beliebigen Pixeln ein Pfad existiert.
Rand:
- Der Rand einer zusammenhängenden Pixelmenge
M
ist eine Folge von Pixeln inM
, die mindestens einen Nachbarn haben, der nicht zuM
gehört. - Die Randpixel gehören somit zu
M
dazu. - Der Rand ist ein zusammenhängender Pfad und deshalb auch an eine Nachbarschaftsdefinition gebunden.
- Rand in 4-Nachbarschaft zum Hintergrund -> zusammenhängender Pfad gemäß 8-Nachbarschaft
- Rand in 8-Nachbarschaft zum Hintergrund -> zusammenhängender Pfad gemäß 4-Nachbarschaft
Distanzmaße:
- Euklidische Distanz (Länge der direkten Verbindung):
D_E=||P_1 - P_2||_2=\sqrt{(m_1-m_2)^2 + (n_1+n_2)^2}
- Manhatten Distanz (City Block, Länge des kürzesten Pfades unter 4er-Nachbarschaft):
D_4=||P_1-P_2||_1=|m_1-m_2| + |n_1-n_2|
- Schachbrett-Distanz (Länge des kürzesten Pfades unter 8er-Nachbarschaft):
D_8=||P_1-P_2||_{\infty}= max\{|m_1-m_2|, |n_1-n_2|\}
- Schachbrett D.
\leq
Euklidische D.\leq
Manhatten D.
Diskretisierung im Ortsbereich
- Multiplikation des Bildes mit der Abtastfunktion ( Dirac-Gitter) = Faltung im Ortsfrequenzbereich mit 2D-FT der Abtastfunktion (Dirac-Gitter)
- Periodifizierung im Ortsfrequenzbereich mit den Intervallen
\frac{1}{\Delta x}
bzw.\frac{1}{\Delta y}
- Aliasing (spektrale Überlappung): Vermeidung, wenn
f_{x,max}\leq\frac{1}{2*\Delta x}
undf_{y,max}\leq\frac{1}{2*\Delta y}
, dann ist Rekonstruktion mit idealem 2D-Rechteckfilter möglich
Diskrete 2D-Faltung
- nicht zyklische vs. zyklische Berechnung
- Fortsetzung der Bildpunkte außerhalb der Bildgrenzen von
g_1(m,n)
- Nicht zyklische Fortsetzung durch Anfügen von Nullen
- Zyklische Fortsetzung durch periodisches Anfügen von Pixeln (von anderem Bildende)
- Fortsetzung der Bildpunkte außerhalb der Bildgrenzen von
- Indizierung des Operators
- Festlegung des Referenzpunktes im Operator
- positiv indiziert: bei
h(0,0)
- Theoretisch konsistent mit der Faltungseigenschaft der 2D - DFT
- symmetrisch indiziert: in der Operatormitte
- Genau genommen nicht konsistent mit der Faltungseigenschaft der 2D - DFT
- jew. um
180°
gedrehter Operator
- Umfang (Grenzen) der Operatoranwendung auf das Eingangsbild
g_1(m,n)
- verschiedene Berechnungs-Modi
- full: die Berechnung erfolgt, solange mindestens ein Pixel des Bildes von
h(m,n)
überdeckt wird.- Folglich ist das Ausgangsbild
g_2(m,n)
größer als das Eingangsbildg_1(m,n)
.
- Folglich ist das Ausgangsbild
- same: die Berechnung erfolgt so, dass das Ausgangsbild
g_2(m,n)
genauso groß wie das Eingangsbildg_1(m,n)
ist. - valid: Die Berechnung erfolgt nur, wenn
h(m,n)
vollständig (d.h.K\times L
) Pixel des Eingangsbildesg_1(m,n)
überdeckt.- Folglich ist das Ausgangsbild
g_2(m,n)
kleiner als das Eingangsbildg_1(m,n)
.
- Folglich ist das Ausgangsbild
Wiener-Filter = Minimum Mean Square Error Filter
- unter der Annahme, dass Rauschen und Bild unkorreliert sind
H_W=\frac{H^*}{|H|^2 + \frac{S_{\eta}}{S_f}}
Bildvorverarbeitung
Bildfehler
Pin Cushion Verzerrung Barrel Verzerrung Verzerrung durch Bewegung Fokusierungsunschärfe Verrauschen Salz und Pfeffer Rauschen
Bildrestauration
Beseitigen von Störungen / Verzerrungen, die bei der Bildaufnahme entstanden sind
- = Beseitigen von deterministischen Störungen, die i. A. bei der Bildaufnahme entstehen
- mögliche Ursachen:
- Aliasing
- Verschmieren (Blurring) durch Defokussierung und/oder Bewegung
- Geometrische Verzerrung
- Pixel- oder Zeilenfehler
- Ursachen von Verschmierungen
- Defokussierung
- Bewegungsartefakte (z.B.: Horizontale Kamerabewegung über 5 Pixel auf dem Kamerasensor während der Belichtungszeit:
Geometrische Verzerrungen
- Entzerrung mittels Matrixmultiplikation
- Affine Transformation
- Translation
\hat{r}= \begin{pmatrix}x^* +dx\\ y^* +dy\\ 1\end{pmatrix}=\begin{pmatrix} 1 & 0 & dx \\ 0 & 1 & dy \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x^*\\ y^*\\ 1\end{pmatrix}= T^{*} * \hat{r}^{*}
- Skalierung
\hat{r}=\begin{pmatrix} S_x*x^* \\ S_y* y^*\\1 \end{pmatrix} =\begin{pmatrix} S_x & 0 & 0 \\ 0 & S_y & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x^*\\ y^*\\ 1\end{pmatrix}=T^{*} * \hat{r}^{*}
- Scherung
\hat{r}=\begin{pmatrix} x^* +b_x*y^* \\ b_y*x^*+y^*\\ 1 \end{pmatrix} =\begin{pmatrix} 1 & b_x & 0 \\ b_y & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x^*\\ y^*\\ 1\end{pmatrix}=T^{*} * \hat{r}^{*}
- Rotation
\hat{r}=\begin{pmatrix} cos\ \alpha*x^* - sin\ \alpha*y^* \\ sin\ \alpha*x^* + cos\ \alpha*y^*\\ 1 \end{pmatrix} =\begin{pmatrix} cos\ \alpha & -sin\ \alpha & 0 \\ sin\ \alpha & cos\ \alpha & 0 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x^*\\ y^*\\ 1\end{pmatrix}=T^{*} * \hat{r}^{*}
- Eigenschaften:
- bestimmt durch 6 Parameter
- Linear
- Geraden bleiben Geraden
- Parallele Geraden bleiben parallel
- Distanzverhältnisse auf Geraden bleiben erhalten
- Matrix-Multiplikation ist im Allgemeinen nicht kommutativ, d.h.: Reihenfolge beachten! Aus Ausführungsreihenfolge
T_1,T_2,...,T_{n-1},T_n
wird Multiplikation\hat{r}=T_n,T_{n-1}...,T_2,T_1
- Translation
- Abbildung von 3 Passpunkten (affine 3-punkt-transformation)
\hat{r}=\begin{pmatrix}x\\ y\\ 1\end{pmatrix}= T^*_A*\hat{r}^*=\begin{pmatrix} a_{11} & a_{12} & a_{13}\\ a_{21}& a_{22}& a_{23} \\ 0 & 0 & 1\end{pmatrix}\begin{pmatrix} x^* \\ y^* \\ 1\end{pmatrix}
- Rekonstruktion der Inverser:
T_A=\frac{1}{a_{11}a_{22}-a_{12}a_{21}} * \begin{pmatrix} a_{22}& -a_{12}& a_{12}a_{23}-a_{13}a_{22}\\ -a_{21}& a_{11}& a_{13}a_{21}-a_{11}a_{23}\\ 0 & 0 & a_{11}a_{22}-a_{12}a_{21} \end{pmatrix}
Projektive Transformation
- Abbildung von 4 Passpunkten:
\hat{r}=\begin{pmatrix}x\\ y\\ 1\end{pmatrix}=T^*_p * \hat{r}^*=\begin{pmatrix} a_{11}& a_{12}& a_{13}\\ a_{21}&a_{22}&a_{23}\\ a_{31}&a_{32}& 1\end{pmatrix}\begin{pmatrix}x^*\\ y^*\\ 1\end{pmatrix}
- Eigenschaften:
- bestimmt durch 8 Parameter
- Nur mit homogenen Koordinaten linear darstellbar
- Geraden bleiben Geraden
Radialsymmetrische Transformation
- Rotationssymmetrisch (Pin Cushion, Barrel Verzerrung)
- in Polarkoordinaten
R=\frac{1}{1+k*R^*}*R^*
k>0
: Barrel Transformationk<0
: Pin Cushion Transformation
- Eigenschaften:
- Nicht linear!
- Radialsymm. Verzerrungen i. A. bei Linsen-Systemen
Interpolation auf 2-Support Grid
- Lineare Interpolation:
g(m,y_0)=g(m,n)+\frac{y_0-n}{(n+1)-n}*[g(m,n+1)-g(m,n)]
- Nearest Neighbor, Ideale Interpolation, Kubische Interpolation
- Nur die Pixel im jeweiligen SupportGrid sind für die Berechnung von
g(x_0,y_0)
relevant - 1D:
g_1(x)=w(x)*g(x)=\sum_m w(x-m)*g(m)
mitm\in\mathbb{Z}
- 2D:
g_1(x,y)=w(w,y)**g(x,y)=\sum_m \sum_n w(x-m,y-n)*g(m,n)
- Interpolationsbedingung:
w(0)=1
,w(|m,n|\geq 1)=0
Bildregistrierung
Anpassung (Transformation) von Zielbildern auf ein Referenzbild (z.B. mit Ziel der Bildfusion)
- Passpunktbasierte registrierung
\begin{pmatrix} x_1\\ x_2 \\ x_3\\y_1\\ y_2\\ y_3\end{pmatrix}=\begin{pmatrix} x_1&y_1&1&0&0&0\\ x_2&y_2&1&0&0&0\\ x_3&y_3&1&0&0&0\\ 0&0&0&x_1&y_1&1\\ 0&0&0&x_2&y_2&1\\ 0&0&0&x_2&y_3&1\end{pmatrix} * \begin{pmatrix} a_{1,1}\\ a_{1,2}\\ a_{1,3}\\ a_{2,1}\\ a_{2,2}\\ a_{2,3} \end{pmatrix}
- Passpunktunabhängige registierung
- normierte Kreuzkorrelation
- Fourier-Mellin-Transformation
Bildverbesserung
Verbesserung des subjektiven Wahrnehmung Anhebung der für den Betrachter (diagnostisch) relevanten Bildinformation
Pixelbasierte Kontrastverbesserung (Differenz zwischen min. und max. Grauwert erhöhen)
- Intensitäts-Transformatins-Kennlinie (Gradiationskurve)
- Grauwertspreizung -> Histogramm
q=[q_{min}+\frac{g-g_{min}}{g_{max}-g_{min}}*(q_{max}-q_{min})]_{\mathbb{N}}
- Clipping durch Intensity Transformation Function (ITF)
- Logarithmus Transformation
q=[q_{max}*\frac{ln(g+1)}{ln(g_{max}+1)}]_{\mathbb{N}}
- Spreizung niedriger (dunkler) GW
- Stauchung hoher (heller) GW
- Gammakorrektur (Potenztransformation)
q=[q_{max}(\frac{g}{g_{max}}^y)]_{mathbb{N}}
- steile kurve -> spreizung der jew. grauwerte
- flache kurve -> stauchung der jew. grauwerte
- Histogramm-Linearisierung
q_i=\lceil N_q*\frac{\sum_{k=0}^i h(k)}{M*N} \rceil_{mathbb{N}} -1
- Spreizung häufiger GW, Stauchung seltener GW
Rauschunterdrückung (Tiefpassfilter)
- Prinzip
g_{TP}(x,y)=g(x,y)** h_{TP}(x,y)
- gegen Gauß/ Salz&Pfeffer- Rauschen
- Mittelwertfilter
h(x,y)=rect(\frac{x,s_x},\frac{y}{s_y})*\frac{1}{s_x*s_y}
- Idelaer Tiefpass (erzeugt Ringing-Artefakte aufgrund der Nebenmaxima der entsprechenden Ortsbereichsfunktion (2D-si-Funktion, rotationssymmetrisch))
- Gauß Tiefpass (minimales Zeitdauer-Bandbreite-Produkt)
- Binominal Filter
b=\frac{1}{n}[n\ (n-1)\ ...]
(ganzzahlige Approximation des Gauß-Filter) - Medianfilter (sortierte Umgebungspixel)
- nichtlinearer Median-Filter
g(x,y)=median\{g(x',y')\}
- Bildung des Medians aller Grauwerte der Pixel in der Umgebung von
(x,y)
- gehört zu den Rangordnungsfiltern
- besonders für Salz- und Pfeffer-Rauschen geeignet
- starke gerade Kanten bleiben erhalten
- Bildung des Medians aller Grauwerte der Pixel in der Umgebung von
Hervorhebung von Kanten (Hochpassfilter)
- Lineare Hochpass Filter: Mittelwert, Ideal, Gauß
- Gradientenbild (vertikal, horizontal, kombiniert)
- Problem: Rauschempfindlichkeit schlecht
- geringe Verschiebung
- symmetrische Gradientenschätzung
- keine Verschiebung im Gradientenbild
- etwas robuster gegen Rauschen
- Prewitt-Operator (robuster gegen Rauscheinflüsse)
- Sobel-Operator (äquivalent zum Prewitt-Operator, jedoch Mittelwert-Filter durch Binomial-Filter ersetzt)
- Laplace-Operator
\Delta g(x,y)=\frac{\delta^2 g}{\delta x^2}+\frac{\delta^2 g}{\delta y^2}
- ist sehr rauschempfindlich
- ist richtungsunabhängig
- vorheriges Gauß-Filter führt zu ,Laplacian of Gaussian'-Filter (LoG) zur Erhöhung der Robustheit gegen Rauschen
Segmentierung
Unterteilung des Bildes hinsichtlich der Struktur in einzelne Bildabschnitte (Segmente)
- Unterteilung des Bildes in Teilbereiche (Regionen, Segmente, Bildobjekte) mit gleichen Eigenschaften
- Trennung Vordergrund / Hintergrund
- Extraktion von Objekten (Organe, Zellen, ...)
Eigenschaften:
- Vollständigkeit: jedes Pixel wird mindestens einem Segment zugeordnet
- Überdeckungsfreiheit: ein Pixel wird maximal einem Segment zugeordnet
- Zusammenhang: jedes Vordergrundsegment bildet ein zusammenhängendes Objekt
Pixel- bzw. histogrammbasierte Segmentierung
Schwellwertsegmentierung
- festlegen von Schwellwert -> trennung von Vorder- und Hintergrund
- durch Gauß Schnittpunkte oder Otsu, Histogramm
- bei Rauschen zuvor Filtern (z.B. Median)
- bei Shading zuvor Filter (z.B. Median)
- optimaler Schwellwert nach Otsu
- Normierung der Häufigkeit
h(g)
-> Wahrscheinlichkeit $p(g) - Wahrscheinlichkeit eines Grauwerts
g: p(g)=\frac{h(g)}{M*N}
- Wahrscheinlichkeit der Klassen
C_1
undC_2
:P_{C_1}(S)=\sum_{g=0}^S p(G)
,P_{C_2} p(g)=1-P_{C_1}(S)
- Normierung der Häufigkeit
Regionen-basierte Segmentierung
Annahme: Die Pixel eines Segmentes erfüllen ein gegebenes Homogenitätskriterium (Ähnlichkeitskriterium)!
Region-Growing
- Festlegung eines Saatpunktes (manuell oder automatisch)
P_S
innerhalb des Segments - Festlegung eines Homogenitätskriteriums
q
z.B. GW variieren um 20 Stufen um den Grauwert des Saatpunktes - Bestimmung aller Nachbarpixel um die aktuelle Region
-
- Region = Saatpunktregion) unter 4- bzw. 8-Nachbarschaft
-
- Hinzufügen aller Nachbarpixel P zur aktuellen Region für die gilt:
q(P,P_S)=1
(d.h. Homogenitätskriterium erfüllt ist) - Wiederholen von Schritt 3-4 bis keine Nachbarn mehr hinzugefügt werden
Region-Mergin
- zu Beginn: Jedes Pixel ist ein Segment.
- Zwei benachbarte Segmente werden zusammengefasst, wenn sie eine Homogenitätsbedingung erfüllen.
- Die Segmentierung ist beendet, wenn nichts mehr zusammengefügt werden kann
Split-and-Merge
- Gesamtes Bild ≙ einem Segment
- Jedes Segment wird (rekursiv) in 4 gleich große Teile (Split) zerlegt, falls es einer Homogenitätsbedingung (HB) nicht genügt
- Zerlegung endet, falls alle Segmente homogen sind
- Zusammenfassung (Merge) benachbarter homogener Segmente
Kantenbasierte Segmentierung
Schwellwertsegmentierung des Gradientenbildes
- Originalbild -> Tiefpassfilter -> Gradientenbild -> Schwellwertsegmentierung -> Thinning
- segmentierter Sobel-Gradient
Canny-Edge-Operator
- non-maxima-suppression (thinning)
- echte Kanten möglichst zuverlässig detektieren
- Kantenposition zuverlässig detektieren
- Anzahl falscher Kanten minimieren
- Tiefpassfilterung des Bildes mit Gauß-Filter der Varianz
\delta
- Berechnung des Gradientenbildes und der Gradientenrichtung
- Non-Maximum-Suppression: Extraktion aller lokalen Maxima im Gradientenbild in Gradientenrichtung
- Extraktion der starken Kantenpixel
- Extraktion der schwachen Kantenpixel
- Auffüllen der Lücken in den Kantenzügen mit Lückenpixel
- Merkmale:
- Empirische Bestimmung der Parameter
\delta
,S_1
undS_2
- Optimal für ideale Kanten unter Gauß-förmigem Rausch- und Defokussierungseinfluss
- Empirische Bestimmung der Parameter
- Ergebnis: Binärbild (Kanten als Vordergrund)
Wasserscheidentransformation
- Interpretation des Bildes als 2D-Funktion („Gebirge“)
- Wasserscheiden („Gebirgskämme“) trennen in unterschiedliche „entwässernde“ Senken
- Flutungs-Algorithmus
- Kantendetektion: WST auf Gradientenbild berechnen
- Problem: oft Effekt der Übersegmentierung
Modellbasierte Segmentierung
Einbringen von Modellinformationen in den Segmentierungsprozess (Detektion von Bildobjekten)
Template Matching
- Vorgabe eines Musters, das Form und Orientierung der Segmente im Bild bestimmt
- Bestimmung des normierten Kreuzkorrelationskoeffizienten
- Ergebnis: Segmente befinden sich an den lokalen Extrema
Hough Transformation
- Hough Transformation von Geraden -> Hesse-Normalform
cos\ \phi*x + sin\ \phi*y =d
- Koordinaten-Transformation
H_K
in den Hough-Raum (Parameterraum) - Transformation aller Vordergrundpixel von
g
in die entsprechenden Kurven im $(\phi,d)$-Parameterraum für alle - Suche nach Punkten im $(\phi,d)$-Raum, an denen sich besonders viele $H_k$-Kurven schneiden
- für Kreise/Ellipsen Kreisgleichung
(x-x_c)^2 + (y-y_c)^2=r^2
Morphologische Operationen
Anwendung:
- Veränderung von Formen
- Extraktion von Formmerkmalen
- Detektion von bekannten Formen
Grundoperationen
- Dilatation
\oplus
:B\oplus M
- vergrößert Objekte
- verbindet Strukturen
- füllt Löcher
- glättet Segmentrände
- Erosion
\ominus
:B\ominus M
- verkleinert Objekte
- entfernt Strukturen „kleiner“ als
- vergrößert Löcher
- Dualität:
B\oplus M=\overline{\overline{B}\ominus M}
,B\ominus M=\overline{\overline{B}\oplus M}
- Opening: Erosion & Dilatation
B\circ M= (B\ominus M)\oplus M
- Closing: Dilatation & Erosion
B\circ M= (B\oplus M)\ominus M
Bestimmung von Formmerkmalen
Berechnung des Randes:
R_{4/8}=B\backslash (B\ominus M_{4/8})
- Erosion mit Strukturelement entfernt alle Pixel in deren 4/8-Nachbarschaft sich mindestens ein Hintergrundpixel befindet
- Rand ergibt sich durch Subtraktion vom Original
- Der Rand gehört also zum Objekt und ist nicht die Umrandung drum herum
Hit-or-Miss-Operator
- Detektion von def. Objekten (d.h. def. Vordergrund vor def. Hintergrund)
- Bestimmung aller Positionen (Instanzen) an denen der Vordergrund des Objektes liegen kann
- Bestimmung aller Positionen an denen der erwartete Hintergrund des Objektes liegen kann
- Schnittmenge beider Ergebnisse
- Hit-Operator
M_H
und Miss-OperatorM_M
(jew. gegenteilig zueinander) - 0, 1, X (x für nicht-beachtet)
Iterative Distanztransformation
- Allen Pixeln des $k$-ten Randes werden die Grauwerte
k-1
zugewiesen. (Alternativ ist auchk
möglich) - Distanztransformation ersetzt jeden Pixel (GW) innerhalb eines Objektes durch seinen kürzesten Abstand zum Objektrand
- Iterative Bestimmung durch wiederholte Bestimmung des Objektrandes
Skelettierung
- Definition mittels maximal eingeschriebener Kreise
- Der digitale Kreis um das Skelettpixel muss vollständig innerhalb des Segmentes liegen.
- Für ein von einem Kreis berührtes Randpixel darf es keinen Kreis mit größerem Radius geben, der die Bedingung 1 erfüllt, damit der Mittelpunkt ein Skelletpixel ist.
- Skelett besteht aus den Zentren aller maximal eingeschriebenen Kreise
- Kann aus den „Gebirgskämmen“ des distanztransformierten Bildes gewonnen werden.
- Anwendung: Zeichenerkennung, Datenreduktion, Merkmalsextraktion für Klassifizierung
Morphing
- Lineare Interpolation zwischen den Distanzwerten von zwei Segmenten
- Vorzeichenbehaftete Distanztransformation -> Linearkombination
A_i=i*A_1+ (1-i)*A_2
Merkmalsextraktion und Klassifikation
- Merkmalsextraktion: Erfassung von Merkmalen (Eigenschaften) zusammenhängender Bildobjekte (Segmente)
- Merkmal: Skalar, welcher einen bestimmten Aspekt der Objektbedeutung beschreibt
- Klassifikation: Zuordnung von Bildobjekten
- Merkmale werden für jedes zusammenhängende Objekt im Bild bestimmt
Regionenbasierte Merkmale
Merkmale werden vom Objektinneren (Textur = gemeinsame Eigenschaft der GW-Verteilung einer Region) bestimmt z.B.:
- mittlerer GW
- GW-Varianz, Momente (Schiefe, Exzess)
- Haralick’sche Texturmaße
- Frequenzbereichsmerkmale, z.B. mittlere Amplitude in einem Bereich des Spektrums
Co-Occurrence-Matrix
- Berechnung der Wahrscheinlichkeit des Auftretens von Grauwertpaaren in definiertem Abstand/Richtung
- Hohe Werte auf der Diagonalen spiegeln geringe Grauwertdifferenzen benachbarter Pixel wider
Haralick‘sche Texturmaße
- Skalare Kenngrößen, die aus den normierten Co-Occurrence-Matrizen ermittelt werden
- je mehr Grauwerte (Grauwertpaare), desto kleiner der Wert
- Werte auf der Diagonalen spiegeln Homogenität in Richtung 𝛼𝛼 wider
- je größer die Grauwertdifferenz (Abweichung von der Diagonalen), desto kleiner der Quotient
Formbasierte Merkmale
Merkmale werden vom Objektrand (Form) bestimmt
- Flächeninhalt des Segments
- Umfang des Segments
- Flächendifferenz zwischen Segment und seiner konvexen Hülle
- Kreisähnlichkeit
- Euler-Zahl
E=V-L
Einführung in die Klassifikation
- Bestimmung einer Abbildungsvorschrift, die einem Merkmalsvektor eine Klassennummer zuordnet
- Die Abbildungsvorschrift wird aus einem möglichst repräsentativen, vorklassifizierten Trainingsdatensatz bestimmt
- Annahme: Die Merkmale bilden verschiedene Objekte in getrennte, kompakte Bereiche im Merkmalsraum ab
- Minimum Distance Transformation
- gegeben Traningsdatensätze
- berechnung der zentrumsvektoren aller klassen
- graphische Darstellung -> Voronoi-Diagramm
- Weitere Klassifikatoren
- Nearest Neighbor Klassifikation
- Nearest k-Neighbor Klassifikation
- Support-Vector Machines
- Statistische Klassifikatoren
- Neuronale Netze