Blutgefäßsegmentierung

Einleitung


Die Netzhaut hat wie jedes andere Objekt ihre eigenen Eigenschaften. Seine Hauptmerkmale sind Blutgefäße, die Papille und die Makula-Region (Abb. 1).

Bild
Abb. 1. Die Struktur der Netzhaut des Auges

In der Regel werden bei der Echtheitsprüfung nur Blutgefäße oder die damit verbundenen Merkmale verglichen, da ihre Einzigartigkeit leicht erkennbar ist. Die Platte kann nur als zusätzlicher Vergleichsparameter dienen, dies wird jedoch selten verwendet. Der Makulabereich wird überhaupt nicht für Authentifizierungszwecke verwendet.

Blutgefäßsegmentierung


Bevor Sie mit der Segmentierung beginnen, müssen Sie den Kontrast zwischen dem Hintergrund und dem segmentierten Objekt verbessern, um genauere Ergebnisse zu erzielen.

Verbesserung des Kontrastes zwischen Hintergrund und Blutgefäßen
Bei der Segmentierung der Blutgefäße wird nach Möglichkeit der grüne Kanal anstelle des üblichen grauen Kanals verwendet (Abb. 2). Dies liegt daran, dass der grüne Kanal den maximalen lokalen Kontrast zwischen dem Hintergrund und dem Objekt enthält.

Bild
Abb. 2. Beispiel aus der DRIVE-Datenbank (grauer Kanal links, grüner Kanal rechts)

Zusätzlich zur Verwendung des grünen Kanals wird die kontrastbegrenzte adaptive Histogramm-Entzerrung (clahe) verwendet. Das Ergebnis des Algorithmus ist in Abb. 2 dargestellt. 3.

Bild
Abb. 3. Clahe (links das Originalbild, rechts das Bild nach Anwendung des Algorithmus)

Hintergrund mit Durchschnittsfilter entfernen


Um die Segmentierung der Blutgefäße zu vereinfachen, wird zunächst der Hintergrund entfernt. Dies erfolgt durch Subtrahieren des Originalbilds vom Filter für geglättete Durchschnittsbilder. Die Abmessungen des Filterfensters werden gleich der maximalen Gefäßdicke in Pixel gewählt.

Um die Grenzen eines Kreises zu entfernen, wird seine Maske unter Verwendung der Schwellentransformation und der morphologischen Öffnung berechnet (4) und von dem im vorherigen Schritt erhaltenen Bild subtrahiert. Dann wird clahe erneut angewendet. Das Ergebnis ist in Abb. 2 dargestellt. 5.

Bild
Abb. Maske der Retina 4.

Bild
Fig. 5. Hintergrundentfernung (links das durchschnittliche Filterergebnis, rechts nach Subtraktion und Klausel)

Als nächstes werden die automatische Schwellentransformation nach der Otsu-Methode, der Medianfilter und der Längenfilter angewendet. Das Ergebnis des Segmentierungsalgorithmus und des Standards sind in Abb. 4 dargestellt. 6.

Der Einfachheit halber werden dieser Segmentierungsalgorithmus und der Hintergrundentfernungsalgorithmus beide als Hintergrundausschluss bezeichnet.

Bild
Abb. 6. Segmentierungsergebnis (links das Ergebnis des Algorithmus, rechts der von einem Experten manuell markierte Standard)

Gabor Filter


Diese Segmentierungsmethode basiert auf der Verwendung einer Reihe von Gabor-Filtern. Dieses Filter zeichnet sich dadurch aus, dass es gerade Linien einer bestimmten Größe und eines bestimmten Winkels hervorheben kann.
Der Realteil dieses Filters ist wie folgt:

Bild
wo
  • Bild
  • Bild
  • Bild, Bild- Koordinaten des Kerns innerhalb einer vorbestimmten Schwelle;
  • Bild - Kernel-Periode in Pixeln;
  • Bild - Kernneigung;
  • Bild - Gaußsche Dispersion;
  • Bild - Kernphasenverschiebung;
  • Bild - Kompression des Gaußschen.

Um die Gefäße zu isolieren, müssen Sie den Gabor-Filter mit unterschiedlichen Neigungswinkeln des Kerns anwenden und die maximale Reaktion jedes Pixels auf eine Reihe von Filtern berechnen.

Wie in Abb. In 7 verschwand das meiste Rauschen, aber die optische Platte, der Hintergrund und der Makulabereich blieben immer noch. Um sie auszuschließen, wird vor der Reihe der Gabor-Filter ein Algorithmus zum Entfernen des Hintergrunds mit denselben Parametern wie im vorherigen Abschnitt verwendet. Das Ergebnis ist in Abb. 2 dargestellt. 8.

Bild
Abb. 7. Gabor-Filter (links das Originalbild nach clahe, rechts das Ergebnis der Anwendung einer Reihe von Gabor-Filtern)

Bild
Abb. 8. Hintergrundentfernung + Gabor-Filter (links das Originalbild, das mit dem Hintergrundausschlussalgorithmus erhalten wurde, rechts das Ergebnis der Anwendung einer Reihe von Gabor-Filtern)

Der nächste Schritt des Algorithmus ist die Schwellentransformation.
Damit die Otsu-Methode genauere Segmentierungsergebnisse anzeigt, müssen alle Farben, die den Hintergrund bilden, in eine Farbe konvertiert werden. Betrachten Sie dazu das Histogramm des rechten Bildes von Abb. 8 (Abb. 9):

Bild
Abb. 9. Das Histogramm des Bildes, das unter Verwendung einer Reihe von Gabor-Filtern erhalten wurde.

Die Grafik zeigt, dass der Peak in der Anzahl der Pixel auf einen grauen Hintergrund fällt. Daher können Pixel, deren Farbe rechts vom Peak liegt, in einer anderen Farbe neu gestrichen werden. Auf dem segmentierten Bild ist jedoch immer noch etwas Rauschen vorhanden. Um dies zu vermeiden, können Sie die Grenze der Schwellenwerttransformation vom Peak nach links verschieben.

Wir führen den Empfindlichkeitsparameter des Algorithmus von 0 bis 100 ein. Die Schwellenfarbgrenze ist die nächstgelegene Farbe, deren Pixelanzahl den Wert des Empfindlichkeitsparameters links vom Peak nicht überschreitet. Der gefundene Wert ist der neue Wert der Intensität der Pixel rechts vom Rand. Das Ergebnis ist in Abb. 2 dargestellt. 10.

Bild
Abb. 10. Schwellenwertkonvertierung der Bildintensität (links das Originalbild, das nach dem Übermalen der Pixel gemäß dem Empfindlichkeitsparameter erhalten wurde, rechts das Ergebnis der Otsu-Methode)

In der Implementierung wurde der Gabor-Filter mit den folgenden Parametern verwendet:
  • Kerngröße - 15 x 15;
  • Bild - 4;
  • Bild - von 0 bis 170 Grad in Schritten von 10;
  • Bild - 1;
  • Bild - 0;
  • Bild - 0,15.

Die obigen Parameter wurden für die DRIVE-Datenbank ausgewählt.

Testen von Segmentierungsalgorithmen
Der Algorithmus wurde in zwei Datenbanken getestet: DRIVE und STARE. Die erste Datenbank besteht aus 40 Bildern, die mit einer Canon CR5-Kamera im 24-Bit-Farbraum und mit einer Auflösung von 565 x 584 aufgenommen wurden. Die zweite Datenbank besteht aus 20 Bildern, die mit einer TopCon TRV-50-Kamera im 24-Bit-Farbraum aufgenommen wurden und c 700 x 605. Beide Datenbanken bieten manuell beschriftete Experten für Standards der Gefäßsegmentierung.

Algorithmus-Leistungsparameter:
  • P ist die Anzahl der Pixel, die den Gefäßen entsprechen;
  • N ist die Anzahl der Pixel, die dem Hintergrund entsprechen;
  • TP - die Anzahl der Pixel, die Teil des Gefäßes sind und als Pixel des Gefäßes definiert sind;
  • TN - die Anzahl der Pixel, die nicht Teil des Schiffs sind und als Hintergrund definiert sind;
  • FP - die Anzahl der Pixel, die nicht Teil des Gefäßes sind und als Pixel des Gefäßes definiert sind;
  • FN - die Anzahl der Pixel, die Teil des Gefäßes sind und als Hintergrund definiert sind;
  • Empfindlichkeit = TP / (TP + FN);
  • Spezifität = TN / (TN + FP);
  • Genauigkeit = (TP + TN) / (P + N).


Die Wirksamkeit verschiedener Blutgefäßsegmentierungsalgorithmen unter Verwendung der DRIVE-Datenbank
SegmentierungsmethodeGenauigkeitEmpfindlichkeitSpezifität
Menschlicher Beobachter0.94730,77610,9725
Staal et al.0,94420,73450.9773
Niemeijer et al.0.94160,71450.9801
Zana und Klein0,93770,69710.9769
Jiang und Mojon0.92120,63990.9625
Vlachos und Dermatas0,92850,74680,9551
Wang et al.0.9461N / aN / a
Martinez-Perez et al.0,91810,63890,9496
Szpak und Tapamo0.9299N / aN / a
Chaudhuri et al.0,87730,33570.9794
Soares et al.0.9466N / aN / a
Akram und Khan0.9469N / aN / a
Mendonca und Campilho0,94630,7315N / a
Marin et al.0,94520,70670.9801
Ricci und Perfetti0,9595N / aN / a
Xiao et al.0,95290,75130,9792
Yin et al.0.92670,65220.9710
Chakraborti et al.0.93700,72050.9579
Hintergrundausschluss0,95010,71830.9722
Hintergrundausschluss + Gabor0,95800,71740,9809

Die Wirksamkeit verschiedener auf STARE basierender Blutgefäßsegmentierungsalgorithmen
SegmentierungsmethodeGenauigkeitEmpfindlichkeitSpezifität
Menschlicher Beobachter0.93540,8949N / a
Hoover0.92750,67510,9567
Staal et al.0,95160,6970N / a
Jiang und Mojon0.9009N / aN / a
Marin et al.0,95260,69440.9819
Ricci und Perfetti0,9584N / aN / a
Soares et al.0.9480N / aN / a
Akram und Khan0,9502N / aN / a
Wang et al.0,9521N / aN / a
Mendonca und Campilho0.94790,7123N / a
Xiao et al.0.94760,71470.9735
Yin et al.0.94120,72480,9666
Chakraborti et al.0,93790,67860,9586
Hintergrundausschluss0,95620,73790.9742
Hintergrundausschluss + Gabor0,93810,79180,9502


Liste der verwendeten Quellen und Literatur
  • Marwan D. Saleh, C. Eswaran und Ahmed Mueen. Ein automatisierter Algorithmus zur Blutgefäßsegmentierung unter Verwendung des Histogrammausgleichs und der automatischen Schwellenwertauswahl // Journal of Digital Imaging, Band 24, Nr. 4 (August), 2011, S. 564-572
  • PC Siddalingaswamy, K. Gopalakrishna Prabhu. Automatische Erkennung von mehrfach ausgerichteten Blutgefäßen in Netzhautbildern // J. Biomedical Science and Engineering, 2010, 3, S. 101-107
  • www.isi.uu.nl/Research/Databases/DRIVE
  • www.ces.clemson.edu/~ahoover/stare


Fortsetzung der übereinstimmenden Funktionen

Jetzt auch beliebt: