Bildanalyse und -verarbeitung

Überblick

Nach Einrichten des Bildverarbeitungssystems und dem Erfassen von Bildern kann der Anwender die aufgenommenen Objekte analysieren und verarbeiten, um verwertbare Informationen über Prüflinge zu gewinnen.

Inhalt

Bildanalyse

Die Bildanalyse verbindet Techniken aus der Statistik mit Messungen auf Grundlage der Graustufenintensität von Bildpunkten. Mit den Funktionen für die Bilddatenanalyse kann bestimmt werden, ob die Bildqualität für die geplante Überprüfung ausreichend ist. Überdies kann ein Bild hinsichtlich seines Inhalts analysiert werden und um darüber zu entscheiden, welche Prüfwerkzeuge für die Anwendung eingesetzt werden müssen. Bildanalysefunktionen bieten zudem Messungen, die zur Durchführung einfacher Inspektionen eingesetzt werden können, wie etwa zur Vollständigkeitskontrolle.

Gängige Werkzeuge für die Bildanalyse umfassen Histogramme, Linienprofile und Messungen der Lichtintensität.

Histogramm

Ein Histogramm zählt die Gesamtzahl von Bildpunkten auf jeder Stufe der Grauskala und stellt sie grafisch dar. Mit dem Histogramm kann bestimmt werden, ob sich die Gesamtintensität im Bild für die jeweilige Prüfanwendung eignet. Aus dem Histogramm wird erkenntlich, ob das Bild ausgeprägte Bereiche eines Grauwertes enthält. Auf Grundlage der Histogrammdaten kann der Anwender die Bedingungen für die Bilddatenerfassung anpassen, um so Bilder mit höherer Qualität zu erfassen.

Zwei wichtige Kriterien können vom Histogramm abgeleitet werden:

  • Unterbelichtung oder Sättigung: zu wenig Licht in der Bildumgebung führt beim Bilderfassungssensor zu Unterbelichtung. Zu viel Licht verursacht beim Bilderfassungssensor eine Überbelichtung bzw. Sättigung. Bilddaten, die bei Unterbelichtung oder Sättigung erfasst wurden, enthalten keine ausreichenden Informationen zur Untersuchung des Objekts. Diese Bildbedingungen müssen unbedingt festgestellt und während der Einrichtung des Bilderfassungssystems korrigiert werden.

    Ob ein Sensor unterbelichtet oder gesättigt ist, kann durch Betrachten des Histogramms festgestellt werden. Ein unterbelichtetes Bild enthält eine große Anzahl an Bildpunkten mit niedrigen Grauwerten (siehe Abbildung 1a). Die niedrigen Grauwerte erscheinen als Spitze am unteren Ende des Histogramms (siehe Abbildung 1b). Ein überbelichtetes Bild enthält eine große Anzahl an Bildpunkten mit sehr hohen Grauwerten (siehe Abbildung 2a). Dieser Zustand wird von einer Spitze am oberen Ende des Histogramms dargestellt (siehe Abbildung 2b).


Abb. 1: Ein unterbelichtetes Bild und Histogramm

 



Abb. 2: Ein überbelichtetes Bild und Histogramm

  • Kontrastmangel: Eine der häufigsten Aufgaben für Bildverarbeitungsanwendungen stellt das Untersuchen und Vermessen (Zählen) der Objekte in einem Bildausschnitt dar. Eine Methode, um Objekte vom Hintergrund zu trennen, nutzt den Unterschied der Intensität von beispielsweise hellen Partikeln und einem dunkleren Hintergrund. Aus einer Analyse des Histogramms in Abbildung 3b ergibt sich, dass Abbildung 3a mindestens zwei deutlich getrennte Intensitätsdichten aufweist. Die Einstellungen müssen so angepasst werden, dass das Histogramm der erfassten Bilder den für die Anwendung erforderlichen Kontrast hat.



Abb. 3: Ein Grauwertbild und -histogramm

 

Linienprofil

Ein Linienprofil zeichnet die Variationen der Intensität entlang einer Linie auf. Es gibt die Grauwerte der Bildpunkte entlang einer Linie aus und stellt diese dar. Linienprofile helfen dabei, Ränder zwischen Bestandteilen der Objekte zu untersuchen, das Ausmaß der Intensitätsschwankungen quantitativ zu bestimmen und das Vorhandensein von sich wiederholenden Mustern festzustellen.

Die Höhen und Tiefen eines Linienprofils stellen Zu- und Abnahmen der Lichtintensität entlang der im Bild ausgewählten Linie dar. Ihre Breite und ihr Ausmaß entsprechen proportional der Größe und Intensität zugehöriger Regionen. Abbildung 4 zeigt, wie ein helles Objekt mit einheitlicher Intensität im Profil als Plateau erscheint. Je stärker der Kontrast zwischen einem Objekt und seinem Hintergrund ist, desto steiler sind die Flanken des Plateaus. Sehr rauschbehaftete Bildpunkte andererseits sind als eine Reihe schmaler Spitzen zu sehen.

Abb. 4: Eine Linie mit entsprechendem Linienprofil

Messung der Lichtintensität

Intensitätsmessungen ermitteln die Grauwertstatistik in einem Bild oder im Bereich eines Bildes. Messungen der Intensität können eingesetzt werden, um beispielsweise den durchschnittlichen Intensitätswert in einem Bereich des Bildes zu bestimmen, um so das Vorhandensein oder Fehlen eines Teils oder eines Fehlers in einem Teil festzustellen. Typische Intensitätsmessungen sind z. B.:

Bilddatenverarbeitung

Aufgrund der durch die Analyse gewonnenen Informationen ist eventuell eine Verbesserung der Qualität des Bildes für die Überprüfung erforderlich. Das Bild kann durch Entfernen von Rauschen, Hervorheben von wichtigen Merkmalen und Trennen der Objekte vom Hintergrund verbessert werden. Werkzeuge zur Bildverbesserung sind etwa Referenztabellen, Raumfilter, Grauwertmorphologie und die Bearbeitung im Frequenzbereich.

Referenztabellen

Eine Transformation einer Referenztabelle (Lookup Table, LUT) wandelt Grauwerte im Ausgangsbild in andere Grauwerte im transformierten Bild um. Mithilfe dieser Transformationen können Kontrast und Helligkeit eines Bildes verbessert werden, indem die dynamische Intensität von Bereichen mit schwachem Kontrast verändert wird. Gewöhnlich werden diese Transformationen herangezogen, um Bilddetails in bestimmten Bereichen mit wichtigen Informationen auf Kosten anderer Bereiche hervorzuheben.

Raumfilter

Raumfilter verbessern die Bildqualität, indem sie Rauschen entfernen und das Bild glätten, schärfer darstellen und umwandeln. IMAQ Vision bietet etliche bereits definierte Filter, darunter beispielsweise Gauss-Filter zum Glätten von Bildern, Laplace-Filter zur Hervorhebung von Bilddetails, Median-Filter und Filter n-ter Ordnung zur Entfernung von Rauschen sowie Prewitt-, Roberts- und Sobel-Filter zur Kantenerkennung. Anwender können auch eigene Filter definieren, indem individuelle Filterkoeffizienten spezifiziert werden.

Grauwertmorphologie

Morphologische Transformationen extrahieren und verändern die Struktur der Partikel in einem Bild. Funktionen für eine Grauwertmorphologie können eingesetzt werden, um

  • die Pixelintensität eines Bildes zu filtern oder zu glätten
  • die Form von Bereichen durch Erweitern heller Gebiete auf Kosten dunkler Gebiete zu verändern und umgekehrt
  • isolierte Merkmale, wie z. B. helle Bildpunkte auf dunklem Hintergrund, zu entfernen oder zu optimieren
  • sich allmählich verändernde Muster zu glätten und den Kontrast in Randbereichen zu erhöhen


Zu den Anwendungsbereichen gehören Rauschfilterung, Korrektur eines ungleichmäßigen Hintergrunds und Merkmalsextraktion der Grauwerte. Transformationen mittels Grauwertmorphologie können auch zur Verbesserung unauffälliger Merkmale genutzt werden, bevor eine Binarisierung durch einen Schwellwert des Bildes für eine Blob-Analyse erfolgt.

Bei Transformationen mittels Grauwertmorphologie wird ein Bildpunkt mit den ihn umgebenden Bildpunkten verglichen. Die Transformationen verändern die Form von Partikeln, indem sie jeden Bildpunkt aufgrund der Anzahl umliegender Pixel und der Werte dieser Nachbarn verarbeiten. Ein „Nachbar“ ist ein Bildpunkt, dessen Wert die Werte umliegender Bildpunkte während bestimmter Bildverarbeitungsfunktionen beeinflusst. Morphologische Transformationen nutzen eine binäre Maske in 2D (ein so genanntes Gliederungselement), um die Größe und die Wirkung der benachbarten Pixel auf jeden Bildpunkt zu bestimmen. Sie kontrollieren die Wirkung der binären morphologischen Funktionen auf die Form und die Grenzen eines Partikels.

Bearbeitung im Frequenzbereich


Die Bildverarbeitung erfolgt zumeist im Raumbereich. Es kann jedoch erforderlich sein, ein Bild im Frequenzbereich zu bearbeiten, um unerwünschte Frequenzinformationen vor der üblichen Analyse und Verarbeitung des Bildes zu entfernen. Mithilfe einer Fast-Fourier-Transformation kann ein Bild in den Frequenzbereich umgewandelt werden.

Ein Bild kann Fremdgeräusche wie etwa periodische Streifen enthalten, die während der Digitalisierung entstehen. Im Frequenzbereich wird das periodische Muster auf einen begrenzten Satz hoher Raumfrequenzen reduziert. Zudem können die Einstellungen für die Bildverarbeitung eine uneinheitliche Beleuchtung des sichtbaren Bereichs hervorrufen, wodurch sich ein Bild mit einer leichten Abweichung ergibt, welche die zu analysierenden Informationen überlagert. Im Frequenzbereich erscheint diese leichte Abweichung als begrenzter Satz niedriger Frequenzen um die durchschnittliche Intensität des Bildes (Gleichstrombestandteil). Algorithmen, die in diesem Frequenzbereich arbeiten, können eingesetzt werden, um diese unerwünschten Frequenzen zu isolieren und aus dem Bild zu entfernen. Durch Abschneiden dieser bestimmten Frequenzen und Zurückwandeln des gefilterten FFT-Bildes in den Raumbereich entsteht ein neues Bild, das kein Rauschen mehr enthält, aber in dem die Gesamtmerkmale weiterhin vorhanden sind.

 

Blob-Analyse

Ein Blob (Binary Large Object) ist ein Bereich angrenzender Bildpunkte mit demselben logischen Zustand. Alle Bildpunkte in einem Bild, die zu einem Blob gehören, sind im Vordergrund. Alle übrigen Bildpunkte sind im Hintergrund. In einem binären Bild haben Bildpunkte im Hintergrund Werte, die Null entsprechen, während jeder Bildpunkt ungleich Null Teil eines binären Objekts ist.

Die Blob-Analyse dient zur Erkennung von zusammenhängenden Regionen in einem Bild und zur Ausführung von Messungen an den Blobs.

Blob-Analysen setzen sich aus einer Reihe von Verarbeitungsabläufen und Analysefunktionen zusammen, die Informationen zu 2D-Formen in einem Bild liefern.

Eine Blob-Analyse kann eingesetzt werden, wenn Blobs gesucht werden sollen, deren Raummerkmale bestimmte Kriterien erfüllen. In vielen Anwendungen mit zeitraubenden Berechnungen kann die Blob-Analyse genutzt werden, um zusammenhängende Regionen auf Basis ihrer Raummerkmale auszuschließen, die nicht von Interesse sind. Nur relevante Blobs werden zur weiteren Analyse beibehalten.

Mithilfe der Blob-Analyse können auch statistische Angaben ermittelt werden, wie z. B. die Größe von Blobs oder Anzahl, Lage und Vorhandensein von Blobregionen. Mit diesen Informationen können viele Sichtprüfungen durchgeführt werden, so etwa Erkennen von Fehlerstellen auf Siliziumscheiben, Feststellen von Lötfehlern auf Leiterplatten oder Fernwartung über das Internet zum Auffinden von Strukturdefekten auf Holzplanken oder von Rissen in Plastikplanen. Überdies können Objekte in Motorsteuerungsanwendungen gesucht werden, wenn starke Abweichungen bei Form oder Lage eines Bauteils vorliegen.

Bei solchen Anwendungen ist die Blob-Analyse eine leistungsfähige und flexible Methode für die Suche nach dem Objekt. Unterschiedliche Messungen, die mittels Blob-Analyse erzielt wurden, können zur Festlegung der Merkmale eingesetzt werden, welche die Form des Objekts eindeutig definieren.

Binarisierung (Schwellwertoperation)

Mittels Binarisierung können Bereiche von Bildpunktwerten in Grauwert- und Farbbildern ausgewählt werden, um die betrachteten Objekte vom Hintergrund zu trennen.  Bei der Binarisierung wird ein Bild in ein binäres Bild überführt. Die Bildpunkte haben dabei die Werte 0 und 1. Hierbei werden alle Bildpunkte, deren Wert innerhalb eines bestimmten Bereichs liegt, auf 1 eingestellt und alle übrigen Bildpunktwerte auf 0. Abbildung 5a zeigt ein Grauwertbild und Abbildung 5b zeigt das Bild nach der Binarisierung. 

Abb. 5: Bild vor und nach der Binarisierung

Binäre Morphologie

Mit binären morphologischen Operationen wird die Struktur der Partikel in einem binären Bild extrahiert und verändert. Diese Operationen können bei der Prüfanwendung eingesetzt werden, um die Informationen in einem binären Bild zu verbessern, bevor Partikelmessungen, wie Bereich, Umfang und Lage, vorgenommen werden. Diese Transformationen können zur Beobachtung der Geometrie von Bereichen und zur Extrahierung der einfachsten Formen für Modellierungen und Identifikationen herangezogen werden.

Da die Binarisierung ein subjektiver Prozess ist, kann das binäre Bild unerwünschte Informationen enthalten. Dazu können Rauschpartikel, Partikel, die die Kanten von Bildern berühren, Partikel, die aneinander grenzen und Partikel mit unebenen Kanten gehören. Da sie die Form von Partikeln beeinflussen, können morphologische Funktionen diese unerwünschten Informationen entfernen und somit die Informationen des binären Bildes verbessern.

Primäre binäre Morphologie

Primäre morphologische Operationen werden an binären Bilder durchgeführt, um jeden Bildpunkt auf Grundlage der benachbarten Pixel zu verarbeiten. Jeder Bildpunkt wird entweder auf 1 oder auf 0 gesetzt, was von den Informationen der umliegenden Pixel und der verwendeten Operation abhängt. Diese Operationen ändern immer die Gesamtgröße und -form der Partikel im Bild.

Die primären morphologischen Operationen werden zur Erweiterung oder Verkleinerung der Partikel, zur Glättung der Objektkanten, Suche externer und interner Grenzen der Partikel und Suche bestimmter Konfigurationen der Bildpunkte eingesetzt.

Erweiterte binäre Morphologie

Die erweiterten morphologischen Operationen bauen auf den primären morphologischen Operationen auf und bearbeiten Partikel und keine Bildpunkte. Jede Operation wurde zur Ausführung eines bestimmten Vorgangs an den Partikeln in einem binären Bild entwickelt.

Mithilfe erweiterter morphologischer Operationen kann der Anwender Löcher in Partikeln ausfüllen, Partikel entfernen, die die Kante des Bildes berühren, unerwünschte kleine und große Partikel löschen, angrenzende Partikel trennen, die konvexe Hülle von Partikeln suchen und vieles mehr.

Partikelmessungen

Nach Erstellen eines binären Bildes und Vornahme von Verbesserungen, können bis zu 50 Partikelmessungen durchgeführt werden. Mithilfe dieser Messungen lassen sich die Lage von Blobs und ihre Formmerkmale bestimmen. Diese Merkmale tragen dazu bei, die Partikel aufgrund einer oder mehrerer Messungen zu klassifizieren oder zu filtern. Beispielsweise können Partikel herausgefiltert werden, deren Bereiche weniger als x Bildpunkte aufweisen.

 

Industrielle Bildverarbeitung

Bei Anwendungen in der industriellen Bildverarbeitung wird hauptsächlich Vorhandensein bzw. Fehlen von Teilen in einem Bild festgestellt und die Abmessungen von Bauteilen vermessen, um eine Übereinstimmung mit Spezifikationen festzustellen. Messungen basieren auf charakteristischen Merkmalen des im Bild dargestellten Objekts. Algorithmen für die Bildverarbeitung klassifizieren gewöhnlich die Art der Information in einem Bild als Kanten, Oberflächen und Textur oder als Muster. Unterschiedliche Arten von Bildverarbeitungsalgorithmen nutzen und extrahieren eine oder mehrere Informationsarten.

Kantenerkennung/Kantenbestimmung

Durch Kantendetektoren und ableitende Techniken, wie beispielsweise Rakes, konzentrische Rakes und Spokes, werden die Kanten eines Objekts mit hoher Genauigkeit erkannt. Eine Kante ist eine deutliche Veränderung bei den Grauwerten zwischen angrenzenden Bildpunkten. Die Lage einer Kante kann für Messungen genutzt werden, etwa für die Breite eines Bauteils. Mehrere dieser Kantenorte können zur Verarbeitung solcher Messungen als Schnittpunkte, Projektionen sowie Passungen von Kreisen oder Ellipsen genutzt werden.

Die Kantenerkennung ist ein sehr leistungsfähiges Werkzeug für viele Bildverarbeitungsanwendungen. Sie stellt für Anwendungen Informationen zur Lage der Ränder des Objekts und zum Vorhandensein von Abweichungen bereit. Die Kantenerkennung eignet sich besonders für die drei Anwendungsbereiche Vermessung, Erkennung und Ausrichtung.

Vermessung

Die Vermessung dient dazu, wichtige dimensionelle Messungen wie Länge, Abstände, Durchmesser, Winkel und Anzahl zu ermitteln, um festzustellen, ob das untersuchte Produkt korrekt hergestellt wurde. Die Komponente oder das Bauteil wird entweder klassifiziert (Gutteil) oder aussortiert (Schlechtteil), je nachdem, ob die gemessenen Parameter innerhalb oder außerhalb der anwenderdefinierten Toleranzen liegen.

Abbildung 6 zeigt, wie eine Messanwendung die Kantenerkennung nutzt, um die Größe des Zwischenraums bei einer Zündkerze zu messen.

Abb. 6: Kantenerkennung für die Messung des Abstands zwischen Zündkerzenelektroden

Erkennung

Anwendungen zur Erkennung zielen darauf ab, festzulegen, ob ein Bauteil vorhanden ist oder fehlt. Dies geschieht mittels Linienprofilen und Kantenerkennung. Eine Kante entlang des Linienprofils wird aufgrund des Kontrastniveaus zwischen Hintergrund, Vordergrund und der Flanke des Übergangs bestimmt. Mithilfe dieser Technik kann die Anzahl der Kanten entlang des Linienprofils gezählt und das Ergebnis mit der erwarteten Kantenanzahl verglichen werden. Diese Methode bietet eine weniger auf Zahlen basierende Alternative als andere Bildverarbeitungsmethoden, wie z. B. Bildkorrelation und Mustererkennung.

Abbildung 7 zeigt eine einfache Erkennungsanwendung, mit deren Hilfe die entlang des Linienprofils entdeckte Kantenanzahl bestimmt, ob ein Stecker richtig zusammengebaut wurde. Durch die Erkennung der acht Kanten wird angezeigt, dass vier Drähte vorhanden sind. Die Überprüfung des Steckers fällt positiv aus (s. Abb. 7a). Eine weitere Kantenzählung zeigt, dass der Stecker nicht korrekt zusammengesetzt wurde (s. Abb. 7b).

Abb. 7: Kantenerkennung, um das Vorhandensein eines Bauteils festzustellen

Die Kantenerkennung kann auch zur Feststellung von Strukturdefekten (z. B. Risse) oder von Schönheitsfehlern (z. B. Kratzer auf einem Bauteil) eingesetzt werden. Falls das Bauteil eine einheitliche Intensität aufweist, sind diese Fehler als deutliche Unterschiede im Intensitätsprofil zu erkennen. Durch die Kantenerkennung werden solche Unterschiede identifiziert.

Ausrichtung

Die Ausrichtung beschreibt die Lage und Orientierung eines Bauteils. Bei manchen Bildverarbeitungsanwendungen kann sich das Prüfobjekt an unterschiedlichen Orten im Bild befinden. Mithilfe der Kantenerkennung wird die Lage des Objekts im Bild festgestellt, bevor die Überprüfung durchgeführt wird, so dass nur dieser Bildbereich untersucht werden muss. Die Lage und Orientierung des Teils können ebenfalls herangezogen werden, um Informationen für ein Positioniersystem zu liefern (z. B. für ein Greiferportal).

Abbildung 8 zeigt eine Anwendung, die die linke Kante einer Diskette erkennt. Die Lage der Kanten kann zur Feststellung der Orientierung der Diskette genutzt werden. Anschließend helfen diese Informationen dabei, die Prüfbereiche richtig zu positionieren.

Abb. 8: Kantenerkennung zur Positionierung eines Prüfbereichs

Mustererkennung

Mithilfe der Mustererkennung werden Bereiche eines Grauwertbildes ermittelt, die einem vorher bestimmten Suchraster entsprechen. Bei der Mustererkennung werden Suchrasterentsprechungen auch bei schlechter Beleuchtung, Unschärfe, Rauschen, Verschiebung oder Rotation des Suchrasters erkannt.

Sie dient auch dazu, bekannte Referenzmuster bzw. Bezugspunkte in einem Bild zu finden. Mithilfe der Mustererkennung kann ein Modell oder Suchraster des gesuchten Objekts erstellt werden. Anschließend kann mit einer Bildverarbeitungsanwendung in jedem erfassten Bild nach dem entsprechenden Objekt gesucht und eine Trefferrate für jede Übereinstimmung erstellt werden. Die Trefferrate zeigt, inwieweit die Vorlage und das gefundene Muster übereinstimmen.

Mustererkennungsalgorithmen gehören zu den wichtigsten Funktionen der Bildverarbeitung, da sie in unterschiedlichen Anwendungen eingesetzt werden. Die Mustererkennung kann für folgende drei allgemeine Anwendungen genutzt werden: Ausrichtung, Vermessung und Sichtprüfung.

Ausrichtung

Mittels Ausrichtung wird die Lage und Orientierung eines bekannten Objekts durch Suche nach bestimmten Merkmalen ermittelt. Diese Merkmale werden als Bezugspunkte verwendet.

Vermessung

Mithilfe der Mustererkennung wird ein zu vermessendes Objekt gesucht. Anschließend können Längen, Durchmesser, Winkel und andere kritische Größen ausgemessen werden. Liegt das Messergebnis außerhalb gewisser Toleranzbereiche, wird das Bauteil aussortiert.

Sichtprüfung

Mit der Mustererkennung werden einfache Fehler, wie etwa fehlende Bauteile oder unleserliche Aufdrucke, erkannt.

Dimensionelle Messungen

In IMAQ Vision können dimensionelle Messungen bzw. Vermessungswerkzeuge eingesetzt werden, um quantifizierbare Messungen kritischer Entfernungen zu erzielen. Zu typischen Messungen gehören etwa die Entfernung zwischen Punkten, der Winkel zwischen zwei Linien, dargestellt durch drei oder vier Punkte, die Linien-, Kreis- oder Ellipsenübereinstimmung sowie die Bereiche geometrischer Formen wie beispielsweise Kreise, Ellipsen und Polygone, die erkannten Punkten entsprechen.

Farbkontrolle

Durch Farbmustervergleich können Probleme, die bei Schwarzweißbildern auftreten, oft aufgehoben werden, und zwar dadurch, dass der Kontrast erhöht oder das Objekt deutlicher vom Hintergrund abgehoben wird. Eine Farbkontrolle umfasst drei Bereiche: Farbvergleich, Farbort und Farbmustererkennung.

Farbvergleich

Der Farbvergleich bestimmt quantitativ, welche Farben und welcher Anteil dieser Farben in einem Bereich eines Bildes vorhanden sind und nutzt diese Informationen, um festzustellen, ob ein anderes Bild dieselben Farben in demselben Verhältnis enthält. 

Mithilfe des Farbvergleichs können der Farbinhalt eines Bildes oder Bereiche innerhalb eines Bildes verglichen werden, um auf Farbinformationen zu verweisen. Mithilfe des Farbvergleichs werden ein Bild oder ausgewählte Bereiche in einem Bild erstellt, die die als Referenz erforderlichen Farbinformationen enthalten. Die Farbinformationen im Bild können aus einer oder mehreren Farben bestehen. Die Bildverarbeitungssoftware erkennt dann die 3D-Farbinformationen im Bild und stellt sie als eindimensionales Farbspektrum dar. Die Bildverarbeitungssoftware vergleicht die Farbinformationen im gesamten Bild oder in Bildbereichen mit dem gebildeten Farbspektrum. Anschließend berechnet sie eine Trefferrate für jeden Bereich. Die Trefferrate zeigt auf, wie genau die Farbinformation im Bereich der vom Farbspektrum dargestellten Information entspricht.

Der Farbvergleich kann in Anwendungen wie etwa Farberkennung und Farbkontrolle und in anderen Anwendungen, die zur Entscheidungsfindung einen Vergleich von Farbinformationen erfordern, eingesetzt werden.

Abbildung 9 zeigt ein Beispiel einer Anwendung zur Erkennung von Fliesen. In Abbildung 9a sieht man eine Fliese, die identifiziert werden muss. Abbildung 9b zeigt einen Satz von Fliesen zum Vergleich und ihre Trefferraten des Farbvergleichs.

Abb. 9: Farbvergleich zur Erkennung von Fliesen

Farbort

Der Farbort kann eingesetzt werden, um bekannte Farbbereiche in einem Bild schnell aufzufinden. Mithilfe des Farborts kann ein Modell oder Suchraster erstellt werden, das die gesuchten Farben darstellt. Die Bildverarbeitungsanwendung sucht dann in jedem erfassten Bild nach dem Muster und erstellt eine Trefferrate für jede Übereinstimmung. Die Trefferrate zeigt, wie genau die Farbinformation des Musters der in den Bereichen gefundenen Farbinformation entspricht.

Farbortalgorithmen tragen dazu bei, Bildbereiche mit einer bestimmten Farbe schnell zu finden. Der Farbort ist hilfreich, wenn eine Anwendung:


Die Werkzeuge für den Farbort in IMAQ Vision messen die Ähnlichkeit zwischen einer idealisierten Darstellung eines Merkmals, genannt Modell, und eines Merkmals, das in einem Bild vorhanden sein kann. Ein Merkmal für einen Farbort wird als Bereich in einem Bild mit bestimmten Farben definiert.

Die Festlegung des Farborts eignet sich für Prüf-, Identifikations- und Sortieranwendungen.

Abbildung 10 zeigt eine Anwendung zur Sortierung von Süßwaren. Mithilfe von Farbvorlagen der unterschiedlichen Süßwaren im Bild wird mittels Farbort die Lage der verschiedenen Süßwaren schnell festgestellt.


[+] Bild vergrößern

Abb. 10: Festlegung des Farborts zur Sortierung von Süßwaren

Farbmustervergleich

Mit dem Farbmustervergleich werden bekannte Referenzmuster bzw. Bezugspunkte in einer Farbabbildung schnell aufgespürt. Mithilfe der Farbmustererkennung kann ein Modell oder Suchraster des gesuchten Objekts erstellt werden. Anschließend kann mit einer Bildverarbeitungsanwendung in jedem erfassten Bild nach dem Modell gesucht und eine Trefferrate für jede Übereinstimmung erstellt werden. Die Trefferrate zeigt, inwieweit die Vorlage und das gefundene Farbmuster übereinstimmen. Der Farbmustervergleich empfiehlt sich zur Lokalisierung von Referenzmustern, die durch die Farb- und Rauminformationen vollständig dargestellt werden.

Ein Farbmustervergleich ist geeignet, wenn

  • das gesuchte Objekt Farbinformationen enthält, die sich stark vom Hintergrund unterscheiden, und wenn die Lage des Objekts im Bild ganz genau gefunden werden soll. Der Farbmustervergleich liefert ein genaueres Ergebnis als die Festlegung des Farborts, da während der Suchphase zusätzliche Forminformationen berücksichtigt werden.

    Abbildung 11 zeigt den Unterschied zwischen Farbort und Farbmustervergleich. Abbildung 11a ist das Suchrasterbild eines Widerstandes, nach dem die Algorithmen in den Prüfbildern suchen. Obwohl bei der Farbortsuche (Abb. 11b) der Widerstand gefunden wird, sind die Treffer nicht sehr genau, da sie sich auf Farbinformationen beschränken. Der Farbmustervergleich nutzt zuerst den Farbvergleich, um die Objekte zu finden, und anschließend den Mustervergleich, um die Lage genauer einzugrenzen und so bessere Ergebnisse zu liefern (Abb. 11c).




Abb. 11: Farbmustervergleich zum genauen Auffinden von Widerständen

  • das gesuchte Objekt Grauwerteigenschaften hat, die sehr schwer zu charakterisieren sind oder den anderen Objekten im Suchbild sehr ähneln. In diesen Fällen liefert der Mustervergleich im Graustufenbereich eventuell keine genauen Ergebnisse. Falls das Objekt Farbinformationen enthält, die es von anderen Objekten unterscheiden, liefert die Farbe der Bildverarbeitungssoftware die zur Suche des Objekts erforderlichen Zusatzinformationen.

    Abbildung 12 zeigt die Vorteile des Einsatzes von Farbinformationen bei der Suche nach farbkodierten Sicherungen in einem Sicherungskasten. Abbildung 12a zeigt ein Grauwertbild des Sicherungskastens. Hier hat das Werkzeug für den Mustervergleich im Graustufenbereich Schwierigkeiten, eindeutig zwischen den Sicherungen 20 A und 25 A zu unterscheiden, da die Grauwertintensität ähnlich ist und weil die Sicherungen lichtdurchlässig sind. In Abbildung 12b wird dargestellt, wie Farbe dazu beiträgt, die Sicherungen voneinander zu unterscheiden. Durch die Farbe wird die Genauigkeit und Zuverlässigkeit des Werkzeugs für den Mustervergleich verbessert.



Abb. 12: Farbmustervergleich zum genauen Identifizieren von Objekten

Der Farbmustervergleich ist ein Schlüsselwerkzeug bei vielen Anwendungen. Der Farbmustervergleich stellt der Anwendung Informationen über die Häufigkeit eines Objekts und die Lage des Suchrasters innerhalb eines Bildes bereit. Die Farbmustererkennung kann für folgende drei allgemeine Anwendungen genutzt werden: Vermessung, Sichtprüfung und Ausrichtung.