Qualitätskontrolle mit AI-Vision

Auch die Frage, ob AI-Vision für eine bestimmte Aufgabe überhaupt geeignet ist bzw. diese lösen kann, wird oft gestellt. Dieses Henne-Ei-Problem führt leider zu oft dazu, dass die Technologie gar nicht erst evaluiert wird. Sicher muss die Technologie gerade im industriellen Umfeld noch reifen, um ein Akzeptanz-Level wie die bewährten klassischen Bildverarbeitungsmethoden zu erreichen. Andererseits gibt es bereits benutzerfreundliche Software Werkzeuge, die es auch Anwendern ohne Erfahrung ermöglichen, ihre Anwendungen mit AI-Vision zu evaluieren und intuitiv umzusetzen.

Vorteilhaft andersartig

Denn gerade, dass KI-basierte Methoden gänzlich anders funktionieren als regelbasierte Ansätze, ist deren größter Vorteil. Das ermöglicht es Anbietern ganz neue Werkzeuge für die Bildverarbeitung zu entwickeln, die viel intuitiver einsetzbar sind. Mit ihnen können schon heute menschliche Qualitätsanforderungen durch maschinelles Lernen auf KI-basierte Bildverarbeitungssysteme übertragen werden, um Prozesse zu optimieren und zu automatisieren. Dabei muss oft keine einzige Zeile Quellcode geschrieben werden, wodurch sich AI-Vision für ganz neue Zielgruppen empfiehlt, die nicht mehr zwingend über Programmierkenntnisse verfügen müssen. Machbarkeitsanalysen sind damit von den Mitarbeitern durchführbar, die selbst am meisten Kenntnis von Produkten und deren Besonderheiten haben, Unternehmen sind in der Evaluationsphase damit nicht mehr zwingend auf Programmierer und Bildverarbeitungsexperten angewiesen.

Unbeschreibbar einfach

Betrachten wir die Stärken von AI-Vision an folgendem Anwendungsbeispiel eines Kunden von IDS. Oft werden drehbare Wellen mit Sprengringen gesichert. Doch nur ein vollständig in der Wellenkerbe eingerasteter Ring sorgt für eine 100% sichere Verbindung. Ein fehlerhafter Sitz kann Produktschäden nach sich ziehen. Die Aufgabe für die Qualitätssicherung scheint einfach. Prüfe, ob der Ring richtig eingerastet ist! Tatsache ist jedoch, dass diese Prüfung noch von Menschen durchgeführt wird, da bisher keine sichere Automatisierungslösung gefunden wurde. Tests mit regelbasierter Bildverarbeitung konnten lediglich sicherstellen, ob der Sprengring vorhanden oder fehlt. Im besten Fall konnte man ermitteln, ob die "Ohren" des Sprengrings weiter auseinander stehen, als sie sollten. Damit ist der Sprengring jedoch nicht unbedingt sicher eingerastet! Er könnte auch nur einfach aufliegen! Die marginalen Bildunterschiede im Fehlerfall konnten regelbasiert nur schwer beschrieben werden.

Eine Machbarkeitsanalyse mit Machine-Learning-Methoden zeigte, dass nur wenige Bildbeispiele von korrekten und fehlerhaften Fällen, in diesem Fall knapp 300, erforderlich waren, um einen neuronales Netz zu trainieren, das den fehlerhaften Sitz der Sprengringe mit hoher Wahrscheinlichkeit vorhersagen konnte. Eine manuelle Sichtprüfung war damit nur noch bei sehr wenigen unsicheren Ergebnissen notwendig.

Wahrscheinlich unwillkürlich

Wie gut ein neuronales Netz durch sein Training funktioniert, lässt sich durch Tests mit Beispielbildern validieren. Ein Testlauf mit Bildern bekannter Fehlerklassen liefert dabei Aussagen über die Lerngenauigkeit und die Qualität der KI-Ergebnisse. Je deutlicher sich die Wahrscheinlichkeiten für GUTE und SCHLECHTE Fälle voneinander unterscheiden, desto klarer lässt sich ein entscheidender Grenzwert zwischen GUT und SCHLECHT festlegen, um später im produktiven Betrieb so wenig wie möglich fehlerhaft erkannte GUT- bzw. SCHLECHT-Fälle zu erzeugen. Die beim Test ermittelte Varianz der GUT-Wahrscheinlichkeiten hilft dabei zudem, die Produktionsumgebung zu optimieren. Denn auch bei der KI-Analyse gilt, je weniger die Umgebungsbedingungen und damit irrelevanten Bildinhalte variieren, desto konkreter können Qualitätsaussagen über die relevanten Unterscheidungsmerkmale getroffen werden.

Die Validierung eines trainierten CNN mit Testdaten bekannter Fehlerklassen zeigen einerseits, wie gut das Netz Fehler identifiziert und zudem wie stark die Ergebnisse variieren.
Die Validierung eines trainierten CNN mit Testdaten bekannter Fehlerklassen zeigen einerseits, wie gut das Netz Fehler identifiziert und zudem wie stark die Ergebnisse variieren.

Unglaublich erklärbar

Dass KI-Qualitätsentscheidungen nicht durch ein klar definiertes Regelwerk nachvollziehbar sind und die Algorithmik eher einer Blackbox gleicht, bedeutet nicht, dass Ergebnisse nicht dennoch erklärbar sind. Werkzeuge wie Attention Maps oder Anomalie Maps visualisieren, wo die für Vorhersagen relevanten Pixel im Bild liegen und mit welchem Maß sie dazu beitragen. Im Fall unserer Sprengringprüfung zeigen diese Overlays wie erwartet auf die relevanten Merkmale der bekannten Fehlerklassen. Speziell mit der Anomaly Detection lassen sich so auch unbekannte, und damit untrainierte, Fehlerfälle aussortieren. Das beweist, dass die Methoden des maschinellen Lernens auch in der Lage sind, mehr als das antrainierte Wissen über bekannte Merkmale zu nutzen und eben auch unbekannte, neu entstehende Probleme signalisieren können. Als Beispiel führte ein unscharfes Kamerabild dazu, dass die Anomaly Map an mehreren Stellen Abweichungen markierte.

Attention Maps zeigen relevanten Bildpixel und erklären somit visuell, wie KI-Vorhersagen zustande kommen.
Attention Maps zeigen relevanten Bildpixel und erklären somit visuell, wie KI-Vorhersagen zustande kommen.

Vorausschauend

Eine Anomaly Detection bringt damit einen weiteren Vorteil für die Qualitätssicherung mit sich, der mit regelbasierter Bildverarbeitung nicht so einfach zu realisieren wäre. Entscheidend ist dabei die Fähigkeit, jede Abweichung vom Normalfall zu erkennen, auch solche, die im Training unterrepräsentiert sind. Mit anderen Worten: solche, die gar nicht geplant waren. Wo also andere Methoden bei etwas "Unbekanntem" unsicher werden, manchmal sogar versagen, bleibt dieser Methode mit hoher Sicherheit nichts verborgen. Und das schließt alles ein, was im normalen Betrieb irgendwann einmal vorkommen kann. Durch kontinuierliche Daten über einen Systemzustand, zum Beispiel in Form von zunehmenden Produktfehlern oder Abweichungen, also Anomalien, ist man in der Lage einen optimalen Zeitpunkt für die Wartung eines Systems zu bestimmen, bevor die Produktqualität zu stark absinkt oder ein Worst-Case-Szenario wie ein Anlagenausfall eintritt.

 

Zunehmende Anomalie-Fehler können auf eine Verschlechterung eines Anlagenzustands durch Werkzeugverschleiß, Schmutz oder andere Störeinflüsse hindeuten.
Zunehmende Anomalie-Fehler können auf eine Verschlechterung eines Anlagenzustands durch Werkzeugverschleiß, Schmutz oder andere Störeinflüsse hindeuten.

Anwendertaugliches Werkzeug

AI-Vision ist sehr vielfältig in der Qualitätssicherung einsetzbar und kann bestehende Anwendungen erweitern oder verbessern. Wichtig ist dabei Schritt für Schritt vorzugehen. Eine Machbarkeitsanalyse im Vorfeld hilft zu klären, ob eine Aufgabe tatsächlich mit AI-Vision bearbeitet werden kann, noch bevor viel Geld und Zeit für Expertenpersonal, Wissensaufbau und KI-Systeme ausgegeben werden muss. Dazu helfen schon heute benutzerfreundliche Software-Werkzeuge, die eine erste Evaluierung rein bildbasiert und sogar in der Cloud ermöglichen. Dazu muss weder ein reales Vision System mit KI-Fähigkeiten vorhanden sein und auch keine eigene Trainingsplattform aufgesetzt werden. Dadurch lässt sich das Investmentrisiko stark reduzieren. Intuitiv nutzbare Oberflächen und einfach verständliche Workflows und Assistenten können zudem einen einfachen Einstieg für Anwender schaffen, die bislang nicht viel Erfahrung in KI oder der Bildverarbeitung und Anwendungsprogrammierung besitzen.

Dennoch erfordert AI-Vision ein gewisses Verständnis dafür, wie geeignetes Bildmaterial für ein effektives Training aussehen muss. Das ist die Voraussetzung dafür, dass später vertrauensvolle Schlussfolgerungen entstehen, die nachvollziehbar zu bewerten sind. Wichtig ist dabei auch, erfahrene Partner ins Boot zu holen, die einem nicht nur das beste KI-System versprechen, sondern den ganzen Workflow einer Machine-Learning-basierten Qualitätssicherung betrachten und betreuen können. Ein vollumfänglicher Support aus einer Hand ist auch im AI-Vision Umfeld eine nicht zu unterschätzende Erfolgskomponente. Der Einsatz von AI-Vision in der Qualitätssicherung ist also vielleicht nicht ganz so einfach, wie einem überall erzählt wird, aber mit Sicherheit einfacher als oft angenommen.