Roboter gestütztes System mit Ensenso 3D-Kamera für sicheres Handling von Atommüll

Roboter gestütztes System mit Ensenso 3D-Kamera für sicheres Handling von Atommüll

Die Stilllegung von kerntechnischen Anlagen stellt die Betreiber vor große Herausforderungen. Ob Rückbau oder sicherer Einschluss: Die Menge des zu entsorgenden Atommülls wächst weltweit in überwältigendem Maße. Im Umgang mit Atommüll ist zunehmend Automatisierung erforderlich, doch die Nuklearindustrie steht vollkommen autonomen Robotersteuerungsmethoden aus Sicherheitsgründen misstrauisch gegenüber - in gefährlicher Umgebung werden ferngesteuerte Industrieroboter bevorzugt. So komplexe Aufgaben wie ferngesteuertes Greifen oder Schneiden unbekannter Objekte mit Hilfe von Joysticks und Videoüberwachungskameras sind allerdings nur schwer zu kontrollieren und teilweise sogar unmöglich.

Anwendung

Wer schon mal einen Jahrmarkt-Greifautomaten ausprobiert hat, kann es bestätigen: Die manuelle Steuerung von Greifarmen ist alles andere als trivial. So harmlos es ist, beim Versuch einen Plüschhasen zu schnappen zu scheitern, so dramatisch können Fehlversuche beim Handling von radioaktivem Müll sein. Um Schäden mit schweren Konsequenzen für Mensch und Umwelt zu vermeiden, muss der Roboter in der Lage sein, die radioaktiven Objekte in der Szene äußerst genau zu erkennen und präzise zu handeln. Der Bediener hat es sprichwörtlich in der Hand, ihm obliegt die Identifikation der richtigen Greifpositionen identifizieren.

ERLs 3D-Vision-geführter halbautonomer Schneidroboter für metallische Objekte in radioaktiver Umgebung
ERLs 3D-Vision-geführter halbautonomer Schneidroboter für metallische Objekte in radioaktiver Umgebung

Die Enseno 3D-Kamera übernimmt also mithilfe der Software die Wahrnehmung und Auswertung der Tiefeninformation für den Bediener, dessen kognitive Belastung sich dadurch erheblich reduziert. Das Assistenzsystem kombiniert die haptischen Merkmale des jeweils zu greifenden Objektes mit einem speziellen Greifalgorithmus. "Die Szenenwolke wird von unserem System verwendet, um automatisch mehrere stabile Greifpositionen zu erzeugen.

Da die von der 3D-Kamera erfassten Punktewolken hochauflösend und dicht sind, ist es möglich, sehr präzise Greifpositionen für jedes Objekt in der Szene zu generieren.

— Dr. Naresh Marturi, Senior Research Scientist am National Centre for Nuclear Robotics —

Auf dieser Grundlage bestimmt unser "Hypothesen-Ranking-Algorithmus" das beste Objekt zum Aufnehmen, basierend auf der aktuellen Position des Roboters", erklärt Dr. Naresh Marturi, Senior Research Scientist am National Centre for Nuclear Robotics.

Das Prinzip ähnelt dem des Geschicklichkeitsspiels Mikado, bei dem ein Stab nach dem anderen weggenommen werden muss, ohne dabei andere Stäbe zu bewegen. Die ermittelte Bahnführung ermöglicht, den Roboter reibungslos und gleichmäßig auf einem gewünschten Pfad zur Ziel-Greifposition zu navigieren. Wie ein Navigationssystem unterstützt das System den Bediener dabei, den Roboterarm zum sicheren Griff zu führen, ggf. auch an anderen unbekannten und gefährlichen Objekten vorbei. Das System berechnet dafür einen sicheren Korridor und hilft dem Bediener durch haptisches Feedback, den Korridor nicht zu verlassen.

Das System bildet dabei die natürlichen Handbewegungen des Bedieners exakt und verlässlich in Echtzeit auf die korrespondierenden Bewegungen des Roboters ab. "An diesem Punkt steuert der Bediener den Roboter nur noch über die haptische Vorrichtung. Wenn sich der Roboter aus der gewünschten Bahn bewegt, merkt er dies im Griff und kann den Roboter zurück auf die Bahn bringen. Wenn der Roboter die Greifposition erreicht, spürt der Bediener einen starken Widerstand im Griff der haptischen Vorrichtung, sodass er den Roboter nicht mehr bewegen kann." Der Bediener behält dadurch stets die manuelle Steuerung bei und ist der Lage, im Falle von Komponentenausfällen zu übernehmen. Er kann die KI einfach abschalten und zur menschlichen Intelligenz zurückkehren, indem er den "Force-Feedback-Modus" ausschaltet. Entsprechend dem Prinzip der zwischen Mensch und Maschine geteilten Steuerung bleibt das System somit jederzeit unter Kontrolle - unerlässlich in einer Umgebung mit höchster Gefahrenstufe.

Dr. Naresh Marturi, Senior Research Scientist, Maxime Adjigble, Robotics Research Engineer
Dr. Naresh Marturi, Senior Research Scientist, Maxime Adjigble, Robotics Research Engineer

Ausblick

Die Forscher des Extreme Robotic Lab in Birmingham entwickeln derzeit eine Erweiterung der Methode, um statt eines Parallelbackengreifers auch eine mehrfingrige Hand verwenden zu können. Damit soll die Flexibilität und Zuverlässigkeit beim Greifen komplexer Objekte erhöht werden. Der Bediener soll künftig auch die Kräfte spüren, denen die Finger des ferngesteuerten Roboters beim Greifen eines Objekts ausgesetzt sind. Entwickelt werden darüber hinaus vollständig autonome Greifmethoden, bei denen der Roboterarm von einer KI gesteuert und von einem automatischen Vision-System geführt wird. Außerdem arbeitet das Team an Visualisierungstools zur Verbesserung der Mensch-Roboter-Kollaboration zur Steuerung entfernter Roboter über ein "Shared Control"-System.

Im Hinblick auf unser aller Sicherheit und Gesundheit ein vielversprechender Ansatz: Das Handling zur Entsorgung von gefährlichen Objekten wie Atommüll geht uns letztlich alle an. Mit der zuverlässigen Erfassung der entsprechenden Objektinformationen liefern Ensenso 3D-Kameras einen wichtigen Beitrag zu dieser weltweit vorherrschenden Aufgabe mit zunehmender Dringlichkeit.

Ensenso N35 - 3D-Vision, schnell und präzise

University of Birmingham