Gefahr im Griff
Roboter gestütztes System mit Ensenso 3D-Kamera für sicheres Handling von Atommüll
Die Stilllegung von kerntechnischen Anlagen stellt die Betreiber vor große Herausforderungen. Ob Rückbau oder sicherer Einschluss: Die Menge des zu entsorgenden Atommülls wächst weltweit in überwältigendem Maße. Im Umgang mit Atommüll ist zunehmend Automatisierung erforderlich, doch die Nuklearindustrie steht vollkommen autonomen Robotersteuerungsmethoden aus Sicherheitsgründen misstrauisch gegenüber - in gefährlicher Umgebung werden ferngesteuerte Industrieroboter bevorzugt. So komplexe Aufgaben wie ferngesteuertes Greifen oder Schneiden unbekannter Objekte mit Hilfe von Joysticks und Videoüberwachungskameras sind allerdings nur schwer zu kontrollieren und teilweise sogar unmöglich.
Um diesen Prozess zu vereinfachen, forscht das National Centre for Nuclear Robotics unter der Leitung des Extreme Robotics Lab an der Universität Birmingham in Großbritannien an automatisierten Handhabungsmöglichkeiten für die Sortierung und Trennung von Atommüll. Das dort entwickelte Roboter-Assistenzsystem ermöglicht eine "geteilte" Steuerung zur Durchführung komplexer Manipulationsaufgaben durch haptisches Feedback und Bildinformationen, die von einer Ensenso 3D-Kamera bereitgestellt werden. So behält der Bediener jederzeit die Kontrolle über die automatisierten Aktionen des Roboters und kann eingreifen, falls es zu Systemausfällen kommt.
Anwendung
Wer schon mal einen Jahrmarkt-Greifautomaten ausprobiert hat, kann es bestätigen: Die manuelle Steuerung von Greifarmen ist alles andere als trivial. So harmlos es ist, beim Versuch einen Plüschhasen zu schnappen zu scheitern, so dramatisch können Fehlversuche beim Handling von radioaktivem Müll sein. Um Schäden mit schweren Konsequenzen für Mensch und Umwelt zu vermeiden, muss der Roboter in der Lage sein, die radioaktiven Objekte in der Szene äußerst genau zu erkennen und präzise zu handeln. Der Bediener hat es sprichwörtlich in der Hand, ihm obliegt die Identifikation der richtigen Greifpositionen identifizieren.
Gleichzeitig muss er die inverse Kinematik (Rückwärtstransformation) richtig einschätzen und die Gelenkwinkel der Armelemente des Roboters korrekt bestimmen, um ihn korrekt zu positionieren und Kollisionen zu vermeiden. Das von den britischen Forschern entwickelte Assistenzsystem vereinfacht und beschleunigt diese Aufgabe immens: mit einem Standard-Industrieroboter, der mit einem Parallelbackengreifer und einer Ensenso N35 3D-Kamera ausgestattet ist.
Das System scannt autonom unbekannte Abfallobjekte und erstellt davon ein 3D-Modell in Form einer Punktewolke. Dies gelingt äußerst präzise, da Ensenso 3D Kameras nach dem Prinzip des räumlichen Sehens (Stereo Vision) arbeiten, das dem menschlichen Sehvermögen nachempfunden ist. Zwei Kameras betrachten dabei das Objekt aus unterschiedlichen Positionen. Obwohl der Bildinhalt beider Kamerabilder identisch scheint, weisen sie Unterschiede in der Lage der betrachteten Objekte auf. Da Abstand und Betrachtungswinkel der Kameras sowie die Brennweite der Optiken bekannt sind, kann die Ensenso-Software die 3D-Koordination des Objektpunkts für jeden einzelnen Bild-Pixel bestimmen. In diesem Fall wird die Szene anhand verschiedener Scanpositionen der Kamera erfasst und kombiniert, um eine vollständige 3D-Oberfläche aus allen Blickwinkeln zu bekommen. Die Kalibrierungsroutinen von Ensenso helfen dabei, die einzelnen Punktwolken in ein globales Koordinatensystem zu transformieren, was die vollständige virtuelle Abbildung verbessert. Die daraus entstandene Punktewolke enthält somit alle benötigten räumlichen Objektinformationen, um dem Roboter die richtige Greif- oder Schneideposition zu übermitteln.
Die Enseno 3D-Kamera übernimmt also mithilfe der Software die Wahrnehmung und Auswertung der Tiefeninformation für den Bediener, dessen kognitive Belastung sich dadurch erheblich reduziert. Das Assistenzsystem kombiniert die haptischen Merkmale des jeweils zu greifenden Objektes mit einem speziellen Greifalgorithmus. "Die Szenenwolke wird von unserem System verwendet, um automatisch mehrere stabile Greifpositionen zu erzeugen.
Da die von der 3D-Kamera erfassten Punktewolken hochauflösend und dicht sind, ist es möglich, sehr präzise Greifpositionen für jedes Objekt in der Szene zu generieren.
Auf dieser Grundlage bestimmt unser "Hypothesen-Ranking-Algorithmus" das beste Objekt zum Aufnehmen, basierend auf der aktuellen Position des Roboters", erklärt Dr. Naresh Marturi, Senior Research Scientist am National Centre for Nuclear Robotics.
Das Prinzip ähnelt dem des Geschicklichkeitsspiels Mikado, bei dem ein Stab nach dem anderen weggenommen werden muss, ohne dabei andere Stäbe zu bewegen. Die ermittelte Bahnführung ermöglicht, den Roboter reibungslos und gleichmäßig auf einem gewünschten Pfad zur Ziel-Greifposition zu navigieren. Wie ein Navigationssystem unterstützt das System den Bediener dabei, den Roboterarm zum sicheren Griff zu führen, ggf. auch an anderen unbekannten und gefährlichen Objekten vorbei. Das System berechnet dafür einen sicheren Korridor und hilft dem Bediener durch haptisches Feedback, den Korridor nicht zu verlassen.
Das System bildet dabei die natürlichen Handbewegungen des Bedieners exakt und verlässlich in Echtzeit auf die korrespondierenden Bewegungen des Roboters ab. "An diesem Punkt steuert der Bediener den Roboter nur noch über die haptische Vorrichtung. Wenn sich der Roboter aus der gewünschten Bahn bewegt, merkt er dies im Griff und kann den Roboter zurück auf die Bahn bringen. Wenn der Roboter die Greifposition erreicht, spürt der Bediener einen starken Widerstand im Griff der haptischen Vorrichtung, sodass er den Roboter nicht mehr bewegen kann." Der Bediener behält dadurch stets die manuelle Steuerung bei und ist der Lage, im Falle von Komponentenausfällen zu übernehmen. Er kann die KI einfach abschalten und zur menschlichen Intelligenz zurückkehren, indem er den "Force-Feedback-Modus" ausschaltet. Entsprechend dem Prinzip der zwischen Mensch und Maschine geteilten Steuerung bleibt das System somit jederzeit unter Kontrolle - unerlässlich in einer Umgebung mit höchster Gefahrenstufe.
Kamera
"Für all unsere Aufgaben der autonomen Greifplanung, Fernsteuerung und visuellen Objektverfolgung verwenden wir 3D-Kameras des Modells Ensenso N35 mit blauen LEDs (465nm), die zusammen mit anderen Werkzeugen am Endeffektor der Roboter montiert sind", so Dr. Naresh Marturi. Die meisten Systeme aus dem Extreme Robotic Lab sind bisher mit einer einzelnen 3D-Kamera ausgestattet. "Um jedoch den Prozess der 3D-Modellbildung weiter zu beschleunigen, wurden die Systeme kürzlich aufgerüstet, die jetzt zusätzlich zu der am Roboter montierten Kamera drei weitere Ensenso 3D Kameras verwenden."
Die Ensenso N-Serie ist für diese Aufgabe prädestiniert. Sie wurde speziell für den Einsatz in rauen Umgebungsbedingungen konzipiert. Durch ihre kompakte Bauform ist die N-Serie platzsparend stationär oder im mobilen Einsatz auf einem Roboterarm gleichermaßen für die 3D-Erfassung bewegter und statischer Objekte geeignet. Der integrierte Projektor projiziert auch bei schwierigen Lichtverhältnissen, mittels einer Pattern-Maske mit zufälligem Punktemuster, eine kontrastreiche Textur auf das abzubildende Objekt und ergänzt somit die auf dessen Oberfläche nicht oder nur schwach vorhandenen Strukturen. Das Aluminiumgehäuse der N30er Modelle gewährleistet eine optimale Wärmeabfuhr der elektronischen Komponenten und damit eine stabile Lichtleistung auch unter extremen Umgebungsbedingungen. Das sichert die konstant hohe Qualität und Robustheit der 3D-Daten. Der integrierte Projektor projiziert auch bei schwierigen Lichtverhältnissen, mittels einer Pattern-Maske mit zufälligem Punktemuster, eine kontrastreiche Textur auf das abzubildende Objekt und ergänzt somit die auf dessen Oberfläche nicht oder nur schwach vorhandenen Strukturen.
Kameras der Ensenso N-Kamerafamilie sind über das Ensenso SDK einfach einzurichten und bedienbar. Es bietet eine GPU-basierte Bildverarbeitung für eine noch schnellere 3D-Datenverarbeitung und ermöglicht die in diesem Fall erforderliche Ausgabe einer einzigen 3D-Punktewolke aller im Mehrkamerabetrieb eingesetzten Kameras sowie die Live-Komposition der 3D-Punktwolken aus mehreren Blickrichtungen.
Für das Assistenzsystem haben die Forscher eine eigene Software in C++ entwickelt, um die von den Kameras erfassten 3D-Punktwolken zu verarbeiten. "Unsere Software verwendet das Ensenso SDK (multi-threaded) und dessen Kalibrierungsroutinen zur Überlagerung der hochauflösenden Punktwolken mit Textur und um diese texturierten Punktwolken anschließend in ein Weltkoordinatensystem zu transformieren", erläutert Dr. Naresh Marturi. "Das Ensenso SDK ist relativ einfach in unsere C++ Software zu integrieren. Es bietet eine Vielzahl unkomplizierter Funktionen oder Methoden zur Erfassung und Handhabung von Punktwolken sowie Kamerabildern. Darüber hinaus ermöglichen uns die SDK-Routinen mit CUDA-Unterstützung, mehrere hochauflösende Punktwolken zu registrieren, um qualitativ hochwertige Szenenwolken im Global Frame zu erzeugen. Dies ist für uns sehr wichtig, insbesondere um präzise Greifhypothesen zu generieren."
Die Vorteile des Systems auf einen Blick:
- Nicht der Bediener, sondern das System analysiert die Szene im Hinblick auf Erreichbarkeit und Handling des Objektes und hilft ihm, sich genau an die Stelle zu bewegen, an der der Roboter das Objekt am besten greifen kann.
- Durch die haptische Rückmeldung kann der Bediener den Roboter in seiner Hand spüren, auch wenn der Roboter nicht vor ihm steht.
- Durch die Kombination von Haptik und Greifplanung können Bediener die Objekte in einer entfernten Szene sehr einfach und sehr schnell bewegen - mit wesentlich geringerer kognitiver Belastung.
Das erspart Zeit und Kosten, vermeidet Fehler und erhöht die Sicherheit.
Ausblick
Die Forscher des Extreme Robotic Lab in Birmingham entwickeln derzeit eine Erweiterung der Methode, um statt eines Parallelbackengreifers auch eine mehrfingrige Hand verwenden zu können. Damit soll die Flexibilität und Zuverlässigkeit beim Greifen komplexer Objekte erhöht werden. Der Bediener soll künftig auch die Kräfte spüren, denen die Finger des ferngesteuerten Roboters beim Greifen eines Objekts ausgesetzt sind. Entwickelt werden darüber hinaus vollständig autonome Greifmethoden, bei denen der Roboterarm von einer KI gesteuert und von einem automatischen Vision-System geführt wird. Außerdem arbeitet das Team an Visualisierungstools zur Verbesserung der Mensch-Roboter-Kollaboration zur Steuerung entfernter Roboter über ein "Shared Control"-System.
Im Hinblick auf unser aller Sicherheit und Gesundheit ein vielversprechender Ansatz: Das Handling zur Entsorgung von gefährlichen Objekten wie Atommüll geht uns letztlich alle an. Mit der zuverlässigen Erfassung der entsprechenden Objektinformationen liefern Ensenso 3D-Kameras einen wichtigen Beitrag zu dieser weltweit vorherrschenden Aufgabe mit zunehmender Dringlichkeit.
Ensenso N35 - 3D-Vision, schnell und präzise
- Mit GigE Schnittstelle – universell und flexibel einsetzbar
- Kompaktes, robustes Aluminiumgehäuse
- IP65/67
- Global-Shutter CMOS-Sensoren und Musterprojektor, wahlweise blaue oder Infrarot-LEDs
- Max. fps (3D): 10 (2x Binning: 30) und 64 Disparitätsstufen
- Max. fps (offline processing): 30 (2x Binning: 70) und 64 Disparitätsstufen
- Konzipiert für Arbeitsabstände bis 3000 mm (N35) und variable Bildfelder
- Ausgabe einer einzigen 3D-Punktewolke aller im Mehrkamerabetrieb eingesetzten Kameras
- Live-Komposition der 3D-Punktwolken aus mehreren Blickrichtungen
- Integrierte FlexView Technik für eine noch höhere Genauigkeit der Punktwolke und Robustheit der 3D Daten von schwierigen Oberflächen
- "Projected Texture Stereo Vision“-Verfahren für Aufnahmen texturloser Oberflächen
Kunde/Universität
Das Extreme Robotics Lab der britischen Universität Birmingham ist marktführend für die Entwicklung von Komponenten, die für die zunehmenden Bemühungen zur Robotisierung des Nuklearbetriebs benötigt werden.