„Beim Einsatz neuer Robotersysteme kommt es auf die Sicherheit an“
Ein kurzer Blick auf die Zukunft der Roboterindustrie im Jahr 2020 mit Paul Szeflinski, Gründer und Vorstandsvorsitzender von IAS Inc. in den USA
Welche Trends sehen Sie auf dem Gebiet der Roboterautomation?
Wie können Daten aus der Robotik zur Verbesserung der Fertigungsprozesse genutzt werden?
- Zykluszeitanalyse des Roboterbetriebs, um sicherzustellen, dass das Gesamtsystem wie geplant funktioniert.
- Analyse der Leerlaufzeiten des Systems, indem untersucht wird, ob das Robotersystem auf der Zuführungsseite gut mit Produkten versorgt wird und nicht auf der Auslaufseite verstopft.
- Vorbeugende Wartung am Roboter selbst. Jede Roboteranwendung wird Produkte, Werkzeuge und Bewegungsprofile haben, von denen die Achse unterschiedlich beansprucht und abgenutzt wird. Durch das Zusammenführen der Nutzungsdaten mit Diagnosewerkzeugen für die verschiedenen Baugruppen des Roboters lässt sich erkennen, welche Komponenten an Effizienz verlieren oder ausfallen und zuerst ersetzt werden müssen.
Welche Veränderungen haben Sie in den letzten fünf Jahren bei der bildverarbeitungsgeführten Roboterautomation beobachtet?
- Evolution der 2D-Kameras – Weil 2D-Vision-Lösungen erschwinglicher, kompakter und robuster geworden sind, ist die Implementierung von VGRs einfacher denn je geworden. Es gibt jetzt eine wachsende Zahl von Optionen und erweiterten Fähigkeiten, die es ermöglichen, Roboter präziser zu führen. Dies macht VGRs zu einer praktikablen Lösung für schnell bewegte Teile. Der Einsatz von 4K-Auflösungen und noch höheren Auflösungen wird mit höheren Bildwiederholraten kombiniert, um präzisere und genauere Lösungen zu ermöglichen.
- 3D-Analysen sind einfacher und weniger zeitintensiv geworden – Auf der Softwareseite der 3D-Vision wurden große Fortschritte erreicht. Datenerfassung, Kalibrierung und das Zusammenfügen der Daten mehrerer Kameras waren früher zeitaufwändige und umständliche Prozesse. Alle sind inzwischen erheblich schneller, genauer und benutzerfreundlicher geworden. Angesichts der hohen Summen, die Unternehmen in 3D-Vision investieren, erwarten wir zukünftig weitere große Entwicklungssprünge.
- Automatisiertes Bin-Picking – Das Sehen von Teilen in einer zufälligen Konfiguration und die Führung des Roboters zum Entladen eines Teilebehälters gelingen heute viel besser als noch vor fünf Jahren. Weil bei der erfolgreichen Implementierung eines Bin-Picking-Systems eine Vielzahl von Faktoren eine Rolle spielen, sind aber noch umfangreiche Testreihen erforderlich. Der beste Weg, um alle Beteiligten von der Zuverlässigkeit der Ergebnisse zu überzeugen, ist das Durchlaufenlassen der Zyklen.
- Immer mehr integrierte Hardware/Software/Roboter-Pakete – Inzwischen können Kamerasysteme von Drittanbietern direkt angeschlossen und von Industrierobotern genutzt werden. Passend dazu bieten Roboterhersteller Pakete an.
In welchen besonderen Anwendungsfällen konnten Sie bildverarbeitungsgeführte Roboter erleben?
- Bin-Picking und Bestückung – Dieser Bereich scheint in letzter Zeit in der Verpackungs- und Logistikbranche stark an Bedeutung zu gewinnen. Wenn die Produkte bereits verpackt sind, sind sie in manchen Fällen weniger empfindlich, und es wird weniger Präzision benötigt als bei anderen Roboteranwendungen.
- Stapeln und Regalbedienung – IAS hat Anwendungen bearbeitet, bei denen der Endbenutzer das Stapeln von Produkten auf Wagen automatisieren wollte. Bei der Automatisierung einer Saatgutverarbeitungsanlage haben wir Roboter an den Endpositionen der beiden Linien aufgestellt, um samengefüllte Schalen in Bäckereiwagen zu legen, die anschließend in Kontrollräume fahren. Bei einer anderen Anwendung ging es um die Entnahme von Schalenstapeln mit Vitaminen, die in Schubkarren geladen und aus diesen entnommen werden sollten. Werkzeuge wie Bäckereiwagen und Schubkarren sind nie einheitlich und unterliegen im Laufe der Zeit Verschleiß. Bei beiden Anwendungen haben wir an den Roboterarmen Kameras montiert. Die Aufnahmen werden von den Robotern bei der Navigation verwendet, um in der veränderlichen Umgebung optimale Bewegungspfade zu finden.
- Bildverarbeitung zur Entscheidungsunterstützung bei Robotern – In High-Mix-Szenarien haben wir Bildverarbeitung genutzt, um Produkte über Codes oder eindeutige physische Merkmale zu identifizieren. Anschließend haben wir die räumlichen Daten verwendet, um die Roboter zu den Teilen zu führen und diese entweder richtig zu sortieren oder einen wertschöpfenden Prozess durchzuführen.
Weitere Beiträge:
Sensoren steuern die Zukunft der kollaborativen Roboter
Robot Operating System (ROS) mit SICK und KEBA: Vielfalt und Vereinfachung
3D-Lokalisierung mit Belt-Picking-SensorApp für Pick-and-place-Aufgaben
Ein großer Wurf – Teilelokalisierer von SICK erkennt durcheinandergewürfelte Teile
Das Schwere leicht gemacht – Sicherheitslösung für einen mobil einsetzbaren Schwerlastroboter
Zusammenarbeit auf Augenhöhe
Egal ob Robot Vision, Safe Robotics, End-of-Arm Tooling oder Position Feedback - SICK-Sensoren befähigen den Roboter zu präziserer Wahrnehmung.
Erfahren Sie mehr