Mitdenken erleichtert Programmierung
Mitarbeitern gelingt die Programmierung auch ohne KI-Kenntnisse. Sie trainieren den Roboterarm, indem sie ihn am Handgelenk führen. Der Cobot beobachtet dies mit einer Kamera und weiteren Sensoren, während er die erfassten Daten speichert. Dank maschinellem Lernen gelingt es ihm, aus den beispielhaften Bewegungen generelle Bewegungsmuster abzuleiten. Kontinuierlich präzisiert er so seine Reaktion und wendet auch in neuen Situationen die richtigen Bewegungen an. Das bedeutet, er greift selbst dann präzise, wenn ein Teil anders positioniert oder geformt ist, als geplant.
Auch das Münchner Start-up robominds befähigt Cobots mit robobrain.vision dazu, ihre Bewegungen anhand visueller Eindrücke zu steuern. Das Vision-System verleiht Roboterarmen einen Sehsinn, indem es über ein Kamerasystem 2D- und 3D-Daten aufnimmt und kombiniert. Ein Industrie-PC und eine modulare Software-Architektur verarbeiten die Informationen und befähigen den Roboter, Objekte genau zu erkennen. Auf dieser Basis kann er zufällig angeordnete Teile selbst dann richtig greifen, wenn sie sich überlagern.