Voir la traduction automatique
Ceci est une traduction automatique. Pour voir le texte original en anglais cliquez ici
#Tendances produits
{{{sourceTextContent.title}}}
Prélèvement d'emplacements en collaboration
{{{sourceTextContent.subTitle}}}
Cobots, coacts et traitement d'images
{{{sourceTextContent.description}}}
Comment mettre en œuvre des scénarios de traitement collaboratif dans des environnements non structurés ? SCHUNK s'est penché sur cette question en collaboration avec KUKA et Roboception. Dans une étude technologique, les trois sociétés montrent comment le prélèvement à la poubelle peut réussir à fonctionner rapidement, simplement et efficacement en collaboration.
La tâche d'exemple est conçue de façon réaliste : Les pièces métalliques non triées sont saisies par un cobot et prélevées dans un bac, insérées dans une rectifieuse et stockées avec précision après usinage. Pendant ce temps, les travailleurs devraient être en mesure d'alimenter, de déplacer ou d'enlever manuellement les boîtes de transport ou les pièces individuelles pendant le fonctionnement. De cette façon, l'étude combine le bin picking avec le concept de collaboration homme-robot (HRC) et utilise l'interaction de différentes technologies de référence comme la robotique, la technologie de préhension et la reconnaissance d'images. Le système de caméra stéréoscopique passive rc_visard de Roboception capture les pièces non triées à l'aide d'un système d'appariement basé sur la CAO. Le premier capteur 3D au monde, qui permet aux robots d'effectuer à la fois des mesures 3D et un positionnement dans l'espace, traite les images de profondeur entièrement résolues en < 1s directement dans le système de caméra. Il les utilise ensuite pour déterminer les points de préhension optimaux et les transmet directement à un robot collaboratif de KUKA, sans utiliser de PC externe. En plus de l'image de la caméra, le capteur industriel au prix attractif fournit une image de profondeur, une image de précision et une image de confiance. Ce dernier sert de mesure de confiance dans les lectures de profondeur, qui peuvent être utilisées comme base de décision lors de l'utilisation de méthodes d'intelligence artificielle (IA). Parce que le système de caméra passive reconnaît son environnement à la lumière naturelle et à l'éclairage artificiel dans différents environnements de travail humains, une grande variété d'environnements d'exploitation est possible.
Porte-documents de préhension Co-act
L'avant du cobot est équipé d'une pince de préhension SCHUNK Co-act spécialement conçue pour l'application, qui répond aux exigences des normes EN ISO 10218-1/-2 et ISO/TS 15066 et permet une interaction sûre avec les personnes. Toute l'électronique de régulation et de puissance est intégrée à l'intérieur de la pince de préhension, ce qui signifie qu'elle ne prend pas de place dans l'armoire électrique. L'interface ainsi que les dimensions et les rayons parasites ont été adaptés individuellement à l'application par SCHUNK. En plus de ces pinces Co-act spécifiques à l'application, SCHUNK propose également une gamme de pinces standard pour les applications collaboratives, qui comprend la pince certifiée DGUV pour les petits composants Co-act EGP-C de SCHUNK et bientôt la pince à course longue Co-act EGL-C de SCHUNK, qui sera également certifiée pour les applications collaboratives. Avec ce dernier, il sera possible pour la première fois d'appliquer des forces de préhension allant jusqu'à 450 N dans les applications HRC.
Programmation intuitive du robot
Le guidage manuel du cobot rend la programmation de nouvelles positions de stockage très simple et intuitive. En cas d'interruptions imprévues, le robot KUKA se souvient de chaque mouvement ou activité exécutée et peut reprendre le travail ad hoc sans réapprentissage. Comme la solution est très facile à mettre en œuvre tant du côté du capteur que du côté du robot et qu'elle nécessite peu de formation, elle convient à une grande variété d'applications et de groupes d'utilisateurs. Cela ne nécessite pas de connaissances approfondies en robotique ou en traitement d'images, et réduit au minimum la charge de travail d'intégration. Si nécessaire, le système de caméra peut être étendu à d'autres projecteurs et modules pour l'apprentissage neuronal. Il peut être utilisé sur le cobot en mode stationnaire ou mobile, ce qui signifie que même des scénarios de préhension flexibles sur des plates-formes mobiles sont possibles.
Nous vous informons d'abord ! Abonnez-vous gratuitement à notre Newsletter : schunk.com/newsletter
{{medias[116919].description}}