자동화 제어 시스템
2025년 12월 11일, 우리는 ABB Robotics와 협력하여 '3D Vision-Guided Robotics로 복잡한 자동화 마스터하기'라는 독점 웹 세미나를 진행했습니다.
목표는 고급 3D 비전 시스템과 로봇 셀 사이의 전통적인 벽을 무너뜨리는 산업 자동화의 큰 도약을 보여주는 것이었습니다.
수년 동안 제조업체들은 복잡성을 제거하고 배포를 가속화하는 비전 유도 로봇 공학에 대한 통합 접근 방식을 요청해 왔습니다. 우리는 Locator Studio와 Bin Picking Studio를 ABB Robotics One 생태계와 OmniCore 컨트롤러에 직접 통합하여 이러한 요청에 응답했습니다.
아래 가이드에서는 이 통합의 기술적 세부 사항을 안내합니다. 하드웨어 연결부터 최종 블록 프로그래밍 마법사까지.
ABB용 새로운 Photoneo 추가 기능을 사용하여 첫 번째 AI 빈 피킹 애플리케이션을 시작하는 방법은 다음과 같습니다.
안정적인 애플리케이션의 기초는 물리적 설정에서 시작됩니다. 먼저, 장면에 적합한 스캐너를 선택하세요. 정적 환경에는 PhoXi 3D 스캐너를 사용하고, 응용 프로그램이 동적 장면을 포함하거나 로봇 바로 앞 영역을 메시해야 하는 경우 MotionCam-3D를 사용하세요.
다음으로 Locator 또는 Bin Picking Studio 라이센스가 있는 산업용 PC를 연결합니다. 이 PC에는 6개의 특정 이더넷 포트가 있습니다. 로봇 통신을 위해서는 포트 1을, 인터넷 연결을 위해서는 포트 2를 연결해야 합니다. 포트 3~6은 스캔 장치용으로 예약되어 있습니다.
설치는 로봇 컨트롤러에서 직접 처리되는 빠른 7분 프로세스입니다. Photoneo 웹사이트에서 설치 패키지를 USB 스틱으로 다운로드하고 ABB FlexPendant에 삽입합니다.
메인 메뉴에서 컨트롤러 소프트웨어로 이동하여 새 추가 기능 설치를 선택한 후 Photoneo 패키지를 선택하세요.
여기서 가장 중요한 단계는 실제 구성에 맞는 올바른 템플릿을 선택하는 것입니다.
손-눈 구성(왼쪽), 외부 구성(오른쪽)카메라가 스탠드에 장착된 경우 외부 설정을 선택합니다(단일 장치의 경우 "기본" 선택, 여러 장치의 경우 "다중 비전" 선택). 카메라가 로봇 플랜지에 장착된 경우 Hand-Eye 설정을 선택합니다. 손 눈의 경우 로봇이 스캔을 위해 멈춰야 하는지("Multi-view Static") 이동 중에 스캔해야 하는지("Multi-view Dynamic") 지정할 수 있습니다.
설치 과정은 간단하며 약 7분 정도 소요됩니다. 커피를 한잔하기에 충분한 시간입니다.
설치 후에는 ABB 메인 메뉴에 새로운 Photoneo 아이콘이 나타납니다. 이를 열면 공개 네트워크와 비공개 네트워크 사이를 전환할 수 있는 네트워크 설정이 표시됩니다.
시스템에는 시각적 컨트롤러 및 로봇 시스템에 대한 사전 정의된 주소가 함께 제공됩니다(일반적으로 관리 포트 또는 DSQC 1100 I/O 카드를 통해).
사용자 정의 IP 주소를 입력해야 하는 경우 시스템은 이를 즉시 검증하며 깜박이는 녹색 "저장" 버튼은 성공을 나타냅니다.
개인 네트워크의 경우 "Photoneo 서버로 리디렉션" 기능을 사용하면 단일 인터페이스에서 로봇과 Photoneo 소프트웨어를 모두 제어할 수 있습니다.
설치가 완료되면 새로운 Photoneo 아이콘을 엽니다. ABB 메인 메뉴에서 세 가지 섹션이 표시됩니다:
Photoneo 서버로 리디렉션(오른쪽): 한 곳에서 로봇 기능과 Photoneo 소프트웨어를 완벽하게 제어할 수 있는 강력한 개인 네트워크 기능입니다.
네트워크가 활성화된 상태에서 Bin Picking Studio로 이동하여 애플리케이션 로직을 정의합니다.
고유한 ID를 사용하여 새 솔루션을 생성한 다음 하드웨어를 정의합니다. 로봇 모델을 선택하고 그리퍼의 CAD 모델(1MB 미만 STL)을 업로드하고 도구 중심점(TCP)을 설정합니다. 또한 접근 벡터 및 선형 경로를 포함하여 파악 방법을 여기에서 정의합니다.
빈 피킹 스튜디오의 로봇 선택다음으로 비전과 환경을 구성합니다. 비전 시스템을 추가하고 객체 감지를 위한 신경망을 선택하세요.
환경 탭에서 작업 셀의 STL 모델을 가져와 충돌 객체를 정의하고 테스트 스캔을 트리거하여 포인트 클라우드가 디지털 로봇 모델과 정렬되는지 확인할 수 있습니다.
마지막으로 설정에서 선택 우선순위를 세부적으로 조정하고 "자동 스냅샷"을 활성화하여 선택 실패 문제를 해결하는 데 도움을 줄 수 있습니다.
다음은 간단한 단계별 개요입니다.
이제 애플리케이션에 맞게 로봇의 프로그램을 수정하세요.
시스템을 실행하기 전에 로봇의 내부 프로그램을 조정해야 합니다. 먼저 RobotStudio에서 특히 개인 네트워크의 "빠른 소켓"에 대해 방화벽을 활성화하고 컨트롤러를 다시 시작하세요.
그런 다음 로봇에게 특정 물리적 위치를 가르쳐야 합니다. 올바른 작업 개체 및 도구를 사용하여 로봇을 조그하여 홈, 빈 따기 시작 및 끝 따기 위치를 정의합니다.
또한 그리퍼의 열기/닫기 신호를 AttachGripper 및 DetachGripExcerptper 루틴에 매핑해야 합니다.
보정을 위해 작업 공간에 적절한 도구(외부 설정용 공 또는 손 눈용 마커 패턴)를 배치합니다.
마커 패턴CalibPositions 루틴에는 9개의 목표 위치가 포함되어 있습니다. 비전 시스템이 모든 포즈에서 충돌 없이 마커를 명확하게 볼 수 있도록 이러한 대상을 조정하십시오. 보정 루틴을 실행하고 최종 결과가 2mm 미만인지 확인하세요.
확인 결과: 2mm 미만의 결과를 목표로 하세요. .
깊은 프로그래밍 기술이 필요하지 않습니다.
마지막 단계는 복잡한 코딩이 필요 없는 블록 프로그래밍 마법사를 사용하여 애플리케이션 로직을 구축하는 것입니다. HE(Hand-Eye) 또는 X(Extrinsic)라고 표시된 블록이 표시됩니다.
표준 작업 흐름은 초기화 블록(IP 및 홈 위치 포함)으로 시작하고 이어서 지속적인 실행을 위해 TRUE로 설정된 While 루프가 이어집니다. 루프 내에서 현지화를 수행하기 위한 스캔 블록, 부품을 잡기 위한 픽 블록, 부품을 해제하기 위한 배치 블록 등 필요한 작업을 간단히 쌓을 수 있습니다.
Place 블록에는 하차 지점에서 100mm 위의 안전한 위치를 자동으로 계산하는 "접근" 매개변수도 포함되어 있습니다. 블록이 정렬되면 "적용"을 클릭하여 애플리케이션을 배포하세요.
마법사를 사용하면 HE라고 표시된 간단한 블록을 사용하여 애플리케이션 논리를 구축할 수 있습니다. (손-눈) 또는 X (외부).
이제 Photoneo 및 Omnicore 플랫폼을 사용하여 최초의 AI 기반 빈 피킹 애플리케이션을 실행할 준비가 되었습니다. 실제 성공 사례와 함께 그 힘과 이점에 대해 모두 알아보려면 오늘 웨비나를 다시 시청하세요!
자동화 제어 시스템
생체 인식 인증은 모바일 암호 기술을 지문 센서와 얼굴 잠금 해제로 대체했습니다. 이러한 방법은 사용자를 식별하고 모바일 데이터를 보호하여 간편하고 안전한 거래를 수행하는 데 사용됩니다. 최초의 디스플레이 내장형 지문 센서 기반 모바일 장치는 2004년 Pantech GI100으로 출시되었습니다. 다음 기기는 2007년 G500, G900과 같은 Toshiba에서 나왔습니다. 이후 Acer, Motorola, HTC와 같은 모바일 제조업체가 자체 기기와 연결했습니다. 2013년에는 지문 센서가 탑재된 5s와 같은 애플 폰이 출시되었
요즘 임베디드 자동차에서 시스템 역할이 증가했습니다. 자동차 산업은 주로 자동차, 자전거, 버스 등을 제조하는 것으로 알고 있습니다. 인도에서는 지난 20년을 돌이켜 보면 부자들만이 자가용을 소유했지만 지금은 많은 자동차 사용자가 증가하고 있습니다. 이용 가능한 자동차 산업이 많기 때문입니다. 하지만 현 상황에서는 인도 정부의 영향으로 서민들도 자동차 구매에 많은 관심을 보이고 있다. 1968년 폭스바겐은 자동차에 임베디드 시스템을 적용하는 방법을 발명했습니다. 자동차에 사용되는 임베디드 시스템은 주로 보안, 오디오, 점화장치 등이