자율 주행 차량을 위한 새로운 AI로 보행자 움직임 예측 가능
- 엔지니어는 사람을 감지하고 다음 움직임을 예측하기 위해 자율 주행 자동차용 신경망을 개발합니다.
- 차량에서 최대 45m 떨어진 여러 보행자의 자세와 다음 위치를 동시에 정확하게 예측할 수 있습니다.
대부분의 자율 주행 차량은 다양한 카메라, LiDAR 및 GPS를 사용하여 주변 환경의 내부 지도를 생성하고 유지합니다. 그런 다음 알고리즘은 이러한 입력을 처리하고 경로를 표시한 다음 조향, 가속 및 제동을 제어하는 차량의 액추에이터에 명령을 보냅니다.
예측 모델링, 하드 코딩된 규칙, 장애물 회피 및 물체 식별 알고리즘과 같은 기타 매개변수는 소프트웨어가 교통 규칙을 따르는 동안 탐색하는 데 도움이 됩니다. 이 지역에서 수행되는 대부분의 작업은 보행자가 3차원에서 어떻게 움직이는지를 고려하지 않은 정지 이미지만 보았습니다.
이 문제를 해결하기 위해 University of Michigan의 연구원은 기존 기술보다 더 정확하게 사람을 감지하고 다음 움직임을 예측할 수 있는 AI를 개발했습니다. 차량에서 최대 45m 떨어진 여러 보행자의 자세와 다음 위치를 동시에 예측할 수 있습니다.
생역학적으로 영감을 받은 순환 신경망
지금까지 자율 기술은 수백만 개의 2차원 그림을 처리한 기계 학습 방법을 사용했습니다. 현실 세계에서 실시간으로 정지 신호를 인식할 수 있습니다.
반면 새로운 머신 러닝 기술은 몇 초 분량의 동영상을 활용하여 움직임을 인식하고 보행자가 다음 단계로 갈 곳을 정확하게 예측합니다.
참조:arXiv:1809.03705 | 미시간 대학교
이 시스템은 보행자가 왼쪽/오른쪽을 보든 휴대폰을 가지고 놀고 있든 보행자의 자세를 관찰합니다. 이러한 종류의 정보는 다음에 무엇을 할 가능성이 가장 높은지 알려줍니다.
신경망은 인체의 거울/양측 대칭 및 보행의 주기성과 같은 인간 보행의 생체 역학에서 영감을 받은 장기 단기 기억 네트워크를 기반으로 합니다.
얼마나 정확합니까?
신경망의 결과는 매우 인상적이었습니다. 중간 번역 오류는 1초 후 약 10cm, 6초 후 80cm 미만이었습니다. 반면, 다른 유사한 기술은 최대 700센티미터 떨어져 있었습니다.
네트워크를 보다 효율적으로 만들기 위해 팀은 가능한 가장 빠른 걷기/달리기 속도 또는 날지 못하는 것과 같이 인체에 적용되는 몇 가지 물리적 제약 조건을 적용하여 시스템이 가능한 모든 다음 움직임을 계산할 필요가 없도록 했습니다.피>
그들은 CUDA 딥 러닝 프레임워크와 함께 2개의 NVIDIA TITAN X GPU를 사용하여 Michigan의 실제 교차점이 포함된 PedX 데이터 세트에서 신경망을 훈련했습니다.
Python 3.6에서 구현되었으며 각 프레임에서 각 사람의 다음 단계를 예측하는 데 약 1밀리초가 걸립니다. 연구원에 따르면 코드를 더욱 최적화하여 더 나은 결과를 얻을 수 있다고 합니다.
읽기:새로운 자율 주행 차량 알고리즘은 차선을 공격적으로 변경할 수 있습니다.
AI는 무인 자동차가 할 수 있는 것의 기준을 높일 수 있습니다. 또한, 이족보행 로봇의 보행 연구에 도움이 될 수 있으며 임상 보행 재활 시스템 개발에 적용할 수 있습니다.