평면 인식에서 입체 인식으로 전환
E2E 기술로 인지부터 제어까지 통합
![]() |
김범재 현대모비스 공간인식로직설계팀 팀장이 2025 자율주행모빌리티산업전에서 ‘자율주행/주차를 위한 영상인식 기술 동향’을 주제로 발표하고 있다./사진: 강주현 기자 |
[대한경제=강주현 기자] “자율주행 기술 패러다임이 딥러닝 기반의 3D 공간 패러다임으로 변화하고 있습니다.”
김범재 현대모비스 팀장은 10일 2025 자율주행모빌리티산업전(AME 2025) 컨퍼런스가 진행된 서울 코엑스에서, 자율주행 영상인식 기술이 기존 평면적 인식에서 입체적 3차원 인식으로 대전환하고 있다고 밝혔다. 복잡한 처리 과정을 하나로 통합하는 기술도 확산되며 업계 전반의 패러다임 변화가 가속화되고 있다는 분석이다.
김 팀장은 이날 강연에서 BEV(Bird‘s Eye Viewㆍ버드아이뷰) 기반의 3차원 인식 기술을 주요 변화로 제시했다. 기존에는 각각의 카메라가 찍은 평면 이미지를 따로 처리한 후 나중에 3차원으로 변환했지만, 이제는 여러 카메라의 정보를 동시에 처리해서 차량 주변을 한 번에 3차원으로 인식한다는 것이다.
멀티 태스크 러닝(MTL) 기술도 거론했다. 기존에는 차선 인식, 물체 분할 등을 각각 다른 프로그램으로 처리했지만 이제는 하나의 통합 시스템이 모든 작업을 동시에 수행해서다. 새로운 기능이 추가될 때마다 프로그램을 하나씩 더 설치하는 방식에서 벗어나 메모리 부담을 크게 줄일 수 있다.
더 큰 변화는 End-to-End(E2E) 기술이다. 기존에는 주변 인식→경로 계획→차량 제어를 각각 다른 시스템이 순차적으로 처리했다면, E2E는 하나의 인공지능이 모든 과정을 한 번에 처리한다. 김 팀장은 “기존에는 인지 부분에만 딥러닝 네트워크를 사용했는데 이제는 인지부터 경로 생성, 제어까지 하나의 네트워크로 처리하는 E2E 방식이 확산되고 있다”고 말했다.
E2E 기술의 장점은 명확하다. 단계별 처리 과정에서 발생하는 오류 전파를 막을 수 있고, 전체 시스템이 하나로 최적화돼 효율성이 크게 향상된다. 하지만 문제 발생 시 해석이 어렵고, 방대한 데이터가 필요하다는 점은 단점이다.
이러한 기술 발전은 자동차 산업 생태계에 큰 변화를 야기한다. 부품 통합이 대표적으로, 업계의 구조 변화와 원가 절감으로 이어질 전망이다. 여러 개의 별도 제어기 대신 하나의 통합 제어기로 주행과 주차 기능을 모두 처리할 수 있어 부품 수 감소와 시스템 단순화가 가능하기 때문이다.
김 팀장은 “기존에는 ADAS(첨단 운전자 보조 시스템) 패키지와 주차 패키지가 분리됐지만, 앞으론 통합될 것”이라며 “단일 네트워크로 처리하면서 더 저렴한 칩에서 구현할 수 있다”고 설명했다.
운전자 입장에서는 주변 상황과 이동 경로까지 차량에 표시되면서 자율주행 시스템에 대한 이해와 신뢰도가 크게 높아질 것으로 기대된다. 자율주행 시스템이 주변 환경을 정확히 파악하고 있음을 시각적으로 증명하기 때문이다.
다만 차량이 속도를 줄이거나 차선을 변경할 경우, 왜 그런 판단을 했는지 설명할 수 있는 ‘설명 가능한 AI’ 기술이 업계의 미래 경쟁력을 좌우할 전망이다. 비와 눈 같은 악천후나 예상치 못한 돌발 상황에서 얼마나 잘 대처하는지도 중요한 요소다.
김 팀장은 “일반적인 상황에서의 대처 능력은 다 비슷하지만, 한계 혹은 예외 상황에서 얼마나 잘 대응할 수 있느냐가 업체 간 경쟁력을 가르는 핵심 요소가 될 것”이라고 말했다.
강주현 기자 kangju07@
〈ⓒ 대한경제신문(www.dnews.co.kr), 무단전재 및 수집, 재배포금지〉