NEW 기계 이현범 교수팀, 글로벌 학술대회 ‘CVPR 2026’서 논문 발표
- 다양한 환경에서 정밀한 3D 인식 가능, 자율주행·로봇 기술 적용 기대
왼쪽부터 기계공학과 한이지 석사과정 학생, 김승규 석사과정 학생, 이현범 교수
아주대학교 기계공학과 이현범 교수팀이 컴퓨터 비전·AI 분야 글로벌 학술대회 <컴퓨터 비전 및 패턴 인식 컨퍼런스(Computer Vision and Pattern Recognition Conference 2026)>에서 논문을 발표한다.
오는 6월3일부터 6월8일까지 미국 콜로라도주 덴버에서 열릴 예정인 <컴퓨터 비전 및 패턴 인식 컨퍼런스(CVPR)>는 1983년부터 매년 개최되어 온 컴퓨터 비전·AI 분야의 세계적 학회다. 이번 학술대회에는 전 세계에서 총 1만6100여편의 논문이 투고됐으며, 이 중 4100여편만이 메인 컨퍼런스에 채택됐다.
이번 학회에서 발표되는 기계공학과 이현범 교수팀의 연구는 ‘PTC-Depth: 시간적 일관성을 갖춘 자세 보정 단안 깊이 추정(PTC-Depth: Pose-Refined Monocular Depth Estimation with Temporal Consistency)'이라는 논문이다. 해당 연구에는 우리 학교 기계공학과 석사과정 한이지·김승규 학생과 소니(Sony) AI Lab의 심동석 박사가 참여했다.

기계공학과 이현범 교수팀의 연구 내용을 보여주는 이미지. 연구진은 시간적 일관성 추정 성능이 뛰어난 새로운 깊이 추정 기술을 제안했다
연구진은 적외선 이미지와 RGB 등 이미지를 기반으로 시간적 일관성 추정 성능이 우수한 새로운 깊이 추정 기술을 제안했다. 기존의 카메라를 이용한 딥러닝 깊이 이미지 추정기술의 실제 거리 단위(Metric) 깊이 추정 과정에서 발생하는 문제점을 지적하고, 이를 개선하기 위한 접근법을 제시한 것.
연구팀이 제안한 한 새로운 방식은, 영상의 움직임 정보와 로봇의 주행 데이터를 결합해 시간에 따라 흔들림 없이 일관된 깊이(거리) 정보를 추정한다는 점이 특징이다. 연구팀은 이 방법론을 활용해 Tartan Air와 MS2와 같은 벤치마크에서 제안된 모델을 재평가했고, 모델 성능이 기존의 다른 기술보다 매우 뛰어난 시간적 일관성 및 추정 정확도를 보인다는 것을 발견했다.
연구팀의 이번 기술은 오픈소스로 공개(GitHub)되어 있어 누구나 활용할 수 있으며, 3차원 공간정보 생성기술의 발전에 중요한 기여를 할 것으로 기대된다.
이번 연구를 주도한 이현범 교수는 "이번 연구 성과는 주간·야간 어떤 환경에서도 하나의 작은 카메라만으로 정밀한 3차원 깊이 이미지를 추론할 수 있게 했다는 점에서 의미가 있다”며 “다양한 환경에서도 추가 센서 없이 정밀한 3D 인식이 가능해져, 미래의 자율주행 및 로봇 기술의 신뢰성을 크게 높일 수 있을 것으로 기대한다”라고 밝혔다.
이번 연구는 ▲아주대 인공지능융합혁신대학원 사업 ▲탐지 및 인식 원천기술개발 사업 ▲우수신진연구자사업의 지원을 받았다.