KAIST, 초소형 3차원 영상 센서의 핵심기술 개발
KAIST, 초소형 3차원 영상 센서의 핵심기술 개발
  • 최광민 기자
  • 승인 2019.01.22 09:41
  • 댓글 0
이 기사를 공유합니다

광위상배열 기술 통해 자율주행차, 드론 등에 광범위 적용 가능할 것으로 기대
KAIST·NNFC 공동 연구를 통하여 제작된 초소형 광위상배열 칩

KAIST(총장 신성철) 전기및전자공학부 박효훈 교수 연구팀이 나노종합기술원과의 공동 연구를 통해 3차원 영상 센서의 핵심 기술인 실리콘 기반 광위상배열(optical phased array, OPA) 칩을 개발했다.

3차원 영상 센서는 사진 등의 2차원 이미지에 입체감을 주는 거리정보를 추가해 3차원 이미지로 인식하는 센서이다. 사물의 정확한 거리정보가 필요한 자율주행 자동차, 드론, 로봇, 안면인식이 사용되는 스마트폰 등 다양한 전자기기에서 눈의 역할을 하는 핵심부품이다.

다수의 자동차, 드론 회사들이 레이저 빛을 이용한 3차원 영상 센서인 라이다(light detection and ranging, LiDAR) 개발에 주력하고 있다. 그러나 이 방식은 2차원 영상 센서로 3차원 스캐닝을 하는 기계적 방식을 사용하기 때문에 주먹 정도의 큰 크기를 가지며 고장 가능성도 크다.

3차원 영상센서 핵심기술인 광위상배열 칩 개요

광위상배열(Optical Phased Array, OPA)은 전기적으로 빛의 방향을 조절할 수 있어 라이다의 차세대 구조로 주목받고 있다. 실리콘 기반의 광위상배열은 크기가 작고 내구성이 높으며 기존의 반도체 칩을 제작하는 설비를 활용해 만들 수 있어 많은 연구가 활발히 진행되고 있다.

하지만 기존의 광위상배열은 빛 방향을 조절하는 방법에 문제가 있다. 수평 방향 조절은 전기-광학식 위상변조기를 이용해 넓은 범위의 스캐닝이 가능하지만, 수직 방향 조절은 레이저 빛의 파장을 바꿔줘야 하는 기술적 난제가 있다.

즉, 빛의 파장을 바꾸면 실리콘 광소자의 특성이 달라져 신뢰성 있는 방향조절이 어렵고 또한 파장을 조절할 수 있는 레이저를 실리콘 기반의 칩에 집적시키기가 어렵기 때문이다. 따라서 방사되는 빛을 수직 및 수평 방향으로 쉽게 조절할 수 있는 새로운 구조를 만드는 것이 중요하다

연구팀은 파장 변조 광원을 사용해야 하는 기존의 광위상배열을 발전시켜 단일파장 광원으로 넓은 범위의 2차원 스캐닝이 가능한 초소형, 저전력 광위상배열 칩을 개발했다. 연구팀이 반도체 공정을 통해 광위상배열 구조로 제작한 이번 센서는 잠자리 눈 정도의 크기로 작게 제작할 수 있어 3차원 영상 센서를 소형화시킬 수 있다.

연구팀은 광위상배열이 3차원 영상 센서의 기능뿐 아니라 획득한 3차원 영상 데이터를 원하는 방향으로 무선전송하는 기능도 수행 가능해 고화질, 대용량의 영상정보를 전자기기 간 자유롭게 통신할 수 있다고 밝혔다.

왼쪽부터 나노종합기술원 유종범 연구원, KAIST 김성환 박사과정, 박효훈 교수

김성환 박사과정은 “파장 변조를 이용한 2차원 스캐닝은 파장 변조가 가능한 광원의 집적이 매우 어려웠기 때문에 이번 연구를 통해 광위상배열의 상용화에 큰 도움이 될 것으로 기대한다”라고 말했다.

유종범 박사는 “3차원 영상 센서를 스마트폰에 장착해 얼굴인식 및 증강현실 서비스 등에 지원할 예정이다”라며 “공정 플랫폼을 발전시켜 3차원 반도체 영상 센서 핵심 기술의 국산화에 노력하겠다”라고 말했다.

한편 이번 연구결과는 국제 학술지 ‘옵틱스 레터스(Optics Letters)’ 1월 15일자 온라인 판에 게재됐다.

Tag
#N

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.