장비 구조는 간단하다. 머리에 착용한 헤드마운트 카메라가 사물의 모습을 포착한다. 이 영상신호는 등에 착용한 노트북에서 소리신호로 바뀌어 헤드폰을 통해 귀로 전달된다. 예를 들어 주변이 밝을수록 큰 소리가, 대상물이 키가 클수록 고음이 발생한다. 사물의 색깔은 단어로 직접 알려준다.
소리를 들은 시각장애인은 대략적인 사물의 모양새를 손으로 만져보지 않고도 머릿속에서 그려낸다. 이 훈련이 반복되면 뇌는 결국 소리를 듣는 것만으로 즉각 사물의 모습을 떠올릴 수 있다는 원리다. 메이저 박사는 “이 결과는 뇌의 적응 능력 덕분”이라며 “현재 건물이 앞에 있다고 인식하거나 그래프를 읽을 수 있는 수준”이라고 밝혔다.
장비의 가격은 약 300만원. 영상을 소리로 전환시키는 소프트웨어는 홈페이지(www.seeingwithsound.com)에서 무료로 다운받을 수 있다.
포항공대 전기전자공학과 정홍 교수는 “기존의 인공망막처럼 눈에 칩을 이식하는 경우와 전혀 다른 접근”이라며 “간단한 장비로 시각에 대한 새로운 연구방향을 제시했다는 점에서 아이디어가 기발하다”고 말했다.
김훈기 동아사이언스기자 wolfkim@donga.com
댓글 0