양자정보 복원하는 ‘시간차 상관함수’, 윌로우 양자칩서 구현
“큐비트 수 싸움 없이, 양자컴만의 방식으로 우월성 확인”
구글 양자 프로세서 ‘윌로우’(구글 제공)
구글이 양자컴퓨터 연산의 오류 자체를 획기적으로 줄일 수 있는 계산 알고리즘을 회사의 초전도체 양자칩(QPU) ‘윌로우’에서 구현하는 데 성공했다.
양자컴만이 취할 수 있는 연산 전략이 더 확고해졌고, 기술의 상용화 수준도 한단계 높아졌다는 평이 나온다.
23일 구글에 따르며 회사는 윌로우를 이용해 ‘시간차 상관함수(OTOC)’를 측정하는 연구를 22일(현지시각) ‘네이처’지에 게재했다.
이는 퍼져 나간 양자 정보를 되감아 원래대로 복원할 수 있는지 보는 실험이다.
많은 큐비트로 구성된 양자 회로에선 시간이 흐를수록 동역학적 정보가 뒤섞여 나중에는 상세한 정보를 얻기 어렵다. 양자컴의 고질적 문제인 오류가 생기는 원인이다.
하지만 OTOC 측정을 이용하면 오랜 시간이 지나도 다체 양자계의 정보를 그대로 보존할 수 있다는 점이 이론적으로 알려져 있었다.
즉 더욱 정밀하고 오류에 강한 양자 연산을 구현하는 방법이 될 수 있단 의미다.
실험을 통해 구글 윌로우는 OTOC 측정을 약 2시간 만에 처리했다. 이를 슈퍼컴퓨터로 구현하려면 37경 번에 달하는 연산이 필요하고, 이는 3년 이상이 걸린다.
한정훈 성균관대 물리학과 교수는 “OTOC 측정을 이론이 아닌, 실제 초전도 양자 회로에서 입증했다는 의의가 있다”며 “일반 컴퓨터가 따라 하기 힘든 연산 방식을 양자컴퓨터로 해냈다. 실험으로 양자 우월성을 보인 셈”이라고 호평했다.
IBM 등 양자컴 회사들이 그간 경쟁하던 ‘물리 큐비트의 스케일업’ 추세에서 새로운 방향으로 전략이 선회하고 있다는 분석도 나온다.
권석준 성균관대 화학공학부 교수는 “여태까지의 양자컴 기술 경쟁 양상은 물리 큐비트의 규모 자체를 늘리고 오버헤드(간접적인 처리용 연산자원) 비율을 낮춰, 실제로 연산에 활용되는 논리 큐비트를 늘리는 데 있었다”며 “그러나 양자컴의 실용적 활용을 위해서는 장시간 안정적으로 작동할 수 있게 해 주는 ‘오류 강건성’ 역시 확보돼야 한다”고 강조했다.
동일한 수준의 물리 큐비트 규모와 오버헤드 비율을 갖추더라도, 코드거리에 따라 논리 오류가 더 빨리 감소할 수 있다면 실질적으로는 연산 효율성은 더 높아진다는 의미다. 구글 연구팀의 새 전략은 중장기적으로는 논리 오류율을 낮춰 논리 큐비트 규모를 늘릴 수 있는 가능성을 보여줬다고 권 교수는 평가했다.
권 교수는 “양자우위 개념을 단순히 연산 속도의 압도적 격차로만 보여주는 게 아니라, 양자간섭구조 고유의 특징을 증명하는 방법으로 보여줬다”며 “고전적 전자컴퓨터가 시뮬레이션으로도 흉내 내기 어려운 근본적인 양자컴퓨터만의 차별적 특징을 확정적으로 보여준 것”이라고 부연했다.
이어 “구글이 앞으로도 물리 큐비트의 확장뿐만 아니라 보다 근본적인 이슈, 즉 양자오류 수정에 더 힘을 쓸 가능성이 있다”며 “양자 기술 추격국인 한국도 큐비트 규모 확장에만 목맬 게 아니라, 양자 오류 정정(QEC) 전략을 더해서 투 트랙으로 가야 한다”고 조언했다.
한편 구글은 이같은 측정 기법을 신약 개발 등 생명과학, 화학 연구에 응용하는 후속 연구도 발표했다. 이는 출판 전 논문 공개 사이트인 ‘아카이브’에 공개됐다. 구체적으로 분자 구조를 파악하는 핵자기공명(NMR) 기술과 양자컴퓨터를 결합한 실험이다.
댓글 0