과학에 약간이라도 관심이 있는 독자라면 양자 역학, 양자 물리학이라는 단어가 이제는 꽤 친숙해졌을 것이다. 그리고 양자 물리학을 컴퓨터에 접목해 '양자 컴퓨터'를 만들 수도 있다는 것도 한번쯤 들어봤을 법 하다. 그렇다면 '양자 컴퓨팅(Quantum Computing)'이란 현재 사용중인 일명 '고전 컴퓨팅'과 어떻게 다른 것일까?
고전 컴퓨터의 3가지 한계
현재 대중적으로 사용되는 컴퓨터는 존 폰 노이만(John von Neumann)이 제안한 노이만형 모델을 기본으로 한다. 전자의 동작을 0과 1로 이루어진 2진수로 바꾸어 연산하고 그 결과를 다시 인간의 인지 체계에 맞게 변경해 보여주는 방식을 사용한다. 하지만 이러한 방식은 최근에 이르러서는 다음과 같은 3가지 큰 한계를 가지게 되었다.
첫째는 '무어의 법칙'의 한계이다. 무어의 법칙이란 반도체 회로의 집적도, 즉 반도체의 성능이 1년 6개월마다 2배로 증가한다는 법칙이다. 최근까지 업계는 반도체 미세화 공정으로 회로의 직접도를 크게 높여왔으나 발전이 정체기에 이르자, 많은 전문가들은 반도체 공정이 무어의 법칙을 따르는 것의 한계를 지적하고 있다.
정해진 면적에 트랜지스터를 직접 하는 노력을 한 결과 트랜지스터의 크기가 원자 수준에 이르고 있을 뿐 아니라, 직접도가 일정 수준 이상으로 올라가면 회로를 구성하는 원자의 전자가 다른 곳으로 워프하는 현상인 양자 역학의 터널링 현상까지 발생해, 인접한 회로에 합선이 발생하는 등 전류 제어에 한계가 발생하고 있다는 것이다.
두 번째는 에너지 비효율이다. CPU가 연산을 수행할 때 소모하는 에너지는 열을 발생시키는데, 연산속도가 1,000배 빨라지면 초당발생하는 열도 1,000배가 넘는다. 이를 막아 내기 위해 연산 하나당 소모하는 에너지를 감소시키는 노력이 계속되었고, 냉각팬을 CPU에 바로 붙여 열발생을 감소시키기도 한다. 하지만, 대규모 연산을 수행하는 슈퍼 컴퓨터의 최근 모델은 연간 전력 소모 양이 9.89MWh가 되어 연간 에너지 소모 비용이 1,000만 달러에 도달하기도 한다.
세 번째는 처리 내용의 한계이다. 초기 컴퓨터를 이용한 처리 내용은 숫자나 문자와 같은 정형 데이터 위주였으나 이제는 음성과 영상과 같은 비정형 데이터의 처리가 필요하다. 단순 2진법을 활용한 고전 컴퓨팅 방식에 비해 양자 컴퓨팅 방식은 훨씬 빠르게 연산이 가능하기 때문에 고전 컴퓨팅의 한계를 극복할 수 있다고 전망된다.
노이만 모델의 한계를 뛰어넘는 새로운 개념의 양자 컴퓨터
고전 컴퓨터에서는 정보 처리의 최소 단위로 0과 1을 사용한 1비트(bit)를 사용한다. 연산을 할 때 저장소의 상태가 0과 1중에 분명히 한 가지만 존재해야 하는 방식이다. 하지만 양자 컴퓨팅은 0과 1의 상태가 동시에 나타날 수 있는 확률적 상태. 즉, 양자 중첩현상을 활용한다. 양자 역학에서 빛과 물질이 입자이자 파동인 상태로 존재할 수 있다는 것과 마찬가지로, 연산 저장소의 데이터가 0이거나 1일 수 있다는 것과 통한다. 이때 새로운 개념인 큐비트((Qubit, Quantum bit)가 정보처리의 최소 단위로 사용된다. 양자 컴퓨팅에서는 0과 1의 두 상태의 중첩이 가능해짐에 따라 정보 단위를 단순히 ‘bit’가 아닌 더 고차원적인 ‘matrix’ 형태로 표현할 수 있고 데이터 처리의 속도를 가속화할 수 있다.
※ 양자 컴퓨팅 용어
- 상태의 중첩 : 큐비트는 0과 1의 중첩된 상태로 관측되는 순간에 바뀐다. 둘 중 하나의 상태로 확정되면 그전에는 어떤 상태인지를 알 수 없다. 1큐빗 양자 컴퓨터는 한 번에 2개의 상태일 수 있으며 2큐비트 양자컴퓨터는 동시에 4개의 값을 동시에 저장할 수 있다. 동시에 저장할 수 있는 데이터양이 대단히 커서 고전적 컴퓨터에서 해결할 수 없는 모든 문제를 해결할 수 있게 되는 시점을 이르는 양자 우위(Quantum supremacy)라는 용어가 등장하였다.
양자 컴퓨터의 특성을 구현하기 위해 충족해야 하는 기술
유명한 양자 물리학자 리차드 파인만(Richard Feynman)은 1982년, 양자역학의 파동방정식 성질인 가역성을 이용한 양자병렬형 기반 전산 시스템을 제안했다. 이후 1994년 피터 쇼어(Peter Shor)에 의해 양자 알고리즘 연구가 본격화 됐고, 2000년에 디빈센조(DiVincenzo)는 양자 컴퓨터의 특성을 구현하기 위해 기본적으로 충족해야 하는 기술 요구 사항을 아래와 같이 제시했다.
(1) 큐비트의 구현이 이루어질 것
(2) 큐비트 상태를 초기화할 수 있어야 할 것
(3) 연산을 수행할 수 있도록 양자 결집 상태를 유지할 수 있어야 할 것
(4) 큐비트의 중첩상태를 변화시키는 메커니즘으로 양자 게이트를 구현해야 할 것
(5) 특정 상태의 큐비트를 관측할 수 있어야 할 것
먼저 큐비트를 구현하는 소자에 대해서는 기업이나 연구소마다 다양한 방식을 다루고 있다. 초전도(IBM, Google, D-Wave), 이온트랩, 반도체 양자점(스핀트로닉스. MS), 토폴로지(Intel)가 주로 사용되며, 이는 기업별로 상업화와 실용화 전략에 따라 상이하다. 두 번째 기술 요구 사항은 큐비트 상태의 초기화이다. 상태의 초기화는 큐비트를 제어하는 가장 기초적인 단계이며 초기화에서부터 정보처리를 위한 제어의 기초가 수립된다.
다음으로 연산을 수행하려면 양자 결집 상태를 유지해야 하는데 이 상태를 일정 시간 유지해야 명령 주기 설정을 통한 제어가 가능하다. 고전 컴퓨터의 0과 1의 기본값을 이용해 Yes or No를 구현하는 논리게이트와 같이 양자 컴퓨터에서도 큐비트 중첩상태를 변화시키는 논리게이트인 '양자 게이트'를 구현해야 한다.
※ 양자 컴퓨팅 용어
- 양자 논리 게이트(Quantum Logic Gates) : 큐비트 조작을 위해서는 고전 컴퓨터의 논리 게이트와 같이 양자 게이트가 필요하다. 입력값에 대한 동작을 수행한 후 출력값을 내보낸다. 양자게이트가 논리게이트와 다른 것은 큐비트의 모든 가능한 상태에 대해 동시적으로 작동한다는 점이다
마지막으로 제어 기능을 부여하기 위해서 큐비트의 특정 상태를 관측할 수 있어야 한다. 연산 결과를 도출하고 확인하기 위해서도 당연히 그렇다.
무궁무진한 양자컴퓨터의 활용 분야
양자 컴퓨터의 활용 분야는 매우 광범위하다. 먼저 양자 컴퓨터는 의료 분야에서 신약개발 과정에서 분자 설계와 분석을 보다 쉽게 해낼 수 있을 것으로 기대된다. 이로써 불치병 치료제를 이전보다 빨리 개발할 수 있다. 또한 유전학 기술과 접목시켜 개인 맞춤형 치료의 고속화도 기대된다.
금융 서비스 분야에서는 빅데이터를 활용해 이에 대한 분석을 고도화하는 과정에서 양자 컴퓨터가 일정 부분 기여할 수 있을 것으로 기대된다. 이 밖에 금융 상품 포트폴리오를 최적화 하는 데도 쓰일 수 있다.
▲ 폭스바겐의 양자 컴퓨터 교통시스템 (출처: 더 기어)
한편, 도시 교통 서비스를 최적화하는 데도 요긴하게 쓰일 수 있을 것이다. 폭스바겐은 구글 디웨이브(D-Wave)와 협업해 중국 베이징의 과밀화된 지역의 교통 흐름을 최적화하기 위한 양자 실험을 수행한 바 있다. 실제로 해당 실험에서 알고리즘을 통해 자동차별로 이상적인 이동 경로를 발견, 교통량을 줄이는 데 도움이 됐다고 전해진다.
이 밖에 머신러닝을 위한 고속 클러스터링, 이미지 인식 고속 학습에 접목할 경우, 지능정보화 기술을 극단적으로 끌어올릴 수 있을 것이다. 특히, 최근 연구가 시작되고 있는 양자신경망(QCNN)으로 영역이 확대될 것으로 기대된다.
양자 컴퓨팅 기술은 아직 구체적이고 실용적인 활용 단계에 올라와 있지는 않다. 그러나 고전 컴퓨팅의 한계가 점점 다가오고, AI와 IoT로 둘러싸이는 세상이 다가올 수록, 이를 처리할 수 있는 고성능 정보처리능력에 대한 니즈는 결국 양자 컴퓨팅 기술 발전을 앞당길 것으로 전망된다.
※ 이 칼럼은 해당 필진의 개인적 소견이며 삼성디스플레이 뉴스룸의 입장이나 전략을 담고 있지 않습니다.