양자컴퓨터

(양자 컴퓨터에서 넘어옴)

Quantum Computer

1 개요

500px
사진은 문명에서 가져왔다

'꿈의 컴퓨터', '스스로 생각하는 컴퓨터'라는 별명을 가진 계산기.[1] 양자역학의 거장 리처드 파인만이 구상자로, 실질적인 작동원리는 옥스퍼드대의 데이비드 도이치 박사가 고안하였다. 트랜지스터로 만들어진 게이트 대신 양자(量子)를 연산법칙으로 사용한다. 무어의 법칙에 따르면, 회로 집적도가 크게 증가하여 2010년대 말 ~ 2020년대 후반 즈음에는 양자 터널링 현상이 발생하여 전자들을 통제할 수 없을 것이라고 전망되기 때문에, 양자 컴퓨터는 미래 컴퓨터의 대안이 될 수 있다.

각 선진국의 최고 과학기술원들과 IBM에서 연구하고 있다. 그만큼 관심이 높고 상용화가 되는 순간 대물이 될 물건. 현재는 작은 수의 큐비트를 가지고 양자 연산이 잘 되는지를 보고 있다.

2011년 5월 24일, D-WAVE에서 처음 사용됐다고 알려져 있으나 사실은 아니다. 기존의 어닐링 방식을 양자 어닐링 방식으로 대체한 특수목적형 컴퓨터로 우리가 아는 일반적인 뜻의 양자컴퓨터와는 거리가 멀다. 128-qubit 프로세서를 사용하며, 크기는 10m2 ...약 3평 정도 극저온 냉각 시스템 때문에 저런 크기가 나온 듯하다. 개발 회사에서는 정부 및 회사용으로 생각하고 개발한 듯.#

양자암호통신의 대가로 유명한 IBM의 John Smolin은 이 컴퓨터는 양자 컴퓨터라 부를 수 없다고 말했으며, 양자 어닐링 관측을 통한 해당 컴퓨터의 실질적인 성능도 기존 어닐링 방식과 비교해봐도 우월할 것이 없다는 얘기를 했다. 실제로 비교 실험에서 이 컴퓨터의 우월성은 증명되지 않았고 심지어 기존의 어닐링 방식보다 느리기도 했다.

미국의 방위산업체인 록히드마틴에서 100억 원에 구입했는데, 얼핏 돈지랄 같지만 방위산업체 입장에선 엄청 싼 거다.#

2 원리

양자컴퓨팅에 대한 간략한 설명 (영어)

쿠르츠게작트의 설명. (한글 자막)

흔히 양자컴퓨터에 대해 알려져 있는 오해는, 양자컴퓨터는 일종의 병렬 계산을 할 수 있어서 (양자 중첩으로) 고전 컴퓨터보다 훨씬 빠른 연산이 가능하다고 생각하는 것이다. 0과 1이라는 비트 대신에, 0이라는 상태와 1이라는 상태의 임의의 선형 결합이 가능하다는 양자역학적 특성을 보면 그 설명이 자연스러운 듯이 느껴지기도 한다. 또한 일반적으로 양자컴퓨터에 대한 대중적인 설명을 할 때 거의 예외 없이 그런 설명이 나온다. 하지만 이는 올바른 설명이 아니다. 만일 정말로 그렇다면, 병렬 계산에 의해 임의의 NP 문제는 효율적으로 풀릴 수 있으므로[2] 양자 컴퓨터는 임의의 NP 문제를 효율적으로 풀 수 있어야 할 텐데, 아마도 그렇지 않을 것임을 시사하는 증거들이 있기 때문이다.

이를 이해하는 또 한가지 방법은 양자 계산과 확률적 계산을 비교하는 것이다. 2^n개의 상자가 있고, 그 상자들 중 단 하나에 공이 들어있다고 하자. 공이 들어있는 상자를 확실히 찾기 위해서는 고전 컴퓨터는 2^n번 상자를 열어야 한다. 양자 컴퓨터가 만일 그 '병렬성'을 이용해서 이 문제를 풀 수 있다면, 상자를 한 번만 열어보면 될 것이다: 열어볼 상자의 번호를 n비트로 적어서, 그 번호에 해당하는 상자를 연다. 다만, 여는 동작을 하기 전에 가능한 2^n개의 n비트 번호들을 양자 중첩 상태로 만들어서 이들을 각각 열면 될 것이다. 하지만, 비슷한 일을 확률적 알고리즘으로도 마찬가지로 수행할 수 있다: 동전을 n번 던져서 상자의 번호 n비트를 모두 결정한 뒤에, 결정된 번호의 상자를 열면 된다. 0번 상자를 여는 행위부터 2^n-1번 상자를 여는 행위까지가 확률적으로 '중첩'되어 있고, 각각의 상자에 대해서 그 상자를 열고 공을 발견할 확률이 0보다 크니까 된 것 아니겠는가.

위와 같은 구라를 들으면 똑똑한 거의 누구라도 '하지만 그렇다면 상자를 열어서 공을 발견할 확률은 기하급수적으로 작은 2^(-n)밖에 되지 않으므로 사실상 못 찾는다고 봐야겠네요어디서 약을 팔아'라고 곧장 반박할 것이다. 물론 그렇다. 그리고 정확히 같은 반박을 양자컴퓨터에 대해서도 적용할 수 있다. 확률적 알고리즘도 가능한 모든 상태의 확률적 중첩을 만들어낼 수 있지만 그렇게 하면 각각의 상태가 갖는 확률이 기하급수적으로 작아져서 의미없는 알고리즘이 되듯이, 양자알고리즘 또한 가능한 모든 상태의 양자적 중첩을 만들어낼 수 있지만 그렇게 하면 각각의 상태가 갖는 '진폭(amplitude)'이 기하급수적으로 작아져서 의미없는 알고리즘이 된다.

양자 알고리즘과 확률적 알고리즘의 가장 근본적인 차이점은, 확률은 음수일 수 없지만 양자역학의 확률 진폭은 음수일 수 있을 뿐만 아니라, 심지어 실수가 아닌 복소수일 수도 있다는 것이다. 양수끼리는 상쇄될 수 없지만, 양수와 음수는 상쇄될 수 있다. 그리고, 진폭의 절대값의 제곱이 확률이 되고, 확률의 총합은 1로 보존되므로, 어떤 상태의 진폭이 상쇄되어 0이 된다면, 무엇인가 다른 상태의 진폭은 총합이 보존되기 때문에 커져야 한다. 대략 말하자면, 양자 컴퓨터는 오답을 상쇄시키고 정답을 증폭시킬 수 있다. 모든 문제가 다 그렇다는 것이 아니라, 최소한, 어떤 문제들에 대해서는.

양자역학을 설명할 때 아주 초반에 나오는 이중 슬릿 실험의 예를 생각해보자. 고전적인 상식에 의하면, 빛이 1번 슬릿 또는 2번 슬릿을 통과한 뒤에 스크린의 어딘가에 떨어질 확률 분포는, 빛이 1번 슬릿을 통과한 뒤에 스크린의 어딘가에 떨어질 확률 분포와 2번 슬릿을 통과한 뒤에 스크린의 어딘가에 떨어질 확률 분포를 더해놓은 형태가 되어야 할 것이다. 하지만 실제로 이 실험을 수행해 보면, 어떤 위치에서는 두 개 슬릿을 다 열어둘 때에 오히려 광자가 올 확률이 떨어지는 현상이 발생한다. 모두 0 이상인 확률로 계산을 하면 이런 결과가 나올 수가 없지만, 복소수 값을 갖고 음수 값을 가질 수 있는 진폭으로 계산을 하면 이런 결과는 자연스럽게 발생할 수 있다.

아주 엄밀한 설명은 아니지만 대강 얘기하자면, 양자컴퓨터가 고전컴퓨터보다 더 빠른 결과를 내는 경우가 있는 이유는, 이런 식으로 잘못된 솔루션들이 서로를 상쇄하는 것이 가능하기 때문이다. 그리고 이런 일을 특별히 잘 할 수 있는 경우는 풀어야 할 문제 자체에 그러한 상쇄를 가능하게 하는 좋은 구조들이 있는 경우이다. 인수분해같은 것이 대표적인 경우로, 이 경우에는 고전적으로 알려진 (여태까지의) 최선의 알고리즘보다 지수적인 속도 향상이 있었다. 그에 비해, 풀어야 할 문제 자체에 그러한 규칙성이 별로 없는, 예를 들어 앞에서 언급한 2^n개의 상자를 여는 문제 같은 경우에는 (상자 한 개를 연 결과가 다른 상자를 연 결과에 대해서 무엇을 말해주겠는가. 별로 말해줄 것이 없다.) 정답의 확률 진폭을 끌어올리고, 오답의 확률 진폭을 죽여버리는 작업이 필요한데, 이는 당연히 공짜가 아니다. 요약하자면, 그로버의 알고리즘에 의하면, 대략 2^(n/2)번 정도 상자를 '양자적으로' 열어 보면 공이 어느 상자에 있는지를 유의미한 확률로 맞출 수 있다. 이는 고전적인 결과에 비하면 엄청난 개선이지만, 여전히 지수적인 속도 향상이 아니라 다항식적인 속도 향상에 불과하다. 그리고 상자를 열어서 공을 찾는 문제의 경우에는 사실상 이 알려진 알고리즘이 최선이라는 사실이 증명되어 있고, 이것이 아마도 양자컴퓨터가 임의의 NP 문제를 다항식 시간 내에 풀지는 못할 것으로 보인다는 추측의 근거가 된다.

2.1 고속 연산

물론, 양자컴퓨터는 컴퓨터니까 고전 컴퓨터가 할 수 있는 일들을 모두 할 수 있고, 경우에 따라서는 같은 문제를 고전적인 컴퓨터에서 알려진 최선의 알고리즘보다 훨씬 더 빨리 풀기도 한다. 하지만 이는 소위 '처치-튜링 명제'를 뛰어넘는 능력을 양자컴퓨터가 가지고 있다는 의미는 아니다. 즉, 양자컴퓨터가 할 수 있는 계산은 고전컴퓨터도 시뮬레이션을 통해 따라하는 것이 가능하다. 시뮬레이션의 속도가 겁나게 느려서 그렇지.

오히려 자명하지 않은 부분은 반대 방향이다. 고전컴퓨터가 할 수 있는 일은 과연 양자컴퓨터가 다 할 수 있는가? 양자컴퓨터는 비싸니까 당연히 더 좋겠지라고 생각하면 속은 편하겠지만, 여기에는 한 가지 문제가 있다. 양자역학에 의하면, 양자역학적인 시스템은 '유니터리'한 방식으로밖에는 변화할 수 없다. 유니터리 행렬은 항상 역행렬을 갖고, 따라서 역변환이 가능하므로, 계산의 결과로부터 계산의 입력값을 되찾는 것이 가능해야 한다. 그런데 함수 f(x)가 일대일이 아니라면, x라는 입력으로부터의 계산 결과가 y가 나왔을 때에, 해당 y에 대응하는 원래의 오리지널 x가 꼭 하나만 있었을 필요가 없다. 예를 들어, 거듭제곱 함수 f(x)=x^2를 생각하면, f(x)=f(-x)=x^2가 되므로 x로부터 y가 나왔다고 해도 원래의 입력이 x였는지 -x였는지 알 방법이 없다. 즉, x로부터 y를 구하는 과정은 비가역적일 수 있다. 세상에는 고전 컴퓨터가 멀쩡하게 계산을 잘 하는 비가역적인 간단한 함수들이 널려있고, 이런 함수들은 아무리 간단해도 불행히도 양자컴퓨터가 계산하지 못한다.

다만, 당연히도 이런 문제를 피해가는 방법이 있다: x로부터 f(x)를 구하는 대신에, x로부터 (x, f(x))를 구하면 된다. 즉, 양자컴퓨터가 일대일이 아닌 함수를 계산할 때에는, 출력과 함께 원래의 입력을 같이 출력하면 된다. 정보의 손실이 없으므로 이 입력과 출력의 관계는 일대일이 되므로, 이 비가역성의 문제를 비껴갈 수 있다. 하지만 그렇다고 해서 그런 방식으로 양자컴퓨터가 고전컴퓨터가 할 수 있는 일을 모두 다 시뮬레이션할 수 있는지는 결코 자명한 문제는 아니다. 결론만 말하자면, (예상하겠지만) 가능하다. 모든 고전적인 계산은 가역적인 방식으로, 엔트로피의 손실 없이 (따라서 열을 내지 않고!) 처리하는 것이 가능하다는 사실이 알려져 있고, 그러한 가역적인 계산은 양자컴퓨터도 수행하는 것이 가능하다. 따라서 양자컴퓨터는 고전컴퓨터가 할 수 있는 일을 최소한 고전컴퓨터만큼의 속도로는 처리할 수 있다. 최소한 이론적으로는.

그 다음의 문제는, 양자컴퓨터가 같은 문제를 고전컴퓨터보다 더 빨리 계산할 수 있느냐이다. 이는 물론 문제에 따라 다르다. 어떤 문제들은 양자컴퓨터가 기존에 알려진 고전 알고리즘보다 지수적으로 빠른 계산을 해낼 수 있다는 사실이 알려져 있다. 소인수분해, 이산 로그 등이 그러하다. 앞에서 설명했지만 다시 강조하자면, 이러한 속도의 향상은 양자 중첩에서 나오는 것이 아니고, 병렬성에서 나오는 것도 아니다! 보다 정확히 말하자면, 양자 중첩만으로부터 나오는 것이 아니라, 오히려 확률 진폭이 서로 상쇄가 가능하다는 것이 주된 원인이다. 소인수분해나 이산 로그를 효율적으로 풀 수 있으면, 현대 암호학의 공개키 알고리즘의 적지 않은 부분들을 깰 수 있기 때문에 이는 현재까지 알려진 양자컴퓨터의 가장 유력한 '킬러 어플리케이션'이다. 쇼어 알고리즘은 소인수분해를 [math]O(\log^3 n)[/math]번만에 풀 수 있는 양자 알고리즘이다.

양자컴퓨터가 고전 컴퓨터에 비해 확실하게 독보적으로 우월한 것은 양자역학적인 시스템을 시뮬레이션하는 것이다. 이거야 말로 에뮬과 네이티브 실행을 비교하는 격.

양자컴퓨터가 다항식 시간에 풀 수 있는 문제의 집합을 BQP라고 하는데, 이와 NP와의 관계는 아직 정확히 밝혀지지 않았다. 양자 검색 문제를 양자컴퓨터가 다항식 시간에 풀지 못한다는 사실이 증명되어 있기 때문에, 아마도 NP가 BQP에 포함되지는 않을 것이라고 본다. 그렇다면 반대방향은 어떠한가? 즉, BQP는 NP에 포함되는가? 다른 말로, 양자컴퓨터가 할 수 있는 일은 비결정적 컴퓨터가 모두 할 수 있는가? 역시 아직까지 확실하게 알려진 것은 없으나 아마도 BQP는 NP에 속하지 않는 문제를 담고있을 것이라고 본다. 뿐만 아니라, BQP는 PH, 즉 polynomial hierarchy도 벗어날 것으로 추측한다.[3] 정리하면, BQP와 NP, 다른 말로, 양자컴퓨터와 비결정적 컴퓨터는 (아직 정확히는 모르지만) 서로 상대방보다 더 효율적인 부분이 있을 것이다는 말.

2.2 보안

현재 거의 대부분의 보안시스템 알고리즘은 소인수분해에 의거하고 있는데 이것을 해석할 때 현재 컴퓨터상에서 하자면 너무나 오랜시간이 걸린다. 예를 들어 1994년 RSA129로 알려진 129자리 숫자(426비트)를 소인수분해 하는 데에는 이 알고리즘을 이용하여 세계에 있는 1,600여 대의 워크스테이션을 병렬로 연결하여 8개월이 걸렸다. 이 알고리즘대로 250자리의 수(829비트)라면 800,000년이 걸릴 것이며, 1,000자리라면 1025억 년이 걸릴 것이다.[4] 이것은 우주의 나이보다 더 많은 시간이다. 그냥 더 많은 것이 아니라 우주가 만들어져서 지금까지 성장한 과정을 몇 번을 반복할 수 있는 시간이다.

하지만 양자컴퓨터라면 앞서 이야기했듯이 순식간에 계산되므로 현재 사용되는 보안알고리즘은 더 이상 사용할 수 없고 우리가 사용하는 시디키도 마찬가지로 소인수분해 알고리즘을 사용하기 때문에 무한정 복사기마냥 시디키를 복제해서 찍어낼 수 있게 된다. 2011년의 양자컴퓨터는 아직 겨우 21을 소인수분해하는 데 성공한 수준이지만, 컴퓨터 분야의 발전 속도는 이쪽 방면 학자들의 상상마저 초월하는 경우가 많아서.[5]

소인수분해 문제 이외에도 수많은 암호 알고리즘이 바탕을 두고 있는 이산로그 문제 역시 양자컴퓨터로 해결할 수 있다. 따라서 양자컴퓨터가 본격적으로 실용화되면 현재까지 개발된 대부분의 암호 알고리즘이 쓸모없어지게 된다.

그렇다고 양자컴퓨터가 모든 암호 문제를 박살내는 건 또 아니다. 컴퓨터가 진화했던 만큼 더 안전한 알고리즘을 만들면 되기 때문에(……) 기존과는 차원이 다른 보안 알고리즘을 사용할 가능성이 남아있다.[6] 게다가 현재 제안된 알고리즘들 중 격자 기반(lattice based) 암호계는 아직 양자컴퓨터로 해결할 알고리즘은 없다.[7] 따라서 양자컴퓨터가 실용화된다면, 그리고 그 때까지 격자 기반 알고리즘을 양자컴퓨터로 해결할 알고리즘이 개발되지 않는다면, 격자 기반 알고리즘이 공개키 암호계의 대세를 차지하게 될 가능성도 있다. 그 외에도 AES와 같은 블록 암호들 역시 아직 양자컴퓨터로 깨뜨릴 알고리즘이 나오지 않았으므로 현재로서는 '양자컴퓨터가 급격히 실용화되더라도' 안전하다고 볼 수 있을 것이다. 결정적으로 폰 노이만 구조의 한계를 그대로 답습하고 있는 한, 모든 NP문제를 P 시간에 풀 수 있을 거라고 장담할 수도 없다.

양자 겹침과 얽힘 현상을 충분히 유지 시킬 수 있다면, 큐비트 전송은 이론적[8]으로는 무적의 전송기술이 된다. 외부에서 큐비트 정보에 접촉했을 때, 큐비트들은 큐비트의 성질을 잃어 전자적 상태로 돌아간다.(0또는 1이 된다.) 이것을 수송신자는 바로 알아차릴 수 있으며, 그 정보를 수정/폐기하고 침입자를 제거하는 것으로 보안성을 매우 높인다. 침입자도 1회의 침입으로는 정보를 알아낼 수 없기에, 헛수고가 되는 신뢰성 높은 보안방식이다.

2.3 물질 전송/재조합?

물질 전송/재조합은 양자컴퓨터와 관련이 없다. 오히려 양자정보(quantum information)나 양자전송(quantum teleportation)과 관련이 있다. 애초에 물질 전송이라는것은 물질을 보내려는 쪽에 있는 물질이 어떤 상태로 존재하는가를 전송해서 반대쪽에서 그 정보를 받아 물질을 재구성하는 것을 말한다. 이 과정에서 필연적으로 물질을 보내는 쪽에 있는 물질의 상태가 붕괴되기 때문에 양자전송이라는 용어를 사용하는 것이다.

즉, 다시 말해 실제로 물질이 전송되는 것도 아니고 3D 프린팅 기술로 사용될 수 있는 것도 아니며, 물질을 복제한다는 것은 더더욱 아니다.(애초에 물질을 복제한다는 것은 물리학의 기본법칙을 위배한다.)

결론적으로 양자컴퓨터와는 전혀 관계 없는 내용이다.

3 실용화 가능성

2015년 현재 시점에서는 일상에서 쉽게 활용할 정도로 실용화되기까지는 상당히 많은 시간이 남았다 할 것이다. 그 근본적인 이유는 일단 현재 인류가 가진 기술로는 양자를 효과적으로 통제하기 어렵다는 것.

현재의 기술로는 양자로 구성되는 큐비트를 충분한 시간 동안 유지시킬 수가 없고, 외부 환경의 경미한 영향에 의해 큐비트가 변형되는 것을 막을 수가 없다. 일단 현재 상태에서는 큐비트를 최대한 오랜 시간 동안 유지시키기 위해서 초전도체를 이용하고 있는데, 이로 인해 큐비트 프로세서의 제조 단가가 무지막지하게 올라가고 작동 시에는 초전도 상태를 유지해야 하므로 운용비용도 상당히 비싸다. 또, 큐비트가 외부 환경에 의해 영향을 받는 것을 차단하기 위해 고도의 방음, 차진 설비를 두어야 하기 때문에 컴퓨터의 부피도 매우 크다. 또한, 현재는 큐비트를 고도로 집적시킬 수 있는 기술이 아예 없기 때문에 아주 제한된 수준의 컴퓨팅 성능만을 이끌어 낼 수 있는 것으로 알려져 있다.

이러한 문제를 해결하기 위해서는 일단 큐비트를 항구적으로 유지할 수 있는 기술을 개발해야 한다. 큐비트만 항구적으로 유지하고 효과적으로 통제할 수 있다면 굳이 프로세서를 제조하는데 초전도체를 사용하지 않아도 되고, 외부 환경에 의해서 변형되는 것도 어느 정도 관리할 수 있기 때문이다.

집적 문제에 의한 성능 문제는 일단, 현재 양자 컴퓨팅을 사용하려는 목적은 성능 자체보다는 큐비트 프로세싱의 알고리즘적 특성이기 때문에 당장 문제가 되지는 않는다고 한다.

한편, 소프트웨어도 심각한 문제가 될 것이라 전망되었다.

일단 현재 수준에서는 양자 컴퓨터가 실용화된다고 하더라도, 단순한 수학적 계산에만 활용되는 수준이며, 엔드 유저 입장에서는 게임은 커녕 워드프로세서도 사용할 수 없는 수준이다. 다만 현재처럼 반도체 공정이 계속해서 극미세 단계로 접어들게 되면 반도체의 한 비트 할당 공간이 분자, 원자, 소립자 단계까지 내려가게 되는데, 이때는 전기 동력원인 전하보다 회로가 더 작아지는 사태가 발생할 수 있다.[9]근데 아직까지는 전자의 크기가 0이잖아[10] 이렇게 될 때의 대안이 바로 양자 메커니즘에 의한 컴퓨팅이다.

2016년 5월 4일, IBM에서 자사 클라우드에서 양자컴퓨터를 사용할 수 있게 하였다. 양자 게이트들의 조합을 업로드하면 5bit 양자컴퓨터가 실행해서 계산 결과를 알려주는 방식 [1]

양자컴퓨터만 사용하는 시대가 온다는것은 무리와도 같다, 두 종류의 컴퓨터가 서로 얻고자 하는 결과값을 얻고자 할때 최적화 된 중간과정이 다를 뿐더러[11] 양자컴퓨터만으로 현대 컴퓨터의 모든 기능을 대체한다는것은 에뮬레이터, 가상머신을 구동하는것과 같은 매우 낮은 효율을 보여주게 된다. 결국 이와 같은 문제를 해결하기 위해서는 양자컴퓨터와 현대의 컴퓨터가 서로 상호 보완해주는 시대가 올 가능성이 높다

4 상용 제품 개발

양자 컴퓨터에 대한 연구는 미국이나 유럽을 중심으로 연구 되고 있는 것으로는 알려져 있다. 연구 현황이 잘 알려지고 있지는 않지만 IBM에서도 많은 인력을 동원하여 양자 컴퓨터를 연구하고 있다고 한다.

이런 가운데 2011년 캐나다의 D-Wave 시스템즈라는 회사에서 양자 어닐링을 이용한 특수목적형 컴퓨터인 D-Wave I을 출시하였지만, 이는 여기에서 이야기하는 양자 컴퓨터와는 좀 다르다.

고로, 아직까지 상용화된 양자컴퓨터는 전무하다고 볼 수 있다.

4.1 D-Wave 양자 어닐링(quantum annealing) 컴퓨터

2011년 D-Wave Systems 사에서 세계 최초의 상용 양자 컴퓨터 D-Wave 1을 발표하였다. 가격은 약 천만 달러. 하지만 D-Wave 1은 일반적으로 알려진 범용 양자 컴퓨터는 아니며[12] 특정한 종류의 최적화 문제에 특화된 하드웨어를 갖고 있다. 양자 어닐링을 이용하는 특수목적형 컴퓨터이며, 양자 어닐링은 기존 어닐링 방식에 비해 특별히 나은 성능을 지니는지에 대해서도 아직 확실하게 알려져 있지 않다. 관련내용 참고.

이 컴퓨터를 구매한 것으로 확인된 기업은 아직까지 록히드 마틴 사 하나뿐이다.

2013년 7월, 구글NASA가 공동 설립하는 인공지능 연구소에서 차기 모델인 D-Wave 2를 구매하였으며, NASA에서는 우주 관련 연구, 구글에서는 인공지능 검색엔진 개발에 사용할 것이라고 밝혔다.

D-wave 2는 512-qubit 프로세서를 사용한다고 알려져 있는데, 이것이 양자 중첩 현상을 이용한 기존의 정의대로 만들어진 물건이라면 이는 이론적으로 2^512!! (약 2*10^212)번의 계산을 한번에 할수있는 속도이다. 더 놀라운 건 D-wave1이 나온 지 2년 만에 성능이 4제곱배(절대 4배가 아니다.)가 좋아 졌다는 것...이지만 문제는 이 컴퓨터는 양자 어닐링을 관측하는 방식으로 만들어졌을 뿐이지(양자 터널 현상은 이용한다.) 양자 중첩 현상을 이용한다는 기존 양자컴퓨터의 정의와는 전혀 다르다.

2014년 1월 16일(현지시각) 실시한 이 양자 어닐링 컴퓨터의 성능 테스트 결과가 기존 시스템을 이용한 고전적인 어닐링 연산과 크게 다르지 않은 것으로 알려졌다.

이번 성능 테스트에는 D-웨이브 투와 일반 PC를 이용했다. 비교를 진행한 결과 D-웨이브 투는 양자 어닐링의 장점을 증명하지 못했고 일반 컴퓨터와 크게 다르지 않은 결과를 냈다고 한다. 그럼에도 불구하고 구글은 나사와 D-웨이브 투를 구입하여 나사 연구 센터에 설치했다. 하지만 이 시스템이 실제로 사용된 건 구글글라스 눈꺼풀의 깜박임을 감지하는 알고리즘 작성 정도다. 많은 물리학자들이 해당 컴퓨터를 이런저런 기관에서 구입하는 것에 대해 의문을 표하고 있다.

스위스 취리히연방공대의 마티아스 트로이아 교수의 연구에서 상용화된 D-웨이브 시스템즈 사의 양자 어닐링 컴퓨터가 기존의 컴퓨터보다 몇몇 경우에는 100배 이상 연산이 느리다는 연구 결과가 나왔다. 번역 링크

확실한 것은, 해당 컴퓨터가 양자 어닐링을 관측하는 방식으로 만들어졌다는 것(이건 증명되었다.), 그리고 기존의 양자 컴퓨터와는 전혀 다른 물건이라는 것이다.

4.2 D-Wave 2X

1097 큐비트 모델이다. 위 모델처럼 제한된 특수목적용인지, 실제 성능은 어떤지는 아직 알려져 있지 않다.

2015년 말, 구글과 나사에서 특정 알고리즘[13]에서 일반컴퓨터 보다 약 1억 배 더 빠르다고 주장하는 양자컴퓨터의 실물을 공개했으며, 2016년 9월에 에임스 연구소의 양자 인공지능 연구소에 설치가 완료될 예정이다.

작동 환경은 열, 전기장, 자기장, 진동을 철저히 격리하고 절대영도보다 0.015도 높은 온도를 유지한다. 이는 우주보다 180배 차갑다.

속도 테스트는 양자컴퓨터에 맞춰 주의깊게 고안된 '개념 증명용' 문제를 푸는 것으로 했으며 하이엔드 싱글코어 CPU를 비교군으로 했을 때 약 1억 배 더 빠르다는 것이 구글의 주장이다. 특정 유형의 문제를 다뤘기에 단순 일반화 할 수는 없지만 양자 컴퓨터의 잠재력을 입증하는 데 의미가 있는 것으로 풀이된다.

DW2X에 대한 분석 자료
논문을 이해할 능력이 있으며 시간도 많이 있는 위키러는 읽어보고 수정 및 추가바람. 없을거야 아마

2016년 9월, 구글은 50큐빗급의 양자컴퓨터를 내년 말까지 선보이겠다고 발표했다. 관련기사 다만, 나와봐야 알 듯...

5 창작물

아직 상용화되지 않은, 엄청난 성능의 컴퓨터...라는 이미지가 있어, 각종 창작물에 등장하는 슈퍼컴퓨터로써 양자 컴퓨터가 제시되고 있다.

  • 총몽시리즈의 양자컴퓨터
  • 9S의 LAFI 시리즈
  • 가사라키 - 24화 초반 미군의 도쿄 고와 그룹 본사 공격 브리핑에서 공격 목표로 언급된다. 냉각을 위해 영하 180도 이하의 극저온실에 위치해있다.
  • 기동전사 건담 더블오베다
  • 기동전사 건담 SEED 시리즈에서는 널리 보급되어있는 상태다. 일반적인 MS를 비롯한 시설의 컴퓨터도 모두 양자컴퓨터. 오히려 양자컴퓨터가 아닌 컴퓨터를 찾기 힘들다는 듯. 아스트레이의 하치는 양자 컴퓨터와는 다른 존재.[14]
  • 덴마의 양자 통신
  • 소드 아트 온라인의 「STL」. 후술할 액셀월드의 뉴로링커의 전신이다.
  • 어떤 마술의 금서목록트리 다이어그램[15]
  • 어떤 마술의 금서목록 신약 7권에 AIM확산역장을 이용한 양자컴퓨터가 등장한다.[16]
  • 제가페인의 양자서버(양자컴퓨터)
  • 액셀 월드의 4세대 NERDLES.[17]
  • 콜 오브 듀티: 블랙 옵스 2에 등장하는 셀레륨 장치. 에릭 브라이너의 말에 따르면 양자 얽힘을 이용했다고 한다.
  • 톰 클렌시의 소설 넷포스 시리즈 세번째 작품인 나이트 무브에서 양자 컴퓨터가 등장해 세계 각지의 보안을 제집 드나들 듯이 돌아다니며 문젤 일으켰다.
  • EDEN 프로퍼테일 연방이 관리하는 다섯 대의 스탠드 얼론형 양자컴퓨터. 개개의 이름은 나오지 않는다. 우주로부터 쏟아지는 감마선 폭우로 지구의 대기와 바다가 작살나자 이를 회복시키기 위해 한 과학자가 연구하던 나노머신 우라노스와 오케아노스가 방안으로 대두되는데, 실제로 사용하기 전에 양자컴퓨터로 지구 규모 시뮬레이션을 돌리는데 쓰인다. 나노머신을 개발한 과학자의 말로는 기상은 카오스계 이론이라 일반 컴퓨터로는 도저히 행성규모의 시뮬레이션을 할 수가 없었다고...현실의 양자컴퓨터의 성격과 가장 유사하게 표현되었다.
  • SCP 재단 - SCP-062
  • 요르문간드 계획 - 하늘이 봉쇄된다(…).
  • 트랜센던스 - 윌의 정신이 업로드 된 양자프로세서를 가진 슈퍼컴퓨터 : 본래 핀이라는 양자컴퓨터의 프로세서를 빼와서 윌을 우선 컴퓨터에 업로드 시키는 것을 성공한 뒤, 후에 대규모 데이터 센터를 건설하여 내부에 엄청나게 많은 양자 프로세서가 장착된 슈퍼컴퓨터에 윌이 들어간다.
  1. 물론 양자컴퓨터 그 자체가 정말로 스스로 생각하는 컴퓨터인 것은 아니며, 적어도 사용자의 명령이 없으면 아무것도 못 하는 건 보통의 컴퓨터와 같다. 그럼에도 이런 별명이 붙은 것은 점점 발전해 나아가 인공지능 개발에 있어서 유리한 수단이 될 수 있기 때문이다.
  2. 각각의 witness들에 대해 병렬적으로 이들이 올바른 NP witness인지 확인한다.
  3. 이에 대해서는 다음을 참고: http://www.scottaaronson.com/papers/bqpph.pdf
  4. 보안시스템 알고리즘에서 실제로 사용되고 있는 RSA 모듈러스는 대개 1024비트 혹은 2048비트의 크기이다.
  5. 일반인들에게 어필할 수 있는 예시로, 우리 손 안에 있는 스마트폰NASA가 69년에 쓰던 슈퍼컴퓨터보다 고성능이다. 나사는 그 컴퓨터로 달을 향해 로켓을 날렸고 우리들은 돼지를 향해 새들을 날렸다 위키질도...한다...
  6. 마음만 먹으면 지금 기술로도 충분히 32kB짜리 보안 알고리즘을 개발할 수 있다. 다만 암호화 자체의 시간이 길어지는 등 기술적 한계가 남아있기 때문에 아직 만들지 않고 있는 것 뿐이다.
  7. 격자 관련 문제들 중에는 NP 완전 문제가 있는 것이 사실이고, 아마도 양자컴퓨터가 NP 완전 문제를 다항식 시간 내에 풀지 못할 것을 시사하는 증거들이 있는 것을 감안하면, NP 완전성 때문에 격자 기반 암호가 양자컴퓨터에 대해 안전하지 않을까 생각되기도 하지만, 정확히 그렇지는 않다: 대부분의 경우, NP 완전 문제에서 출발하는 암호 시스템의 경우에도, 임의의 문제가 아니라 답을 알고있는 문제를 생성해야 하기 때문에, 원래의 NP 완전 문제를 변형하는 과정이 들어간다. 즉, 현재까지 순수하게 그 안전성이 NP 문제가 효율적으로 풀리지 않는다는 가정에만 의존하는 암호 체계는 발견된 적이 없고, 이는 격자 기반 암호의 경우에도 마찬가지이다. 즉, 격자 기반 암호를 효율적으로 푼다고 해서 어떤 NP 완전 문제를 효율적으로 풀게되는 것은 아닐 가능성이 높다.
  8. 실제로 2010년경에 양자암호의 취약점을 발견한 사례도 있다. 링크
  9. 실제로 나노 단위 크기로 도달해도 양자현상이 일어나기 때문에 고성능화 반도체레이저, 트랜지스터에 양자사이즈효과를 응용하고 있다.
  10. 전자가 너무 작아서 아직까지의 모든 실험에서는 크기가 0으로 측정됐다.
  11. 이는 CPURISC방식의 아키텍처와 CISC 방식의 아키텍쳐 설계와 같이 서로 목적에 맞게 최적화 되어있다,
  12. 양자컴퓨터라며 언플과 광고를 엄청 해댔다. 그래서 처음엔 학계에서도 이 물건이 정확하게 무엇이냐고 아리송해 하는 사람들이 많았다. 이 위키에도 그 광고에 낚인 내용이 잔뜩 쓰여 있었지만 지금은 수정.
  13. 퀀텀 몬테 카를로 알고리즘이라고 알려져 있음. 정확한 정보는 추가바람.
  14. 그렇기에 양자 컴퓨터 전용의 바이러스에 영향을 받지 않았다.
  15. 추정, 그리고 이쪽은 양자 역학을 씹어먹는 존재다.
  16. 신약 7권에 AIM 확산 역장을 이용한 양자 컴퓨터가 등장하므로, 확실한건 알수없다.
  17. 내부에 양자컴퓨터가 들어있다고 한다.