この問題提起に応えて、先の量子ビットを並べて一括処理する量子コンピューターを85年に定式化したのは、今、「量子コンピューターの父」といわれる英国の物理学者デビッド・ドイチュだった。しかし、通常のコンピューターを超える能力を持つとは思ってもみなかった。

 ブレークスルーは94年に来た。

 米国ベル研究所のピーター・ショアが、整数の素因数分解(6=2×3のように、整数を素数の積に分解する)を量子コンピューターで通常よりもはるかに速く実行する量子アルゴリズムを開発した。素因数分解は整数のケタ数が増えれば、その手間はねずみ算的に大きくなって実行不可能になるため、暗号では必須とされる技術である。数百ケタの数を素因数分解しようとすると、通常のコンピューターでは「億年」のレベルで時間がかかるが、量子コンピューターなら年レベル以下になるという。「これなら」と業界は色めき立ったのである。

 さらに96年、やはりベル研究所のロブ・グローバーは、データベース検索の量子アルゴリズムを提案した。その前年には、量子ビットのエラーを訂正するアルゴリズムも発表され、量子コンピューター開発の理論的道具立て、あるいはソフトウェアは一応そろった。

 だが、実際に動く量子コンピューターを作り出すのはいばらの道である。

 量子ビットを物理的に実現するハードウェアとして、いくつもの方法が提唱されている。使うものとして、原子核や電子が持つ小磁石(スピン)、光の量子力学的性質、超伝導の微小回路を利用する素子、レーザー光で真空中にイオンを固定するイオントラップ法……米、英、仏、中国、日本の大学や企業研究者が取り組むがなかなか難しい。

●グーグルは研究者を丸抱えIBMはサービスを開始

 その理由は、まず、安定した量子ビットの実現の困難がある。量子力学的な状態は、外部からの熱や光などのノイズの影響を受けて壊れやすい。それによって計算を実行できる時間が制限されたり、計算エラーにつながったりする。

次のページ