さらに、多くの量子ビットを高密度に並べるのも技術的に難しい。線状に並べるのでは足りず、面状にする必要がある。それぞれのハードウェアは、ノイズには強いがたくさん並べるのは困難というタイプ、あるいはその逆のタイプもあり、メリット・デメリットがバランスする決定打はなかなか見つからない。

 しかし、ここ数年、世界では、量子コンピューターをめぐる活発な動きが目立っているのも事実である。

 2014年にグーグル社は独自開発のためにカリフォルニア大学サンタバーバラ校の超伝導素子による量子コンピューター開発グループを丸抱えした。先のQ2Bで同グループは、49量子ビットの機械を稼働させ、量子コンピューターが従来のコンピューターを超える優位性を証明するとした。

 また、米IBM社も17年に16量子ビットの汎用量子コンピューターを開発してサービスを開始、さらにビット数を増やす構えをみせたり、グーグル社の動きを批判したりと盛んである。

 そんな喧騒の中で、落ち着いて眺めれば、冒頭で登場したプレスキル教授の言うとおり、優位性はあっても、数十量子ビット程度の量子コンピューターしか実現できていない現状では、たいしたことはできないのは明らかだ。量子アルゴリズムの種類も限られており、現在のコンピューターのような汎用性を求めるのはまだ早いというのが大方の理解である。プレスキル教授は、「この限られた能力の量子コンピューターで一体何ができるのか、徹底的に研究してはどうか」と主張した。うなずける方向性であろう。

 日本の開発はどうか。

 99年にNEC基礎研究所のグループが超伝導量子ビット素子を世界に先駆けて開発したが、一時のブームだった。21世紀に入ってしばらく量子コンピューターの大型予算はつかなかった。

 10年から最先端研究開発支援プログラム(FIRST)による「量子情報処理プロジェクト」が始まり、後継のImPACTプログラムによる、14年からの「量子人工脳を量子ネットワークでつなぐ高度知識社会基盤の実現」に受け継がれた。前者の中心研究者、後者のプログラムマネージャーともに山本喜久・国立情報学研究所名誉教授が務める。

次のページ