2024年8月20日火曜日

量子コンピューターの必要性と概説

(背景)
基本的に私の医療技術開発において
コンピューター解析や人工知能の開発、利用は前提になっています。
必ず実施する細胞接着分子を含めたマルチオミックス解析においても
その結果やより詳しい3次元構造の予測などへの利用も想定しています。
また、医療技術開発においては画像、動画による解析も必須になりますが、
その中で時間、空間両方の画像補填、その推定の為に
人工知能の強化学習、推定を利用しようとしています。
細胞外小胞による診断においても、
細胞外小胞を高度に層化した後の
分類ごとのマルチオミックス解析のビックデータ化の後の
細胞外小胞を使った診断、推定のための利用を考えています。
細胞外小胞の薬物送達における生物内、人体内の軌跡を推定するために
人工知能やコンピューター解析を利用する事も想定されます。
主に評価に関する事での利用で、その利用幅は多岐にわたります。
--
他方で人工知能を多くの人が利用できるための
コンピューターの中央演算装置の最適化、
データーセンターについても言及しました。
特に演算コア数が多い並列演算に特化しているGPUは
人工知能や画像生成に適しています。
一方で、人工知能に特化すると
人工知能で利用される数式は、
四則演算、統計、フーリエ変換などに限定されるため、
その計算に特化した演算器配置、数の最適設定があります。
また、数字幅を多く扱う必要がないため
32ビット浮動小数点ではなくて、
その指数を半分、1/4にする16ビット、8ビットの浮動小数点にして
その単位ビット数に合わせた回路設計にすることが
エネルギー効率を高めることにつながり、その設計を提案します。
こうしたハードウェアの設計の基本的な性能向上の項目では、
ビット生成の基本的なデバイスであるトランジスタの微細化があります。
また、トランジスタをつなぐ回路も同様です。
これを実現するためにはその大きさに応じた加工技術が必要になります。
その微細化のトップランナーであるアメリカ、台湾の技術を
いま、日本は一部、学んでいるという認識です。
--
私のこうした動きは今、世の中を席巻している生成系AIや
そのハードウェアであるAI半導体を含む次世代半導体、
その半導体を使った中央演算装置設計などを駆動することになります。
しかし、
こうしたコンピューター利用の促進はエネルギー使用量の
絶対的増加を推し進めるものです。
世界的に「ネットゼロ」すなわち
正味の炭酸ガス(二酸化炭素、メタンなど)の排出量をゼロにする
という動きがあります。
その世界的動きに逆行することにもつながるので、
今の私の人工知能利用促進の動きにおいては
環境問題に対する責任が一定問われます。
その責任を果たすためにも、原理的にエネルギー効率の良い
普遍的社会実装難解な量子コンピューターについての
私の考えを共有します。
時間資源を多く費やすわけではなく(1日 or 2日)
本流の活動に大きな障害を与えない様式で、
基本的な私の考えを共有する事ができるので選択しています。
--
今の地球温暖化は確かに炭酸ガス(二酸化炭素、メタンなど)の排出だけでは
説明できない可能性がありますが、
それでも世界的で観測史上最も暑い月を
世界の様々な視点で計測しているなど
世界的に気温が上昇している事には変わりありません。
炭酸ガスの放出は、もし、それだけではなくても
そうした気温上昇を押し上げる要因の一つであるという事は
ほぼ、世界的に認めれている事実です。
仮に、懐疑論を考慮してかなり譲歩して、そうでなかったとしても
大気中の二酸化炭素濃度(ppm)が上がると、
海洋酸性化というもう一つの問題があります(1)。
海洋中の二酸化炭素濃度が増えると海洋が酸性化し、
水素イオン濃度が増え、それにより
海洋生物の炭酸イオン濃度が減るため、
この炭酸イオンを殻や骨格に利用するため、
海洋生物のこうした組織に影響を及ぼします(3)。
例えば、サンゴ礁、貝類などが深刻な影響を受けます。
またプランクトン(2)に影響を与える可能性もあります。
そうした中で海洋生物の居住状況、海の浄化能力、
あるいは食物連鎖に不可逆的な影響を与える可能性があります。
実際に海のpHは海洋中の二酸化炭素濃度の上昇に連動して
直近35年間で低下しています(pH:8.10 ⇒ 8.05)(4)。
地球の表面積の7割が海であり、
海洋生物の不可逆的な変化は壊滅的な結果をもたらす可能性もあります。
四方八方海に囲まれ、島国である日本は、
海に気候(災害)、食文化、水資源などが密接に関わり、依存しています。
水資源が豊富なため、世界の水資源の貯蔵庫の一つという認識も生まれます。
従って、海洋酸性化を含めた海の問題に関して日本は、
世界のトップランナーである必要があります。
そういった点からも今日の記事は欠かせないという判断です。
--
世界は産業革命以降、モノの製造が活発になりました。
そこからモノの供給が成熟している中で
より人の知的財産、知識が社会経済を動かすようになっています。
そうしたインテリジェンスへの潜在的な需要から、
コンピューター、パソコンなどの計算機や
人工知能などの世界的影響力が大きくなっています。
今までよりも付加価値の源泉は知識、知能に偏るようになっています。
しかしながら、こうした知識への依存は、
コンピューターを利用した電気エネルギー消費の拡大につながります。
従って、こうした知識への供給元を
もっとエネルギー効率の良いモダリティー(手段)に
今までよりも多く依存するように世界は動いていく必要があります。
私は、その一つは古典的ですが「人の頭脳」であると確信しています。
実際に私は24歳、すなわち大学院卒業時点から
21年経過しましたが、私の頭脳から生み出される付加価値は
おそらく単位時間あたり数桁以上高まりました。
もちろん環境的に整ってきたということもありますが、
それでもその変化は劇的です。
しかしながら、24歳の時よりもカロリー消費量は減少しています。
人が食べ物、飲み物によって日常的に摂取するカロリーは
最終的にはエネルギー資源に関係します。
頭脳から生み出される付加価値が顕著に変化したのに
エネルギー消費が減っているということです。
おそらく、起床時間以内に普段の10倍頭を使ったとしても
カロリー消費量は20%も変わりません。
従って、人の頭脳を付加価値生成のためにより有効に利用する事は
原理的にはエネルギー問題の解決の一助となります。
従って、人の生涯教育、生涯学習は非常に重要です。
人工知能によって人が必要なくなるではなくて、
エネルギー問題を考えるとエネルギー効率のよい
頭脳(神経系)を持った人が必要になるという事です。
--
頭脳がエネルギー効率が良いのは、
可塑的な神経連結に一つは依存します。
従って、こうしたニューロモジュレーションが生じるような
回路設計をしてコンピューターを構築するということがありますが、
本日は、そうした方面ではなく、
数日前の宣言、約束通り、量子コンピューターについて考えます。

(内容)
量子コンピューターは古典的なコンピューターの動作原理となっている
二進数の1と0のビットで表現することができません。
古典的コンピュータは全ての情報がこうしたデジタル化であるため、
アルゴリズムとしてスイッチ可能な電流、電圧信号差を
こうしたビットに割り当てる事が可能です。
一つ一つの情報をこうした2進数の数字に明確に割り当てています。
従って、こうした情報は揮発しなければ1対1対応が可能なため、
基本的には再現、複製可能です。
一方で、量子コンピューターにおける量子ビットは
古典的なビットの0と1両方の状態を取ることができます。
これを「重ね合わせ」といいます。
それぞれの状態に確率振幅という複素数が割り当てられ、
量子状態としての波を表現し、
それらの絶対値の2乗はそれらが得られる確率を示しています。
--
古典的なコンピューターでは一般的には
電流値の違いでビットをわりあてるので
物理的に正確にいえば、電子の数の違いで情報を定義します。
一方、
量子コンピューターはその(素)粒子の種類を電子に限定せず、
クーパー対、イオン、光子、電子、エキシトン、マヨラナ粒子など
様々な粒子を対象として、
その量子状態の違い(励起状態と基底状態)を情報として割り当てます。
しかしながら、こうした励起状態と基底状態は
古典的な電流値の違いのように「計測によって定義してわける」ことができません。
逆に、もし計測によって分ける事ができたら、
そもそも量子コンピューターの古典的コンピューターに対する付加価値はありません。
従って、
こうした励起状態と基底状態が重なり合う事を古典的に分けて考えない
ということが前提としてあります。
言い換えれば、情報が1つの状態で複数あるけど、
その情報を明確化する操作を行うとそうした情報の圧縮性のメリットはなくなります。
例えば、量子状態が情報を4つ同時に持っているとすると、
その情報に対して、4回古典的な計測を行い、
隠れて持っていた4つの情報を明らかにしたとしても、
そのためには4回の古典的な操作が必要ですから、
その時点で、コンピューティングとしての付加価値がないということになります。
むしろランダムに示されるから、4つの情報を探索するまでに
もっと測定を要するかもしれません。
そうすると量子コンピューターの性能は
逆に古典的コンピューターに対して弱くなります。
--
このような重ね合わせを私は「情報の束化(バンチング)」と捉えます。
概念は異なりますが、量子状態の縮退のようなイメージを持っています。
1つの量子状態は2つの情報を同時に持つ事ができます。
2つのそれは4つ、3つのそれは8つ。
すなわち量子状態が増えるにしたがって、
保持できる原理的に古典的な情報は2^x(2のx乗)だけ増えます。
これが100量子ビットになると約1.27 × 10^30となります。
これが量子コンピューターで実現できる能力の最大潜在性となります。
しかし、実際にはアルゴリズム上、
こうした最大の能力を引き出すことができていません。
--
例えば、グローバーのアルゴリズムがあります。
5量子ビットでは32の量子状態を確率振幅に基づいて重ね合わせています。
それだけの情報がバンチングしているという事です。
グローバーのアルゴリズムは「量子状態の検索の効率化」なので、
この32の量子状態を探索するための計測回数を1/2乗減らす事ができるというものです。
従って、グローバーのアルゴリズムでもN量子ビットに対して
√(2^N)回の操作が必要になりますから、
原理的に量子コンピューターが持つ最大の潜在性を示せるわけではなく
√(2^N)回の操作、すなわちこの回数だけのロスがあるという事です。
--
量子コンピューターを理解するためには物理的な実体がどうなっているか?
これを頭の中で整理する必要があります。
例えば、2量子ビットの対象が電子のスピンであるとします。
電子のスピンは電子の回転数ですが、
電子が量子化されている場合
その回転数は連続的に変わらず、離散的な回数をとります。
この回転数が理論上最も少ないのが「基底状態」で量子ビットの「0」に割り当てます。
一方、それよりも多い回転数である「励起状態」が量子ビットの「1」です。
最も単純なモデルである2量子ビットでは
その系に2つの電子があって、それぞれ2つの回転数のパターンを持っています。
その回転数の低い、高いのパターンが4通りありますが、
それらが決定されず、確率分布を持っています。
すなわち古典的な計測によって4つのパターンは
4通り一定の確率によってランダムに示されるということです。
2つの電子が同時に4つの情報を「隠し」持っているから、
量子コンピューターは情報が同時に圧縮されていると捉える事ができます。
--
量子コンピューターは当然、計算の元となる物質(物理)系を
ハードウェアとして人工的に作りだす必要があります。
「量子状態」を作り出す必要があり、
単一粒子レベルの解像度で量子状態を制御する必要があります。
従って、系(ハードウェア)を制御する
(空間、時間)分解能を極めて高くする必要があります。
量子系は容易に破壊されるので
言い換えれば維持される時定数が極めて短いので(デコヒーレンス)、
その時間を長くする取り組みと、
量子状態を扱うハードウェアの処理速度を極めて高める必要があることと、
系に対するノイズを減らす事、低温、あるいは真空にすることが求められます。
--
実際にコンピューターではビット情報が命令に応じて伝達されますが、
一つのビット情報で入力から出力まで終始できるわけでは同然ありません。
あらゆる処理が2進数かされて、数字データとして処理されるため
入力から出力までには直列に(あるいは並列に)様々なビット信号が経過をたどります。
その回数は具体的なハードウェアの設計や処理の内容に依存します。
レジスタ、キャッシュ、メインメモリ、ストレージなどを経由するため、
数十回から数百回の階層やステップを経ることがあります。
いずれにしても様々なソフトウェアを動かして、
私たちはパソコンを任意に利用できますが、
そのピットの直列回数は数百回を超えるという事です。
これは量子コンピューターのアルゴリズムを考えるうえで参考になるはずです。
例えば、
量子コンピューターの5量子ビットをコンピューター上で扱う場合、
その中に隠された情報として32通りの量子状態のパターンが存在します。
こうした情報をそのまま扱う事の一つの
「極めて短絡的な」提案としては、
その量子状態をそのまま処理し、
最後のプロセスでその量子情報を開けるということです。
その時には結果として示される量子ビットのパターンが
その都度変わり、何十回もその処理を繰り返すと
最終的に32通りの結果が示されます。
その多様な結果を情報を受け取る側は受け入れるということです。
例えば、
量子AIに何か質問をしたときに、
その回答が32通り異なる回答を示すということです。
しかし、よく考えると、こうした利点は
最終最後しか生かせないことになります。
実際にコンピュータ処理の段階は上述したように数百回以上あるため、
こうした考え方は極めて短絡的で、その効果は恐らく微弱です。
こうした手法は量子コンピューターの強みを生かしきれてないとされます。
--
例えば、20量子ビットのハードウェア上の状態があるとします。
その量子ビットは2^20(2の20乗)と組み合わせがあるわけですが、
古典的なコンピューターではその情報を扱うにあたり、
一つ一つのビットの組み合わせに電流値の組み合わせを割り当てますが、
量子ビットではそれが
20個のクーパー対、励起子、イオン、光子、電子などの
実体として表現する事ができます。
そうした中で、その2^20乗の組み合わせの中で
最もエネルギーが低い量子ビットの組み合わせは何ですか?
というような問いに対する答えを求める事を
一般的には「最適化問題」と言います。
実際には量子ビットの0がエネルギーが「個別では」低いわけですが
量子系はエネルギー的にも干渉しているため、
すべて0が系全体としてエネルギーが低いわけではありません。
この時に、それを探索するための計算回数が
古典的なコンピューターを下回る事を
「量子スプレマシー(Quantum Supremacy)」といいます。
N量子ビットで2^n(2のn乗)の状態を示すことができ、
それをn回の計算で示せることが最高性能となります。
しかし、実際には古典的コンピューターを超えること自体が
超越性として一つの偉業ですから、
まだまだ、量子コンピューターがもつ潜在性を引き出せているとはいえません。
また、量子コンピューターを構築するハードウェアが
非常に高価で特殊な環境を必要とするため、
汎用的な社会実装はまだまだ遠いと言えそうです。
そのような「最適化問題」では、
グローバーのアルゴリズムや量子アニーリングが使われます。
上述したように組み合わせの数だけの計算が原理的には必要なく、
それよりも顕著に少ない計算回数で
任意の量子状態を探し当てる事が確率的に可能なので、
こうした「エネルギーが最小」という「特異的な」
量子状態を対象としてアルゴリズムが組まれます。
実際には量子アニーリングでは系のエネルギーを少しずつ下げていき、
系には様々な極小値があるわけですが、
その変曲点で量子トンネル効果によって
次の変曲点に達するまでにエネルギーの山を登って降りずに
その経路をトンネルによって短絡できる事で
グローバルな最小点まで早くたどり着けることを証明します。
従って、
量子アニーリングは、特に局所的な極小値が多い
複雑なエネルギーランドスケープを持つ問題に対して、
効果的に最適解を見つけることができると証明されています。
では、具体的にどういった問題に適用できるでしょうか?
例えば、東京都の複雑な道路において
無数にある輸送機器(自動車、トラックなど)が
それぞれどういった経路で進めば、
全体としてエネルギーは最小になりますか?
これが求まれば、それに基づいて交通システムを構築する事で
渋滞緩和、物流コスト削減、ガソリン、電気量削減につながります。
しかし、
実際に道路の中での車の動きのパターンのエネルギーと
ハードウェア上の物理現現象の(この場合)エネルギーと
どうやって同期させることができるでしょうか?
これが私は難しいところに一つだと思います。
例えば、エネルギー問題とリンクさせるわけですから、
量子状態を表現するにあたり、系の物理量を定式化する
ハミルトニアン(H)を使います。
この時に具体的に何と何をこうしたエネルギーを示す量子状態、
すなわち量子ビットとして対応させるのか?
ということがわからないのです。
量子アニーリングではハードウェア側では
エネルギーを高い方から低い方へ人為的に段階的に動かしていくことをします。
このとき、確かにハードウェアとして系のエネルギーが下がっており、
それに基づいて全体のハミルトニアン、量子状態のエネルギーの和も下がっています。
当然、各、量子状態と1対1の対応で
1つの量子状態がある一定期間、どのように輸送機器が動くかの
パターンが対応されてないといけません。
なぜなら、いくつものパターンがあって、
そのパターンの中でよりエネルギーが低い動き方を探していく必要があるからです。
しかし、どうやってエネルギー状態を正確にエンコードするのかが難しいです。
他にも例えば、個別の輸送機器のどっちに動くかのベクトルを
それぞれ量子ビットとして割り当てる時に、
よりエネルギーの高い方向に動く場合は1
低い方向に動く場合は0とします。
しかし、道路は坂道があるわけではないので、
左、右にいくとして、どちらがエネルギーが低いか
エネルギーを正確に定義できない場合も多いです。
当然、そのように定義したら
全部0の状態がエネルギーが最小では?と考えそうですが、
そうならない理由は一つの0が他の1に影響を与えるからです。
いいかえれば、こっちの車をエネルギーの低い方向に動かしたら、
他の車のエネルギーが高くなってしまうという事が干渉として起こるからです。
こうした干渉の効果をうまく正確に
ハードウェアの物理現象と同期してエンコードさせる必要があるわけですが、
これを具体的に考える事はかなり難解です。
従って、こうした車の動きのエネルギーの総和を
グローバルに定義する数式がエンコードの為に少なくとも必要になります。
実際にその複雑な数式を解くために古典的なコンピュータを使うわけですが、
その数式を解く媒体を量子コンピューターに変えます。
もっといえば、量子コンピューターに配置された
量子現象を持つ物理、物質系にエンコードを通じて計算させます。
その人の手では決してできない多変数の計算を
実際の古典的なコンピューターよりも量子コンピューターが速くできるか?
(量子超越性:Quatum Supremacy)
それを試すことになりますが、具体的な手続き、組み込みをどうするのか?
このことが現時点で見えてきません。
--
もう一つ重要な議論は量子もつれです。
量子もつれは空間的に離れた量子状態を持つ物体が互いに干渉します。
一方の量子状態で基底状態の0になった時に、
離れた物体も基底状態の0になる現象です。
量子もつれを成立させるためには
このような干渉、もつれ発生時に
エネルギー交換や接触など量子相関を持つ必要があります。
例えば、非線形結晶にレーザー光をあて、
2つに分離した光子はこうした強い量子相関を持つため、
その後、それらの量子情報が保護されれば、
場所に依存することなく、両者の量子情報は互いに干渉します。
これが、非常に古典物理では不可解な事です。
このような光子をベースにした量子もつれは
144km離れたところで確認されています(5)。
2017年の報告では衛星をベースにして1203km離れたところで確認されました(6)。
--
こうした量子もつれは例えば、量子暗号に使う事ができます。
光を非線形結晶に当てるとその光の波長が分割されて
それよりもエネルギーの低い2つの光に分離されます。
偏光、位相、軌道角運動量、位置や運動量、時間や周波数、光子数
これらは量子状態として定義できます。
ダウンコンバージョンされた2つの光がもつれている場合、
離れた位置で光子の情報を受け取る2人の受信者の
どちらかが古典的な測定によって量子状態を決定した場合、
その決定によってもう一人の受信者の量子状態も
量子もつれによって決定されます。
それが少なくとも部分的に一致するため、
その一致した上述した光の特性が暗号キーとして利用できます。
この暗号キーは誰かがそれらの通信を盗み見て解析をすれば、
その時点で量子状態が壊れる為、
こうした量子もつれは観測されなくなります。
従って、盗聴を受けたかどうかがわかります。
これは量子力学的に絶対的な現象なので
極めてセキュリティーの高い通信が原理的に可能になります。
一方で、
量子テレポーテーションは
手元にある量子情報をもつれた2つの量子状態を使って、
双方の受信者間で移動できることが可能になります。
一方で、もつれた量子情報と手元にある量子情報の間でベル測定を行い、
そのベル測定の結果を一方に古典的な方法で伝えます。
そのもつれた光に対して伝えられた量子情報に従って、
量子的な操作を行う事で元々、情報元となる受信者が持っていた
量子情報が再現できます。
従って、量子情報の移動がもつれた量子状態と
ベル測定の結果の共有によって可能になります。
これにより量子情報の通信が可能になりますが、
この場合の通信速度は古典的な限界(光速)を超える事ができません。
なぜなら古典的な連絡が必要だからです。
しかし、通常は難しい量子情報の位置、時間的な移動が可能になります。
これは量子情報が物理的に移動するのではなく、
量子情報が離れた位置、異なる時間ポイントで再現されるということです。
--
ボース粒子である光子の場合には、レーザー光のように
波長、位相、偏光などが一致している複数の光子群を持つ事が出来、
微妙な違いはあるかもしれないですが、
おそらく原理的には同じ量子状態をとることができます。
しかし、実際にこういった複数の光子を非線形結晶に当てて
ダウンコンバージョンして量子もつれを発生させた場合の
異なる角度に散乱した2つの光子は
波長、位相、偏光などの状態が全く同じになる事は少ないです。
それがお互いに古典的な測定をしたときに
結果において相関を持つという事です。
例えば、光の垂直、水平方向という偏光が量子ビットの0,1に割り当てられる時
その確率分布は当然、量子もつれにある2つの光子において
異なる複素数、状態ベクトルを持ちますが、
量子相関がある場合には、通常、ランダムに結果が出るところ、
片方の結果に影響受けて、一致するということです。
従って、片方が垂直方向の偏光という結果でしめされれば 
もう一つもその影響を受けて垂直方向になるということです。
この相関が光速を超えて、瞬時に生じる事が
古典物理からすると非常に不可解なところです。
但し、これは量子情報を光速を超えて、伝搬させる事ができる
ということを示すものではありません。
あくまで量子状態の結果が相関があるというだけです。
--
最後に量子AIについて考えます。
量子コンピューターを理解するのはかなり難解であり、
コーディング、つまり、アルゴリズムをどうやって構築するかを
完全に理解する事はさらに難解です。
量子状態というのは0と1の重ね合わせですが、
どういった確率で0と1をとるかは時間に対して一定ではなく、
常にふらふら動いています。
その複雑な揺らぎは複数の波の足し合わせとして表現でき、
フーリエ変換によって、
一定の周波数で0と1のどちらかを選ぶ確率のゆらぎを持つ
複数の量子状態の重ね合わせとして分離する事ができます。
これを量子フーリエ変換といいます。
量子AIでは一定の周波数で確率的な揺らぎを持つ量子状態を
情報として特別とみなし、強化学習をすることが考えられます。
量子コンピューターの基本的なアルゴリズムがまだ発展途上なので
未確定な部分があり、厳密に現時点で定義できませんが、
量子コンピューターとして扱う量子ビットの情報として
量子AIへの適用を考えると
このような確率振幅の周波数の特性に対して
情報としての特別性、特異性を与える必要がありそうです。


(参考文献)
(1)
National Oceanic and Atmospheric Administration
What is Ocean Acidification?
(2)
Stephanie Dutkiewicz, J. Jeffrey Morris, Michael J. Follows, Jeffery Scott, Orly Levitan, Sonya T. Dyhrman & Ilana Berman-Frank 
Impact of ocean acidification on the structure of future phytoplankton communities
Nature Climate Change volume 5, pages1002–1006 (2015)
(3)
Stephen Barker & Andy Ridgwell
Ocean Acidification
The Nature Education
(4)
National Oceanic and Atmospheric Administration
Quality of pH Measurements in the NODC Data Archives
(5)
R. Ursin, F. Tiefenbacher, T. Schmitt-Manderbach, H. Weier, T. Scheidl, M. Lindenthal, B. Blauensteiner, T. Jennewein, J. Perdigues, P. Trojek, B. Ömer, M. Fürst, M. Meyenburg, J. Rarity, Z. Sodnik, C. Barbieri, H. Weinfurter & A. Zeilinger 
Entanglement-based quantum communication over 144 km
Nature Physics volume 3, pages481–486 (2007)
(6)
Juan Yin , Yuan Cao, Yu-Huai Li, Sheng-Kai Liao, Liang Zhang , Ji-Gang Ren, Wen-Qi Cai, Wei-Yue Liu, Bo Li, Hui Dai https://orcid.org/0000-0001-7469-8745, Guang-Bing Li, Qi-Ming Lu, Yun-Hong Gong  Yu Xu , Shuang-Lin Li , Feng-Zhi Li, Ya-Yun Yin, Zi-Qing Jiang, Ming Li , Jian-Jun Jia, Ge Ren, Dong He, Yi-Lin Zhou, Xiao-Xiang Zhang, Na Wang , Xiang Chang, Zhen-Cai Zhu, Nai-Le Liu, Yu-Ao Chen  Chao-Yang Lu , Rong Shu, Cheng-Zhi Peng  , Jian-Yu Wang  , and Jian-Wei Pan 
Satellite-based entanglement distribution over 1200 kilometers
Science vol.356 issue.6343 pp.1140-1144

0 コメント:

コメントを投稿

 
;