コンピューターの高性能化は熱との戦い
ノートパソコンを膝の上に乗せれば、携帯型の暖房器具にもなって寒いオフィスではありがたい。しかし、大きなデスクトップマシンとなれば、冷却ファンが必要になる。Google社クラスの巨大なデータセンターになると、マシンに大量の冷却水を流す必要がある。また最先端のスーパーコンピューターでは、いかにして素子の融解を回避するかがカギとなっている。
例えば、ライプニッツ・スーパーコンピューター・センター(ドイツ、ミュンヘン)の世界最高クラスのコンピューターは、3ペタフロップスで動作するが、それに伴って発生する熱は、センターの建物の暖房に一部が利用されている〔ペタは1015、フロップス(FLOPS:floating point operations per second)は1秒間に行える浮動小数点演算の回数のこと。3ペタフロップス・コンピューターは、1秒間に3×1015回の演算ができる〕。このままいけば、次世代のエクサフロップス・マシン(エクサは1018)は、小規模な原子力発電所の出力に匹敵する数百メガワットの電力を消費し、そのほとんどすべてが熱に変わってしまうだろう。
発熱は、コンピューターの進歩を阻む最大の課題として、重要性を増している1。問題は根深いところにある。回路をより小型化し、より高密度に実装するほど、高温になってしまうのだ。パデュー大学(米国インディアナ州ウェストラファイエット)のコンピューターエネルギー管理の専門家であるSuresh Garimellaは、「大雑把に言うと、今日のマイクロプロセッサーからは、太陽の表面に匹敵するほどの熱流速が発生しているのです」と言う。「マイクロプロセッサーが正常に機能するためには、冷却して温度が100℃以下になるようにしなければなりません」。
どんどん困難になる目標を達成するため、エンジニアたちはチップの周囲に空気を循環させる代わりに、冷却液をポンプで直接送り込むなど、新しい冷却法を模索している。より根本的な解決策として、回路の実装法を工夫して熱流束を減らす方法も研究している。例えば、回路を二次元(2D)基板上に作るという制限を外して、脳の構造をヒントにした3Dグリッドやネットワーク状に配置すれば、特殊な冷却装置がなくても膨大な量の演算を実行できるかもしれない。ひょっとすると、将来のスーパーコンピューターは、導線を通ってくる電流さえ必要とせず、冷却液の流れの中のイオンによって電気化学的に電力を供給する方式となるかもしれない。
電子デバイスの小型化と高速化が注目されるのに比べれば、コンピューターの発熱は地味な問題だ。しかし、エンジニアがこの問題を解決できないかぎり、小型化も高速化も無価値になってしまうのだ。
さまざまな冷却法
発熱の問題は、コンピューターとほぼ同じ長い歴史がある。最初の近代コンピューターはENIACと呼ばれる重さ30tのマシンで、第二次世界大戦末期にペンシルベニア大学(米国フィラデルフィア)で建造された。ENIACには1万8000本もの真空管が使われていたため、多数のファンを並べて冷却しなければならなかった。1960年代に固体シリコン素子へと移行し、一時的に発熱の問題は解決した。
しかし、デバイス密度が高くなってくると、再び冷却が必要になった。1990年代初頭には、それまでの「バイポーラー」トランジスターからCMOS(相補型金属酸化物膜半導体)デバイスへ置き換わり、デバイス当たりの電力散逸が大幅に低下して、発熱の問題は再び解決した。しかし、「ムーアの法則」が示すように、チップレベルの計算能力は18か月ごとに約2倍となるため、再び発熱の問題が出てきた2(「上昇する温度」参照)。今日のマイクロプロセッサーの中には、10億個以上のトランジスターから熱を汲み出さねばならないものさえある。典型的なデスクトップマシンに入っているチップからの熱を、すべて単純に真空中に放射するとしたら、内部の温度は数千℃にもなってしまうだろう。
SOURCE: REF. 3
だから、デスクトップコンピューターと一部のラップトップマシンには、冷却ファンが付いているのだ。チップで温められた空気は対流によっていくらか熱を持ち去るが、それだけでは十分でない。冷却ファンで十分な量の空気を循環させて、マシンが正常に稼働できる75℃程度に温度を保っているのだ。
しかし、冷却ファンも電力を消費する。ラップトップマシンでは、バッテリーを余計に消耗させることになる。また、データセンターにずらりと並ぶコンピューターを冷却するにはファンだけでは足りないことも多く、高温のチップの上を流れる空気を、熱交換器に通して冷却している。
さらに大型のマシンになると、思いきった対策が必要だ。IBMチューリッヒ基礎研究所(スイス・リュシュリコン)の先端熱パッケージンググループ長であるBruno Michelは、「最先端のスーパーコンピューターを冷却するには1日当たり数km3もの空気が必要です」と説明する。これは非現実的なため、コンピューター技術者たちは、空気の代わりに液体を利用して冷却する仕組みを考えねばならなくなったのである3。
水冷式コンピューターはすでに1964年から市販されており、1980年代と1990年代には、数世代にわたって水冷式の大型汎用コンピューターが作られた。今日では、水の代わりに反応性の低いフルオロカーボンなどを冷却液として使うこともあり、これらがチップにじかに触れているケースも多い。つまり、冷却液が沸騰してチップから出る熱を吸収し、その蒸気で熱を運び去る訳だ。その他、液体スプレーを使ったり回路を冷凍したりするシステムもある。
IBMが建造したライプニッツ・スーパーコンピューター・センターのSuperMUCは、2012年から稼働を始めた。この3ペタフロップス・マシンは、世界で最も強力なスーパーコンピューターの1つであり、水冷システムを備えているが、その水は温かく、約45℃もある。CPUの上には特注の銅製ヒートシンクが設置されていて、温水はこのヒートシンクに刻まれたマイクロチャネルを通って送られる。つまり、システムの中で最も冷却を必要とする部分を、集中的に冷却している訳だ。ここで温水を利用するのは奇妙に思われるかもしれないが、この方法では、冷却システムから出てくる熱水を再びシステムに戻すため、あまり冷やさないでよく、ほかの冷却法に比べて消費するエネルギーが少なくてすむ。また、出てくる熱水を近隣のオフィスビルの暖房に利用することで、さらなる省エネにつながっている。
MichelとIBMの同僚らは、水の流れは、熱を運び去るだけでなく、回路に電力を供給することも可能にすると考えている。冷却液に溶けたイオンが電極上で電気化学反応を起こし、この電極がエネルギーを収穫するようなシステムを作ればよいのだ。こうすると、冷却液は事実上、電解液「燃料」としての役割も果たすことになる。ジョージア工科大学(米国アトランタ)の機械工学者Yogendra Joshiによると、このアイデアは別段新しいものではなく、「航空機エレクトロニクスの熱管理では以前から利用されています」と言う。航空機の電子機器は、ジェット燃料を使って冷却されているのだ。
電解液の流れを利用して電力を送り届ける技術は急激に進歩している。例えば、レドックスフロー・バッテリーというタイプの燃料電池では、1つの電気化学セル内で、ポンプで送り込まれた2種類の電解液が、イオン交換膜を隔てて収納されている。ここで起こる酸化還元反応(レドックス「redox」とは、還元と酸化を意味する「reduction-oxidation」を短縮した言葉である)により、電解液中のイオンの間で電子がやりとりされるが、電子は外部の回路を通って移動しなければならないため、これによって生成したエネルギーを電力供給に利用できる訳だ。
カギを握るマイクロ流体技術
レドックスフロー電池は、マイクロ流体技術、すなわち、シリコンのような基質をエッチングして顕微鏡サイズのチャネルを作り、そこに流体を流す技術によって、小型化することができる4。そのような小さいスケールでは、2種類の流体は混ざり合うことなくお互いをすり抜けて流れることができるため、両者を隔てる膜は不要になる。この単純化は、電池の製作をより容易かつ安価にするだけでなく、シリコンチップ技術とも両立する。
Michelらは、バナジウムイオンを使ったレドックス反応を利用して、マイクロプロセッサーに電力を供給するマイクロ流体セルの開発に着手した。電解質を送り込むためのマイクロチャネルの幅は100~200µmで、チップの周囲に冷却液を流すためのチャネルとよく似ている。チャネル沿いには間隔を置いて電極が並んでいて、電極が収穫した電力は、普通の導線で個々のデバイスに分配される。予備的な実験結果が、2012年8月にプラハ(チェコ)で開催された国際電気化学会の会合で発表された5。
しかし、この方法で実際の回路に電力を供給できるようになるのはまだまだ先のことだ。現時点のマイクロ流体レドックスフロー電池の電力密度は、電圧1ボルトで1ワット/cm2未満である。これは、今日のマイクロプロセッサーを動かすのに必要な電力密度より2〜3桁小さい。けれどもMichelは、将来のプロセッサーははるかに小さい電力で動くようになるだろうと考えている。彼によると、従来の導線は抵抗による発熱のために、運んでいるエネルギーの半分近くを失っているが、マイクロ流体電気化学電池で電力を供給することで、電力損失を半減できるという。
目標は脳
電気化学的な電力供給よりもっと多く、プロセッサーの熱散逸を低減させる方法がある。それは、チップから発生する熱の大半が、トランジスターのスイッチングではなく、トランジスターの間で信号を運ぶ導線の抵抗によって発生している事実に着目した方法だ。これは、「論理回路」ではなく「足回り」に問題があることを意味している。1990年代末、トランジスターの大きさが約250nmであった頃には、「論理回路」と「足回り」による熱散逸の大きさは、ほぼ半々だった。けれどもMichelは、今日では、「導線によるエネルギー損失は、スイッチング損失の10倍以上も大きいのです」と言う。「情報が届くのを待つ間、すべての部品が動作し続けていなければならないので、実際には、データ転送による電力損失は全体の99%を占めていることになります」。
このような理由から、「情報伝達に伴う損失によって性能と効率が著しく損なわれる伝統的なチップのアーキテクチャーに、今、産業界は背を向けつつあります」とGarimellaは言う。解決策は明らかなように思われる。情報を運ぶ電気パルスが論理演算の間に進まなければならない距離を、短くすることだ。2Dチップ上に実装されたトランジスターの密度は、すでに上限に達している。そこで、二次元的に並べる代わりに三次元的に積み重ねることができれば、データ転送の間のエネルギー損失を大幅に減らせるはずだ。その結果、データ転送も高速化する。「チップの寸法を1/10にすることができれば、導線によるエネルギー損失を同じだけ小さくすることができ、情報は10倍の速度で届くようになります」とMichelは言う。彼は、未来の3Dスーパーコンピューターは角砂糖程度の大きさになるだろうと想像している。
3D実装は、どのような形になるのだろうか? Michelは「よりよい情報伝達アーキテクチャーの例を探さなければなりません。その一例がヒトの脳です」と言う。脳には過酷な任務が課されている。平均すると、ヒトの神経組織の単位体積当たりの消費エネルギー量は、ほかの組織のざっと10倍にもなる。これは、オリンピックの陸上選手の大腿四頭筋のエネルギー要求量より多い。脳は、体積では人体のわずか2%しか占めていないが、全身の20%以上のエネルギーを必要とする。
それでも、脳はコンピューターに比べるとすばらしく効率がよく、消費エネルギー1ジュール当たりの計算回数は5〜6桁も多い。脳のアーキテクチャーがその効率の高さの一因になっているとMichelは信じている。脳の回路はグリッド状ではなく、三次元的な、階層化された相互接続ネットワークになっている。
スマートな構造
このアーキテクチャーは、脳がスペースを有効利用するのに大いに役立っている。コンピューターの体積比較をすると、マシンの全体積の96%が熱輸送に使われていて、情報伝達に使われるのは1%、トランジスターやそのほかの論理デバイスのために使われるのは、なんと100万分の1%でしかない。これに対して、脳はエネルギー供給と熱輸送のためにその体積の10%しか使っておらず、情報伝達に70%、計算に20%を使っている。
さらに、脳の記憶モジュールと計算モジュールは近接した位置にあるため、ずっと前に格納されたデータも瞬時に想起することができる。一方、コンピューターの記憶モジュールと計算モジュールは離れているのが普通である。「コンピューターのアーキテクチャーをもっとメモリー中心型にしないかぎり、想起スピードの遅さを解消することはできないでしょう」とMichelは言う。3D実装が可能になれば、個々の構成要素をもっと近づけることができる。
Michelはこうした理由から、コンピューターを3D実装する場合、脳の階層的なアーキテクチャーを模倣してみる価値があると考えている6。そのような階層性は、現在提案されているいくつかの3Dデザインの中にすでにある。例えば、マイクロプロセッサー・チップを重ねたもの(チップ上で、トランジスターを配線して複雑なネットワークを作ることができる)を、タワー型に積み上げて回路基板上で相互に連結し、これらをさらに積み重ねて、垂直方向の情報伝達を可能にするのだ。その結果、どのスケールでも同じに見える「規則正しいフラクタル構造」ができる。
Michelは、3D実装が可能になれば、原理的には、二次元アーキテクチャーをもつ現行のコンピューターに比べて体積は1/1000になり、消費電力は1/100になると推定している。しかし、脳のような「生物工学的」実装構造を導入すれば、必要な電力はさらに約1/30になり、体積はさらに1/1000になるという。発熱も減少するので、現在は小さい倉庫を占拠するほどの大きさがある1ペタフロップス・コンピューターを、10リットル(縦横高さが約22cm)まで小さくすることができるだろう。
コンピューター技術者がゼタフロップス・コンピューティング(ゼタは1021)という途方もない高みをめざすなら、脳のような構造が絶対に必要である。今日のアーキテクチャーでは、そのようなマシンはエベレストより大きくなり、現在の世界全体で消費される電力より多くの電力を消費するものになる。ゼタフロップス・コンピューティングをどうにか可能にしそうな方法は生物工学的実装しかない。Michelらは、そのような革新により、2060年頃には、能力はともかく、コンピューターの効率はヒトの脳に並ぶだろうと信じている。それがどんなものになるのか、考えてみる価値はあるかもしれない。
翻訳:三枝小夜子
Nature ダイジェスト Vol. 10 No. 3
DOI: 10.1038/ndigest.2013.130320
参考文献
- Garimella, S. V. et al. IEEE Trans. Components Packaging Technol. 31, 801-815 (2008).
- Chu, R. C., Simons, R. E., Ellsworth, M. J., Schmidt, R. R. & Cozzolino, V. IEEE Trans. Device Mater. Reliability 4, 568-585 (2004).
- Ellsworth, M. J. et al. ITHERM 266-274 (2008).
- Shaegh, S. A. M., Nguyen, N.-T. & Chan, S. H. Int. J. Hydrogen Energ. 36, 5675-5694 (2011).
- Ruch, P. W., Rapp, T., Schmidt, T. J. & Michel, B. Studies of power density in microfluidic redox flow cells. Abstract presented at the 63rd Annual Meeting of the International Society of Electrochemistry (2012).
- Ruch, P., Brunschwiler, T., Escher, W., Paredes, S. & Michel, B. IBM J. Res. & Dev. 55, 593-605 (2011).
関連記事
キーワード
Advertisement