【前へ】

第2章 米国のハイエンドコンピューティング研究開発動向

2.3 ハイエンドコンピューティング分野の新しい動向
― 実用化に向かう超並列、超分散コンピューティング ―

2.3.1 SC2001に見る動向

  ハイエンドコンピューティング関連の最大のコンファレンスは、毎年11月に開催される、正式名称をSCxxxx High Performance Networking and Computingというスーパーコンピューティング・ショーであり昨年のSC2001は左記の通り開催された。(参照http://www.sc2001.org/)テーマは“Beyond Boundariesモであった。
SC2001
Denver, CO
November 10-16, 2001

 SC GlobalといってAccess Gridのテクノロジを利用した遠隔会議による参加も初めて行われ、世界40カ所以上と接続された。同時にGrid2001が特別ワークショップの形で丸1日開催された。展示会場でもSUNの“Sun Powers the Gridモなるキャッチフレーズ等Gridにあやかった展示が多く見られ、SC2001の主役はGridの感が強かった。
 基調講演はゲノム塩基配列の解析を国際チームに先立って2001年に終了したセレラ・ジェノミックス社のCEOクレッグ・ベンター博士であった。バイオインフォーマティクスは今や、ハイエンドコンピューティングのアプリケーション分野のトップに踊り出した感がある。コンピュータパワーを駆使したショットガン方式が成功を収め、一説では、世界中のコンピュータパワーを集めてもまだ足りないとも言われている。
 SC2001の前日11/9に発表されたTop500(18th版)においても超並列マシンASCIが上位を独占し、近年PCクラスタもその順位をのばしておりハイエンドコンピューティングの流れはますます超並列、超分散化が加速している。今回、テロの影響もあり日本のベクトル型コンピュータは地球シミュレータ、富士通、日立が参加取り止めた為、更に印象が際だった気もする。付表1〜3に世界のTop20、世界のクラスタTop20、日本のTop20を載せた。
 なお、SC2001の報告については恒例になった東大小柳教授のレポートが詳しいので御参照ください。
http://olab.is.s.u-tokyo.ac.jp/~oyanagi/reports/SC2001
 次回SC2002は第15回目であり下記となる

SC2002
Baltimore, MD
November 16-22, 2002

 参照サイトは http://www.sc-conference.org/SC2002/
 テーマは“From Terabytes to Insights”となっており、大規模データの処理が重要テーマに上がっている。

2.3.2 超並列コンピューティング

(1)TOP500にみる超並列マシン
 SC2001と同時に発表されたTop500(参照サイト:http://clusters.top500.org/ )によると超並列マシンが上位を占める、特に近年はASCIマシンの独壇場であった。Top1は昨年と同様のASCI Whiteである。(実行性能は昨年の4.9 Tflopsから7.2Tflopsに向上しているが構成は同じ)表2.3にTop5を示す。第2位にクラスタシステムが入って来ているのが注目すべき流れ。

表2.3 Top 5 世界のハイエンドコンピュータ
順位 メーカ マシン Rmax
(GFlops)
設置場所 CPU数
1 IBM ASCI White,SP Power3
375 MHz
7226 Lawrence Livermore National Laboratory 8192
2 Compaq AlphaServer SC ES45/1 GHz 4059 Pittsburgh Supercomputing Center 3024
3 IBM SP Power3 375 MHz 16 way 3052 NERSC/LBNL 3328
4 Intel ASCI Red 2379 Sandia National Labs 9632
5 IBM ASCI Blue-Pacific SST,IBM SP 604e 2144 Lawrence Livermore National Laboratory 5808

(2)Peta Flopsを目指すBlue Geneプロジェクト
 従来、IBMが独自に開発を進めていたBlue Geneプロジェクトであるが、2001年11月にDOE/NNN(Lawrence Livermore National Laboratoryが対応)と共同開発を進めることを発表した。2005年に200Tflopsを目指す。
 http://www.research.ibm.com/bluegene/BG_External_Presentation_January_2002.pdfに詳細計画が紹介されている。図2.2に構成概念図を示す。


図2.2 Blue Bene/Lの構成概念図

 現在最速のスーパーコンピュータ(Option Whiteか)に比べて性能では15倍速く、電源容量は1/15、大きさは1/50から1/100と豪語している。このあと更にBlue Gene計画は1Peta Flopsを目指す。(規模縮小したとの声も有るが定かではない)
 このBlue Gene計画はASCI計画と合体したことになり、IBMは国家予算の後ろ盾を付けたことになる。日本も対抗が必要と思うが、地球シュミレータ計画の後のハイエンドコンピュータのビッグプロジェクトは無い。

(3)ベクター型超並列マシン“地球シミュレータ”
 ベクター型プロッセサを超並列に利用し40Tflopsと汎用スーパコンピュータ世界一の性能を叩き出す地球シュミレータが横浜市の海洋科学技術センター内に2002年3月末に完成した。次回(2002年6月)19th版のTop500で第1位が期待される。詳細はプロジェクトに当初より関わっている本WGの横川委員、妹尾委員の3章の報告書に詳しいので参照下さい。
今や、ベクター型は日本しか作っておらずトレンドから外れた感もあるが地球シミュレータの実績如何では、見直しの可能性もある。(がんばれ日本のスーパーコンピュータ!)

(4)専用スーパコンピュータ
 汎用のスーパコンピュータのコスト、性能の壁を破るべく特定分野に特化した、専用スーパコンピュータの分野も性能向上がめざましい。SC2001でも東大の重力多体シミュレーション専用のGrape6は11.55Tflops(ピーク性能32Tflops)を達成し昨年に続きゴードンベル賞(Peak Performance部門)を受賞した。更に2002年3月5日にはピーク性能48Tflopsを達成し世界最高速となったと発表した。なお専用マシンの低コストについては“GRAPE-6 の開発総予算はわずか 5 億円であり、400億といわれる ASCI White の約 1/100 でしかない”と紹介されている。
 参照サイト:http://grape.astron.s.u-tokyo.ac.jp/pub/people/makino/press/2002-symposium.html

2.3.3 クラスタシステム動向

(1)Top500に見るクラスタシステムの増加
 今回はTop10で見ても2台のクラスタシステムがランクインした。従来はミドルクラスを占めていたがハイエンドの世界でも民生の部品を応用したクラスタシステムの流れが押し寄せてきている。専用部品を使用したスーパーコンピュータに対するコストパフォーマンスの良さが一番の原因であろう。表2.4に世界のTop5を示す。チップの種類を見るとCompaq社のAlphaチップがほぼ上位を独占している。

表2.3 Top 5 世界のハイエンドコンピュータ
順位 Top
500
メーカ マシン Rmax
(GFlops)
設置場所 CPU数
1 2 Compaq AlphaServer SC ES45/1 GHz 4059 Pittsburgh Supercomputing Center 3024
2 6 Compaq AlphaServer SC ES45/1 GHz 2096 Los Alamos National Laboratory 1536
3 30 Self-made CPlant/Ross Cluster 706.7 Sandia National Laboratories
Australian Partnership for
1369
4 31 Compaq AlphaServer SC ES45/1 GHz 706 Advanced Computing (APAC) 480
5 34 IBM Titan Cluster Itanium 800 MHz 677.9 NCSA 320

(注)本表はTop500サイトでComputerクラスをCluster分類でソートしたもの。

(2)世界最速のクラスタマシン
 PSC( Pittsburgh Super Computing Centerに設置されたCompaq社の民生Alphaチップを使用しており、概略仕様は下記。2001年より稼働。 NSFのPACI(Partnership for Advanced Computational Infrastructure)を通して研究開発に共同利用される。

Alphaチップ:3024個
ピーク性能:6.0 Tera flops
メモリ:3.0 Tera Bytes
ディスク:50 Tera Bytes
図2.3 PSCに設置の世界最速クラスタ

 参照サイト:http://www.psc.edu/publicinfo/news/2001/terascale-10-01-01.html

(3)日本のクラスタ動向
 ところで日本のクラスタは今のところ世界の第6位であり、お台場の生命情報科学研究センタ(CBRC)が利用しているNEC製のクラスタMagi Cluster(Pentium3,933Mh)である。(世界のクラスタTop20については付表3参照)
 なお、日本でもPCクラスタコンソシアムが2001年10月発足しており、産官学共同の促進が始まった。新情報処理開発機構(RWCP)が開発したSCoreクラスタシステムソフトウエアおよびOmni OpenMPコンパイラが中核となっている。
 参照サイト:http://www.pccluster.org/

(4)InfiniBand
 ベオウルフ型クラスタを構成する民生ネットワークとしてはGigaBit Ether, Myrinet等が使用されているが、最近InfiniBandが注目を浴びている。ネットワーク性能としては単線の2.5Gbitを1本/4本/12本で各 2.5 G bits, 10 G bits, and 30 Gbits/秒の速度を提供する。Compaq, Dell, Hewlett-Packard, IBM, Intel, Microsoft and Sun Microsystems が主体になって1999年10月にInfiniBand Trade Associationを設立し,2000年10月に標準仕様を策定している。(これだけの利害関係のある、企業がうまく仕様を合意できるか心配であるが。)
 参照サイト:http://www.infinibandta.org/ibta/
 本WGにおいても、米国でInfiniBand関連ハードウエア主体のベンチャ企業RedSwitch社のCEO Dr.Wen Leeにご講演を頂いた。米国ではInfiniBand関連の企業化が始待っている。参照サイト:http://www.redswitch.com/
 現在,InfiniBAnd関連の製品は、量産化されておらずサンプル価格的なものが多いが、今後の市場拡大と価格の低下が期待される。

2.3.4 超分散コンピューティング

(1)Gridコンピューティング
 SC2001の展示会でも分かるように、Gridコンピューティングへの流れが加速している。
世界中のコンピュータを繋ぎコンピュータ資源を有効に活用しようと。ハイエンドコンピューティングの世界でも超並列を持ってしても単独のコンピュータセンタでは物理的、経済的にも制限がある。まずスーパコンピュータセンタを高速ネットワークで接続し仮想的研究所を構築する構想から始まっている。ASCI等の超並列コンピュータ自体もその一つのノードになる。ASCI Grid Serviceという広報用CDもSC2001では用意されていた。ASCIの超高速コンピュータもポータルの一つになるのだ。
 主に計算能力資源を活用するComputational Grid, ネットワークを介してマルチメディア情報をやりとりし遠隔会議を実現するAccess Grid、大規模な高エネルギー物理のデータを扱うEU連合のData Grid等多くのプロジェクトが世界的に行われている。
 ただしGridはまだ公式な標準が有るわけではなく、デファクトスタンダードの世界である。ソフトウエア・ツールキットとしてはGlobusがデファクトの位置を確立している。
 今後この流れは、研究開発向けから一般ビジネスの世界に広まるのは必至であろう。
 なお本WGの招待講演者出もある産総研の田中氏が展示者としてSC2001に参加し、3章に状況を詳細にレポートして頂いているので参照下さい。また昨年の当WG調査報告書に関口委員(産総研)の報告“Gridによる世界戦略とグローバルコンピューティング技術”で動向が分かり易く紹介されているので併せてご参考下さい。

(2)Tera Grid計画
 世界最大、最高速の分散ネットワーク環境を構築すべく、NSFから$53M資金提供を受け、4つの研究所(NCSA, Argonne, Caltech, SDSC)を光ファイバ高速バックボーンネットワーク(40Gbits)で結ぶ。完成時には13.6TeraFlopsのLinuxクラスタコンピュータパワーと450TeraBytesデータ容量と高精細のAccess Grid環境が提供される。
 参照サイト:http://www.teragrid.org/index.html


図2.4 4つの研究所を結ぶTera Gridバックボーンネットワーク
参照サイト:http://www.teragrid.org/img/teragrid.sm.jpg

IBM, Intel, Qwest社が企業として参加しており、64Bit Itaniumチップを320個用いたIBM製のLinuxクラスタマシンが2001年10月からテストを開始した。
日本では、Top100スーパコンピュータのうち6台が集中する、世界でも有数なつくば地区に“つくばWAN”が完成し2001年3月22日に開通式を行った。ネットワークは10Gbpsの光ループが使われている(総容量は570Gbps)。当初はつくば地区にとどまっているが、今後地球シミュレータはじめ全国の大学、研究所間の接続が検討されている。

(3)ベンチャ企業動向
 Gridコンピューティングが研究開発分野で注目を浴びる中、Grid関連で興味深い企業化が進行している。SC2001等で目に付いた企業をあげる。

2.3.5 量子コンピュータの動向

 IBM研究グループは2000年8月に5量子ドットの実験に成功した後、IBM Almaden研究センターとスタンフォード大学は共同で7量子ドットの量子コンピュータにて15=3x5の因数分解に成功と2001年12月20のNature誌に発表された。
 これは試験管に入れられた特別な分子を核磁気共鳴装置の核スピンの傾きを制御し計算を行うことで実現した。
 これは、1994年に当時AT&T社のShor氏が唱えたShorのアルゴリズム(量子コンピュータは今日の汎用コンピュータに比べて圧倒的なスピードで因数分解を計算できる)の初めての実験による証明になった。


図2.5 量子ビットを構成する核スピン
参照:http://www.research.ibm.com/resources/news/20011219_quantum.shtml

 研究は一歩一歩に進んでいるが、SC2001の展示でも、量子コンピュータ、分子コンピューティングはパネル展示の原理の解明段階であり目立ったアッピールはしていない。実用になる量子コンピュータの実現はまだ長期の研究開発が必要である。米国は長期研究テーマである新しい計算基盤に向けて研究開発投資を怠りなくやっている。

2.3.6 超並列、超分散を容易に開発できるソフトウエアの研究開発動向

 FY2001よりPITACのソフトウエアの生産性に対する憂慮からの勧告に従い、IT R&D計画にSDP(Software Design and Productivity)プログラムコンポーネントエリアが新設された。FY2002 Blue Bookでも研究チャレンジ “現実世界のためのソフトウェア作成”にて重要テーマにあげている。目標としては次がある。
(1)ソフトウェアとシステム設計の科学
 − 言語とコンパイラ、例えば、エンドユーザのためにソフトウェアの仕様と開発を容易にするドメイン専用言語、ならびに使用は容易だが誤りを生じにくい言語。
ソフトウェアとシステムを構成する効果的な方法、すなわち複雑なシステムを構成し、分析し、検証し、広範囲にわたって分散された異種システム上で相互運用可能にするためのより優れた技術
適応性があり、かつ反射性のコンポーネント、構成のフレームワークとミドルウェア、拡張可能分散型ソフトウェア・システム構築の理論的基礎
(2)工学的プロセスの自動化
 − 分散、自律、組込み型ソフトウェアの開発のための技術を含み、開発時間を短縮し、信頼性を向上させるソフトウェア・コンポーネントを組合せる方法。ソフトウェア開発の自動化
ソフトウェアと物理システムを仕様化し、分析し、試験し、検証する、統合ソフトウェアとシステム開発プロセス
ネットワーク・アプリケーションの相互運用性
統合されたドメイン専用開発環境の迅速な構成とカスタマイゼーションを可能にする統合された構成可能ツール環境
(3)パイロット・アプリケーションと実験による評価
 − 組込み型ソフトウェア・アプリケーションとその他の複雑なアプリケーションのための技術
ソフトウェアとシステム開発プロジェクトの実証的研究
 研究課題の中には超並列、超分散を意識した研究開発内容が多々見られる。
 単体によるハードウエア高速化の限界の打開が超並列、超分散に向かっているので、ハードウエアの困難さ以上にソフトウエアにその負担が大きくふりかかってきている。特定の分野(粗な結合で超並列、超分散でも性能が出やすい所)では実用になっているが、これを汎用コンピューティングの世界に向けて実用化するには更に長期の研究が必要である。

(若杉 康仁 幹事)

【次へ】