【前へ】

 

2.3 ペタフロップスイニシアティブ (Petaflops Initiative)の動向

2.3.1 ペタフロップスイニシアティブの活動状況

 Petaflopsの性能を有するコンピューティングシステムの研究開発検討は、1991年、Purdue大学で開催されたHPCCのグランドチャレンジに関するワークショップに始まり、関連ワークショップ、シンポジウムが毎年開催されてきた。この活動を先導してきたのは、NASAを始めとする NSF、 DOE、 DARPA、 NSA 、BMDO(Ballistic Missile Defence Organization)という、高度コンピューティングシステムを最も必要としている省庁によって推進されるペタフロップスイニシアティブである。

 ペタフロップスコンピューティングに関する研究開発は、1996年前半まではペタフロップスイニシアティブの活動の範囲を出ていなかった。しかし、1996年中にはNSFのPoint Design StudyのAwardが発表され、CIC委員会予算編成時(1996年末)の幹部のプレゼンテーションなどでワークショップ開催などの実績を強調し始めていた。1997年11月に出されたBlue Bookでは、ついに、HECC(CIC)プログラムのターゲットとして明記されるようになり、さらに、前出のPetaflops Algorithms Workshopの報告がNCO(CIC国家調整室)ホームページに直接掲載されるようになった。ペタフロップスイニシアティブの活動を集約したPETAホームページがNASAに設置されているが、NCOとの関連は単にリンクが張られていたのみであった。今回の直接の掲載は、HECCにおいて、本格的に軸足が変わった証だと考えられる。

 公表された活動として、選ばれた専門分野をターゲットとしたワークショップが開催されており、システムソフトウェア、アーキテクチャ、アルゴリズムに関するワークショップが以下のように開催されている。

 

 また、シンポジウムとして、1996年に第6回超並列処理フロンティアシンポジウム(Frontiers’96、IEEE)が開催されているが、1997年には開催されなかった。 次のFrontiers’98は、1998年11月にAnapolisにて開催される模様である。

 一方、NASAのSaini氏によると、”Enabling Technologies for Petaflops Computing” の第2版が近々出版される予定である。

 研究テーマへの具体的な連邦予算適用は、前出のNSF Point Design Studyによる100Tflopsを実現する8テーマへの支援があったが、それに加え、次のようなFundingが確認できる。

2.3.2 ペタフロップスイニシアティブの研究方針

 ペタフロップスの実現を牽引する要素として次の4つが考えられている。

 これらの要素は、開発成果物の交換を通じて相互に関連しており、図2.4に示すような概念が示されている。

図2.4 ペタフロップスに向かうための要素
http://www.ccic.gov/talks/petaflops-24Jun97/slide29.html

 

 ここで、自然進化道程として考えられているシステムは、

(1)Pure COTS(Beowlf-class PC クラスタ、NOW/COW)
(2)COTS plus(例、CRI T3E、HP Convex SPP-2000)
(3)トレンド
1998年:コスト $20,000M、 消費電力 1,300MVA
2010年:コスト $500M-1,000M、 消費電力 30MVA

であるとされており、これを2007年までに、どのようにして性能アップしていくかの概念が必要である。コンポーネント技術、プラットフォーム、ソフトウェアツールキット、インフラの確立を媒介として4要素を互いに発展させようとしていると考えられる。

 

2.3.3 現行の技術動向

 CIC委員会での幹部の説明では、1996年NSF主催の Point Design Studiesで提案された手法を中心とした技術が向かう方向として例示されている。

 特に、ハードウェアの分野で期待されている研究として次のような項目が挙げられている。

(1)システムのレイテンシを隠蔽するPIM(Processor In Memory)

 

図2.5 PIMイメージ
http://www.ccic.gov/talks/petaflops-24Jun97/slide17.html

 

(2) HTMA(Hybrid Technology Multithreaded Architecture)

 CMOSデバイス開発のロードマップを打破する近道として、超伝導素子(RSFQ)が期待されている。そのシステムイメージは、階層的メモリアーキテクチャであり、極低温での超伝導素子+超伝導メモリ、液体窒素温度冷却のSRAM、室温動作DRAMというものである。

 

図2.6 Hybrid Technology Multithreaded Architecture
http://www.ccic.gov/talks/petaflops-24Jun97/slide24.html

 

(3) ストレージ技術:光学的ホログラフィ技術

期待される性能:TeraByte規模、100Gb/sのバンド幅、超低消費電力
使用される物性:光屈折、分光のホールバーニング
使用される技術: Near term

(4) 光学接続

表2.4 予想される光学接続性能

  伝送速度 消費電力 光源
現状

HPとAT&A
SONET
100 Mb/s
2.5 Gb/s
1-2 Watts
10 Watts

LED*
LD*
10年後   100 Gb/s 1 Watts

LD
(WDM or TDM)*
20年後   1Tb/s 10 Watts

LD
(WDM and TDM)*

* LED(Light Emitting Diode)、 LD(Laser Diode)
WDM(Wavelength Division Multiplexing)、TDM(Time Division Multiplexing)

 

(5) Grape-6

 宇宙・天体力学分野の専用マシンとしてのGrapeは、最も早くPetaflopsを実現することが、期待されている。汎用マシンと比較して問題によっては10年のリードをしていると考えられ、2000年のPetaflops実現をめざしている。

 

2.3.4 将来に向かっての課題

 現在、ペタフロップスイニシアティブで、問題として挙げられている項目を以下に列挙する。

 デスクトップを含めた全てのクラスのコンピューティングにハイレベルの並列性は避けられないと考えられているため、これらの問題点は、単にハイエンドコンピューティングだけでなく、全てのコンピューティングについて生ずる問題であり、問題の解答は、大規模科学計算の領域をはるかに超えたインパクトを持っているとされている。

(1) ハードウェア

[1] COTSハードウェアコンポーネントを用いて、使い物になるペタフロップスシステムが構築出来るか?
[2] RSFQ超伝導素子を光学結合するような技術は、COTSによるシステムに勝てるか?
[3] 消費電力は受け入れられるレベルまで落とせるか?
[4] 分散メモリのMIMDは、満足なものか?もしくは、何か他のアーキテクチャが必要か?
[5] レイテンシと多重のメモリ階層を管理するのに、どんなハードウェアが必要か?

(2) ソフトウェア

[1] どんなOSが 10万から100万プロセッサを信頼性良く管理できるか?
[2] 根本的に新しいプログラミング言語は必要か?もしくは、現在ある言語の拡張でいけるのか?
[3] 特化した新しい言語構造は必要か?
[4] I/O、デバッグ、可視化を取り扱う最も良い方法は何か?

(3) アルゴリズム

[1] 既知のアルゴリズムのlatency-tolerant variantsは存在するか?
[2] 各種アルゴリズムの作用計数、メモリ要求、データ局在等の特性は将来システム上でscaleできるか?
[3] 古典的アルゴリズムで満足か?あるいは、完全に新しいアルゴリズムが必要か?

(4)アプリケーション

[1]10万を超える並行スレッドを必要とするペタフロップスアプリケーションを構築できるか?
[2]提案されているシステムデザイン上で多様なアプリケーションを実現する最良な方法は何か?
[3]将来アプリが必要なI/O、メモリは何か?
[4]ペタフロップスシステムによってどんな新アプリケーションが動かせるか?

 

2.4 ASCI(Accelerated Strategic Computing Initiative)プログラムの動向

2.4.1 ASCI計画

 ASCIは包括的核実験禁止条約の締結により、米国での核兵器の安全性、信頼性、性能維持あるいは新規開発続行を可能とすべく、クリントン大統領が提唱した Nuclear Weapons Stockpile Stewardshipなるプログラムに対し、科学的アプローチの重要な位置を占める計算機シミュレーション開発プログラムである。

 このプログラムは、国家安全保障会議(National Security Council)でとりあげられたDOEの存続がかかるミッションプログラムで、NSTC内ではCIC委員会よりCNS(Committee on National Security)での議論が先にあり、CICとは別にスタートしたように推測される。

 

図2.7 Scientific Stockpile Stewardship
http://www.llnl.gov/asci-alliances/pp/art/fig11.gif

 

 図2.7は、Scientific Stockpile プログラムの要求と、それを実現する科学的プログラムとの関連を表している。この中での、Strategic Computing Programというのが、ASCIであり、その背景には、解決すべき広範な科学的問題が存在している。

 当初、DOEは、このプログラムの実行に、10年で10億ドルの投資を予定し、1995年6月より開始した。2004年までに100Tflopsのコンピューティング性能を実現することを目標としたが、現在、10-100 Tflopsのレンジを視点に置いたPathForward プロジェクトが具体化されている。

ASCIプログラムのマイルストーンの詳細を図2.8に示す。

 

図2.8 ASCIロードマップ
http://www.llnl.gov/asci-pathforward/art/final01.gif

 

 

 図2.8の10+Tflops/5TBは、後述のLawrence Livermore 国立研究所のASCI Whiteであると考えられる。また、Los Alamos国立研究所の記述によるとPathForwardに加え、Option 4という記述が存在するが、具体的に何を示すのか不明である(http://www.lanl.gov/projects/asci/Platforms.html)。

 ASCIプログラムを構成する各コンポーネントの達成予定ロードマップが公表されており、図2.9のように整理されている。

 

PSE:Problem Solving Environment

図2.9 ASCIコンポーネント技術開発道程
http://www.llnl.gov/asci/images/target.gif

 

 ASCIプログラムの研究主体は、DOEの核兵器研究所として認識されている3国立研究所、すなわち、Sandia 国立研究所、Lawrence Livermore国立研究所、Los Alamos 国立研究所である。Sandia 研究所は、Lockheed-Martinによって運営され、Lawrence Livermore、Los Alamos 両研究所は、California大学によって運営されている。

 1997年度のASCI要求予算額は、全体で$121.6Mであり、その内訳を次に示す。

  (1)アプリケーション  $54.9M
(2)問題解決環境整備 $23.5M
(3)プラットフォーム $33.7M
(4)戦略的提携 $6.1M
(5)三研究所共通 $3.4M

 

2.4.2 プラットフォーム開発

 図2.8の Option Red、Option Blueは、上記3研究所を中心に開発が行われ、そこで用いられる超並列スーパーコンピュータは、米国の3コンピュータメーカに開発を含む調達が行われた。表2.5にその内訳を示す。

 

表2.5 現在開発中のプラットフォーム

国立研究所名 Sandia
国立研究所
Lawrence Livermore
国立研究所
Los Alamos
国立研究所
計算機名 ASCI Red ASCI Blue Pacific ASCI Blue Mountain
メーカ インテル IBM SGI
使用MPU
または製品名
PentiumPro
(200MHz)
RS/6000SP Origin2000
MIPS
R10000(195MHz)
調達予算 $55M (当初$46M) $93M* $110.5M
目標性能 1.8Tflops
メモリ585GB
ディスク容量40TB
3.1Tflops(1999年度)
メモリ2.5TB
ディスク容量75TB
3.1Tflops(1999年度)
メモリ1.5TB
ディスク容量75TB
実績 1.34Tflops
(1997年秋)
不明 1024PEでアプリ動作
(1998年)

*1996年度投資:$27M (1996年度全ASCI投資 $85M)

 

2.4.3 ソフトウェア開発

 ASCIでは、HECCの項でも述べたが、大学を巻き込んだソフトウェア開発に、CIC関連の投資が行われている。すなわち、HECCのDOE担当分で、Strategic Alliance Centerが運営され、大学とのAllianceが成立している。

(1) レベルT:アプリケーションを中心に 97年会計年度スタート

(2)レベルU:公募を行う

 一方、最近の報道によると、1998年度、ASCI Redの最終段階前のソフトウェア開発をする場としてPittsburgh Supercomputing Centerが任にあたり、そのためのコンピュータ使用料として$4.5MをDOEが支給するとされている。契約は、まず1年と予定されている。Pittsburgh Supercomputing Centerは、Carnegie Mellon大、Pittsburgh大、Westinghouse Electric Corp.で運営されているが、1998年度からNSFからの援助が打ち切られている。

 

2.4.4 ASCI研究開発理念

 先に述べたように、ASCIの達成すべき目標は、核兵器関連技術の研究開発であるが、その中味は、物理、化学、計算機科学など広範かつ一般的な科学分野のハイエンドを構成するものである事から、DOEは、この開発は、画像処理技術による戦場での情報優位、暗号の解読能力の保持にも役立つと主張しており、これにより予算獲得を容易にしようとしていると考えられる。

 さらに、ASCIで考えられているようなC-COTS(Commodity-Commertial Off The Shelf)を用いたハイエンド技術の開発によって、高度情報技術製品が市場原理で開発されるよりもより早期に実現できるようになり、これが米国の競争力を維持、高めることに貢献すると主張している(図2.10)。

 

図2.10 ASCIプログラム研究開発理念
http://www.llnl.gov/asci-pathforward/art/final02.gif

 

 図2.10は、一部の用語の違いこそあれ、HECCの諮問委員会でのCIC委員会幹部の説明にも用いられており(図2.3)、米国のハイエンドコンピューティング開発の共通概念を良く表しているものと思われる。

 ここでその原動力となるものとして提案されており、かつ実行に移されているのが、ASCI PathForwerd プロジェクトである。

 

2.4.5 ASCI PathForwerd プロジェクト

2.4.5.1 計画概要

 ASCI PathForward プロジェクトは、ASCIの10-30-100 Tflopsレベルの研究開発を行うプログラムであり、第一段階として30Tflops実現(2001年)に、$10M/年の継続的投資が予定されている。目的は、Scientific Stockpile Stewardshipの一環としての核備蓄実験シミュレーションを行うことはもちろんであるが、クリントン大統領が強調するように、最新技術の民間市場への転用も視野に入っている。

2.4.5.2 ASCI White

 30Tflopsを実現する前段階としてのASCI WhiteがIBMに発注されている。公表内容は、

(1) 発注者:DOE Lawrence Livermore 国立研究所
(2) 受注者:IBM
(3) 受注金額:$85M
(4) 性能:10TeraOps at 2000年 (flopsと記述していない)
(5) 仕様: IBM's 最新、最速の RS/6000 (8,000 processors)
床面積 17,000 平方フィート(1,579m2)
電力 6.2 MW(含む 冷却、mechanical equipment)
http://www.llnl.gov/asci-pathforward/pf-news.html

であり、Blue Pacificの後継であると考えられる。

2.4.5.3 100Tflopsに向けての計画

 30-100 Tflopsをねらう技術について、コンピュータメーカと開発契約が取り交わされており、これは1998年2月3日に公表された。DOE 3国立研究所とIBM、DEC、Sun、SGIの4社が開発を担当し、4社は開発した知的所有権をすぐに市場に売り込むことができる契約であるとされている。開発目標は、2004年までに100Tflopsを実現することで、4年間で$50Mの予算がついたと報道されている。以下に、ASCI ホームページに公表されている内容に沿って計画を詳述する。

(1) 開発技術

 PathForwardは、大規模コンピューティングシステムに用いる相互接続技術、データストレージ技術、システムソフトウェア及びツールの開発に注力する。これらの技術は、民間での開発が行われていないが、30Tflopsを達成する上で、最もクリティカルな技術であり、企業が将来の製品や市場に有益なものであると主張されている。開発技術は、本質的にスケーリングとインテグレーションの技術であり、コモディティの部品よりなるウルトラスケールのコンピュータシステムを実現する技術である。

(2) 研究調達受注メーカ

2001年までに30Tflopsを達成するプログラムのため、次の4企業が選定され、総額$50Mが投資される。ここでは、1万個のコモディティプロセッサを相互接続し、30 Tflopsから100 Tflops(2004年)の性能を達成する技術を開発する。

DEC: UNIXベースのAlphaServerをSMP接続した256ノードをつなぐプロセッサ相互接続技術の開発とデモンストレーション。
IBM: 100Tflopsまでのシステムに使われる、高速かつ低レイテンシでスケーラブルなスイッチング技術の開発。
SGI/CRAY: 将来のルータ、スイッチ、通信ライン、チャネル及び相互接続に用いられるであろう先進的な信号処理と相互接続技術の開発と評価。
SUN: 相互接続の構造を確立し、相互接続モニタ、リソース管理、MPI能力のスケーラビリティと正当性を実証することにより、ハードウェアとソフトウェアの現実性を検証する。

(3) 省庁連携によるコンポーネント開発

 ASCIが必要とするシステム開発では、Stewardship Programの複雑なシミュレーションを行うため、巨大データ蓄積システムの物理サイズ縮小、データ・情報の書き込み速度の向上が必要で、このため他省庁との連携を行う。この省庁間連携はDOEとNASA、及び DODの間で行われる。ここで開発される技術は、オプティカルテープドライブ技術で、書き込み速度 25 MB/s、蓄積サイズ 1 Terabyteの性能を持ち、通常の大きさを持つオプティカルテープカートリッジを使用するというものである。

(4) パートナーシップによるソフトウェア開発

 PathForwardによってソフトウェア開発でも民間企業とのパートナーシップを確立し、国家安全保障を考える上で必要な判断材料を提供するために、ツール開発のより完全な政府・産業共同研究支援を行おうとしている。ここでは、計算ベースの核抑止力の検証と確認を行うシミュレーションソフトウェアコードの開発を行う予定である。

また、次のようなシステムソフトウェアとツールの分野の研究が必要とされている。

 最近、DOEに属する機関(Argonne 国立研究所、Los Alamos 国立研究所、Lawrence Berkeley 国立研究所、Lawrence Livermore 国立研究所、Oak Ridge 国立研究所、Sandia 国立研究所、DOE Offices of Defense Program and Energy Research)で上記ソフトウェア領域で現在存在するもしくは将来生ずる必要開発項目の初期的洗い出しと検証およびプライオリティづけに関する共同研究が行われているという記述があり、これは結果として他の省庁・学界・企業を巻き込んだ次期共同研究につながると考えられている。

 

2.5 むすび

 米国の高度コンピューティング研究開発は、常にハイエンドなフロンティア領域をターゲットにおき、世界に先んじることを国是とし、理念を明確にすることによって、実効のある政策を次々に実行しているように見える。これは、この領域での研究開発が軍事などの国家安全保障に密接に関連し、かつ、未踏領域の拡大によって利益を享受してきた米国の歴史と文化に裏打ちされた国民の合意があるからであると考えられる。

 現在の計画・実行状況から、2007年〜2010年にかけて1Pflopsの性能を有するウルトラコンピュータが誕生すると考えられ、これは、1万〜100万の間の並列度を有する超並列型コンピュータであることは間違いないであろう。このコンピュータの開発過程で得られた分散・並列技術のハードウェア・ソフトウェアに関するノウハウは、民間企業の製品開発に生かされ、情報技術の広い範囲で米国の優位を動かぬものとすると考えられる。

 一方、日本の高度コンピューティング開発においては、分散並列コンピューティングを研究するRWCP、2001年度 32Tflopsをねらう「地球シミュレータ」があるが、いずれもペタフロップスレベルの開発計画への連続性を見出すことができない。日本でも2000年、200Tflopsをねらい、近い将来1Petaflopsを実現するであろう超並列専用計算機「Grape-6」があるが、技術的波及効果において米国の幅広い研究と比較すると規模の小ささは否めないと考えられる。

 国としての研究戦略として、「ものまねを排する」という理念を持つならば、いかに無駄に見えてもハイエンドなフロンティア領域の研究に投資することを避けてはならないと思われる。