【前へ】

付属資料1 海外調査報告

 「人間主体の知的情報技術」調査ワーキンググループ活動の一環として、SIGGRAPH 2000、AAAI 2000に参加したので報告する。

 

1.SIGGRAPH 2000

(1) 概要


会場:Ernest N. Morial Convention Center

SIGGRAPHは、コンピュータ・グラフィックスの世界最大のConference&Exhibitionである。正式な発表によれば、今回のSIGGRAPH参加者は、25,986名、exhibitionへの出典は316社とのことであり、非常に盛大なものであった。まさにコンピュータ・グラフィックスの祭典という言葉がぴったりな盛り上がりが感じられた。

 出展も見学客も日本人が予想以上に多いので驚いた。同じホテルに泊まっていた若い中国人研究者も、会場見学後に「日本は強い」と言ってくれたが、やはりエンターティンメントに係わるような領域は、日本人には向いているのだろうか? 情報技術全般で、是非「日本は強い」と言われるようになって欲しいものである。
 アートは言葉で理解するのではなく感じればよいということなのか、コンピュータ・アニメーション・フェスティバルの出展作品の中には、日本語のままの作品も幾つかあった。他の分野でも、これだけ「日本」を自信を持って前面に出せるといいのだがと感じた。

 SIGGRAPHの内容は非常に多岐にわたるが、特定の対象者にしか関係ないものもあるので、ここでは、主要なものについてのみ述べる。

@ Exhibition
企業中心のソフトウェア、ハードウェアの製品紹介、展示、デモンストレーションである。SIGGRAPHに合わせて、幾つかの新製品発表も行われている。
展示内容の傾向としては、CG/アニメ・オーサリングツール、モーション・キャプチャ、各種デジタイズと形成、各種ディスプレィ(大スクリーン、3画面連続ディスプレィ、円形凸面スクリーン、立体視パネル、etc.)等が中心である。変わったものとしては、コンピュータ支援サージェリーや内視鏡などの医師用訓練ツール、力フィードバックの触知デバイスなどを、実際に操作して見ることができた。
また、一般の人にも関係するところでは、B-to-Cの電子商取引等に適したWeb上のバーチャルリアリティやCAD的な物体イメージの回転・拡大縮小操作等をサポートするソフト製品が幾つかあった。Web上で、商品を現物を調べるかのように確認したいなど、ニーズは高いと思われるが、少ないデータ転送量での実現が工夫され、実用的になってきたようである。実際、最近ではそのような機能を使ったホームページも、見かけるようになってきた。

A Courses
これはチュートリアルである。SIGGRAPHを見学する予備知識としてのGraphicsの基礎のようなものから、先端的話題の専門的なものまで、半日コース、1日コース、2時間チュートリアルの3種類があり、あわせて44の講座があった。

B Papers
Papersは、コンピュータグラフィクス関連の技術論文の発表である。
1600の論文の中から20の論文を選考とのことであり、かなり厳しい採択率となっている。CG関連はかなり成熟度の高い分野なので、部外者が聴講するのにはかなり難しいかと思われる。

C Sketch & Applications
これは、現在進行中の作品・研究、試験的なブレークスルー、および、新しい処理パラダイムなどに関する、研究者、技術者、アーティスト、アニメ製作者等によるインフォーマルな技術発表ということになっている。1セッション1時間45分の中に通常3件〜4件の技術論文発表があり、全部で30セッションがあった。107件の発表の内、日本人の発表は14件あった。

D Art Gallery & Emerging Technologies
アートギャラリー(Art Gallery)は、デジタル・アート作品のデモ展示である。
エマージング・テクノロジー(Emerging Technologies)は、「新千年期の技術への出発点。技術における新時代への道を照らし出すような、夢のある、創造的な、挑戦的な実装や体験。」のうたい文句で、Human-Computerインタフェース、ディスプレイ技術、ワークグループ・コンピューティング、マルチユーザ・アプリケーション、知的環境、情報可視化、ロボット工学などの新技術開発の展示・デモなので、本WGには最も関連の深い部分といえる。

E Computer Animation Festival(1. Animation Theater、2. Electronic Theater)
エレクトリックシアターは、650応募作品から26作品を選考。市内の劇場で上演された。SIGGRAPH参加者は、あらかじめ割り当てられた日時に、会場からの送迎バスで見に行った。アニメーションシアターは選ばれた131作品を幾つかのグループに分け、コンベンションセンター内の2つのホールで、常時、繰り返して上演していた。

 以下では、本WGの調査対象の技術に関係の深いものとして、「Emerging Technologies : Point of Departure」の展示デモと、「Sketch & Applications」の「Haptics」セッションの発表について述べる。

 

(2) Emerging Technologies: Point of Departure

 以下に示す26件が展示・デモを行っていた。その内の半分の13件が日本の大学や日本企業に関係したものである。日本関係の出展が圧倒的に多いのは非常にうれしい反面、米国等の出展があまりに少なく、米国の先端技術の多くに接したとはあまり言えないのが残念であった。
 このEmerging Technologiesは、アート・ギャラリー(Art Gallery)と同一の広いホールで、両者混在して展示・デモされていた。 Art Galleryの方は、60件程のデジタル・アート作品がデモ展示されていた。
 Emerging Technologiesの出展は、エンターティンメントそのものを目的としたものもあるし、新しい開発技術を用いて全体をエンターティンメント風に仕上げていて、技術課題が何なのかちょっと見ただけではわかりにくいものもある。またArt Galleryの方にも、仕組みが大がかりだったり、いろいろおもしろいものがあるので、両者の展示の区別は、見ただけでは付けがたい。そのため、Emerging Technologiesの出展の見落としがないようにするために、出展リストをチェックしながら見学した。写真撮影が禁止されていたのが残念である。

Emerging Technologies
(1) 4 + 4 Fingers Direct Manipulation with Force Feedback(東京工大)
(2) ActiveCube (大阪大)
(3) Augmented Groove: Collaborative Jamming in Augmented Reality (ATR)
(4) Autostereoscopic 3D Workbench (通信研)
(5) Autostereoscopic Display for an Unconstrained Observer
(New York University)
(6) CYPHER: Cyber Photographer in Wonder Space (ATR)
(7) Danger Hamster 2000(Sony CSL、成蹊大)
(8) Gait Master (筑波大)
(9) HoloSpace (Zebra Imaging Inc、The University of Texas at Austin)
(10)InTheMix (AuSIM, Incorporated)
(11)Jamodrum Interactive Music System(Interval Research Corporation)
(12)LaserWho (MIT Media Lab)
(13)Magic Book: Exploring Transitions in Collaborative AR Interfaces (University of Washington、ATR)
(14) Medieval Chamber  (Sony Computer Entertainment)
(15)MicroTelepresence (Hewlett-Packard Laboratories)
(16)Musical Trinkets: New Pieces to Play (MIT)
(17)Muu: Artificial Creatures as an Embodied Interface(ATR)
(18)Networked Theater: A Movie Production System Based on a Networked
Environment(ATR)
(19)Panoscope 3600 (Universite de Montreal)
(20)Plasm: In the Breeze (Plasmatic)
(21)Retinal Direct Imaging (サンヨー)
(22)RV-Border Guards: A Multi-Player Entertainment in Mixed-Reality Space
(Mixed Reality Systems Laboratory, Inc.)
(23)VaRionettes (Lucent Bell Labs)
(24)V-TOYS: Visually Interactive Toys (University of Maryland)
(25)X'tal Head: Face-to-Face Communication by Robot (東大)
(26)You Were There(Capstone Systems Inc.)

 

(3) Haptics(触覚学)セッション

 たまたま、このセッションだけは3件とも日本人の発表だった。以下に概要を説明する。

@“Enhancement of Virtual Interaction Devices Using Pseudo Force Sensation”
                   Mika Sugimoto (Ochanomizu University)
 
マウスやスクロールバーのような対話デバイス用に力フィードバックのライブラリを開発したもの。たとえば応用例として、地図のナビゲーションでは、スクロールバーやマウス・ドラッグで地図をパン(pann)するとき、目標地点を見失いやすい。 このライブラリを利用した疑似触覚スクロールバー(pseudo-haptic scrollbar)は、目標地点のまわりでは重くすることで、あるいは、疑似触覚マウスでは、目標物に近づくにつれて軽くすることで、目標地点付近への位置づけが容易になったというもの。
 原理としては、擬似的な力のフィードバックを実現するために、共感覚(synesthesia)というものを用いている。これは、あるタイプの刺激が、別のもう一つの感覚を引き起こすという心理現象である。オブジェクト・アイコンが動かし難い時、そのオブジェクトが重いと感じることが多い。このライブラリでは、仮想対話デバイスの応答遅延が、重さの疑似感覚を生み出すことを利用している。
 やはり、よりよいユーザインタフェースを効率的に実現していくには、人間自体の認知や感覚の仕組みをよく知るのがまず第一歩だなと感じた。

A“Virtual Human That Can Predict Comfort and Pain Level”
                   Yoshinori Maekawa (Osaka Sangyo University)
 
心地よさと痛さの程度を予知することのできるバーチャル・ヒューマンの研究。これは、製品の設計・開発などにおいて、それを使ったときの心地よさや痛さのレベルなどの感覚を仮想空間内で推測するために、仮想的な人間、バーチャル・ヒューマンを使うというものである。このバーチャル・ヒューマンは、物体に接触したときに、体の変形を評価し、感覚を予測する。人が何かを使う時、タッチの感覚は、主に身体と物質の間の接触面における圧力から来る。そこで、バーチャルヒューマンの身体の接触変形の状態を有限要素計算によってシミュレートし、その状態を(張り/圧迫の値、または、荷重分散)、感覚に関係付けている。椅子にすわったときの心地よさの予測や、バッグを持ったときの痛みのレベルの予測などに成功しているとのことで、アニメ化されたバーチャルヒューマンが、その心地よさや痛さを、態度や表情でわかりやすく表現していた。新製品の設計・開発において、ユーザフレンドリ性や、エルゴノミクスのメカニズムの評価に、このバーチャルヒューマンの動きを利用するとのことである。

B On Determining the Haptic Smoothness of Force-Shaded Surfaces
    Juli Yamashita(National Institute of Bioscience and Human Technology)
 
Force-Shadeされた表面の触覚的なめらかさの決定
 CAD等の仮想的な3Dオブジェクトの操作で仮想的な触覚を実現する力フィードバック装置の実現において使われる触覚レンダリングは、オブジェクトが、複雑な自由曲面の表面を持つときには、非常に時間を消費することになり得る。force shadingと呼ばれる技術を使った、ポリゴン化された表面のなめらかな触覚的補間法が有用であるが、補間された形がなめらかに感じられる限りにおいては、オリジナルの表面と異ならないので、より粗いポリゴン化の方がベターである。それがどれだけ粗くできるかというと、ポリゴン化の解像度は、人間の感覚のしきい値によって定義される。ところが、力フィードバック・デバイスによって提供される表面のなめらかさの、絶対的なhapticしきい値上のデータが存在しないので、なめらかに補間された曲面表面の知覚の絶対的しきい値をしらべるための実験を設計し、PHANToM 1.0(SensAble Technologies)を用いて実験・考察を行ったもの。
 余談であるが、この力フィードバック装置PHANToMは、SIGGRAPHの間に2ケ所で実際に体験してみることができた。一つはExhibitionにおける、SensAble社の、PHANoMを使った3DモデリングシステムFreeFormである。ペンシル型のデバイスの先で3Dオブジェクトを掘ったり、表面を削ったり、また、粘土のように付け足したりしながら、仮想的に彫刻のようなものを形作ることができる。その感触が実にリアルですばらしいと感じた。もう一つは、Emerging Technologiesの(13)Magic Bookのデモ展示である。ATRのMagic Bookのデモと一緒に、Washington大の人が、浮き出した手をPHANToMのペン先で突くと、仮想的な手の表面がへこみ、その触感がペン先に伝わるというデモを行っていた。ATRのデモは、通常の本のようなMagic BookをHead-Mount Displayを通して見るとその中の絵が浮き出してきて仮想シーンとなり、読者もその仮想世界に入り込むことができるというものである。複数の人が参加する場合、他の読者からは、それがアバターとして見える。ATRの人の話では、時間がまにあわずMagic Bookのバーチャル世界はまだ平面的だが、来年には、PHANToM等も使ってStereo-Scopyを実装したいとのことだった。先進的な技術要素が、このように部品的に利用可能になるのは、他の技術開発も促進し、非常に有益だと感じた。

 

2.AAAI 2000

(1) 概要

 National Conference on Artificial Intelligence(AAAIコンファレンス、または単にAAAI)はthe American Association for Artificial Intelligence(AAAI)の主催する会議である。AI分野の国際会議としては、最も権威あるものとしてIJCAII(the International Joint Conference on Artificial Intelligence, Inc.)とAAAIの共催によるIJCAIがある。これは一年おきに奇数年度のみの開催となっているため、AAAIコンファレンス(以下、AAAI)は、米国の会議ではあるものの、実質的にはIJCAIと並んで権威のある会議となっている。しかし、規模はやはりIJCAIの方が大きいものと思われる。今回のAAAIは、テキサス州オースチンのオースチン・コンベンション・センターで開催されたが、かなり落ち着いた感じのコンファレンスであった。

会場のAustin Convention Center

 AAAIは、原則的には毎年開催されるが、IJCAIが米国内で開催される年には、これに吸収される形となり開催されない。例えば2001年度は、IJCAIがワシントン州のシアトルで開催されるので、AAAIは開催されない予定である。
 このAAAIコンファレンスの中に、独立したプログラムとして、IAAI(Twelfth Innovative Applications of AI Conference)とロボット・プログラム(Ninth Annual AAAI Mobile Robot Competition and Exhibition)の2つが同時開催されており、参加者はどれも自由に聴講・見学できるようになっている。
 IAAIは、AI活用がその価値を高めるのに役立っている実用アプリケーションの事例研究に焦点を当てたものである。これは、AAAIは開催されない年はIJCAIと同時開催されることにより、毎年開催されている。
 ロボット・プログラムも、IAAI同様に毎年開催されている。2001年度は、米国内で国際会議であるIJCAIと同じ場所で同時に国際ロボカップも開催されるが、このロボット・プログラム(AAAI Mobile Robot Competition and Exhibition)も一緒に同時開催される予定である。この時に予定されている第1回ロボカップレスキュー実機ロボットリーグは、国際ロボカップとAAAIで共同開催され、今回行われたロボット・プログラムの中の競技「Urban Search and Rescue Competition」の標準テストコース(NISTが設計・開発)と規則をベースとして、それを改良したものが用いられる予定である。
 以下に、概要を説明する。

(2) ロボット・プログラム
  (Ninth Annual AAAI Mobile Robot Competition and Exhibition)

 今回のロボット・プログラムは以下のような構成であった。

@ Urban Search and Rescue Competition(都市における捜索・救助コンペティション)
 
この競技の目的は、参加者に、条件がきびしく重要で現実的な領域において研究する機会を与えることにある。これは、災害時の救助活動に対処するためのロボットの能力を競うコンペティションである。ロボットは、倒壊した建物に入って行き、犠牲者を見つけだし、救助隊の人間に犠牲者の場所を教えなければならない。この競技のためにNIST(National Institute of Standards and Technology)の設計による、災害現場の崩壊した建物を想定した標準テストコースが用いられた。
 図1は、その標準テストコースである。図1(b)の通路の左側は、平坦な簡易コース、右側は、難度の高い上級コースとなっている。コースの仕様の詳細は、下記のWebぺージに見取り図がある。NISTで試作組立中の写真も付いているので、イメージがよくわかると思う。(http://www.cs.swarthmore.edu/~meeden/aaai00/contest.html)簡易コースと上級コースで、別に分けて競技が行われていた。


(a) NISTのロゴが見える

(b)通路の左側は簡易コース、右側は上級コース
図1.NISTが設計した標準テストコース

 

@-a)簡易コース

簡易コースは、平面的で平坦なところに、少数の大きな障害物と何人かの犠牲者が配置されている。このテストコースでは、ロボットの視覚や、高度の自律性など、特にロボットの特定の高度の機能を評価する。

ロボットが、しばらく歩き回って現場のマップを作成し、終了後に、その中の地点で犠牲者の姿をはっきりとらえたパノラマ写真を見せていた。一方、動き出すとすぐ壁にぶつかったりばかりで、ほうっておくと舞台装置をこわしそうな、何度も人が介入していて、どうしようもない感じのものもあった。


(a)

(b)
図2.平坦で少数の大きな障害物があるだけの簡易テストコース

@-b) 上級(難所)コース
 現実の災害現場の状況に近いことを意図して、現実の崩壊したビル等をシミュレートし、さまざまな障害物を含んだ3次元の立体的なコースであり、その中にいろんな状況の犠牲者が存在する。ロボット・チームは、どんな種類のロボットが何台でチームを組んでもよく、完全な自律型ロボットから完全な遠隔操作まで、どのような制御方式でもよい。ただしオペレータは、現場やロボットを直接見てはならず、遠隔操作するにしてもPC画面のみで状況判断し、操作しなければならない。
 優勝したチームのことについて、専門の研究者により本報告書の第3.1章「RoboCupに見る新しい研究開発の進め方」で触れられているので参照頂きたい。


(a)立体的な上級テストコース全景

(b)オペレータ2名がコースに背を向けて操作中。

(c)2台編成のチームの大型側ロボット

(d)2台編成のチームの小型側ロボット
図3.上級(難所)テストコースでの競技風景

 


(a)

(b)
図4.上級テストコースの2台の遠隔ロボットを操作中の2人のオペレータの各操作画面

 このテストコースは、NISTで設計・製作され、Austinの会場に持ち込まれたものである。
 本報告書はモノクロな上、一般見学者はコース内に入れないため、適切な角度から鮮明な写真を提供できないが、NISTでのコース設定写真と、AAAI2000での非常に鮮明なテストコースの写真が、以下のホームページに提供されているので、参照いただきたい。
● Views of the NIST Urban Ruin Test Course For Search-And-Rescue Robots
      http://www.nist.gov/public_affairs/releases/urban.htm
● Photos from the Urban Search and Rescue (USAR) contest held at AAAI-2000 in Austin, TX
      http://www.aic.nrl.navy.mil/~adams/usarphotos/photos.html


図5. 出場チームの控え室
テストコースの隣には、カーテンで仕切られた出場チームの控え室があり、ロボットを調整している。

 A“Hors d’Oeuvres Anyone?” Robot Interaction Event
「オードブルはいかが?」ロボット対話イベント

図6.レセプション会場での競技風景

この競技では、ロボットが、レセプション会場で出席者にオードブルを提供し、そのパーソナリティや人間との対話、食べ物のサービスの能力が評価される。評価のポイントは、以下のようなものである。

 「食物を落としたり投げたりしないこと、じゃまになる人々を押すのではなく肘でかるくつつくこと、ある人が食物をとったときに気がつくこと、そして、まだ食物を与えていない人々を見つけることなど。
 ロボットは出席者にさわることが許されている。特に、食べ物を振る舞おうとする中で、ロボットは、群衆の中を通り抜けて他のグループに食べ物を振る舞うために、人をそっとつついてもよい。ふれることなしにできるロボットはそれでよいが、しかし一晩中、同じ場所に立っているよりは、人々をそっとつつく方がよい。激しい接触あるいは持続的な接触によって人々を傷つけることや、あるいは、つま先の上に横転することは、重いペナルティが課される。
 出席者との対話を強調するのに加えて、トレイを自律的に補充したり、出席者に物理的に食べ物を配ることにおける巧妙な操作が推奨される。」

 

(3) コンファレンス(テクニカル・セッション)

 テクニカル・セッションは、AAAI招待講演(Ballroom)、AAAI一般講演(3〜4トラック並行)、IAAI一般/招待講演(1トラック)がそれぞれの部屋で並行して行われており、どれでも自由に聴講することができた。1セッション1時間のものが午前中に2セッション、午後から3セッションあり、招待講演は1セッションに1件、AAAI一般講演は1件20分づつで1セッション内に3件、IAAI一般講演は1件30分で1セッション内に2件の発表となっている。
 私は、おもにIAAI一般講演を中心に聴講し、AAAIについては、ロボット関連を幾つか聴いた。以下に、概要を紹介する。

(3)-A AAAI一般講演
このコンファレンスの特徴と動向を示すために、まず、採択されたテクニカル・ペーパーのカテゴリと件数を示しておく。

・  Agents 17件
・  Cognitive Modeling 6件
・  Constraint Satisfaction 5件
・  Game Playing 3件
・  Human-Computer Interaction 7件
  Knowledge Representation and Reasoning  
    Boolean Satisfiability 10件
    Case-Based Reasoning  3件
    Computational Complexity of Reasoning 3件
    Decision Theory 4件
    Logic 3件
    Nonmonotonic Reasoning 5件
    Ontology 3件
    Reasoning about Actions and Time 7件
    Spatial Reasoning 3件
    Uncertainty 4件
・  Machine Learning and Data Mining 19件
・  Natural Language Processing and Information Retrieval       11件
・  Planning and Scheduling 13件
・  Robotics 8件
・  Search 9件

聴講したロボット関連講演の中の幾つかについて説明する。

@ Active Audition for Humanoid (Kazuhiro Nakadai, Hiroshi G. Okuno,他)
 
これは、本WG主査らのヒューマノイド・ロボットにおけるアクティブ聴覚システムの研究である。
 高度に知的なヒューマノイドの聴覚システムは音源のローカリゼーション(位置特定)と音響シーンの中でのその音の意味の識別を必要とする。そこで、聴覚、視覚、およびモーターの動きの統合によって、よりよい音源追跡を追求している。
 音響シーンの中に複数の音源が与えられると、ローカリゼーションを改善するために、頭をアクティブ(能動的)に動かす。すなわち、頭を動かすことによって、音源に対して、マイクロフォンを直角に整列させ、そして、視覚によって、音源の可能性のあるものを捉える。しかし、そのような能動的な頭の動作は、必然的にモーター・ノイズを生み出すので、システムは、モーター制御信号を用いて、適応的に、モーター・ノイズをキャンセルしなければならない。
 実験結果では、聴覚、視覚、およびモーター制御の統合によるアクティブ聴覚が、さまざまな条件の下での音源追跡を可能にすることを実証している。

A Multi-Fidelity Robotic Behaviors: Acting with Variable State Information
                    (Elly Winner(Carnegie Mellon University))
 ロボットの複数のレベルの忠実度での振る舞い
 これは、前年度のロボカップ’99で行われた第2回ソニー4足ロボット・リーグで用いたロボット制御プログラムに関して述べたものである。出場者が何に苦労してどんな工夫をしているのかがわかって興味深い。このリーグは全チームが共通の、市販のAIBOと少しだけ違ったハードで、プログラム可能なロボットを使っている。1チームは3台のロボットからなり、このチームは1台をゴールキーパー、他の2台をアタッカーとしており、アタッカーの動作に関して取り上げていた。AIBOは通信機能は持たず、内蔵カメラからの入力だけからの外部状況判断となるので、協調動作を考慮しない非常にプリミティブな動作だけで振る舞いを実現し、4足動作に起因する物理的困難さなどに取り組んでいる段階のようである。動作としては以下の4つが取り上げられている。

  1. Recover:最近見失ったボールを再び見つけようと試みる。
  2. Search:見失ったボールを求めて、競技場内を捜す。
  3. Approach:ボールに近づく。
  4. Score:ゴールに向かってボールをプッシュする。

 4足ロボットのため、内蔵カメラは縦揺れ、横揺れを受け、続けて受け取るフレームが非常に異なり、位置決めが困難になるため、正確な位置決めをするためには立ち止まって、目印を探す。通常、この処理に15〜20秒かかる。サッカーを行うには正確な位置情報がきわめて重要だが、一方、競技中に頻繁に時間のかかるこの位置決めを行っていると相手に負けてしまう。そこで、処理時間と正確な情報とのトレードオフが発生し、状況に応じて、多少位置情報が曖昧なままでもがむしゃらにプレーを続ける低忠実度(Low-Fidelity)動作と、正確な位置情報に基づいて行う高忠実度(High-Fidelity)動作を使い分ける戦略をとっている。具体的にはApproachとScoreに高低の両忠実度の動作を提供し、その根拠となる実験評価結果について説明された。
 この講演では、4足ロボット・リーグは、物理的制約によりずいぶんプリミティブな振る舞いの段階にいるなと感じたが、ロボカップでは、上位チームの制御プログラムがオープンにされるので、このような技術は、急速に進歩するだろうと思われる。やはり、オープンでコンペティティブな環境は、技術進歩をねらうには優れていると思われる。

(3)-B IAAI(Innovative Applications of Artificial Intelligence Conference)
    一般講演
 
IAAIは、AI技術の利用が目に見える効果と価値をもたらしている現場の実適用アプリケーションの事例研究と、それに加えて、AIアプリケーションにおける出現しつつある革新技術(emerging technology)に関する論文発表と招待講演から構成されている。
 今回は、Deployed Applicationsに6件、Emerging Applicationsに12件、そして招待講演1件の講演があった。Deployed ApplicationsとEmerging Applicationsは、各セッションごとに区別せず、混在して発表されている。
 以下に、印象に残った幾つかの講演について述べる。

@ The Emergence Engine: A Behavior Based Agent Development Environment for Artists(Eitan Mendelowitz (UCLA))
 これは、自律エージェントが住むバーチャル世界のCGアニメーションの創作を支援するアプリケーションである。Emergence Engineは、プログラミング経験のないアーティストが、複雑なバーチャル・ワールドを創り出すのを可能にするものであり、1998年以来、Emergence Engineを使って、米国内および世界で展示されたたくさんのアートの実装を生み出すのに成功してきたとのことである。
 Emergence Engineは、振る舞いベースのアクション選択を用いて、アーティストが、彼らの世界に自律的境遇にあるエージェントを住まわせることを可能にする。このとき、アーティストは、Emergenceのハイレベルのスクリプティング言語を使って、エージェントの振る舞いを指示することができる。

A SciFinance: A Program Synthesis Tool for Financial Modeling
                    (Robert L. Akers,他(SciComp Inc.))
 これは、金融分野に特化したプログラム合成システムである。生産価格調査アルゴリズムからリスク・コントロールまでの、ファイナンシャル・リスク管理活動のプログラミングタスクを自動化する。1998年末に商品化されて、現在では多くの主要投資銀行にライセンスされている。
 SciFinanceは、高水準の拡張可能な記述言語ASPENによる、アプリケーション固有の数学的なモデル記述から、コード生成のための量的解析を行う。これらの記述は、通常は1ページ以下の程度であり、そこからシステムは数千行のCプログラムを生成する。
 SciFinanceは、FortranとCを含むいろいろなターゲット言語の科学計算コードを生成するシステムを拡張して作られたものであり、その実装は、オブジェクト指向知識ベース、洗練化・最適化ルール、計算代数、およびプランニング・システムを統合している。
 アナリストは、以前には数週間かかったり、あるいは、やってみようともしなかったのが、1日でモデリング・コードを開発できるとのことである。

B Assentor : an NLP-based Solution to E-mail Monitoring
                    (Chinatsu Aone, 他(SRA International, Inc.))
 Assentorは、仲買企業の電子通信をモニタするe-mailモニタリング製品である。講演では、特にその自然言語処理コンポーネントが説明された。これは、他のものの間から、顧客の不満、インサーダー取引、株の誇大宣伝、強引な販売戦術、および、ジョークやわいせつのような会社保護に関する問題を示すe-mailを見つけて、隔離するために、パターンマッチング・ベースの情報抽出技術を利用しているものである。
 e-mailモニタリング適用における「パターンマッチング」対「キーワード・ベース検索」の定量的評価の結果、パターンマッチングが、リコールと精度の両方において、キーワードベース検索よりも、顕著に良い結果を出すことが述べられた。

C Nurse Rostering at the Hospital Authority of Hong Kong
                    (Andy Hon Wai Chun(City University of Hong Kong)、他)
 AIの制約プログラミング技術を用いて、香港医院管理局(Hospital Authority (HA), Hong Kong)のスタッフ勤務当番システムの一部として開発された「当番割り当てエンジン」についてのお話。医院管理局は、香港の40以上の公立病院を管理しており、以前には、ほとんどのスタッフ当番割り当て表は、手作業で作られていた。コンピュータの記録なしには、医院管理局にとって、労働作業統計を出したり、あるいは、資源の効率性を改善することは困難であった。
 1997年に、医院管理局は、48,000人を越えるフルタイムの病院スタッフの大きな労働力の管理の自動化のサポートを提供する、戦略的なスタッフ当番表システム・プロジェクトに乗り出した。このシステムのバージョン1は、1998年の初めに完成し、バージョン2は、1999年の初めにリリースされた。このシステムは、しだいに、香港中の別々の病院に配備されるようになってきた。

D PTV: Intelligent Personalised TV Guides
                    (Paul Cotter & Barry Smyth(Smart Media Institute))
 PTVシステム(Personalised Television Listings – http://www.ptv.ie)は、インターネット・ベースで、個人化されたTV番組一覧を提供するシステムである。各登録ユーザは、毎日、自分個人の嗜好に合うように特別に編集されたTVガイドを受け取る。
 今日、ますます大量の電子的情報へのアクセスが提供されるようになった結果、「適切な時に適切な情報」が重大な問題になってきている。それに対する解の一つは、適切な情報の検索をカスタマイズし個人化するために、個別のユーザの明示的および暗黙的な好みについての自動学習の技術を開発することである。PVTシステムは、それを応用した1事例といえる。

【次へ】