本記事は、アーカイブに保存されている過去の記事です。最新の情報は、公益社団法人日本印刷技術協会(JAGAT)サイトをご確認ください。

メタデータを活用する電子ジャーナル

メタデータと学術系電子ジャーナルをめぐる技術(第2回)

利用者が減少している図書館に対して,アメリカではどのような努力を続けているのか。

国立情報学研究所 学術研究情報研究系 教授・研究主幹 根岸 正光 氏

図書館の出版社化

一方,図書館では,自らが出版社になろうという動きがある。アメリカのStanford大学図書館ではHighWireという電子ジャーナルの出版社を運営している。Johns Hopkins大出版局は業界でも有名なProjectMUSEという電子ジャーナルを運営している。

ネットワーク情報資源へのアクセス窓口の整備も進んでいる。インターネット上の資源へのアクセスを効率化して,図書館のホームページに行けば,そこから適切なWeb資源がすぐ見られるように工夫している。これの一番単純なものはリンク集である。これをさらに組織化したサブジェクト・ゲートウエイといわれるものは,イギリスのOMNI(http://omni.ac.uk/)など,多くが稼動している。

また,図書館では,インターネット上のいろいろな情報資源に対するメタデータを図書館員が手分けして作るオンライン情報資源共同分担目録も作られている。Cooperative Online Resource Catalog(CORC,http://www.oclc.org/corc/)は,アメリカのOCLCという図書館の総合目録システムを運営している会社が,対象を紙の図書・雑誌からオンラインの情報資源に移して,同様のサービスを提供しているものである。メタデータはDublin Coreを使って登録している。Dublin Coreはメタデータの規格の1つである。ダブリンはOCLCのあるオハイオ州の町の名前で,OCLCが主体で運動を進めていることからDublin Coreと命名されている。CORCのサイトでは,ダブリンコアレコードのサンプルも見られる。このように各図書館では,サイトの品質を点検しながら,図書館利用者に有用と思われるWebサイトを登録している。

Preprint Server系統の発展

図書館とは全く別の系統の動きとして,Preprint Serverを中心とする動きがある。Preprint Serverは1991年に米国ロスアラモス研究所で物理学を研究するギンズバーグ氏が個人的に始めたものである。もともと物理系ではPreprintと称して,論文の発行以前にお互いに論文の内容を交換して,研究発表の優先権を確保するという習慣があった。それが発達したのがPreprint Serverである。

最近は,個別テーマごとのDisciplinary Serverに加えて,大学や研究機関が立ち上げるInstitutional ServerというPreprint系のサーバも登場している。Preprint Serverが増えてきたので,それらのサーバ相互間における統合検索機能の必要性が高まってきた。

そこで,統合検索をめざすOpen Archives Initiative(OAI)が登場した。OAIではMetadata Harvesting Protocolというプロトコルを決め,各アーカイブ(サーバ)側はそれに基づくメタデータを公開しておく。これに対して,「サービスプロバイダ」側から検索ロボットを飛ばし,このプロトコルでデータを集めるので,サービスプロバイダでの統合検索が可能となる。つまり,ポータルが自動的に形成できるという仕掛けである。

流通体制の今後

学術論文における流通体制は,著者から始まり出版者,流通業者,図書館,読者というチェーンでつながっている。将来的には,「中抜き」が起こり,著者から読者,つまり研究者同士で直取引するような状況も増えてくるだろう。

それでは図書館にとって具合が悪いというので,図書館は生き残りを図って,著者と利用者の間に入ろうとしている。これを'Re-Intermediation'と言うようである。例えば,URLは変動するのでアクセスが安定しないから,そこに図書館が介入してある種の安定化機能を果たそうといったものである。

メタデータ

メタデータやXML等については,標準化が課題である。お互いにコミュニケーションできるように規格を合わせる必要があるが,どの規格が主流になるかまだ分からない。

初期のインターネットは,研究者間のお遊び文化であった。好きな人たちが集まっていろいろ決めてきた。それはRFC(Request for Comments,ご意見募集)に今でも残っている。インターネットの商業化以降もRFCが相変わらず適用されているが,ISOの決定手続きと対比すると「民主的」な感じがするが,反面,非常に扱いにくい。

デジタルコンテンツ関連の規格の特性は,物理や自然科学的な必然性はあまりなく,相互の単なる約束事が多い。お互いその規格を採用すればつながるというレベルなので,自然科学的根拠が少ない。そうなると,規格同士の優劣判定をどのようにしたらよいか。

規格論では,先行者,追随者,新規参入者という区分が出てくる。これは,規格Aと規格Bで争った場合に,勝った人,負けたのでやむなく追随する人,模様眺めをしていて後からどちらか強いほうへ付く人という3者の区分けである。規格が関係するときに何を採用するかを判断することは非常に難しい部分だろう。

コンテンツは,作るのに相当の人手と時間がかかる。ソフトウエアやハードウエアは,規格が変わればそれに合わせて作り直して売れば良い。規格が変わるとかえって儲かることもある。しかし,コンテンツ関連では蓄積性,継続性が重要なので,現在のように標準規格が不安定な状況は非常に困る。

このため,ソニーとかNTTのような大企業では,上流から下流までの系列化,垂直統合を図っている。電話会社がコンテンツ制作会社を買収するなどは,実に象徴的である。しからば,中小企業はどうしていけばいいか,これは難問で,結局,真剣かつ周到な模様眺めと,機敏な選択行動が肝要ではないか。

なお,国立情報学研究所では,以上の流れの中で,「学術情報ポータルサイト」を2002年4月から開始する。学術情報のワンストップショッピングの仕組みを提供していく予定である。(終り)
(2002年2月8日PAGE2002コンファレンスI1「コンテンツとメタデータ」)JAGAT 通信&メディア研究会 会報「VEHICLE」2002年3月号より

■国立情報学研究所 http://www.nii.ac.jp/index-j.html
■学術情報の総合プラットフォーム「GeNii(ジーニイ)」 http://ge.nii.ac.jp/outline-j.html

関連セミナー 「コンテンツ高度利用のためのメタデータ
DublinCore,SemanticWeb,Mpeg-7など今もっとも話題のメタデータ技術について紹介

2002/05/21 00:00:00


公益社団法人日本印刷技術協会