Message Passing Interface
Message Passing Interface(メッセージ パッシング インターフェース、MPI)とは、 並列コンピューティング利用するための標準化された規格である。実装自体を指すこともある。
複数のCPUが情報をバイト列からなるメッセージとして送受信することで協調動作を行えるようにする。自由に使用できる実装としてはMPICHが有名である。他にも商用ベンダなどによる独自の実装が存在する。
ライブラリレベルでの並列化であるため、言語を問わず利用でき、プログラマが細密なチューニングを行えるというメリットがある一方、利用にあたっては明示的に手続きを記述する必要があり、ロックの対処などもプログラマ側が大きな責任をもたなければならない。
業界団体や研究者らのメンバからなる MPI Forum によって規格が明確に定義されているため、ある環境で作成したプログラムが他の環境でも動作することが期待できる。
歴史
MPIへの取り組みは1991年夏にオーストリアの山荘での、小規模な研究者のグループのディスカッションから始まった。 その議論は、翌1992年4月29-30日のバージニア州ウィリアムズバーグで、分散メモリ環境のためのメッセージパッシング規格の標準化についてのワークショップに引き継がれた。このワークショップでは標準的なメッセージパッシングインタフェースに必須となるであろう基本的な機能について議論され、標準化に向けてワーキンググループが設立された。ジャック・ドンガラ、 Rolf Hempel、 Tony Hey、David W. Walkerは1992年11月にドラフトを提案し、これがMPI1となった。1992年11月にはMPIワーキンググループの会議がミネアポリスで行われ、そこで標準化プロセスをより公式な仕組みに乗せることが決められた。 MPIワーキンググループは1993年の最初の9ヶ月間は6週ごとにミーティングを行った。 MPIのドラフトの標準規格は1993年11月のスーパーコンピューティングカンファレンスで発表された。 パブリックコメントの期間を経て、その内容がMPIに反映され、1994年6月にMPI version 1.0がリリースされた。 これらのミーティングとE-mailでの議論がMPIフォーラムそのものであり、このフォーラムへの参加の権利は ハイパフォーマンスコンピューティング関係者の人たち全員に開かれている。
この頃MPIに対しては欧米の組織を中心に40の組織から約80人の人々が 関与していた。大手の並列計算のメーカーの多くが参加していたほか、 大学や政府の研究機関や、その他の企業からも研究者が参加していた。
MPIの標準ではコアライブラリのシンタックス(文法)とセマンティクス(手続き的なもの)を 定義することによって、FortranやCで移植可能なメッセージ パッシングを行うプログラムを幅広い分野で作れるようになっている。
MPIは基本的なルーチン群の仕様を明確に定義して並列計算機のメーカーに対して公開しているので、 彼らはそれに基づいて効率的に実装を進めることができる。その結果、各メーカーは 自社製品のマシンに低レベルのMPI標準に準拠したルーチン群の実装を搭載し、 さらにその上に高次の分散メモリ通信環境のルーチンを乗せることができる。 MPIは単純かつ基本的で移植可能なプログラムを書くことも可能である一方で、 ハイパフォーマンスなメッセージパッシングを先進的な計算機の上で 行うようなプログラミングも可能である。
メッセージパッシングの本当の意味での標準を目指そうという考え方に従って、 MPIではどれかの製品の機能を標準に採用するというやり方ではなく、 いくつかのシステムから最も有用な機能をMPI取り込むというやり方が 取られている。各機能はIBM由来、インテル由来、nCUBE由来、PVM由来、 Express由来、P4由来、PARMACS由来のものがある。 メッセージパッシングという手法が人気があるのは広い移植性と、分散メモリや 共有メモリでのマルチプロセッサによる処理、ワークステーションをネットワークで 接続したものやそれらすべてのような複合的な環境に対して適用可能なためである。 この手法は、様々の構成や、ネットワークの速度、メモリアーキテクチャーに依存せず 適用できる。
MPIは、ARPAと米国 National Science Foundationのグラント ASC-9310330、 NSF Science and Technology Center Cooperative agreement number CCR-8809615、 ヨーロッパではEsprit Project P6643から活動資金を供給されているほか、 University of TennesseeはMPIフォーラムを資金的に支えている。
概要
MPIはプログラミング言語とは独立の通信プロトコルで、並列計算機上で動く プログラムに使用される。通信はPint-to-Pointと集約型(ocllective communication)の 両方がサポートされている。 MPIは「メッセージパッシングアプリケーションおためのプログラミングインタフェース で、プロトコルとセマンティクスを定義することで、全ての実装において その機能がどう振る舞うべきかを仕様として定めている」 MPIのゴールはハイパフォーマンス、スケーラビリティ、移植性である。 MPIは現在でもハイパフォーマンスコンピューティングにおいては よく用いられる手法である。
MPIは有名な標準の承認を得た規格ではない。しかしMPIは分散メモリ上で動作する 並列計算プログラムのプロセス間通信のモデルとしてはデファクトスタンダードと なっている。実際に、コンピュータークラスターのような構成の分散メモリ型スーパー コンピューター用のプログラムではMPIはよく採用される。 MPI-1のモデルは共有メモリを一切必要とせず、MPI-2は限定的に分散共有メモリの 概念を導入している。にもかかわらず、MPIのプログラムは共有メモリ型の計算機で 使用されることもよくある。これは共有メモリ型のプログラミングのモデルに 対して、MPI型のモデルの設計の方がNUMAアーキテクチャーのシステムでは メモリアクセスの局所性(参照の局所性)などの点で適しているためである。
MPIはOSI参照モデルにあてはめると5層(セッション層)以上ということに 役割的にはなるはずだが、 実際の実装はソケットとTCP(トランスポート層)を使用しているので、より広い 範囲(4-7層)をカバーしている。
多くのMPIの実装では、C、C++、Fortranから直接呼ぶことのできるいくつかの ルーチンを中心として構成されている。そしてC#やJava、Pythonなどの他の言語は C等で作ったライブラリを介せばMPIを利用できる。 MPIがMPI制定以前のメッセージパッシングライブラリよりも優れているのは、 移植性とスピードである。MPIはほぼ全ての分散メモリ環境で実装されているので、 それらの間ではどこへでも移植可能で、各ハードウェアに対して実装されるときに 最適化されているので高速に動作する。