ベンチマーク Linpack hpl-2.0 http://www.netlib.org/benchmark/hpl/ hplを導入するにあたり, Cell SDK 3.1 MPICH or OpenMPI ATLAS を事前にインストールする必要がある。らしい。 ATLASのインストール †とりあえずmake,マシンに合わせて質問に答える。 終わると最後の方にコマンドが書いてある 例) make install arch=hogehogehogehoge これを実行すると無事インストール終了。 ものすごく時間かかる(僕がやったときは7時間程度)ので注意 MPICH †無難にMPICH2を選択 。解凍後, ./configure --prefix=DIR (DIRはnfsで共有しているディレクトリが望ましい。気がする) make && make install 今回は基本的にrshを用いた通信を採用した。 [MPICHをインストールしたディレクトリ]/bin/mpdboot.py を編集し,77行目付近を 前) rshCmd = 'ssh' 後) rshCmd = 'rsh' とする。 あとは/etc/hosts,/etc/hosts.allow,/etc/hosts.equivに通信するノードと自分のIPを記述。その後,bash{ rc | profile } or cshrc あたりを編集 MPICH_HOME=[インストールしたディレクトリ] PATH=$MPICH_HOME/bin:$PATH LD_LIBRARY_PATH=$MPICH_HOME/lib:$PATH その後sourceすれば環境は大丈夫。だと思う。rsh-serverのインストールを忘れないこと。 HPL (High-Performance Linpack) †hplのインストール後は基本的にREADMEの通りに設定。 libmpich.a や libatlas.aのパスを間違えないこと。 その後 make arch=[なんとか] でインストールできる。 姫野ベンチマーク †各種インストール中暇すぎたので姫野ベンチマーク動かしてみた。現時点ではまだSPEのチューニングは一切なし。 http://accc.riken.jp/HPC/HimenoBMT/program2.htm ここからファイルをダウンロード。現在P01-P16までのマシンがMPIを使うための準備を終えているため,16並列で計算してみよう。PPEだけなので8基あたりで限界な予感 |