高木様 アドバイスありがとうございます。
あれからいろいろ試してみて、確認に時間がかかってしまいました。
しかし、何とかコンパイルできるまでになりました。
ありがとうございました。
手順は、以下の通りです。
1. FOCUSのホーム/home1/gxxx/uxxx/に OpenFOAM フォルダを作って、2.3.1の圧縮ファイルを転送。
2. 2.3.1の圧縮ファイルを解凍 tar xvzf OpenFOAM-2.3.1.tgz
/home1/gxxx/uxxx/OpenFOAM/OpenFOAM-2.3.1/etcにできたbashrcファイルで下記3行を確認
(gxxxはプロジェクト名、 uxxxはユーザー名)
export WM_PROJECT=OpenFOAM
export WM_PROJECT_VERSION=2.3.1
foamInstall=$HOME/$WM_PROJECT
3. コンパイルしたいsolverのあるフォルダに移動して、ターミナルで次の3行を実行。
module load PrgEnv-gnu482
module load gnu/openmpi165
source /home1/gxxx/uxxx/OpenFOAM/OpenFOAM-2.3.1/etc/bashrc
4. wclean
5. wmake
以上です。
ただ、何とか実行ファイルがコンパイルできるようになりましたが、計算したいcaseを実行すると
手元のlinuxでは出ていなかったエラーがたくさん出てしまって動きませんでした。
OpenFOAMnoエラーのようですが意味が解りません。
このあたりアドバイス頂けると助かります。
お手数をおかけしますが、よろしくお願いします。
(以下、エラーです)
--------------------------------------------------------------------------
[[18789,1],0]: A high-performance Open MPI point-to-point messaging module
was unable to find any relevant network interfaces:
Module: OpenFabrics (openib)
Host: g003
Another transport will be used instead, although this may result in
lower performance.
--------------------------------------------------------------------------
/*---------------------------------------------------------------------------*\
| ========= | |
| \\ / F ield | OpenFOAM: The Open Source CFD Toolbox |
| \\ / O peration | Version: 2.3.1 |
| \\ / A nd | Web:
www.OpenFOAM.org |
| \\/ M anipulation | |
\*---------------------------------------------------------------------------*/
Build : 2.3.1-262087cdf8db
Exec : testFoam -parallel
Date : Dec 24 2015
Time : 14:44:08
Host : "g003"
PID : 17104
[0]
[0]
[0] --> FOAM FATAL ERROR:
[0]
"/home2/gxxx/uxxx/testFoam/case/model01/system/decomposeParDict"
specifies 12 processors but job was started with 8 processors.
[0]
FOAM parallel run exiting
[0]
--------------------------------------------------------------------------
MPI_ABORT was invoked on rank 0 in communicator MPI_COMM_WORLD
with errorcode 1.
NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes.
You may or may not see output from other processes, depending on
exactly when Open MPI kills them.
--------------------------------------------------------------------------
--------------------------------------------------------------------------
mpirun has exited due to process rank 0 with PID 17104 on
node g003 exiting improperly. There are two reasons this could occur:
1. this process did not call "init" before exiting, but others in
the job did. This can cause a job to hang indefinitely while it waits
for all processes to call "init". By rule, if one process calls "init",
then ALL processes must call "init" prior to termination.
2. this process called "init", but exited without calling "finalize".
By rule, all processes that call "init" MUST call "finalize" prior to
exiting or it will be considered an "abnormal termination"
This may have caused other processes in the application to be
terminated by signals sent by mpirun (as reported here).
--------------------------------------------------------------------------
[g003:17103] 7 more processes have sent help message help-mpi-btl-base.txt / btl:no-nics
[g003:17103] Set MCA parameter "orte_base_help_aggregate" to 0 to see all help / error messages