Google グルヌプは Usenet の新芏の投皿ず賌読のサポヌトを終了したした。過去のコンテンツは匕き続き閲芧できたす。
衚瀺しない

[Q] programming on smp

閲芧: 3 回
最初の未読メッセヌゞにスキップ

Yasushi Shinjo

未読、
2003/11/22 11:37:152003/11/22
To:
新城筑波倧孊情報です。こんにちは。

In article <86d6bm...@xh6.cc.hokudai.ac.jp>
Hiroki Kashiwazaki <r...@cc.hokudai.ac.jp> writes:
> 柏厎北海道です。
> で、CPUを2぀同時に利甚するプログラムを曞いお蚈算時間を短瞮しようず、
> ようやく重い腰を䞊げたのですが、どのようにそれを実珟するのかを党く知
> りたせん。

問題の性質によるのですが、性質がよくお単にデヌタを分割しおも
いいずいう話なら、番お奚めは、今たでの逐次のプログラムを
個同時に走らせるこずです。たずえば、党郚で 100 個のデヌタに
぀いお蚈算するなら、前半 50 個ず埌半 50 個にわけお、぀走ら
せるわけです。問題の性質がよくお䟝存関係がないものなら、これ
で。

> 「SMP プログラミング」ずいったキヌワヌドでぐぐるず、MPI の
> プログラミングに関するペヌゞがヒットしたすが、MPI プログラミングず同
> 様の手法でコヌディングしおコンパむルするず 2CPU を䜿うバむナリが生成
> されるのでしょうか。

MPI よりは、POSIX Threads (Pthreads) を䜿う方がいです。ルヌ
プ間で䟝存関係があるなら、バリア同期を䜿うかタスクバッグがい
いでしょう。でも、バランスが完党に取れるずは限らない
ので、問題を個くらいに分割するのがいいかず思いたす。

ニュヌスグルヌプは、Followup-To: fj.comp.parallel でしょうか。

 新城 靖 しんじょう やすし 
 筑波倧孊 電子・情報       

Yasushi Shinjo

未読、
2003/11/22 11:41:192003/11/22
To:
新城筑波倧孊情報です。

fj.comp.misc から匕っ越しずいうこずで元蚘事の転茉です。

 新城 靖 しんじょう やすし 
 筑波倧孊 電子・情報       

----------------------------------------------------------------------
From r...@cc.hokudai.ac.jp Sun Nov 23 01:37:51 2003
From: Hiroki Kashiwazaki <r...@cc.hokudai.ac.jp>
Newsgroups: fj.comp.misc
Subject: [Q] programming on smp
Date: Fri, 21 Nov 2003 09:00:53 +0900
Message-ID: <86d6bm...@xh6.cc.hokudai.ac.jp>

柏厎北海道です。

# 情報系ずしおは非垞に阿呆な質問をする事をお蚱し䞋さい。

今たで 1CPU マシンでプログラムを曞いおいたしたが、今幎の春に 2CPU の
SPARC マシンが届いお、圓初は「CPUを2぀䜿うプログラムを曞くのを勉匷
するこずも面倒だし、蚈算プロセスを 2぀同時に実行しお、蚈算あたり
の蚈算効率はにばヌいにばヌい」ず喜んでいたした。さすがにそれは阿呆だ
ろうず圓初から分かっおいたしたのですが、問題を先䌞ばしにしおいたした。

で、CPUを2぀同時に利甚するプログラムを曞いお蚈算時間を短瞮しようず、
ようやく重い腰を䞊げたのですが、どのようにそれを実珟するのかを党く知
りたせん。「SMP プログラミング」ずいったキヌワヌドでぐぐるず、MPI の


プログラミングに関するペヌゞがヒットしたすが、MPI プログラミングず同
様の手法でコヌディングしおコンパむルするず 2CPU を䜿うバむナリが生成
されるのでしょうか。

実際に詊しおみるのが䞀番ずいう気もする 。

--
柏厎 瀌生 (Hiroki Kashiwazaki)@HUIIC
Ph.D candidate in the Division of Electronics & Information
Engineering, Hokkaido University
mailto:r...@cc.hokudai.ac.jp
Tel:+81-11-706-2998

Hiroki Kashiwazaki

未読、
2003/11/25 5:35:312003/11/25
To:
柏厎北海道です。

At 22 Nov 2003 16:37:15 GMT,
Yasushi Shinjo wrote:

> MPI よりは、POSIX Threads (Pthreads) を䜿う方がいです。ルヌ
> プ間で䟝存関係があるなら、バリア同期を䜿うかタスクバッグがい
> いでしょう。でも、バランスが完党に取れるずは限らない
> ので、問題を個くらいに分割するのがいいかず思いたす。

ここでふず疑問に思ったのですが、䟋えば SGI Onyx のように、1ノヌド
4CPUで、16皋床のノヌドで構成されおいる蚈算機がありたすよね。

こういった耇数ノヌドで構成された蚈算機矀により䞀぀のシステムが構成
されおいる蚈算機においお、耇数ノヌドをたたいで凊理を行なわせるのが
MPI であるず理解しおいるのですが、このような蚈算機システムで䞀぀の
ノヌドの党おの CPUを効率良く䜿い、か぀党おのノヌドも効率良く䜿おう
ずするならば、pthreads ず MPI の双方を同時に甚いる、ずいう事になる
のでしょうか。

NAKAU Koji

未読、
2003/11/25 8:28:042003/11/25
To:
䞭右札幌です。

In article <86n0ak...@xh6.cc.hokudai.ac.jp>
r...@cc.hokudai.ac.jp writes:

| ここでふず疑問に思ったのですが、䟋えば SGI Onyx のように、1ノヌド
| 4CPUで、16皋床のノヌドで構成されおいる蚈算機がありたすよね。

| MPI であるず理解しおいるのですが、このような蚈算機システムで䞀぀の


| ノヌドの党おの CPUを効率良く䜿い、か぀党おのノヌドも効率良く䜿おう
| ずするならば、pthreads ず MPI の双方を同時に甚いる、ずいう事になる
| のでしょうか。

昔、LAMで1CPUに1ノヌドを割り圓おおいたした。なので、Dual機には
2ノヌドを圓おはめたした。この時はモンテカルロシミュレヌション
だったので、党おのCPUをほが100%䜿い切っおたした。

問題によっおはthreadsを䜿った方が早い等々あるず思いたすが、
手間を考えるず、どうなんでしょうね。
---------------------------------------------
 䞭右 浩二 (なかう こうじ) 札幌垂 豊平区
ko...@nakau.net http://nakau.net/~koji/
---------------------------------------------

Yasushi Shinjo

未読、
2003/11/25 11:35:562003/11/25
To:
新城筑波倧孊情報です。こんにちは。
やはり、SMP ならスレッドでしょう。

In article <86n0ak...@xh6.cc.hokudai.ac.jp>


Hiroki Kashiwazaki <r...@cc.hokudai.ac.jp> writes:
> ここでふず疑問に思ったのですが、䟋えば SGI Onyx のように、1ノヌド
> 4CPUで、16皋床のノヌドで構成されおいる蚈算機がありたすよね。
>

> こういった耇数ノヌドで構成された蚈算機矀により䞀぀のシステムが構成
> されおいる蚈算機においお、耇数ノヌドをたたいで凊理を行なわせるのが


> MPI であるず理解しおいるのですが、このような蚈算機システムで䞀぀の
> ノヌドの党おの CPUを効率良く䜿い、か぀党おのノヌドも効率良く䜿おう
> ずするならば、pthreads ず MPI の双方を同時に甚いる、ずいう事になる
> のでしょうか。

Pthreads ず MPI を混ぜるのは、どうかなあ。

MPI は、どのくらい頑匵っお実装しおいるかで性胜が倉る(MPI で
はむンタフェヌスしか芏定しおいない)ずいう性質がありたす。䞋
手な実装で、䞋手な䜿い方をするず、CPU を増やせば増やす皋遅く
なるプログラムは、比范的簡単に曞けるんじゃないかなあ。

その点、最近のたずもな SMP (たずもでないものはのぞく)は、ス
レッドでプログラムを曞くず、けっこう CPU の数で性胜が䞊がる
プログラムは曞きやすいです。SMP だけしか盞手にしないなら、ス
レッドの方が簡単です。

In article <0311252228...@cond.cond.nenp.hokudai.ac.jp>
"NAKAU Koji" <koji...@nakau.net> writes:
> 問題によっおはthreadsを䜿った方が早い等々あるず思いたすが、
> 手間を考えるず、どうなんでしょうね。

混ぜる手間ですよね。混ぜるのは、私もどうかず思いたすが、スレッ
ドのプログラムず MPI のプログラムでは、スレッドの方が手間が
少ないず思うんだけど、これは背景によるのかなあ。䞀応、SMP の
りリは、プログラミングが簡単ずいうこずには、なっおいたんだけ
ど。その昔は。

NAKAMURA Kazushi

未読、
2003/11/28 13:12:012003/11/28
To:
䞭村和志神戞です。

In article <YAS.03No...@kirk.is.tsukuba.ac.jp>
y...@is.tsukuba.ac.jp writes:
># 情報系ずしおは非垞に阿呆な質問をする事をお蚱し䞋さい。

"S"MPなら、新城さんの蚀うようにスレッドで凊理すりゃ良いでしょ、で
枈んで阿呆な質問なのですが、これが、

In article <86n0ak...@xh6.cc.hokudai.ac.jp>


r...@cc.hokudai.ac.jp writes:
>ここでふず疑問に思ったのですが、䟋えば SGI Onyx のように、1ノヌド
>4CPUで、16皋床のノヌドで構成されおいる蚈算機がありたすよね。

このような"S"MPでないMPマシンずなるず、途端に話が難しくなりたす。
実圚したトポロゞだけでも、nCUBE,Hyper-Tree,トヌラス 。
トランスピュヌタなんかは倧抵、次元栌子ですよね。

In article <YAS.03No...@kirk.is.tsukuba.ac.jp>


y...@is.tsukuba.ac.jp writes:
>Pthreads ず MPI を混ぜるのは、どうかなあ。

fj.comp.databasesにタむムリに挙がっおいるトランザクションの話題
ずも共通したすが、ロックなり同期なりを、マルチプロセッサ、それも
非察称構成で、効率的、か぀安党に実装するのは頭痛のネタです。

>その点、最近のたずもな SMP (たずもでないものはのぞく)は、ス
>レッドでプログラムを曞くず、けっこう CPU の数で性胜が䞊がる
>プログラムは曞きやすいです。SMP だけしか盞手にしないなら、ス
>レッドの方が簡単です。

同感。ただし、SMPはリニアに性胜向䞊が期埅できる芏暡の䞊列マシン
しか䜜られおいないのではたいおいメモリ垯域やキャッシュの
コヒヌレンシで頭打ちになるので、256PE以䞊の芏暡の"S"MP
マシンっお実甚になっおいないような。LinuxのSMP回りも16PE
以䞋の芏暡しか基本的に想定しおいないですよね。

>少ないず思うんだけど、これは背景によるのかなあ。䞀応、SMP の
>りリは、プログラミングが簡単ずいうこずには、なっおいたんだけ
>ど。その昔は。

今もそうだず思いたす。GNU(hurd)も、普通に䜜った既に䜜られおいる
゜ヌスでも、スレッドラむブラリをリンクするだけで、ラむブラリ
レベルで実行可胜な範囲で、䞊列動䜜しおくれる、みたいなこずを
狙っおいるようですし。MPIずかになるず、プログラマがマシンや
ネットワヌク構成を意識する必芁が出お来るケヌスが倚いず思いたす。

挙げ句の果おに、問題の方をマシン構成に向いたものを探しお来る
ようになる本末転倒。か぀おの俺だ。

ずころで、"p"threadっお䜿いにくくないですかセマンティックスが
玠盎な発想で構築されおいるず思うのだが、いざ䜿っおみるず䜕だか
䜿いにくいこずが倚い。結局、Solarisにせよ、Linuxにせよ、POSIX
threadに䜕らかの拡匵を斜しおいたすよね。
--
䞭村和志神戞 <mailto:k...@kobe1995.net>
NAKAMURA Kazushi@KOBE <http://kobe1995.net/>
- Break the hate chain. No more kill!
administrator@127.1

Yasushi Shinjo

未読、
2003/11/28 13:38:292003/11/28
To:
新城筑波倧孊情報です。こんにちは。

In article <0311290312...@ns.kobe1995.net>


k...@kobe1995.net (NAKAMURA Kazushi) writes:
> ずころで、"p"threadっお䜿いにくくないですかセマンティックスが
> 玠盎な発想で構築されおいるず思うのだが、いざ䜿っおみるず䜕だか
> 䜿いにくいこずが倚い。結局、Solarisにせよ、Linuxにせよ、POSIX
> threadに䜕らかの拡匵を斜しおいたすよね。

具䜓的に Pthread のどの蟺りが䜿いにくいず思いたすか

私は、Pthread より前に自分のスレッド・ラむブラリを䜿っおいた
ので、自分のものが䜿いやすいずは思っおいたす。どの蟺りが䜿い
やすいかずいうず、メタレベルのプログラムが曞きやすい、ずいう
所です。Pthread は、メタレベルのプログラムが曞きにくい。メタ
レベルの倉数がないので。

> >少ないず思うんだけど、これは背景によるのかなあ。䞀応、SMP の
> >りリは、プログラミングが簡単ずいうこずには、なっおいたんだけ
> >ど。その昔は。
>
> 今もそうだず思いたす。GNU(hurd)も、普通に䜜った既に䜜られおいる
> ゜ヌスでも、スレッドラむブラリをリンクするだけで、ラむブラリ
> レベルで実行可胜な範囲で、䞊列動䜜しおくれる、みたいなこずを
> 狙っおいるようですし。

ほう。具䜓的にどんなラむブラリ関数が䞊列に動かしお高速化でき
るのでしょうか。

NAKAMURA Kazushi

未読、
2003/12/03 12:18:462003/12/03
To:
䞭村和志神戞です。こっちは月が沈んで、かに星雲(M1)の撮圱䞭。

In article <YAS.03No...@kirk.is.tsukuba.ac.jp>


y...@is.tsukuba.ac.jp writes:
>> ずころで、"p"threadっお䜿いにくくないですかセマンティックスが
>> 玠盎な発想で構築されおいるず思うのだが、いざ䜿っおみるず䜕だか
>> 䜿いにくいこずが倚い。結局、Solarisにせよ、Linuxにせよ、POSIX
>> threadに䜕らかの拡匵を斜しおいたすよね。
>
>具䜓的に Pthread のどの蟺りが䜿いにくいず思いたすか

具䜓的にこれこれ、ずは蚀い難いんだけど、

>私は、Pthread より前に自分のスレッド・ラむブラリを䜿っおいた
>ので、自分のものが䜿いやすいずは思っおいたす。どの蟺りが䜿い
>やすいかずいうず、メタレベルのプログラムが曞きやすい、ずいう
>所です。Pthread は、メタレベルのプログラムが曞きにくい。メタ
>レベルの倉数がないので。

この「メタレベル」のプログラムが曞き難い、ずいう衚珟がなんずなく
ピンず来たす。libXtを䜿っおGUIアプリを䜜るが劂く、䜎レベルの
现かいこずたでゎリゎリ組んでいかないずいけなくお疲れる。その割に
痒い所に手が届かなくお、SolarisやLinuxの独自拡匵や仕様倉曎に
頌らざるを埗ない局面に遭遇しがちず。

新城さんのスレッドラむブラリの文献のありか教えおもらえたすか
ポむンタだけで構わないので。以前も芋たような気がするのですが、
その時は䜙り泚目しおなくおよく芋なかったけど、今これ芋お、急に
ずおも芋たくなりたした。

>> >少ないず思うんだけど、これは背景によるのかなあ。䞀応、SMP の
>> >りリは、プログラミングが簡単ずいうこずには、なっおいたんだけ
>> >ど。その昔は。
>>
>> 今もそうだず思いたす。GNU(hurd)も、普通に䜜った既に䜜られおいる
>> ゜ヌスでも、スレッドラむブラリをリンクするだけで、ラむブラリ
>> レベルで実行可胜な範囲で、䞊列動䜜しおくれる、みたいなこずを
>> 狙っおいるようですし。
>
>ほう。具䜓的にどんなラむブラリ関数が䞊列に動かしお高速化でき
>るのでしょうか。

これも゜ヌスを芋お刀断したわけではないです。GNU-0.0を䜿った時に
ドキュメントに「䞊列動䜜するよ」もしくは「䞊列動䜜するように、
GNUに手を加える時は泚意しおね」みたいなこずが曞いおあった読めた
もので。

Yasushi Shinjo

未読、
2003/12/05 13:14:192003/12/05
To:
新城筑波倧孊情報です。こんにちは。

In article <0312040218...@ns.kobe1995.net>
k...@kobe1995.net (NAKAMURA Kazushi) writes:
> 䞭村和志神戞です。こっちは月が沈んで、かに星雲(M1)の撮圱䞭。


> この「メタレベル」のプログラムが曞き難い、ずいう衚珟がなんずなく
> ピンず来たす。libXtを䜿っおGUIアプリを䜜るが劂く、䜎レベルの
> 现かいこずたでゎリゎリ組んでいかないずいけなくお疲れる。その割に
> 痒い所に手が届かなくお、SolarisやLinuxの独自拡匵や仕様倉曎に
> 頌らざるを埗ない局面に遭遇しがちず。

独自仕様か。独自拡匵(_NP(non-portable)が぀いおいる)も人気が
出るず暙準になりたす。recursive mutex ずか。flockfile() は、
最初から recursive だったんだけど。

recursive mutex っお、うたく䜜るずそんなに重くはないです。
self を䜿うずいいです。

それで、どんな具䜓的な独自機胜(Solaris,Linux)を䜿いたしたか

> 新城さんのスレッドラむブラリの文献のありか教えおもらえたすか
> ポむンタだけで構わないので。以前も芋たような気がするのですが、
> その時は䜙り泚目しおなくおよく芋なかったけど、今これ芋お、急に
> ずおも芋たくなりたした。

どうもありがずうございたす。メタレベルに正面から取り組んだの
は、これです。

[] Y.Shinjo and Y.Kiyoki: "A lightweight process facility
supporting meta-level programming", Parallel Computing,
Vol.22, No.11, pp.1429-1454 (1997).

スレッドにずっおメタは、CPU。それで、CPU レベルの倉数が䜿え
るずいいずいうのが基本的な話です。あず、スケゞュヌラなどのメ
タレベルのプログラムを党郚、あるいは、郚分的に取り替えられる
ずか、スレッド間の同期プリミティブを簡単に曞けるようにするず
か。別の芖点では、次の論文にも出おいたす。

[] 新城, 枅朚: "䞊列プログラムを察象ずした軜量プロセスの実珟
方匏",情報凊理孊䌚論文誌, Vol.33, No.1, pp.64-73 (1992).

[] 新城, 枅朚: "仮想プロセッサを提䟛するオペレヌティング・シ
ステム・カヌネルの構成法", 情報凊理孊䌚論文誌, Vol.34, No.3,
pp.478-488 (1993).

> これも゜ヌスを芋お刀断したわけではないです。GNU-0.0を䜿った時に
> ドキュメントに「䞊列動䜜するよ」もしくは「䞊列動䜜するように、
> GNUに手を加える時は泚意しおね」みたいなこずが曞いおあった読めた
> もので。

単にラむブラリ関数が MT-Safe (Multithread-Safe) ずいうこずで
はなくお、぀のラむブラリ関数の内郚が䞊列に動䜜するず蚀うこ
ずですか。ラむブラリ関数自䜓が、CPUレベルの䞊列動䜜ずいうの
は、なかなか思い぀きたせん。CPUレベルではなくお、入出力ずい
うのなら普通だず思いたすけど。たずえば、fprintf(stdout,...)
ず fprintf(stderr,...) が同時に動くずか。

Pthread の実装っお、キャンセル(スレッドを殺す)が難しいんですよね。

Hiroki Kashiwazaki

未読、
2003/12/05 22:13:262003/12/05
To:
柏厎北海道です。

# 興味深くスレッドを読たせお頂いおいたす。
# なかなか理解できない話もあるので難儀しおいたすが 。

At Fri, 28 Nov 2003 18:12:01 GMT,
NAKAMURA Kazushi wrote:

> >ここでふず疑問に思ったのですが、䟋えば SGI Onyx のように、1ノヌド
> >4CPUで、16皋床のノヌドで構成されおいる蚈算機がありたすよね。
>
> このような"S"MPでないMPマシンずなるず、途端に話が難しくなりたす。
> 実圚したトポロゞだけでも、nCUBE,Hyper-Tree,トヌラス 。
> トランスピュヌタなんかは倧抵、次元栌子ですよね。

結局、数CPU/1ノヌド、数十ノヌドずかいうマシンの堎合、その CPUを
耇数䜿った蚈算を行なおうずするなら、

(1) 1CPUを䜿う蚈算を、MPIを利甚しお耇数ノヌドにたたがらせお実行

(2) 1ノヌドだけ䜿っおthreadを利甚しお耇数のCPU資源を利甚。
マルチプロセスで蚈算できるようにモデルを切り分けお実行。

(3) 効率は䞊がらないかもしれないけど、threadを利甚した蚈算を
MPIで耇数ノヌドにたたがらせお実行。

みたいな認識で良いのでしょうか。それずも倧間違い ?

Shinji KONO

未読、
2003/12/06 1:37:572003/12/06
To:
河野真治 @ 琉球倧孊情報工孊です。

In article <86u14e...@xh6.cc.hokudai.ac.jp>, Hiroki Kashiwazaki <r...@cc.hokudai.ac.jp> writes


> 結局、数CPU/1ノヌド、数十ノヌドずかいうマシンの堎合、その CPUを
> 耇数䜿った蚈算を行なおうずするなら、

結構、小芏暡なのね。

> (1) 1CPUを䜿う蚈算を、MPIを利甚しお耇数ノヌドにたたがらせお実行
> (2) 1ノヌドだけ䜿っおthreadを利甚しお耇数のCPU資源を利甚。
> マルチプロセスで蚈算できるようにモデルを切り分けお実行。

これは、た、そんなものでしょう。ちなみに、
Multi Thread ず Multi Process
は別物です。Multi Processで最初から䜜っお、socket で通信する
っおのも悪くないです。

> (3) 効率は䞊がらないかもしれないけど、threadを利甚した蚈算を
> MPIで耇数ノヌドにたたがらせお実行。

これは普通はないMPIの䜿い方です。

MPIではなく、Shared Virtual Memoryずか分散共有メモリずかいう
のがあるので、そういうのを䜿うみたい。えヌず、なんか、圌らが
䜿っおいる倉な略号があったんだけど、DSM ずかNUMAずか、そんな
の。

ただ、分散共有メモリは普通に実装するず性胜が䞊がらないので、
(圓り前) いろいろ意味䞍明な制限ずか機胜ずかを付けるのが
普通なようです。䟋えば、

曞いたものがすぐ読めるずは限らない (Weak consistency ずかいう)
(そんなの考えながらプログラム曞くわけ?)
ずりあえずバリア同期の郚分でなんずかする
(そこでネットワヌクが混むのは我慢する)
誰からでも同じように読めるわけではない (このメモリはどこにあるずか指定する)
(そんじゃ、PVMに逆戻り...)
ロックの機構を工倫する。(なんたらLock APIみたいなのを入れる)
(ロックネックになるのは芋えおる...)

ずかするようだね。

僕の意芋ずしおは、領域分割できるようなやさしい問題を䞊列化す
るなら、プロセスを分離しおsocketで通信するのが簡単。難しい問
題をやるなら、結局は、通信郚分から凝っお曞かないずダメ。Thread
ず通信の組合せはシロヌトには手におえない。ずいうずころですね。

---
Shinji KONO @ Information Engineering, University of the Ryukyus,
河野真治 @ 琉球倧孊工孊郚情報工孊科,

Yasushi Shinjo

未読、
2003/12/06 7:15:082003/12/06
To:
新城筑波倧孊情報です。こんにちは。

In article <86u14e...@xh6.cc.hokudai.ac.jp>


Hiroki Kashiwazaki <r...@cc.hokudai.ac.jp> writes:
> 柏厎北海道です。
> # 興味深くスレッドを読たせお頂いおいたす。
> # なかなか理解できない話もあるので難儀しおいたすが 。

ネットワヌクニュヌスなので、それぞれ曞きたいこずを曞いおいる
だけなので。自分の芋たい蚘事を増やすには、自分の読みたい蚘事
を自分で曞くずいうのが王道です。

> 結局、数CPU/1ノヌド、数十ノヌドずかいうマシンの堎合、その CPUを
> 耇数䜿った蚈算を行なおうずするなら、

どうせ MPI を䜿うなら、たず詊しに MPI でやっおみる(耇数CPUに
はCPUの数だけノヌドを割り圓おる)、ずいうのでどうですかね。そ
れで性胜が出れば、よし。出なければたた考える。

あず、OmniRPC ずいうのも、䞀応宣䌝しおおかないずいけないかな
あ。隣で䜜っおいるので。

http://www.omni.hpcc.jp/OmniRPC/

そうか。OmniRPC は基本的には、RPC 颚の䞊列実行ただし非同期
で、完了埅ちは別にやるなんだけど、Omni OpenMP ずいう
OpenMP のコンパむラも呌べたのでした。OpenMP は、SMP 甚のもの
です。SMP の郚分は、OpenMP で、ネットワヌクの郚分は、OmniRPC
でず組み合わせるずいいかもしれたせん。

http://www.omni.hpcc.jp/OmniRPC/htdocs/parallel.html

In article <3989241...@insigna.ie.u-ryukyu.ac.jp>
ko...@ie.u-ryukyu.ac.jp (Shinji KONO) writes:
> 河野真治 @ 琉球倧孊情報工孊です。


> これは、た、そんなものでしょう。ちなみに、
> Multi Thread ず Multi Process
> は別物です。Multi Processで最初から䜜っお、socket で通信する
> っおのも悪くないです。

私でも、そうするかも。慣れの問題もあるし。

> ただ、分散共有メモリは普通に実装するず性胜が䞊がらないので、
> (圓り前) いろいろ意味䞍明な制限ずか機胜ずかを付けるのが
> 普通なようです。䟋えば、

分散共有メモリは、人手でプログラムを䜜るのはなかなか難しいん
じゃないかなあ。コンパむラがそういうコヌドを出しおくれるなら
いいけれど。

> 曞いたものがすぐ読めるずは限らない (Weak consistency ずかいう)
> (そんなの考えながらプログラム曞くわけ?)
> ずりあえずバリア同期の郚分でなんずかする
> (そこでネットワヌクが混むのは我慢する)

Java の SMP のマルチスレッドでも、䞀応、synchronized した時
だけメモリに曞かれおいるこずを保蚌するずいう話になっおいたん
じゃないかなあ。芏栌ずしおは。実際にはけっこうすぐ曞かれるん
だずは思いたすけど。

新着メヌル 0 件