--
このメールは Google グループのグループ「Chainer Japanese User Group」に登録しているユーザーに送られています。
このグループから退会し、グループからのメールの配信を停止するには chainer-jp+unsubscribe@googlegroups.com にメールを送信してください。
このグループに投稿するには chain...@googlegroups.com にメールを送信してください。
このディスカッションをウェブ上で閲覧するには https://groups.google.com/d/msgid/chainer-jp/c5d73598-a10a-481b-aa5a-0bc10eca603c%40googlegroups.com にアクセスしてください。
その他のオプションについては https://groups.google.com/d/optout にアクセスしてください。
chainer.cuda.get_device(0).use() # Make a specified GPU current model.to_gpu() # Copy the model to the GPU
updater = training.StandardUpdater(train_iter, optimizer, device=0) trainer.extend(extensions.Evaluator(test_iter, model, device=0))
GPUで早くなる条件は、大雑把に言えば1.ちゃんとGPUをつかいきる、2. 無駄な待ち時間が発生しない、という点が大きいです。1はミニバッチサイズが影響を受けます。バッチサイズを確認してください。十分大きくする必要があります2は同期の頻度の問題になります。同期が発生するのはto_cpuなど、cupy.ndarrayの値を取得するところで主に発生します。無駄な転送が起こっていないか確認してください。パフォーマンスの確認は、nvprofよりnvvpの方が確実です。そちらの利用も検討してください
2016年8月25日 14:22 sohei arisaka <cramp...@gmail.com>:
お世話になっております。時系列データをauto-encoderにかけるプログラムを作成していますが、GPUでの実行の方がCPUでの実行よりも遅くなってしまいます。gpu : 165iter/seccpu : 300iter/secどこがネックになっているのか、どのように書き直せばよいのか分からず困っております。コードを添付いたしますので、解決法をご教示いただけないでしょうか。実行環境はAWSを使用しており、サンプルのmnistのコードではGPUで正常に(CPUよりも速く)実行できることを確認しています。インスタンス: g2.xlargeAMI: Bitfusion Boost Ubuntu 14 Caffechainer: v1.14.0何卒よろしくお願いいたします。
--
このメールは Google グループのグループ「Chainer Japanese User Group」に登録しているユーザーに送られています。
このグループから退会し、グループからのメールの配信を停止するには chainer-jp+...@googlegroups.com にメールを送信してください。