こんにちは
大きなディスクイメージを用いたブロックマイグレーションが失敗するという問題に2週間ほど頭を悩ましており,
ask.openstack.orgに質問しましたが「This post is awaiting moderation」と表示され質問が公開されないのでここで質問させていただきます.
環境は以下のとおりです.
Ocataを用いた2ノード構成
1つ目はcontroller/network/computeノード,ホスト名Controller
2つ目はcomputeノード,ホスト名Compute1
移行したことのないノード(/var/lib/nova/instances/以下にイメージのキャッシュが存在しない)に初めてサーバ移動を行う場合,
小さなサイズ(CirrosOS 12MB,CentOS7クラウドイメージ 900MB)のブロックマイグレーションは成功しますが,
大きなサイズ(CentOS 4GB,WindowsServer 12GB)のブロックマイグレーションは失敗します.
失敗後,移行先のComputeノードの/var/lib/nova/instances/_base/
フォルダに
「UUID.part」と「UUID.converted」ファイルが作成されます.
[root@Controller ~(keystone_admin)]# ls /var/lib/nova/instances/_base/
52cddf19ae473d573a167265bc2f2f2de7db7a33.converted
52cddf19ae473d573a167265bc2f2f2de7db7a33.part
失敗後,再び同じ移行先に大きなサイズのサーバをブロックマイグレーションすると成功し
「UUID.part」と「UUID.converted」ファイルが消えます.
サイズの問題だと思い,downtimeやtimeoutの時間を伸ばしましたが初回は必ず失敗しました.
原因を教えていただけますか?
以下はCompute1からControllerへサーバ移動を行った場合のエラーログの一部です.
[root@Compute1 images]# cat /var/log/nova/nova-compute.log|grep ERROR
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [req-846635f8-2181-4f87-aab3-5e884af2a351 a765110a0c7a4dbb8a8beba76461c0a6 09573553ea22442093d2ad9ec201dc09 - - -] [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] Pre live migration failed at Controller
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] Traceback (most recent call last):
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] File "/usr/lib/python2.7/site-packages/nova/compute/manager.py", line 5409, in _do_live_migration
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] block_migration, disk, dest, migrate_data)
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] File "/usr/lib/python2.7/site-packages/nova/compute/rpcapi.py", line 723, in pre_live_migration
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] disk=disk, migrate_data=migrate_data)
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] File "/usr/lib/python2.7/site-packages/oslo_messaging/rpc/client.py", line 169, in call
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] retry=self.retry)
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] File "/usr/lib/python2.7/site-packages/oslo_messaging/transport.py", line 97, in _send
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] timeout=timeout, retry=retry)
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] File "/usr/lib/python2.7/site-packages/oslo_messaging/_drivers/amqpdriver.py", line 566, in send
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] retry=retry)
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] File "/usr/lib/python2.7/site-packages/oslo_messaging/_drivers/amqpdriver.py", line 555, in _send
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] result = self._waiter.wait(msg_id, timeout)
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] File "/usr/lib/python2.7/site-packages/oslo_messaging/_drivers/amqpdriver.py", line 447, in wait
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] message = self.waiters.get(msg_id, timeout=timeout)
2018-05-21 12:02:23.154 23069 ERROR nova.compute.manager [instance: 2d336132-d45a-4360-b88d-7053d1e3f56a] File "/usr/lib/python2.7/site-packages/oslo_messaging/_drivers/amqpdriver.py", line 335, in get