Низкая производительность IO В xenserver Creedence Beta 3

12 views
Skip to first unread message

Dmitrij Nemirskij

unread,
Dec 11, 2014, 3:55:19 AM12/11/14
to xen-h...@googlegroups.com
Приветствую.
Решили погонять xenserver Creedence Beta 3, сборка от 31.10
Прогнали дисковую из хоста.
[root@h09-g04 ~]# lvdisplay /dev/VG_XenStorage-0b2d44d2-6b88-c95b-0169-c1eccea5e7c0/VHD-51712197-0f75-41ec-8768-cc664777de80
  --- Logical volume ---
  LV Name                /dev/VG_XenStorage-0b2d44d2-6b88-c95b-0169-c1eccea5e7c0/VHD-51712197-0f75-41ec-8768-cc664777de80
  VG Name                VG_XenStorage-0b2d44d2-6b88-c95b-0169-c1eccea5e7c0
  LV UUID                pHK0cm-fIQJ-Iaq5-xesG-DpiI-kcrh-R34Nbf
  LV Write Access        read/write
  LV Status              available
  # open                 1
  LV Size                15.04 GB
  Current LE             3849
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:2

[root@h09-g04 ~]# fio --section=randrw ~/fio
randrw: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=31
fio-2.1.7
Starting 1 process
^Cbs: 1 (f=1): [m] [54.8% done] [2188KB/2144KB/0KB /s] [547/536/0 iops] [eta 28m:16s]
fio: terminating on signal 2

randrw: (groupid=0, jobs=1): err= 0: pid=16231: Thu Dec 11 12:39:59 2014
  read : io=4218.8MB, bw=2102.8KB/s, iops=525, runt=2054458msec
    slat (usec): min=0, max=282, avg=18.93, stdev= 4.81
    clat (usec): min=0, max=2338.2K, avg=58343.51, stdev=63627.92
     lat (usec): min=0, max=2338.2K, avg=58362.87, stdev=63627.87
    clat percentiles (msec):
     |  1.00th=[    6],  5.00th=[    9], 10.00th=[   12], 20.00th=[   16],
     | 30.00th=[   22], 40.00th=[   29], 50.00th=[   37], 60.00th=[   49],
     | 70.00th=[   64], 80.00th=[   88], 90.00th=[  133], 95.00th=[  182],
     | 99.00th=[  310], 99.50th=[  367], 99.90th=[  515], 99.95th=[  586],
     | 99.99th=[  791]
    bw (KB  /s): min= 1304, max= 3936, per=100.00%, avg=2104.34, stdev=111.51
  write: io=4218.3MB, bw=2102.6KB/s, iops=525, runt=2054458msec
    slat (usec): min=0, max=708, avg=19.50, stdev= 5.12
    clat (usec): min=0, max=1817.4K, avg=580.56, stdev=12189.75
     lat (usec): min=0, max=1817.4K, avg=600.50, stdev=12189.75
    clat percentiles (usec):
     |  1.00th=[   53],  5.00th=[   56], 10.00th=[   59], 20.00th=[   65],
     | 30.00th=[   81], 40.00th=[   90], 50.00th=[  104], 60.00th=[  116],
     | 70.00th=[  133], 80.00th=[  153], 90.00th=[  171], 95.00th=[  183],
     | 99.00th=[  684], 99.50th=[ 3024], 99.90th=[148480], 99.95th=[259072],
     | 99.99th=[552960]
    bw (KB  /s): min= 1320, max= 3672, per=100.00%, avg=2104.19, stdev=157.45
    lat (usec) : 2=0.01%, 4=0.01%, 20=0.01%, 50=0.06%, 100=23.32%
    lat (usec) : 250=25.54%, 500=0.04%, 750=0.60%, 1000=0.04%
    lat (msec) : 2=0.10%, 4=0.28%, 10=3.57%, 20=10.44%, 50=16.59%
    lat (msec) : 100=11.24%, 250=7.12%, 500=1.01%, 750=0.06%, 1000=0.01%
    lat (msec) : 2000=0.01%, >=2000=0.01%
  cpu          : usr=1.02%, sys=4.29%, ctx=2042666, majf=0, minf=25
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued    : total=r=1080002/w=1079882/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=31

Run status group 0 (all jobs):
   READ: io=4218.8MB, aggrb=2102KB/s, minb=2102KB/s, maxb=2102KB/s, mint=2054458msec, maxt=2054458msec
  WRITE: io=4218.3MB, aggrb=2102KB/s, minb=2102KB/s, maxb=2102KB/s, mint=2054458msec, maxt=2054458msec


Прогнали из гостя:
root@debian:~# uname -a
Linux debian 3.2.0-4-amd64 #1 SMP Debian 3.2.63-2+deb7u1 x86_64 GNU/Linux

root@debian:~# fio --section=randrw fio
randrw: (g=0): rw=randrw, bs=4K-4K/4K-4K, ioengine=libaio, iodepth=31
2.0.8
Starting 1 process
^Cbs: 1 (f=1): [m] [7.2% done] [944K/840K /s] [236 /210  iops] [eta 01h:54m:43s]
fio: terminating on signal 2

randrw: (groupid=0, jobs=1): err= 0: pid=5404
  read : io=565264KB, bw=1060.7KB/s, iops=265 , runt=532932msec
    slat (usec): min=5 , max=93 , avg=24.70, stdev= 5.21
    clat (usec): min=51 , max=1406.5K, avg=64666.14, stdev=77775.81
     lat (usec): min=83 , max=1406.5K, avg=64692.62, stdev=77775.76
    clat percentiles (usec):
     |  1.00th=[  199],  5.00th=[  253], 10.00th=[ 4640], 20.00th=[12736],
     | 30.00th=[19072], 40.00th=[27264], 50.00th=[38144], 60.00th=[52480],
     | 70.00th=[72192], 80.00th=[100864], 90.00th=[156672], 95.00th=[218112],
     | 99.00th=[370688], 99.50th=[440320], 99.90th=[610304], 99.95th=[684032],
     | 99.99th=[880640]
    bw (KB/s)  : min=  606, max= 1442, per=100.00%, avg=1061.70, stdev=126.43
  write: io=565968KB, bw=1061.2KB/s, iops=265 , runt=532932msec
    slat (usec): min=5 , max=91 , avg=26.11, stdev= 5.36
    clat (usec): min=182 , max=1577.5K, avg=52105.06, stdev=64949.62
     lat (usec): min=206 , max=1577.5K, avg=52133.01, stdev=64949.61
    clat percentiles (usec):
     |  1.00th=[  386],  5.00th=[  446], 10.00th=[  620], 20.00th=[10944],
     | 30.00th=[15808], 40.00th=[21888], 50.00th=[29824], 60.00th=[40704],
     | 70.00th=[56064], 80.00th=[79360], 90.00th=[126464], 95.00th=[179200],
     | 99.00th=[309248], 99.50th=[370688], 99.90th=[528384], 99.95th=[602112],
     | 99.99th=[815104]
    bw (KB/s)  : min=  653, max= 1568, per=100.00%, avg=1063.12, stdev=114.22
    lat (usec) : 100=0.05%, 250=2.36%, 500=5.92%, 750=1.46%, 1000=0.19%
    lat (msec) : 2=0.22%, 4=0.55%, 10=6.01%, 20=17.47%, 50=28.19%
    lat (msec) : 100=20.14%, 250=14.64%, 500=2.58%, 750=0.19%, 1000=0.02%
    lat (msec) : 2000=0.01%
  cpu          : usr=0.59%, sys=2.58%, ctx=267521, majf=0, minf=22
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued    : total=r=141316/w=141492/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
   READ: io=565264KB, aggrb=1060KB/s, minb=1060KB/s, maxb=1060KB/s, mint=532932msec, maxt=532932msec
  WRITE: io=565968KB, aggrb=1061KB/s, minb=1061KB/s, maxb=1061KB/s, mint=532932msec, maxt=532932msec

Disk stats (read/write):
  xvdb: ios=141398/141489, merge=0/0, ticks=9138304/7371124, in_queue=16510268, util=100.00%


Судя по низкому латенси, видно что на врайт много запросов уходят в кеш WB на контроллере, возможно в этом причина низкой производительности гостя, но почуму в случае второго, не попадает.

George Shuklin

unread,
Dec 12, 2014, 2:19:31 AM12/12/14
to xen-h...@googlegroups.com

1. Из-за vhd первая запись будет делать cow на каждом новом блоке в 2мб. При randrw - считай, что каждый раз.

2. Тест очень странный, по latency видно, что запросы даже не в очередь попадают, а ждут своей очереди, чтобы попасть в очередь.

Для обычных железок сумма глубин очередей для всех параллельных тестов лучше делать меньше 32.

3. При бенчмарке лучше отключать readahead на хосте и госте (hdparm -R0).

4. Не имеет смысла задирать нагрузку выше определенной latency. Я обычно стараюсь подбирать ее в районе меньше 20 мс для hdd  и 2-5 мс для ssd. Дальше иопсов будет больше, но толку от них не будет.

--
Вы получили это сообщение, поскольку подписаны на группу "xen-hosting".
Чтобы отменить подписку на эту группу и больше не получать от нее сообщения, отправьте письмо на электронный адрес xen-hosting...@googlegroups.com.
Чтобы настроить другие параметры, перейдите по ссылке https://groups.google.com/d/optout.

Dmitrij Nemirskij

unread,
Dec 12, 2014, 3:05:44 AM12/12/14
to xen-h...@googlegroups.com
  • 2. Тест очень странный, по latency видно, что запросы даже не в очередь попадают, а ждут своей очереди, чтобы попасть в очередь.
Тоесть?

  • 4. Не имеет смысла задирать нагрузку выше определенной latency. Я обычно стараюсь подбирать ее в районе меньше 20 мс для hdd  и 2-5 мс для ssd. Дальше иопсов будет больше, но толку от них не будет.
Ну латенси можно снизить уменьшив потоки, на каждый поток это 1,5-2 мс

12 декабря 2014 г., 10:19 пользователь George Shuklin <george....@gmail.com> написал:

George Shuklin

unread,
Dec 12, 2014, 3:22:33 PM12/12/14
to xen-h...@googlegroups.com
On 12/12/2014 10:05 AM, Dmitrij Nemirskij wrote:
  • 2. Тест очень странный, по latency видно, что запросы даже не в очередь попадают, а ждут своей очереди, чтобы попасть в очередь.
Тоесть?

Latency в 58 милисекунд - это не производительность диска. Из всего, что я видел, даже хлам вроде WD Green такого не показывает. Это означает, что запрос стоит в очереди до попадания в очередь устройства (то есть блокирующий syscall).


  • 4. Не имеет смысла задирать нагрузку выше определенной latency. Я обычно стараюсь подбирать ее в районе меньше 20 мс для hdd  и 2-5 мс для ssd. Дальше иопсов будет больше, но толку от них не будет.
Ну латенси можно снизить уменьшив потоки, на каждый поток это 1,5-2 мс
Определить для себя приемлимый уровень и ориентироваться на него.


Dmitrij Nemirskij

unread,
Dec 14, 2014, 10:05:44 AM12/14/14
to xen-h...@googlegroups.com
Ну так 58 это при очереди в 60
Контроллер с батарейкой, на другой ноде с xenserver 6.2 6 sas 10000 в 10 рейд
[root@h08-g01 ~]# fio --section=randwrite fio
randwrite: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=32
fio-2.1.7
Starting 1 process
^Cbs: 1 (f=1): [w] [0.0% done] [0KB/2300KB/0KB /s] [0/575/0 iops] [eta 23h:49m:47s]
fio: terminating on signal 2

randwrite: (groupid=0, jobs=1): err= 0: pid=13372: Sun Dec 14 19:00:44 2014
  write: io=120316KB, bw=2945.7KB/s, iops=736, runt= 40846msec
    slat (usec): min=0, max=584, avg=11.76, stdev= 5.69
    clat (usec): min=451, max=185334, avg=43432.14, stdev=30371.81
     lat (usec): min=472, max=185343, avg=43445.10, stdev=30371.97
    clat percentiles (usec):
     |  1.00th=[  684],  5.00th=[  988], 10.00th=[ 1112], 20.00th=[ 8896],
     | 30.00th=[25728], 40.00th=[35584], 50.00th=[43776], 60.00th=[51968],
     | 70.00th=[60160], 80.00th=[70144], 90.00th=[83456], 95.00th=[94720],
     | 99.00th=[116224], 99.50th=[125440], 99.90th=[144384], 99.95th=[150528],
     | 99.99th=[164864]
    bw (KB  /s): min= 1732, max=46264, per=100.00%, avg=2949.88, stdev=4879.30
    lat (usec) : 500=0.02%, 750=1.98%, 1000=3.24%
    lat (msec) : 2=13.00%, 4=0.53%, 10=1.67%, 20=5.13%, 50=32.30%
    lat (msec) : 100=38.78%, 250=3.35%
  cpu          : usr=0.51%, sys=1.05%, ctx=13123, majf=0, minf=27
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=99.9%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=30079/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=32

Run status group 0 (all jobs):
  WRITE: io=120316KB, aggrb=2945KB/s, minb=2945KB/s, maxb=2945KB/s, mint=40846msec, maxt=40846msec
[root@h08-g01 ~]# fio --section=randread fio
randread: (g=0): rw=randread, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=32
fio-2.1.7
Starting 1 process
^Cbs: 1 (f=1): [r] [0.2% done] [4680KB/0KB/0KB /s] [1170/0/0 iops] [eta 13h:45m:46s]
fio: terminating on signal 2

randread: (groupid=0, jobs=1): err= 0: pid=13616: Sun Dec 14 19:02:27 2014
  read : io=475332KB, bw=5034.8KB/s, iops=1258, runt= 94423msec
    slat (usec): min=0, max=894, avg=11.11, stdev= 4.58
    clat (usec): min=25, max=627548, avg=25408.53, stdev=29411.51
     lat (usec): min=33, max=627560, avg=25420.88, stdev=29411.51
    clat percentiles (usec):
     |  1.00th=[   94],  5.00th=[  652], 10.00th=[ 5024], 20.00th=[ 7520],
     | 30.00th=[ 9664], 40.00th=[12096], 50.00th=[15680], 60.00th=[20352],
     | 70.00th=[26752], 80.00th=[37120], 90.00th=[57088], 95.00th=[80384],
     | 99.00th=[144384], 99.50th=[175104], 99.90th=[257024], 99.95th=[301056],
     | 99.99th=[387072]
    bw (KB  /s): min= 1696, max=46048, per=100.00%, avg=5041.07, stdev=3247.51
    lat (usec) : 50=0.40%, 100=0.64%, 250=0.93%, 500=1.83%, 750=1.88%
    lat (usec) : 1000=0.49%
    lat (msec) : 2=0.01%, 4=1.18%, 10=23.87%, 20=28.24%, 50=27.82%
    lat (msec) : 100=9.77%, 250=2.81%, 500=0.12%, 750=0.01%
  cpu          : usr=0.94%, sys=1.91%, ctx=105569, majf=0, minf=58
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=100.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued    : total=r=118833/w=0/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=32

Run status group 0 (all jobs):
   READ: io=475332KB, aggrb=5034KB/s, minb=5034KB/s, maxb=5034KB/s, mint=94423msec, maxt=94423msec


13 декабря 2014 г., 0:20 пользователь George Shuklin <george....@gmail.com> написал:

Dmitrij Nemirskij

unread,
Dec 17, 2014, 5:27:07 AM12/17/14
to xen-h...@googlegroups.com
Вот как их этого 
[root@h09-g04 ~]# fio --section=randwrite ~/fio
randwrite: (g=0): rw=randwrite, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=24
fio-2.1.7
Starting 1 process
^Cbs: 1 (f=1): [w] [12.8% done] [0KB/4828KB/0KB /s] [0/1207/0 iops] [eta 51m:15s]
fio: terminating on signal 2
Jobs: 1 (f=1): [w] [12.8% done] [0KB/4352KB/0KB /s] [0/1088/0 iops] [eta 51m:15s]
randwrite: (groupid=0, jobs=1): err= 0: pid=26522: Wed Dec 17 14:24:29 2014
  write: io=2103.6MB, bw=4760.6KB/s, iops=1190, runt=452486msec
    slat (usec): min=4, max=427, avg=17.49, stdev= 5.75
    clat (usec): min=226, max=806623, avg=20143.68, stdev=41626.83
     lat (usec): min=237, max=806651, avg=20161.55, stdev=41626.88
    clat percentiles (usec):
     |  1.00th=[ 1624],  5.00th=[ 3632], 10.00th=[ 5472], 20.00th=[ 8384],
     | 30.00th=[10688], 40.00th=[13120], 50.00th=[15424], 60.00th=[17792],
     | 70.00th=[20608], 80.00th=[24192], 90.00th=[29312], 95.00th=[34048],
     | 99.00th=[100864], 99.50th=[387072], 99.90th=[610304], 99.95th=[643072],
     | 99.99th=[675840]
    bw (KB  /s): min= 2229, max=16664, per=100.00%, avg=4770.84, stdev=542.40
    lat (usec) : 250=0.01%, 500=0.15%, 750=0.10%, 1000=0.13%
    lat (msec) : 2=1.14%, 4=4.38%, 10=20.95%, 20=40.93%, 50=30.97%
    lat (msec) : 100=0.24%, 250=0.25%, 500=0.44%, 750=0.31%, 1000=0.01%
  cpu          : usr=1.14%, sys=3.96%, ctx=263637, majf=0, minf=26
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=538516/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=24

Run status group 0 (all jobs):
  WRITE: io=2103.6MB, aggrb=4760KB/s, minb=4760KB/s, maxb=4760KB/s, mint=452486msec, maxt=452486msec


Получается в госте это:

root@debian:~# fio --section=rw fio
rw: (g=0): rw=randwrite, bs=5K-5K/5K-5K, ioengine=libaio, iodepth=31
2.0.8
Starting 1 process
^Cbs: 1 (f=1): [w] [2.9% done] [0K/1975K /s] [0 /395  iops] [eta 02h:03m:51s]
fio: terminating on signal 2

rw: (groupid=0, jobs=1): err= 0: pid=3343
  write: io=451290KB, bw=2063.5KB/s, iops=412 , runt=218706msec
    slat (usec): min=5 , max=85 , avg=27.29, stdev= 5.92
    clat (usec): min=158 , max=1171.6K, avg=75077.89, stdev=89106.52
     lat (usec): min=166 , max=1171.6K, avg=75107.05, stdev=89106.70
    clat percentiles (usec):
     |  1.00th=[  354],  5.00th=[  422], 10.00th=[  466], 20.00th=[ 8512],
     | 30.00th=[19072], 40.00th=[32384], 50.00th=[47872], 60.00th=[66048],
     | 70.00th=[88576], 80.00th=[122368], 90.00th=[183296], 95.00th=[248832],
     | 99.00th=[419840], 99.50th=[493568], 99.90th=[667648], 99.95th=[741376],
     | 99.99th=[897024]
    bw (KB/s)  : min= 1762, max=10926, per=100.00%, avg=2065.89, stdev=497.36
    lat (usec) : 250=0.01%, 500=12.22%, 750=2.89%, 1000=0.76%
    lat (msec) : 2=0.62%, 4=0.94%, 10=4.00%, 20=9.30%, 50=20.57%
    lat (msec) : 100=22.50%, 250=21.27%, 500=4.46%, 750=0.43%, 1000=0.04%
    lat (msec) : 2000=0.01%
  cpu          : usr=0.83%, sys=1.74%, ctx=85302, majf=0, minf=21
  IO depths    : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=100.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.1%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=90258/d=0, short=r=0/w=0/d=0

Run status group 0 (all jobs):
  WRITE: io=451290KB, aggrb=2063KB/s, minb=2063KB/s, maxb=2063KB/s, mint=218706msec, maxt=218706msec

Disk stats (read/write):
  xvdb: ios=83/90243, merge=0/0, ticks=4/6772256, in_queue=6774384, util=100.00%


Что делаю не так?


14 декабря 2014 г., 18:05 пользователь Dmitrij Nemirskij <dmitrij.v...@gmail.com> написал:

George Shuklin

unread,
Dec 18, 2014, 2:33:08 AM12/18/14
to xen-h...@googlegroups.com

Место dd в госте забей сначала.  И отключи readahead в госте и хосте.

Dmitrij Nemirskij

unread,
Mar 10, 2015, 7:03:25 AM3/10/15
to xen-h...@googlegroups.com
Господа, так и не нашел опций для того чтобы отключить readahead 
Я так понимаю его надо отключить в other-config на sr?

18 декабря 2014 г., 10:33 пользователь George Shuklin <george....@gmail.com> написал:

George Shuklin

unread,
Mar 17, 2015, 4:08:01 PM3/17/15
to xen-h...@googlegroups.com
Readahead надо отключать только для бенчмарков, в обычной жизни он полезен.

Отключить можно командой hdparm -A0 /dev/....

Dmitrij Nemirskij

unread,
Mar 19, 2015, 4:14:18 AM3/19/15
to xen-h...@googlegroups.com
Спасибо большое.
Собственно вернусь к вопросу о other-config в SR, знаю что можно задавать необходимые опции в нем, а где посмотреть что можно передать, или он в сыром виде параметры использует?

17 марта 2015 г., 23:05 пользователь George Shuklin <george....@gmail.com> написал:

George Shuklin

unread,
Mar 20, 2015, 4:59:04 PM3/20/15
to xen-h...@googlegroups.com
/opt/xenserver/*/sm. Точно не помню, но find /opt -name "*.py" - это драйвера SR'ов, там все эти параметры вычитываются. В отличие от ядра (компиленное из окамла), всё, что связано с "потыкать storage" написанно на питоне.

Ещё в районе /etc/xenserver/scripts может быть, но там только для net-back/blk-back.
Reply all
Reply to author
Forward
0 new messages