Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Czy ta maszyna jest przeciążona?

27 views
Skip to first unread message

Sokim

unread,
Dec 3, 2011, 6:14:33 PM12/3/11
to
Hej,
nie jestem pewien jak mam traktować dane z topa. Load averages jest
ponad 1, a nawet zdarza się ponad 1.4, ale jeden rdzeń ma 66.9% idle a
drugi 99.6% idle. W momencie największego obciążenia maszyna przetacza
około 160Mbps ruchu. Wtedy skaczą pingi na bramę albo do wp.pl o jakieś
20 ms. Nie jest to wina zapchanego łącza. Mógłby ktoś coś doradzić. Dzięki.


#top -SPH
last pid: 25071; load averages: 1.03, 1.04, 1.00

up 659+14:34:04 19:35:45
87 processes: 4 running, 64 sleeping, 19 waiting
CPU 0: 0.8% user, 0.0% nice, 0.0% system, 32.3% interrupt, 66.9% idle
CPU 1: 0.0% user, 0.0% nice, 0.4% system, 0.0% interrupt, 99.6% idle
Mem: 639M Active, 516M Inact, 544M Wired, 57M Cache, 213M Buf, 218M Free
Swap: 4061M Total, 4K Used, 4061M Free

PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND
10 root 171 52 0K 16K RUN 1 ??? 97.12% idle: cpu1
11 root 171 52 0K 16K RUN 0 ??? 66.70% idle: cpu0
14 root -44 -163 0K 16K CPU0 0 3469.6 30.62% swi1: net
8739 root 96 0 326M 320M select 1 84.3H 0.78% bgpd
42 root -68 0 0K 16K - 1 479.9H 0.00% dummynet
12 root -32 -151 0K 16K WAIT 1 109.8H 0.00% swi4:
clock sio
15 root 96 0 0K 16K - 1 23.7H 0.00% yarrow
49 root 20 0 0K 16K syncer 1 21.7H 0.00% syncer
11987 squid 4 0 117M 111M kqread 0 627:45 0.00% squid
23508 root 96 0 21936K 6124K select 1 454:18 0.00% snmpd
8731 root 96 0 170M 163M select 0 271:28 0.00% zebra
4 root -8 0 0K 16K - 1 99:17 0.00% g_down
839 root 96 0 3680K 1100K select 1 90:39 0.00% syslogd
3 root -8 0 0K 16K - 1 59:03 0.00% g_up
51 root 96 0 0K 16K - 1 35:19 0.00% schedcpu
38 root -64 -183 0K 16K WAIT 1 33:19 0.00% irq14: ata0
2 root -8 0 0K 16K - 1 28:45 0.00% g_event
47 root -16 0 0K 16K psleep 1 22:07 0.00% bufdaemon
50 root -16 0 0K 16K sdflus 1 14:09 0.00% softdepflush
1012 root 96 0 9500K 2940K select 1 9:34 0.00% sendmail
48 root -4 0 0K 16K vlruwt 1 7:03 0.00% vnlru
940 root 96 0 2532K 864K select 0 6:27 0.00% usbd
46 root 171 52 0K 16K pgzero 1 4:35 0.00% pagezero
1022 root 8 0 3676K 1120K nanslp 1 1:21 0.00% cron
45 root 171 52 0K 16K pollid 1 0:50 0.00% idlepoll
20858 squid 4 0 17504K 6540K sbwait 1 0:48 0.00% perl5.8.9
43 root -16 0 0K 16K psleep 1 0:47 0.00% pagedaemon
1016 smmsp 20 0 9364K 2592K pause 1 0:10 0.00% sendmail
988 root 96 0 19692K 2496K select 0 0:05 0.00% sshd
20859 squid 4 0 17492K 6528K sbwait 1 0:04 0.00% perl5.8.9
23 root 8 0 0K 16K usbevt 1 0:03 0.00% usb0
36 root 8 0 0K 16K usbevt 1 0:03 0.00% usb7
26 root 8 0 0K 16K usbevt 1 0:03 0.00% usb1
33 root 8 0 0K 16K usbevt 1 0:03 0.00% usb4
35 root 8 0 0K 16K usbevt 1 0:03 0.00% usb6
29 root 8 0 0K 16K usbevt 1 0:03 0.00% usb3
34 root 8 0 0K 16K usbevt 1 0:03 0.00% usb5
28 root 8 0 0K 16K usbevt 1 0:03 0.00% usb2
20860 squid 4 0 17480K 6516K sbwait 1 0:01 0.00% perl5.8.9
1 root 8 0 900K 292K wait 1 0:00 0.00% init
20861 squid 4 0 17480K 6516K sbwait 1 0:00 0.00% perl5.8.9
20862 squid 4 0 17480K 6516K sbwait 1 0:00 0.00% perl5.8.9

Sokim

unread,
Dec 3, 2011, 6:17:16 PM12/3/11
to
Maszyna działa na FreeBSD 6.4-STABLE amd64.

pozdrawiam
Sokim

Łukasz Bromirski

unread,
Dec 3, 2011, 8:35:07 PM12/3/11
to
On 2011-12-04 00:14, Sokim wrote:
> Hej,
> nie jestem pewien jak mam traktować dane z topa. Load averages jest ponad 1,
> a nawet zdarza się ponad 1.4, ale jeden rdzeń ma 66.9% idle a drugi 99.6%
> idle. W momencie największego obciążenia maszyna przetacza około 160Mbps
> ruchu. Wtedy skaczą pingi na bramę albo do wp.pl o jakieś 20 ms. Nie jest to
> wina zapchanego łącza. Mógłby ktoś coś doradzić. Dzięki.

Masz włączony polling na interfejsach? Dlaczego używasz nadal 6'ki?
160Mbit/s nic nie mówi o ruchu - ile to jest w pakietach na sekundę?
Generalnie jeśli dużo małych lub wychodzi z tego coś w stylu IMIXa,
polling powinien pomóc.

Tak BTW, nie jestem pewien czy 64-bitowy system w czasach 6'ki to był
dobry pomysł, pamiętam problemy ze skalowalnością. A widzę, że masz
dummynet odpalony.

--
"There's no sense in being precise when | Łukasz Bromirski
you don't know what you're talking | jid:lbrom...@jabber.org
about." John von Neumann | http://lukasz.bromirski.net

Sokim

unread,
Dec 4, 2011, 5:34:24 AM12/4/11
to
W dniu 04.12.2011 02:35, Łukasz Bromirski pisze:
> On 2011-12-04 00:14, Sokim wrote:
>> Hej,
>> nie jestem pewien jak mam traktować dane z topa. Load averages jest
>> ponad 1,
>> a nawet zdarza się ponad 1.4, ale jeden rdzeń ma 66.9% idle a drugi 99.6%
>> idle. W momencie największego obciążenia maszyna przetacza około 160Mbps
>> ruchu. Wtedy skaczą pingi na bramę albo do wp.pl o jakieś 20 ms. Nie
>> jest to
>> wina zapchanego łącza. Mógłby ktoś coś doradzić. Dzięki.
>
> Masz włączony polling na interfejsach? Dlaczego używasz nadal 6'ki?
> 160Mbit/s nic nie mówi o ruchu - ile to jest w pakietach na sekundę?
> Generalnie jeśli dużo małych lub wychodzi z tego coś w stylu IMIXa,
> polling powinien pomóc.
>
> Tak BTW, nie jestem pewien czy 64-bitowy system w czasach 6'ki to był
> dobry pomysł, pamiętam problemy ze skalowalnością. A widzę, że masz
> dummynet odpalony.


Polling mam włączony. Maszyna była stawiana za czasów 6'ki i puki
działała to nic nie zmieniałem.
Czy dane z topa sugerują przeciążenie? Jaką jeszcze komendę mogę wydać
aby sprawdzić co jest przeciążone?

W tej chwili leci 140/20Mbps przy 14000/10000 pps, na razie nie
obserwuje wzrostu pinga. Wczoraj wyłączyłem logowanie ruch za pomocą
ipmon - może to coś zmieni?


# ifconfig
em0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> mtu 1500
options=5b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,POLLING>
inet xxxxxxxxxxxx netmask 0xfffffffc broadcast xxxxxxxxxxx
inet xxxxxxxxxxxx netmask 0xffffffe0 broadcast xxxxxxxxxxx
inet xxxxxxxxxxxx netmask 0xfffffffc broadcast xxxxxxxxxxx
inet xxxxxxxxxxxx netmask 0xfffffffc broadcast xxxxxxxxxxx
ether 00:1b:21:0f:19:fa
media: Ethernet autoselect (1000baseTX <full-duplex>)
status: active
em1: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> mtu 1500
options=5b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,POLLING>
ether 00:1b:21:0f:17:42
media: Ethernet autoselect
status: no carrier
bge0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> mtu 1500
options=5b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING,POLLING>
inet xxxxxxxxxxxx netmask 0xffffff00 broadcast xxxxxxxxxxxxxx
inet xxxxxxxxxxxx netmask 0xffffff00 broadcast xxxxxxxxxxxxxx
inet xxxxxxxxxxxx netmask 0xffffff00 broadcast xxxxxxxxxxxxxx
inet xxxxxxxxxxxx netmask 0xffffff00 broadcast xxxxxxxxxxxxxx
ether 00:21:5a:dd:a3:df
media: Ethernet autoselect (1000baseTX <full-duplex>)
status: active



Sokim

unread,
Dec 5, 2011, 1:24:22 PM12/5/11
to
W dniu 04.12.2011 02:35, Łukasz Bromirski pisze:
> On 2011-12-04 00:14, Sokim wrote:
>> Hej,
>> nie jestem pewien jak mam traktować dane z topa. Load averages jest
>> ponad 1,
>> a nawet zdarza się ponad 1.4, ale jeden rdzeń ma 66.9% idle a drugi 99.6%
>> idle. W momencie największego obciążenia maszyna przetacza około 160Mbps
>> ruchu. Wtedy skaczą pingi na bramę albo do wp.pl o jakieś 20 ms. Nie
>> jest to
>> wina zapchanego łącza. Mógłby ktoś coś doradzić. Dzięki.
>
> Masz włączony polling na interfejsach? Dlaczego używasz nadal 6'ki?
> 160Mbit/s nic nie mówi o ruchu - ile to jest w pakietach na sekundę?
> Generalnie jeśli dużo małych lub wychodzi z tego coś w stylu IMIXa,
> polling powinien pomóc.
>
> Tak BTW, nie jestem pewien czy 64-bitowy system w czasach 6'ki to był
> dobry pomysł, pamiętam problemy ze skalowalnością. A widzę, że masz
> dummynet odpalony.
>

Hej,
uzyskałem dodatkowe informację z netstata.
Czy te błędy mogą być przez kabel? Czy to raczej będzie problem z
sieciówką? Dzięki za wszelkie sugestie.


# netstat -w 1 -I em0
input (em0) output
packets errs bytes packets errs bytes colls
15532 235 18232992 10697 0 2204091 0
15159 46 17864284 10673 0 2170364 0
15585 277 18280677 10829 0 2309020 0
15353 307 17981085 10653 0 2240165 0
15224 74 17485399 10573 0 2260054 0
15573 308 18279575 10684 0 2276399 0
15510 254 18082016 11162 0 2397092 0
15423 242 17951928 10968 0 2311766 0
15527 162 18188614 10931 0 2232718 0
14667 452 16584554 10876 0 2286115 0
15912 32 18737356 10670 0 2210455 0


# netstat -m
1550/3355/4905 mbufs in use (current/cache/total)
1545/2993/4538/25600 mbuf clusters in use (current/cache/total/max)
1545/2533 mbuf+clusters out of packet secondary zone in use (current/cache)
0/0/0/0 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/0 9k jumbo clusters in use (current/cache/total/max)
0/0/0/0 16k jumbo clusters in use (current/cache/total/max)
3495K/6824K/10320K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/0/0 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
0 requests for I/O initiated by sendfile
93 calls to protocol drain routines

0 new messages