Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

netflow коллектор какой лучше

41 views
Skip to first unread message

Mikhail

unread,
May 25, 2005, 2:57:38 AM5/25/05
to
Здраствуйте.

Подскажите пожалуйста, у кого есть опыт, какой коллектор лучше использовать?
Присмотрел пока
Flowc http://netacad.kiev.ua/flowc/index_ru.php?id=6
NeTAMS http://www.netams.com/doc/doc_work.html
NeTraMet
FlowScan

Первый попробывал... не понравилось... сыроват и не очень удобен...
На счет остальных не знаю, поэтому и прошу вашего совета...
В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle) и была бы веб
морда.

Спасибо за внимание.

Slawa Olhovchenkov

unread,
May 25, 2005, 2:15:58 AM5/25/05
to
Hello Mikhail!

25 May 05, Mikhail writes to All:

M> Первый попробывал... не понравилось... сыроват и не очень удобен...
M> Hа счет остальных не знаю, поэтому и прошу вашего совета...
M> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle)

У тебя что, трафика нету?

... Рецессивная аллель влияет на фенотип, только когда генотип гомозиготен

Sergey Y. Afonin

unread,
May 25, 2005, 7:05:39 AM5/25/05
to
Mikhail wrote:

> NeTAMS http://www.netams.com/doc/doc_work.html

>
> Первый попробывал... не понравилось... сыроват и не очень удобен...
> На счет остальных не знаю, поэтому и прошу вашего совета...
> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle) и была бы веб
> морда.

Проблема в том, что я пробовал только NeTAMS и только с libpcap. Потому тоже
не сравню. Но все перечисленное (mysql и web-морда) есть. Работает. Правда
не пробовал администрирование через web.

--
С уважением,
Сергей Афонин.
asy*kraft-s.ru

Mikhail

unread,
May 25, 2005, 11:53:40 PM5/25/05
to
>> NeTAMS http://www.netams.com/doc/doc_work.html
>> Первый попробывал... не понравилось... сыроват и не очень удобен...
>> Hа счет остальных не знаю, поэтому и прошу вашего совета...

>> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle) и была бы
>> веб морда.

SA> Проблема в том, что я пробовал только NeTAMS и только с libpcap. Потому
SA> тоже не сравню. Hо все перечисленное (mysql и web-морда) есть. Работает.

И как по ресурсам? А трафик большой ? И база сколько места занимает?

Mikhail

unread,
May 26, 2005, 12:01:06 AM5/26/05
to
M>> Первый попробывал... не понравилось... сыроват и не очень удобен...
M>> Hа счет остальных не знаю, поэтому и прошу вашего совета...
M>> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle)

SO> У тебя что, трафика нету?

Почему же, есть... А к чему этот вопрос?
Предполагаю, что не нравиться именно наличие базы данных, или что то еще?

Maxim Basunov

unread,
May 26, 2005, 12:06:43 AM5/26/05
to
Привет Mikhail!

Тут недавно, 26 Май 05 06:53, пролетала мессага Mikhail для Sergey_Afonin:
>>> NeTAMS http://www.netams.com/doc/doc_work.html


>>> Первый попробывал... не понравилось... сыроват и не очень удобен...

>>> Hа счет остальных не знаю, поэтому и прошу вашего совета...

>>> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle) и была
>>> бы веб морда.

SA>> Проблема в том, что я пробовал только NeTAMS и только с libpcap.

SA>> Потому тоже не сравню. Hо все перечисленное (mysql и web-морда) есть.
SA>> Работает.

M> И как по ресурсам? А трафик большой ? И база сколько места занимает?
Hу сам посчитай. у меня голых флов-pекоpдов 200к. pазмеp стpоки в базе - 60
байт. Умножай. 12М. Ах, да, забыл еще сказать - это только за 10 минут...

Dixi.
WBR, Maxim. [Team - Компьютер должен работать, а человек отдыхать]

Gennady Abramov

unread,
May 26, 2005, 5:59:54 AM5/26/05
to
Wed May 25 2005 10:57, Mikhail wrote to All:
M> Подскажите пожалуйста, у кого есть опыт, какой коллектор лучше
M> использовать? Присмотрел пока
M> Flowc http://netacad.kiev.ua/flowc/index_ru.php?id=6
M> NeTAMS http://www.netams.com/doc/doc_work.html
M> NeTraMet
^^^^^^ Пятая версия - неработоспособна; документация ублюдочна,
функциональностью не блещет.
M> FlowScan
^^^^^^^Это вообще не коллектор
M> Первый попробывал... не понравилось... сыроват и не очень удобен...
M> Hа счет остальных не знаю, поэтому и прошу вашего совета...
M> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle) и была бы
M> веб морда.
Так тебе коллектор, или аггрегатор, или некое billing/monitoring solution?
Если коллектор, и дисковых ресурсов для твоих объемов хватает - рекомендую
flow-tools, http://www.splintered.net/sw/flow-tools/ .
Там наличествует большинство необходимого инструментария для обработки netflow
/создания отчетов/ etc для различных задач.
Касательно веб-морды... Все зависит от того, что ты хочешь видеть:) Это может
быть flow-scan, либо - с помощью самописных скриптов отдавание результатов
flow-report в SQL и далее по тексту.

/BeSD wishes

Nick 'TARANTUL' Novikov

unread,
May 26, 2005, 12:13:48 AM5/26/05
to
On Wed, 25 May 2005 10:57:38 +0500, Mikhail <b...@omskrcc.ru> wrote:
> Здраствуйте.
>
> Подскажите пожалуйста, у кого есть опыт, какой коллектор лучше использовать?
> Присмотрел пока
> Flowc http://netacad.kiev.ua/flowc/index_ru.php?id=6

Кривее программы я еще не встречал.

> NeTAMS http://www.netams.com/doc/doc_work.html
> NeTraMet
> FlowScan

flow-tools + все что можно прикрутить сверху.

--
TARANTUL

Maxim Basunov

unread,
May 27, 2005, 2:37:34 AM5/27/05
to
Привет Gennady!

Тут недавно, 26 Май 05 12:59, пролетала мессага Gennady Abramov для Mikhail:


M>> Подскажите пожалуйста, у кого есть опыт, какой коллектор лучше
M>> использовать? Присмотрел пока
M>> Flowc http://netacad.kiev.ua/flowc/index_ru.php?id=6
M>> NeTAMS http://www.netams.com/doc/doc_work.html
M>> NeTraMet

GA> ^^^^^^ Пятая версия - неработоспособна; документация ублюдочна,
GA> функциональностью не блещет.
M>> FlowScan
GA> ^^^^^^^Это вообще не коллектор


M>> Первый попробывал... не понравилось... сыроват и не очень удобен...
M>> Hа счет остальных не знаю, поэтому и прошу вашего совета...
M>> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle) и была

M>> бы веб морда.
GA> Так тебе коллектор, или аггрегатор, или некое billing/monitoring solution?

А можешь подсказать паpу названий аггpегатоpов/монитоpинга?

Evgeniy Kozhuhovskiy

unread,
May 27, 2005, 4:23:12 AM5/27/05
to
Возможно ли заставить cisco отдавать radius`у в alive/stop пакетах не весь траффик,
а только заданный (a-la netflow)?

--
WBR, Evgeniy Kozhuhovskiy
RCPT TO: e.kozhuhovskiy(at)gmail.com ICQ: 21161835
JID: ug...@jabber.org.by URL: ugenk.bas-net.by

Aleksey Fedorov

unread,
May 27, 2005, 7:18:47 AM5/27/05
to
Hello, Evgeniy!

At 27 May 05 13:23:12, Evgeniy Kozhuhovskiy wrote to All:

EK> Возможно ли заставить cisco отдавать radius`у в alive/stop пакетах не
EK> весь траффик,
EK> а только заданный (a-la netflow)?

Такие возможности заложены в Intelligent Service Gateway (ISG),
но иосы с этой фичей будут доступны, насколько я знаю, только в районе
сентября.


--
Aleksey

Slawa Olhovchenkov

unread,
May 27, 2005, 8:26:02 AM5/27/05
to
Hello Mikhail!

26 May 05, Mikhail writes to Slawa Olhovchenkov:

M>>> Первый попробывал... не понравилось... сыроват и не очень удобен...
M>>> Hа счет остальных не знаю, поэтому и прошу вашего совета...
M>>> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle)

SO>> У тебя что, трафика нету?

M> Почему же, есть... А к чему этот вопрос?
M> Предполагаю, что не нравиться именно наличие базы данных, или что то
M> еще?

Потому что тогда база сдохнет от объема.
У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в секунду или 50
миллионов в сутки.

... Паскаль-программы существуют только для того, чтобы их читали!

Yan Alexandrovsky

unread,
May 27, 2005, 10:18:49 AM5/27/05
to
Привет, Slawa

27 Май 05 17:26, Slawa Olhovchenkov -> Mikhail:

M>> Почему же, есть... А к чему этот вопрос?
M>> Предполагаю, что не нравиться именно наличие базы данных, или что

M>> то еще?
SO> Потому что тогда база сдохнет от объема.
SO> У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в секунду
SO> или 50 миллионов в сутки.

500 записей в секунду, причем когда отложенная запись устраивает - это не много
в общем-то. Вопрос лишь в том, нужно ли это :)


До свидания, Yan.

Alexey G Misyuremko

unread,
May 27, 2005, 11:50:30 AM5/27/05
to

А если сюда еще приплюсовать ситуации когда, кто нибуть в сети поймает
трояна с поведением как сламера .....

Evgeniy Kozhuhovskiy

unread,
May 27, 2005, 9:58:08 AM5/27/05
to
>>>>> "AF" == Aleksey Fedorov writes:

EK>> Возможно ли заставить cisco отдавать radius`у в alive/stop пакетах

EK>> не весь траффик, а только заданный (a-la netflow)?
AF> Такие возможности заложены в Intelligent Service Gateway (ISG), но
AF> иосы с этой фичей будут доступны, насколько я знаю, только в районе
AF> сентября.
Ура! :) Кстати, вопрос тупого чайника. Эти иосы можно будет поставить на весь
модельный ряд? (5400 в частности)

Slawa Olhovchenkov

unread,
May 27, 2005, 4:32:26 PM5/27/05
to
Hello Yan!

27 May 05, Yan Alexandrovsky writes to Slawa Olhovchenkov:

M>>> Почему же, есть... А к чему этот вопрос?
M>>> Предполагаю, что не нравиться именно наличие базы данных, или что
M>>> то еще?
SO>> Потому что тогда база сдохнет от объема.
SO>> У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в секунду
SO>> или 50 миллионов в сутки.

YA> 500 записей в секунду, причем когда отложенная запись устраивает - это
YA> не много в общем-то.

Причем тут отложенная запись, если вопрос в том, что через год записей будет 15
миллиардов?

YA> Вопрос лишь в том, нужно ли это :)

Человеку хочется. Мне -- нет.

... И было у него тpи сына. Один умный, втоpой дуpак, а тpетий вообще фидошник.

Aleksey Fedorov

unread,
May 28, 2005, 4:29:27 AM5/28/05
to
Hello, Evgeniy!

At 27 May 05 18:58:08, Evgeniy Kozhuhovskiy wrote to Aleksey Fedorov:

EK>>> Возможно ли заставить cisco отдавать radius`у в alive/stop пакетах
EK>>> не весь траффик, а только заданный (a-la netflow)?
AF>> Такие возможности заложены в Intelligent Service Gateway (ISG), но
AF>> иосы с этой фичей будут доступны, насколько я знаю, только в районе
AF>> сентября.

EK> Ура! :) Кстати, вопрос тупого чайника. Эти иосы можно будет поставить на
EK> весь
EK> модельный ряд? (5400 в частности)

Hет конечно. Это для broadband. Т.е. модельный ряд 7200/7300/10k.


--
Aleksey

Maxim Basunov

unread,
May 29, 2005, 11:54:46 PM5/29/05
to
Привет Yan!

Тут недавно, 27 Май 05 18:18, пролетала мессага Yan Alexandrovsky для Slawa
Olhovchenkov:


M>>> Почему же, есть... А к чему этот вопрос?
M>>> Предполагаю, что не нравиться именно наличие базы данных, или что
M>>> то еще?
SO>> Потому что тогда база сдохнет от объема.
SO>> У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в секунду
SO>> или 50 миллионов в сутки.

YA> 500 записей в секунду, причем когда отложенная запись устраивает - это не
YA> много в общем-то. Вопрос лишь в том, нужно ли это :)

Гм. Минимальный набоp интеpфейсов пpохождения тpаффика. Лишний тpаффик отсечен
топологией и не допущен в кошку... Пpи всем пpи этом у меня в сpеднем по
330-350 з/с и будет pасти.

За неимением лучшего ваpианта - хpаню сыpые записи в файлах по 10 минут на
толстых винтах - чтобы можно было посмотpеть сыpую инфоpмацию, когда
понадобится. Собственно, вся инфоpмация аггpегиpуется на общих пpинципах по
абонентам и на выходе получается 200-300 записей в БД.

Maxim Basunov

unread,
May 30, 2005, 12:00:45 AM5/30/05
to
Привет Slawa!

Тут недавно, 28 Май 05 00:32, пролетала мессага Slawa Olhovchenkov для Yan
Alexandrovsky:


M>>>> Почему же, есть... А к чему этот вопрос?
M>>>> Предполагаю, что не нравиться именно наличие базы данных, или что
M>>>> то еще?
SO>>> Потому что тогда база сдохнет от объема.
SO>>> У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в секунду
SO>>> или 50 миллионов в сутки.
YA>> 500 записей в секунду, причем когда отложенная запись устраивает - это
YA>> не много в общем-то.

SO> Причем тут отложенная запись, если вопрос в том, что через год записей
SO> будет 15 миллиардов?

Ты не повеpишь - человеку хочется тоpмознуть кpутейший сан с оpаклом и с
внешним FC накопителем на кучу теpабайт.

ЗЫ Только Оpакл позволит плоско pаботать с таким количеством записей в одной
таблице за счет многоуpовневого pазбиения на pазделы - всё остальное извpат.
фpивеpные БД издохнут не pодившись. Интеpбейз валится на объеме в несколько
миллионов записей в таблице (около 3-4).

Maxim Basunov

unread,
May 29, 2005, 11:59:35 PM5/29/05
to
Привет Alexey!

Тут недавно, 27 Май 05 18:50, пролетала мессага Alexey G Misyuremko для Yan


Alexandrovsky:
>> M>> Почему же, есть... А к чему этот вопрос?
>> M>> Предполагаю, что не нравиться именно наличие базы данных, или что
>> M>> то еще?
>> SO> Потому что тогда база сдохнет от объема.
>> SO> У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в секунду
>> SO> или 50 миллионов в сутки.
>>

>> 500 записей в секунду, причем когда отложенная запись устраивает - это не


>> много
>> в общем-то. Вопрос лишь в том, нужно ли это :)

AGM> А если сюда еще приплюсовать ситуации когда, кто нибуть в сети поймает
AGM> трояна с поведением как сламера .....

У меня в тот момент объем нетфлов выpос пятикpатно, но тогда пpинимал еще по
50-100 ф/с.

Constantin Stefanov

unread,
May 30, 2005, 6:17:04 AM5/30/05
to
Maxim Basunov wrote:
> SO>>> Потому что тогда база сдохнет от объема.
> SO>>> У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в секунду
> SO>>> или 50 миллионов в сутки.
> YA>> 500 записей в секунду, причем когда отложенная запись устраивает - это
> YA>> не много в общем-то.
>
> SO> Причем тут отложенная запись, если вопрос в том, что через год записей
> SO> будет 15 миллиардов?
>
> Ты не повеpишь - человеку хочется тоpмознуть кpутейший сан с оpаклом и с
> внешним FC накопителем на кучу теpабайт.
>
> ЗЫ Только Оpакл позволит плоско pаботать с таким количеством записей в одной
> таблице за счет многоуpовневого pазбиения на pазделы - всё остальное извpат.
> фpивеpные БД издохнут не pодившись. Интеpбейз валится на объеме в несколько
> миллионов записей в таблице (около 3-4).
select count(*) from ip_accounting
73507895
База - PostgreSQL. Не особо напрягается. Не миллиарды, конечно, да и
скорость небольшая - это данные чуть меньше чем за четыре месяца ( с
начала февраля). Так что жить можно. Хотя из такого объема выборки
делать в реальном времени тяжело - для этих целей есть отдельная таблица
с уже агрегированными значениями.

--
Константин Стефанов

Gennady Abramov

unread,
May 30, 2005, 2:05:44 PM5/30/05
to
Mon May 30 2005 14:17, Constantin Stefanov wrote to Maxim Basunov:
>> SO>>> Потому что тогда база сдохнет от объема.
>> SO>>> У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в секунду
>> SO>>> или 50 миллионов в сутки.
>> YA>> 500 записей в секунду, причем когда отложенная запись устраивает -
>> это YA>> не много в общем-то.
>>
>> SO> Причем тут отложенная запись, если вопрос в том, что через год записей
>> SO> будет 15 миллиардов?
>>
>> Ты не повеpишь - человеку хочется тоpмознуть кpутейший сан с оpаклом и с
>> внешним FC накопителем на кучу теpабайт.
>>
>> ЗЫ Только Оpакл позволит плоско pаботать с таким количеством записей в
>> одной таблице за счет многоуpовневого pазбиения на pазделы - всё
>> остальное извpат. фpивеpные БД издохнут не pодившись. Интеpбейз валится
>> на объеме в несколько миллионов записей в таблице (около 3-4).
CS> select count(*) from ip_accounting
CS> 73507895
Если это неаггрегированные значения - то с февраля ты , получается, прокачал
через себя порядка 50Гб, что , безусловно, очень смешные значения.
CS> База - PostgreSQL. Hе особо напрягается. Hе миллиарды, конечно, да и
CS> скорость небольшая - это данные чуть меньше чем за четыре месяца ( с
CS> начала февраля). Так что жить можно. Хотя из такого объема выборки
CS> делать в реальном времени тяжело - для этих целей есть отдельная таблица
CS> с уже агрегированными значениями.
И - тем не менее - а зачем?
Почему - при несильно больших объемах - нельзя хранить данные в
компрессированных raw бинарниках, а в базу лить только "уже аггрегированные
значения"?
Тем более , что делать аггрегацию силами базы , мягко говоря, неоптимальное
решение задачи при даже небольших объемах.

/BeSD wishes

Gennady Abramov

unread,
May 30, 2005, 2:09:15 PM5/30/05
to
Fri May 27 2005 11:37, Maxim Basunov wrote to Gennady Abramov:
M>>> Подскажите пожалуйста, у кого есть опыт, какой коллектор лучше
M>>> использовать? Присмотрел пока
M>>> Flowc http://netacad.kiev.ua/flowc/index_ru.php?id=6
M>>> NeTAMS http://www.netams.com/doc/doc_work.html
M>>> NeTraMet
GA>> ^^^^^^ Пятая версия - неработоспособна; документация ублюдочна,
GA>> функциональностью не блещет.
M>>> FlowScan
GA>> ^^^^^^^Это вообще не коллектор
M>>> Первый попробывал... не понравилось... сыроват и не очень удобен...
M>>> Hа счет остальных не знаю, поэтому и прошу вашего совета...
M>>> В идеале хотелось бы чтобы все хранилось в базе (mysql, oracle) и была
M>>> бы веб морда.
GA>> Так тебе коллектор, или аггрегатор, или некое billing/monitoring
GA>> solution?
MB> А можешь подсказать паpу названий аггpегатоpов/монитоpинга?
В зависимости от желаемого - flow-tools (flow-report, flow-stat, flow-nfilter,
flow-tag). FlowScan. Perl. PHP. *SQL . Руки.

/BeSD wishes

Constantin Stefanov

unread,
May 31, 2005, 2:37:08 AM5/31/05
to
Gennady Abramov wrote:
> >> ЗЫ Только Оpакл позволит плоско pаботать с таким количеством записей в
> >> одной таблице за счет многоуpовневого pазбиения на pазделы - всё
> >> остальное извpат. фpивеpные БД издохнут не pодившись. Интеpбейз валится
> >> на объеме в несколько миллионов записей в таблице (около 3-4).
> CS> select count(*) from ip_accounting
> CS> 73507895
> Если это неаггрегированные значения - то с февраля ты , получается, прокачал
> через себя порядка 50Гб, что , безусловно, очень смешные значения.
> CS> База - PostgreSQL. Hе особо напрягается. Hе миллиарды, конечно, да и
> CS> скорость небольшая - это данные чуть меньше чем за четыре месяца ( с
> CS> начала февраля). Так что жить можно. Хотя из такого объема выборки
> CS> делать в реальном времени тяжело - для этих целей есть отдельная таблица
> CS> с уже агрегированными значениями.
> И - тем не менее - а зачем?
> Почему - при несильно больших объемах - нельзя хранить данные в
> компрессированных raw бинарниках, а в базу лить только "уже аггрегированные
> значения"?
> Тем более , что делать аггрегацию силами базы , мягко говоря, неоптимальное
> решение задачи при даже небольших объемах.
Да не вопрос. Решение было сделано на коленке, когда быстро поандобился
учет. уже сейчас я думаю именно так и поступить - хранить первичные
данные от netflow, а в базу - только аггрегированные таблицы для показа
через веб. Правда, когда руки дойдут - пока и так работает. Я это к
тому, что даже ьесплатная база вполне может выдержать таблицу с
десятками миллионов записей. То, что такое решение неоптимально -
видимо, я с этим соглашусь.

--
Константин Стефанов

Dark Elf

unread,
May 31, 2005, 2:06:48 AM5/31/05
to
_*/█/*_ _/█/_ _█_ /█/ /*█*/ #/█/# /*#█#*/ _*█*_ #█# *#█#* #/_█_/# _/#*Gennady!*#/_  

30 May 05 22:05, Gennady Abramov wrote to Constantin Stefanov:

CS>> База - PostgreSQL. Hе особо напрягается. Hе миллиарды, конечно,

CS>> да и скорость небольшая - это данные чуть меньше чем за четыре
CS>> месяца ( с начала февраля). Так что жить можно. Хотя из такого
CS>> объема выборки делать в реальном времени тяжело - для этих целей
CS>> есть отдельная таблица с уже агрегированными значениями.
GA> И - тем не менее - а зачем?
GA> Почему - при несильно больших объемах - нельзя хранить данные в
GA> компрессированных raw бинарниках, а в базу лить только "уже
GA> аггрегированные значения"? Тем более , что делать аггрегацию силами
GA> базы , мягко говоря, неоптимальное решение задачи при даже небольших
GA> объемах.

Кхем. Как pаз оптимальней хpанить в базе и обpабатывать её сpедствами. Всё
таки она заточена под это...

║ за 20 дней отдыха в Сочи мне было хорошо 34 раза... (девушка, 22 года).

Best regards! Dark Elf

Dark Elf

unread,
May 31, 2005, 1:59:39 AM5/31/05
to
_*/█/*_ _/█/_ _█_ /█/ /*█*/ #/█/# /*#█#*/ _*█*_ #█# *#█#* #/_█_/# _/#*Slawa!*#/_  

28 May 05 01:32, Slawa Olhovchenkov wrote to Yan Alexandrovsky:

M>>>> Почему же, есть... А к чему этот вопрос?
M>>>> Предполагаю, что не нравиться именно наличие базы данных, или

M>>>> что то еще?


SO>>> Потому что тогда база сдохнет от объема.
SO>>> У меня поток netflow -- 200Kbit/s. Это порядка 500 записей в

SO>>> секунду или 50 миллионов в сутки.


YA>> 500 записей в секунду, причем когда отложенная запись устраивает

YA>> - это не много в общем-то.
SO> Причем тут отложенная запись, если вопрос в том, что через год записей
SO> будет 15 миллиардов?

Эээ. Hу если за последний месяц деpжать все записи, каждый день суточный лог
месячной давности подитоживать и класть в дpугую базу... То вполне ноpмально,
так то...

║ - Мы живём в свободной стране.
║ В том смысле, что она ничем особенным не занята.

Best regards! Dark Elf

Slawa Olhovchenkov

unread,
May 31, 2005, 3:29:36 AM5/31/05
to
Hello Dark!

31 May 05, Dark Elf writes to Gennady Abramov:

GA>> Почему - при несильно больших объемах - нельзя хранить данные в
GA>> компрессированных raw бинарниках, а в базу лить только "уже
GA>> аггрегированные значения"? Тем более , что делать аггрегацию силами
GA>> базы , мягко говоря, неоптимальное решение задачи при даже небольших
GA>> объемах.

DE> Кхем. Как pаз оптимальней хpанить в базе и обpабатывать её сpедствами.
DE> Всё таки она заточена под это...

Выкинь маркетинговые мурзилки. Базы под это не заточены.

... Да освятится имя твое и pасшиpение твое, Господи...

Dark Elf

unread,
May 31, 2005, 6:20:16 AM5/31/05
to
_*/█/*_ _/█/_ _█_ /█/ /*█*/ #/█/# /*#█#*/ _*█*_ #█# *#█#* #/_█_/# _/#*Slawa!*#/_  

31 May 05 12:29, Slawa Olhovchenkov wrote to Dark Elf:

GA>>> Почему - при несильно больших объемах - нельзя хранить данные в
GA>>> компрессированных raw бинарниках, а в базу лить только "уже
GA>>> аггрегированные значения"? Тем более , что делать аггрегацию

GA>>> силами базы , мягко говоря, неоптимальное решение задачи при
GA>>> даже небольших объемах.


DE>> Кхем. Как pаз оптимальней хpанить в базе и обpабатывать её

DE>> сpедствами. Всё таки она заточена под это...
SO> Выкинь маркетинговые мурзилки. Базы под это не заточены.

Эээ. Сpоду не читал маpкетинговых муpзилок. Исключительно на личном опыте.

Самое пpостое и достаточно гибкое pешение - лог pаспаpсить и заслать в базу,
из котоpой можно всё и смотpеть. По истечении актуальности подpобного лога он
суммиpуется сpедствами той же СУБД и ложится туда же.

║ Под дубом гpустно я сидел, невзpачен, мал, пузат...

Best regards! Dark Elf

Slawa Olhovchenkov

unread,
May 31, 2005, 4:38:20 AM5/31/05
to
Hello Dark!

31 May 05, Dark Elf writes to Slawa Olhovchenkov:

GA>>>> Почему - при несильно больших объемах - нельзя хранить данные в
GA>>>> компрессированных raw бинарниках, а в базу лить только "уже
GA>>>> аггрегированные значения"? Тем более , что делать аггрегацию
GA>>>> силами базы , мягко говоря, неоптимальное решение задачи при
GA>>>> даже небольших объемах.
DE>>> Кхем. Как pаз оптимальней хpанить в базе и обpабатывать её
DE>>> сpедствами. Всё таки она заточена под это...
SO>> Выкинь маркетинговые мурзилки. Базы под это не заточены.

DE> Эээ. Сpоду не читал маpкетинговых муpзилок. Исключительно на личном
DE> опыте.

Поздно отмазываться.

... А я подкpался незаметно! (c) СамиЗнаетеКто

Dark Elf

unread,
May 31, 2005, 6:58:56 AM5/31/05
to
_*/█/*_ _/█/_ _█_ /█/ /*█*/ #/█/# /*#█#*/ _*█*_ #█# *#█#* #/_█_/# _/#*Slawa!*#/_  

31 May 05 13:38, Slawa Olhovchenkov wrote to Dark Elf:

GA>>>>> Почему - при несильно больших объемах - нельзя хранить данные

GA>>>>> в компрессированных raw бинарниках, а в базу лить только "уже


GA>>>>> аггрегированные значения"? Тем более , что делать аггрегацию
GA>>>>> силами базы , мягко говоря, неоптимальное решение задачи при
GA>>>>> даже небольших объемах.
DE>>>> Кхем. Как pаз оптимальней хpанить в базе и обpабатывать её
DE>>>> сpедствами. Всё таки она заточена под это...
SO>>> Выкинь маркетинговые мурзилки. Базы под это не заточены.
DE>> Эээ. Сpоду не читал маpкетинговых муpзилок. Исключительно на

DE>> личном опыте.
SO> Поздно отмазываться.

Эээ. Даже не замечен ;-)

║ Это серьезная травма не только для человека, но и для футболиста.

Best regards! Dark Elf

Alexey G Misyuremko

unread,
May 31, 2005, 6:13:37 AM5/31/05
to


Везет, а мои кастомеры умудрялись породить netscan в 20-30kpps.
Конечно, можно было отсечь flow динною в один пакет и не инчертить их в базу, но
схема "здесь играть, здесь нет, а там рыбу заворачивать..." Посему ушли
на схему с хранием дампов в сыром виде и значения клиенских счетчиков (часовых и дневных) в базе.
В случае несогласия со стороны клиента - можно всегда раскруить дам
и показать все до байтика (ну или почти все :/ )

Victor Sudakov

unread,
May 31, 2005, 1:01:16 PM5/31/05
to
Gennady Abramov wrote:
> MB> А можешь подсказать паpу названий аггpегатоpов/монитоpинга?
> В зависимости от желаемого - flow-tools (flow-report, flow-stat, flow-nfilter,

Я так и не нашел в flow-tools средств для того, чтобы посмотреть
распределение трафика по часам/минутам/дням... Приходится делать через
"flow-print | awk", но возможно я что-то пропустил?

--
Victor Sudakov, VAS4-RIPE, VAS47-RIPN
2:5005/49@fidonet http://vas.tomsk.ru/

Max Mukin

unread,
May 31, 2005, 2:14:58 PM5/31/05
to
Доброго времени суток, Victor Sudakov.


VS> Gennady Abramov wrote:
>> MB> А можешь подсказать паpу названий аггpегатоpов/монитоpинга?
>> В зависимости от желаемого - flow-tools (flow-report, flow-stat, flow-nfilter,

VS>
VS> Я так и не нашел в flow-tools средств для того, чтобы посмотреть
VS> распределение трафика по часам/минутам/дням... Приходится делать через
VS> "flow-print | awk", но возможно я что-то пропустил?
flow-cat [-t start_time] [-T start_time]
Или надо именно распределение по дням/часам ?

Victor Sudakov

unread,
Jun 1, 2005, 12:30:56 AM6/1/05
to
Max Mukin wrote:
>>> MB> А можешь подсказать паpу названий аггpегатоpов/монитоpинга?
>>> В зависимости от желаемого - flow-tools (flow-report, flow-stat, flow-nfilter,
> VS>
> VS> Я так и не нашел в flow-tools средств для того, чтобы посмотреть
> VS> распределение трафика по часам/минутам/дням... Приходится делать через
> VS> "flow-print | awk", но возможно я что-то пропустил?
> flow-cat [-t start_time] [-T start_time]
> Или надо именно распределение по дням/часам ?

Да, нужно именно распределение.
Хочу, например, знать, на какое время суток или на какой день недели
приходится пик почтового трафика. Явно не хватает еще парочки отчётов
у flow-stat.

Gennady Abramov

unread,
Jun 1, 2005, 6:42:33 AM6/1/05
to
Tue May 31 2005 21:01, Victor Sudakov wrote to "Gennady Abramov":

VS> Gennady Abramov wrote:
>> MB> А можешь подсказать паpу названий аггpегатоpов/монитоpинга?
>> В зависимости от желаемого - flow-tools (flow-report, flow-stat,
>> flow-nfilter,
VS> Я так и не нашел в flow-tools средств для того, чтобы посмотреть
VS> распределение трафика по часам/минутам/дням... Приходится делать через
VS> "flow-print | awk", но возможно я что-то пропустил?
Пропустил. flow-report, flow-stat. Для выбирания по времени - flow-nfilter,
или выбирать нужный бинарник нетфлоу. Для аггрегированной статистики по
определяемым тобой сетям - flow-tag.

/BeSD wishes

Gennady Abramov

unread,
Jun 1, 2005, 6:45:35 AM6/1/05
to
Tue May 31 2005 10:37, Constantin Stefanov wrote to Gennady Abramov:
>> >> ЗЫ Только Оpакл позволит плоско pаботать с таким количеством записей в
>> >> одной таблице за счет многоуpовневого pазбиения на pазделы - всё
>> >> остальное извpат. фpивеpные БД издохнут не pодившись. Интеpбейз
>> валится
>> >> на объеме в несколько миллионов записей в таблице (около 3-4).
>> CS> select count(*) from ip_accounting
>> CS> 73507895
>> Если это неаггрегированные значения - то с февраля ты , получается,
>> прокачал через себя порядка 50Гб, что , безусловно, очень смешные
>> значения.
>> CS> База - PostgreSQL. Hе особо напрягается. Hе миллиарды, конечно, да и
>> CS> скорость небольшая - это данные чуть меньше чем за четыре месяца ( с
>> CS> начала февраля). Так что жить можно. Хотя из такого объема выборки
>> CS> делать в реальном времени тяжело - для этих целей есть отдельная
>> таблица
>> CS> с уже агрегированными значениями.
>> И - тем не менее - а зачем?
>> Почему - при несильно больших объемах - нельзя хранить данные в
>> компрессированных raw бинарниках, а в базу лить только "уже
>> аггрегированные значения"?
>> Тем более , что делать аггрегацию силами базы , мягко говоря,
>> неоптимальное решение задачи при даже небольших объемах.
CS> Да не вопрос. Решение было сделано на коленке, когда быстро поандобился
CS> учет. уже сейчас я думаю именно так и поступить - хранить первичные
CS> данные от netflow, а в базу - только аггрегированные таблицы для показа
CS> через веб. Правда, когда руки дойдут - пока и так работает. Я это к
CS> тому, что даже ьесплатная база вполне может выдержать таблицу с
CS> десятками миллионов записей. То, что такое решение неоптимально -
CS> видимо, я с этим соглашусь.
"Выдержать таблицу" - да. Хотя я бы не стал рисковать. А сколько времени на
мощной машинке PostgreSQL обработает запрос на предмет суммирования пары
милионов записей из этих десятков милионов, попадающих в ту или иную сеть?
И смысл тогда вообще в сборе этой статистики и в существовании этой базы?

/BeSD wishes

Gennady Abramov

unread,
Jun 1, 2005, 6:51:31 AM6/1/05
to
Tue May 31 2005 11:06, Dark Elf wrote to Gennady Abramov:
CS>>> База - PostgreSQL. Hе особо напрягается. Hе миллиарды, конечно,
CS>>> да и скорость небольшая - это данные чуть меньше чем за четыре
CS>>> месяца ( с начала февраля). Так что жить можно. Хотя из такого
CS>>> объема выборки делать в реальном времени тяжело - для этих целей
CS>>> есть отдельная таблица с уже агрегированными значениями.
GA>> И - тем не менее - а зачем?
GA>> Почему - при несильно больших объемах - нельзя хранить данные в
GA>> компрессированных raw бинарниках, а в базу лить только "уже
GA>> аггрегированные значения"? Тем более , что делать аггрегацию силами
GA>> базы , мягко говоря, неоптимальное решение задачи при даже небольших
GA>> объемах.
DE> Кхем. Как pаз оптимальней хpанить в базе и обpабатывать её сpедствами.
DE> Всё таки она заточена под это...
То, что база заточена под хранение табличных данных , еще не говорит о том,
что любые данные целесообразно в нее класть. В добавок с битовые операции в
количестве делать средствами базы уже будет мягко говоря неоптимально.

/BeSD wishes

Constantin Stefanov

unread,
Jun 1, 2005, 6:59:43 AM6/1/05
to
Это сырые данные, и нужны они в случае каких-то разборок (я по ним,
например, в свое время машины, зараженные msblast, ловил). Да, запросы
выполняются долго. Но из сырых данных в бинарниках они тоже будут не
быстрые. А пользователям показываются данные из другой таблицы, где все
в аггрегированном состоянии. А по той таблице - чуть больше, чем 4,2
миллиона записей, почасовые данные для каждого адреса из сети /24 на
вход и выход, пакеты и байты, с апреля 2003 года, суммирование с
группировкой по адресу выполняется за 67 секунд. Надо бы ужать
детализацию до суток, да никак руки не дойдут.

--
Константин Стефанов

Victor Sudakov

unread,
Jun 1, 2005, 10:10:58 AM6/1/05
to
Gennady Abramov wrote:
> >> MB> А можешь подсказать паpу названий аггpегатоpов/монитоpинга?
> >> В зависимости от желаемого - flow-tools (flow-report, flow-stat,
> >> flow-nfilter,
> VS> Я так и не нашел в flow-tools средств для того, чтобы посмотреть
> VS> распределение трафика по часам/минутам/дням... Приходится делать через
> VS> "flow-print | awk", но возможно я что-то пропустил?
> Пропустил. flow-report, flow-stat.

Регулярно пользуюсь. Но отчетов по временному распределению трафика в
них нет.

> Для выбирания по времени - flow-nfilter,
> или выбирать нужный бинарник нетфлоу.

И всё это обвязать снаружи скриптом, который будет перебирать нужные
бинарники или параметры flow-nfilter? А потом объединять вывод сотни
flow-report ? Нет уж, через "flow-print | awk" и то проще получается.

> Для аггрегированной статистики по
> определяемым тобой сетям - flow-tag.

Этим никогда не пользовался, хватало flow-nfilter.

Alexey Milevsky

unread,
Jun 1, 2005, 1:08:03 PM6/1/05
to
Hi!

>И все это обвязать снаружи скриптом, который будет перебирать нужные

>бинарники или параметры flow-nfilter? А потом объединять вывод сотни
>flow-report ? Нет уж, через "flow-print | awk" и то проще получается.

зная, что FreeBSD Вам не чужда, попробую предложить
/usr/ports/net-mgmt/flow-extract...

--
A1ex.

Отправлено через сервер Форумы@mail.ru - http://talk.mail.ru

Dark Elf

unread,
Jun 1, 2005, 11:30:46 PM6/1/05
to
_*/█/*_ _/█/_ _█_ /█/ /*█*/ #/█/# /*#█#*/ _*█*_ #█# *#█#* #/_█_/# _/#*Gennady!*#/_  

01 Jun 05 14:51, Gennady Abramov wrote to Dark Elf:

CS>>>> База - PostgreSQL. Hе особо напрягается. Hе миллиарды, конечно,

CS>>>> да и скорость небольшая - это данные чуть меньше чем за четыре
CS>>>> месяца ( с начала февраля). Так что жить можно. Хотя из такого
CS>>>> объема выборки делать в реальном времени тяжело - для этих
CS>>>> целей есть отдельная таблица с уже агрегированными значениями.
GA>>> И - тем не менее - а зачем?
GA>>> Почему - при несильно больших объемах - нельзя хранить данные в
GA>>> компрессированных raw бинарниках, а в базу лить только "уже
GA>>> аггрегированные значения"? Тем более , что делать аггрегацию
GA>>> силами базы , мягко говоря, неоптимальное решение задачи при
GA>>> даже небольших объемах.


DE>> Кхем. Как pаз оптимальней хpанить в базе и обpабатывать её

DE>> сpедствами. Всё таки она заточена под это...
GA> То, что база заточена под хранение табличных данных , еще не говорит о
GA> том, что любые данные целесообразно в нее класть. В добавок с битовые
GA> операции в количестве делать средствами базы уже будет мягко говоря
GA> неоптимально.

Хм... Вообще-то вполне логично, если данные пеpед помещением в базу надо
подготовить. Посему это я не упоминал. К тому же 90% pезультата будет зависит
от оpганизации таблиц.

║ Q47: а где нетварь?
║ A47: скоро должна сдохнуть.

Best regards! Dark Elf

Victor Sudakov

unread,
Jun 1, 2005, 11:06:04 PM6/1/05
to
Alexey Milevsky wrote:
>
>>И все это обвязать снаружи скриптом, который будет перебирать нужные
>>бинарники или параметры flow-nfilter? А потом объединять вывод сотни
>>flow-report ? Нет уж, через "flow-print | awk" и то проще получается.
> зная, что FreeBSD Вам не чужда, попробую предложить
> /usr/ports/net-mgmt/flow-extract...

Иногда пользуюсь, когда лень описывать нужное в конфиге flow-nfilter.
Но оно, опять же, позволяет сделать _выборку_ в том числе по времени,
но не статистику в зависимости от времени.

Получить netflow за определенный промежуток времени - нет никакой
проблемы. Сложность - в отсутствии в комплекте flow-tools инструментов
_анализа_ в зависимости от временной оси.

Viktor Fomichev

unread,
Jun 2, 2005, 3:44:02 AM6/2/05
to
Victor Sudakov пишет:

> Alexey Milevsky wrote:
>
>>>И все это обвязать снаружи скриптом, который будет перебирать нужные
>>>бинарники или параметры flow-nfilter? А потом объединять вывод сотни
>>>flow-report ? Нет уж, через "flow-print | awk" и то проще получается.
>>
>>зная, что FreeBSD Вам не чужда, попробую предложить
>>/usr/ports/net-mgmt/flow-extract...
>
>
> Иногда пользуюсь, когда лень описывать нужное в конфиге flow-nfilter.
> Но оно, опять же, позволяет сделать _выборку_ в том числе по времени,
> но не статистику в зависимости от времени.
>
> Получить netflow за определенный промежуток времени - нет никакой
> проблемы. Сложность - в отсутствии в комплекте flow-tools инструментов
> _анализа_ в зависимости от временной оси.
>
>
FreeBSD: /usr/ports/net-mgmt/TkTopNеtFlow - смотрел?

Victor Sudakov

unread,
Jun 2, 2005, 5:05:55 AM6/2/05
to
>> Получить netflow за определенный промежуток времени - нет никакой
>> проблемы. Сложность - в отсутствии в комплекте flow-tools инструментов
>> _анализа_ в зависимости от временной оси.
>>
>>
> FreeBSD: /usr/ports/net-mgmt/TkTopNеtFlow - смотрел?

Настораживает то, что оно GUI. График построить я и сам могу
gnuplot-ом или екселем, а визуализация в самой программе анализа мне
нафиг не нужна.

Viktor Fomichev

unread,
Jun 2, 2005, 5:47:05 AM6/2/05
to
Victor Sudakov пишет:

>>>Получить netflow за определенный промежуток времени - нет никакой
>>>проблемы. Сложность - в отсутствии в комплекте flow-tools инструментов
>>>_анализа_ в зависимости от временной оси.
>>>
>>FreeBSD: /usr/ports/net-mgmt/TkTopNеtFlow - смотрел?
>
> Настораживает то, что оно GUI. График построить я и сам могу
> gnuplot-ом или екселем, а визуализация в самой программе анализа мне
> нафиг не нужна.
>
Дык прибор состоит из 2х частей: одно- это действительно GUI,
а второе - это "сервер представлений" - собственно всю обработку
данных делает именно он. И отдает результат по простому текстовому
протоколу через TCP сокет любой другой программке, которая этого хочет,
и которая сама умеет графики строить.

Впрочем, о пригодности пакета для твоих задач можно будет судить
только есть ты подробнее опишешь свою проблему, и что ты хочешь получить
в результате.
Но это уже, наверное, лучше в частной переписке.

Alexey Milevsky

unread,
Jun 2, 2005, 7:14:14 AM6/2/05
to
Hi!

>Получить netflow за определенный промежуток времени - нет никакой
>проблемы. Сложность - в отсутствии в комплекте flow-tools инструментов
>_анализа_ в зависимости от временной оси.

тогда никто лучше Вас не знает Ваших требований к анализу:
/usr/ports/net-mgmt/p5-Cflow - не скажу, что быстро; но гибче - некуда :)
и достаточно просто.

Victor Sudakov

unread,
Jun 2, 2005, 10:50:49 PM6/2/05
to
Alexey Milevsky wrote:
>
>>Получить netflow за определенный промежуток времени - нет никакой
>>проблемы. Сложность - в отсутствии в комплекте flow-tools инструментов
>>_анализа_ в зависимости от временной оси.
> тогда никто лучше Вас не знает Ваших требований к анализу:
> /usr/ports/net-mgmt/p5-Cflow - не скажу, что быстро; но гибче - некуда :)
> и достаточно просто.

Ну, я понимаю, что самому можно написать всё :)
Меня в принципе устраивает "flow-print | awk", а говорил я об
отсутствии _готовых_ средств в комплекте flow-tools.

Gennady Abramov

unread,
Jun 3, 2005, 3:42:25 AM6/3/05
to
Wed Jun 01 2005 18:10, Victor Sudakov wrote to "Gennady Abramov":

VS> From: Victor Sudakov <v...@mpeks.tomsk.su>


>> >> MB> А можешь подсказать паpу названий аггpегатоpов/монитоpинга?
>> >> В зависимости от желаемого - flow-tools (flow-report, flow-stat,
>> >> flow-nfilter,
>> VS> Я так и не нашел в flow-tools средств для того, чтобы посмотреть
>> VS> распределение трафика по часам/минутам/дням... Приходится делать через
>> VS> "flow-print | awk", но возможно я что-то пропустил?
>> Пропустил. flow-report, flow-stat.

VS> Регулярно пользуюсь. Hо отчетов по временному распределению трафика в
VS> них нет.


>> Для выбирания по времени - flow-nfilter,
>> или выбирать нужный бинарник нетфлоу.

VS> И всё это обвязать снаружи скриптом, который будет перебирать нужные
VS> бинарники или параметры flow-nfilter? А потом объединять вывод сотни
VS> flow-report ? Hет уж, через "flow-print | awk" и то проще получается.
А чего хочется-то?
С помощью flow-nfilter (Или используя фильтрование в flow-report) можно делать
выборку по времени.
Для хранения распределения по времени в rrd и рисования красивых
картинок/графиков/etc подойдет Dave Plonka's FlowScan.


>> Для аггрегированной статистики по
>> определяемым тобой сетям - flow-tag.

VS> Этим никогда не пользовался, хватало flow-nfilter.
Да, при небольших объемах, и если критериев выборки немного, и они
"одноуровневые" - то вполне.

/BeSD wishes

0 new messages