Это не агригированый запрос. Данные, вроде, не должны нигде накапливаться. Сервер одиночный, таблица collapsedMergeTree
(Code: 241, e.displayText() = DB::Exception: Memory limit (for query) exceeded: would use 9.31 GiB
Скачивется примерно полтора гигабайта, потом приходит exeption (Code: 241, e.displayText() = DB::Exception: Memory limit (for query) exceeded: would use 9.31 GiB (attempt to allocate chunk of 2097152 bytes), maximum: 9.31 GiB: (while reading column events.hit_sz): (while reading from part /usr/local/rle/var/clickhouse//data/default/session/20170108_20170110_1159806_1229252_12/ from mark 4096 to 4104): )$VAR1 = [
'Code: 241, e.displayText() = DB::Exception: Memory limit (for query) exceeded: would use 9.31 GiB (attempt to allocate chunk of 2097152 bytes), maximum: 9.31 GiB: (while reading column ...): (while reading from part ... from mark 4096 to 4104): '
];
Таким вот образом и через curl, и через mozilla firefox и через perl LWP::UserAgent.
Сначала через LWP::UserAgent вообще почти сразу отваливался, но при сбросе http header'a client-transfer-encoding начало грузить как curl примерно.
$ua->default_header('client-transfer-encoding' => undef);
Неужели нужно разбивать по крошечным запросам...?