sarg - rychlost zpracovani

Zdenek SUTR Kaminski sutr na valachian-labs.com
Pondělí Listopad 29 15:27:16 CET 2004


On Mon, 29 Nov 2004, Martin Calko wrote:

> Zpracovavam sarg-em log squid-a na male siti. Nekomprimovany log ma za 
> mesic okolo 90MB. Sarg si ho vnitrne v prubehu zpracovani roztridi podle 
> ip adres na dilci soubory (jsou videt v /tmp/sarg) a ty pak sort-em 
> tridi podle (priblizne) ctyr kriterii.
> 
> Problem: tridici faze trva pro uvedene mnozstvi dat radove ve dnech 
> (PII/400MHz/256MB RAM). Zkoumal jsem moznost optimalizace ale na nic 
> jsem neprisel. sarg zadne zjevne parametry pro ladeni nema (krome toho, 
> ze se mu uberou kriteria pro report coz jsem udelal) a sort je asi vekem 
> uz dost vyladeny program a nemyslim, ze bych ho dokazal vyznamne 
> urychlit. Cely proces v podstate nesaha na disk a zatizeni procesoru je 
> okolo 99% a pochazi temer vyhradne od sort-u.
> 
> Nejaky napad? Je log ze site s 20-i stanicemi uz tak tvrdy orisek, ze 
> bych mel radeji logovat do databaze? Prijde mi to jako pritazene za vlasy.

Nu, ja jsem to vyresil tak, ze poustim srg casteji (upravil jsem si jej 
pro castejsi periodu - at dela dobre adresare a generuje spravne stranku) 
a rotuji si logy, coz ovsem muze znamenat jistou ztratu informace, protoze 
se tak deje i behem pracovni doby...

Ano, srg se mi zda naprd pri velkem zpracovani...

Z.K.
--
Wallachian Laboratories? Freeride in UN*X systems...



Další informace o konferenci Linux