zalohovani velkeho mnozstvi dat

Honza Houstek houstek-lists na utf.troja.mff.cuni.cz
Sobota Srpen 23 13:22:38 CEST 2003


> Zdravim, v soucasne dobe zalohuji data pomoci tar a gzipu. Je vsak
> potreba zalohovat stale narustajici mnozstvi dat a jeden velky tar.gz
> archiv (cca 1,5GB) jiz nevyhovuje pozadavkum (nutno obcas odtamtud neco
> vytahnout nebo proste jen zkontrolovat).

V tom pripade bych tomu procesu nerikal zalohovani :) Zaloha neni k tomu,
aby se do ni neustale lezlo. Jedine, co by melo jit se zalohou udelat
relativne rychle je obnova totalne zruseneho stroje - vezmnu nove zelezo,
rozbalim tam ty *.tar.gz a jede se dal.

> Potreboval bych tedy gzipu nejak rici, aby mi to zabalil do nekolika
> archivu s urcitou velikosti (treba po 300MB). Hledal jsem trosku v
> manualu gzipu, ale nenasel jsem to. Umi to vubec gzip?

Gzip umi pouze komprimovat proud dat. Tar umi vice souboru dat do jednoho
(index je tusim na zacatku). No a z toho, ze tar a gzip pracuji nezavisle
je jasne, ze na vybaleni jednoho souboru je treba rozbalit cely .tar.gz (v
pripade, ze by se to delalo inteligentne pouze kus od zacatku do umisteni
toho souboru, coz v prumernem pripade stejne znamena pouze dvojnasobne
zrychleni).

Jinym zpusobem by mel fungovat zip, u nej je proces zatrizeni dat a jejich
komprimace vice provazana, jednotlivy soubor jde vytahnout bez nutnosti
dekomprimace celeho zipu a listing souboru se take poridi snadno.

Podobne by se mel chovat rar, ale ten mi pripadal na linuxu hrozne pomaly
(mozna tam byla nejaka odstranitelna chyba).

Jinak pochopitelne to muzete resit na urovni nejakych skriptu, ktere
soubory rozdeli do vice archivu, nebo je nejdriv zkomprimujou a pak teprve
zabali apod.

-- Honza Houstek


Další informace o konferenci Linux