Dva dotazy k PostgreSQL

Pavel Stehule stehule na kix.fsv.cvut.cz
Pondělí Červenec 7 08:05:14 CEST 2003


In article <3f05a85a na post.usenet.com>, Karel Kral wrote:
> **** Post for FREE via your newsreader at post.usenet.com ****
> 
> Provozuji PostgreSQL 7.3 pro sber dat v rezimu 24/7, pricemz data sbiram
> kazdych 5min.
> Data starsi nez 60 dni prumeruji na presnost 1 hod, data starsi nez 180 dni
> na presnost 1den.
> 
> Pro "agregaci" dat mam vytvorenou ulozenou proceduru, ktera "prosiva data" ,
> funkci zatim poustim 1x denne  pomoci skriptu z cronu, ale pripada mi to
> nesystemove
> a rad bych to resil nejak jinak, tak aby to "zilo" vnitrnim zivotem bez
> vnejsich zasahu. Pouziti trigeru by sice odpovidalo pozadavku, ale zaznamu
> je priblizne 30.000,- denne a tak bych minimalne 29.999 x denne delal
> zbytecnou praci.
> 
> Otazka je existuje neco jako Trigger, ktery by se spoustel v zadany cas ?

Nic takoveho v PostgreSQL neni. Jelikoz si nevybavuji, ze by to bylo v ToDo
tak ani nepredpokladam, ze by to v blizke budoucnosti bylo. Pouziti cronu na
unixech mi nesystemove neprijde. Pokud chcete mit vsechno pohromade, napiste
si ulozenou proceduru a z cronu zpoustejte pouze 

	psql -c "select casesp()" vasedb

> 
> 
> Dalsi problem je , ze databaze neumerne boptna, tj. po nejakem case provozu
> ma rekneme 250MB a pokud ji zazalohuji a znovu vytvorim ma pri stejnych
> datech jen 50MB, nepomaha ani drop a create indexu za provozu ani Vacuum.
> 
> Vazne nevim co je v  tech 200MB co se pri novem vytvoreni databaze usetsi.
> 
> Jak se resi provoz  7/24 databazi, jak je udrzovat  aby nezvetsovali svuj
> objem vice nez je zdravo ?
> 
> 
> Dekuji za kazdou radu !
> 
> K.K.
> 
> 
> 
> 
S timhle netusim

Zdravim
ps


> 
> 
> 
> 
> 
> 
> -=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=
>  *** Usenet.com - The #1 Usenet Newsgroup Service on The Planet! ***
>                       http://www.usenet.com
> Unlimited Download - 19 Seperate Servers - 90,000 groups - Uncensored
> -=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=-=


Další informace o konferenci Databases