optimalizace triggeru (Postgres, ...)

Karel Zak zakkr na zf.jcu.cz
Pondělí Prosinec 18 08:10:52 CET 2000


On Fri, 15 Dec 2000, Robert Vojta wrote:

> #   No, ja se na to podivam, kazdopadne vyzkousim co to udela s rychlosti, atd.
> # kdyz ty data prenesu do duplikovanych tabulek (statickych) v kterych bude
> # provaden maximalne insert ci delete pozdejsich udaju.
> 
>   Otazka z druhe strany, co je rychlejsi:
> 
>   - nechat to delat triggery

 celkovy cas = trigger + operace (update/insert/delete) 

>   - poustet z cronu program (C & libpq), ktery to bude vsechno delat?

 celkovy cas = BE<->FE + prace FE (ale pro 'x' radek)

 IMHO to je uplne spatna otazka:-) 

	1/	Je-li treba mit ta data ihned tak trigger 
		=> pomalejsi insert
		=> bude se to provadet v kazdem BE (backend)

	2/	Je mozne to delat po castech (po urcite dobe)
		=> nebude tim ovliveno vkladani dat
		=> pripadna sumarizace dat bude provadena *jednim* BE


 IMHO nejrychlejsi mozna varianta - pokud vam dostacuje moznost '2/'
- napsat funkci pro PostgreSQL, ktera bude vykonavat tu sumarizaci
*uvnitr PG* a tuto funkci volat z nejake query

	SELECT moje_sumarizace_dat();

 tim se vyhnete prenosu dat na klienta a nazpet. 

					Karel







Další informace o konferenci Test