Upresneni PostgreSQL

Radek_Sedmak na eurotel.cz Radek_Sedmak na eurotel.cz
Čtvrtek Září 30 13:52:54 CEST 1999


No nevim nevim,

     videl jsem uz velke databaze ale 10 miliard rekordu jsem jeste v zadne
tabulce nevidel. Nehlede pri vsi ucte k linuxu takovou databazi by neustal asi
ani nahodou ( a troufam si tvrdit ze v realnem case by odpovedi nedavala zadna z
existujicich DB).

PS: Treba full scan tabulky s 50milionama rekordu na (10xCPU + 5GB Ram stroji,
HPUX ) trva cca 1.5 hodiny.

PS/2: Tech 600GB je hodne optimisticky odhad
                              Bye Sam


Uvedomte si poradne co chcete. 10 000 000 000 zaznamu s polozkami jak
uvadite muze zabirat treba 10GB*60 = 600GB. A to budete rad kdyz se vam ten
zaznam do 60 bytu vejde.
Kdyz to budete prohledavat a budete to prochazet sekvecne tak vas pamet
opravdu nevytrhne. Musite si spocitat za jakou dobu jsou vase disky schopne
ty data vubec precist.

A kdyz se rozhodnete to optimalizovat nejakymi indexy? Tak si spoctete kolik
vam zabere B-tree obsahujici 10 000 000 000 hodnot (klic, identifikace
zaznamu). Kolik bude mit takovy strom urovni a kolik z tech urovni nactete
do pameti. Stejne se ten index pouzije jen pro dotazy s opravdu velkou
selektivitou - vyhledavani podle klice apod. Jinak budete vystavovat
hlavisky na disku sem a tam. Tady se vam uz ta pamet vyplati a ackoliv je
dneska draha nevim proc na ni setrit, i diky tem diskum ten stroj nebude
laciny.






Další informace o konferenci Linux