Re: Squid jako sniffer

dejma na volny.cz dejma na volny.cz
Středa Únor 27 16:00:34 CET 2008


> Zdravim,
> kdyz uz se nebojite trosky scriptovani, neni jednodussi
> mit na localhostu
> scriptik ktery to pomoci wget nebo curl stahne? Obe
> metody umi posilat
> pripadne cookies, nebo prihlasit se pomoci http basic
> ... Mam malo informaci
> jak to funguje, ale metoda "150 x kliknuti" primo vola
> po automatizaci :)
> 
> Pavel
DD,

nad tím jsem samozřejmě přemýšlel, zkoušel jsem i něco zpatlat
v php. Ale má to hodně JS a je to odolné proti BOTům, tedy snaží
se to být odolné ...
Používá to session a programování BOTů je přímo zakázáno a
chci to respektovat.

takže radši volím cestu 150klik a zpracovat uložená data, je to
10 nepříjemných minut ale výsledná analýza mi ušetří mnohem
více času.

- Dejma
> 
> On Wednesday 27 February 2008 14:33:49 dejma na volny.cz
> wrote:
> > Dobrý den všem,
> >
> > situace:
> > PHP aplikace generuje stránky, tabulky po 20 řádcích.
> > > Aplikaci nemám pod kontrolou.
> > Ručně přecházím ze stránky na stránku a musím
> > "očmo" kntrolovat
> > > udaje.
> >
> > Moje představa:
> > Squid zachytáva trafic, který přes něj běží
> > a podobně jako wget
> > > ukládá stránky, které přes něj tečou, já
> > musím pouze 150x zmáčknout
> > > další.
> > Zmíněných 150 stránek bych pak spojil do jedné
> > dlouhé tabulky a
> > > při troše skriptování bych to importoval do SQL
> > kde se s tím dá
> > > pohodlněji pracovat, než ručně projíždet 150
> > tabulek s 20 řádky,
> > > kdyý mě zajímají jenom některé.
> >
> > Je squid cesta jak na to nebo tcpdump.
> > Tak nějak nevím jak se zeptat pana Gůgla, jak
> > na to.
> > > Za případnou radu budu rád, s pozdravem Dejma





Další informace o konferenci Linux