Squid jako sniffer

Pavel Benisek benny007-linux na 3dgrafika.cz
Středa Únor 27 15:54:29 CET 2008


Zdravim,
kdyz uz se nebojite trosky scriptovani, neni jednodussi mit na localhostu 
scriptik ktery to pomoci wget nebo curl stahne? Obe metody umi posilat 
pripadne cookies, nebo prihlasit se pomoci http basic ... Mam malo informaci 
jak to funguje, ale metoda "150 x kliknuti" primo vola po automatizaci :)

Pavel

On Wednesday 27 February 2008 14:33:49 dejma na volny.cz wrote:
> Dobrý den všem,
>
> situace:
> PHP aplikace generuje stránky, tabulky po 20 řádcích.
> Aplikaci nemám pod kontrolou.
> Ručně přecházím ze stránky na stránku a musím "očmo" kntrolovat
> udaje.
>
> Moje představa:
> Squid zachytáva trafic, který přes něj běží a podobně jako wget
> ukládá stránky, které přes něj tečou, já musím pouze 150x zmáčknout
> další.
> Zmíněných 150 stránek bych pak spojil do jedné dlouhé tabulky a
> při troše skriptování bych to importoval do SQL kde se s tím dá
> pohodlněji pracovat, než ručně projíždet 150 tabulek s 20 řádky,
> kdyý mě zajímají jenom některé.
>
> Je squid cesta jak na to nebo tcpdump.
> Tak nějak nevím jak se zeptat pana Gůgla, jak na to.
> Za případnou radu budu rád, s pozdravem Dejma
>
>
> _______________________________________________
> Linux mailing list
> Linux na linux.cz
> http://www.linux.cz/mailman/listinfo/linux





Další informace o konferenci Linux