Re: Squid jako sniffer

dejma na volny.cz dejma na volny.cz
Čtvrtek Únor 28 08:21:39 CET 2008


OK, vykecám to vše :)
Je to OGame.cz www(php) hra, kde je mapa vesmíru. V té jsou planety.
Ty planety mají nejaké hodnoty, které jsou videt po najetí mysi
na planetu přes JS overlib. Ty informace v popup JS mě zajímaji a
jsou součástí HTML tagu <a>. Mohl bych si naprogramovat klikacího
robota co bude dělat Save as... HTML kod stránky, ale to pravidla
hry zakazuji. nad random(1,5) timeoutem jsem taky přemýšlel, jako
simiulace člověka. Ale radsi bych něco, co tělo každé index.php
bude ukládat nejlépe do jednoho souboru za sebe, na který bych si
napsal parser, který pro mě důležité hodnoty vykuchá z tagu <a>
do  <td>.

žádná věda, jenom funny

----- PŮVODNÍ ZPRÁVA -----
Od: "Milan BERKA" <ber na eunet.cz>
Komu: linux na linux.cz
Předmět: Re: Squid jako sniffer
Datum: 28.2.2008 - 7:27:07

> Přesto bych na to napsal skript. S dostatečným timeoutem...
> Nikdo není
> schopen zkontrolovat, že to dělá robot např. náhodný
> timeout.
> Teoreticky i robot může mačkat klávesu.... Jaký
> má smysl takový zákaz???
> Pokud to nejsem schopen poznat, zkontrolovat a zamezit
> tomu - žádnou.
> 
> MB.
> 
> dejma na volny.cz napsal(a):
> >> Zdravim,
> >> kdyz uz se nebojite trosky scriptovani, neni jednodussi
> >> >> mit na localhostu
> >> scriptik ktery to pomoci wget nebo curl stahne?
> >> Obe
> >> >> metody umi posilat
> >> pripadne cookies, nebo prihlasit se pomoci http
> >> basic
> >> >> ... Mam malo informaci
> >> jak to funguje, ale metoda "150 x kliknuti" primo
> >> vola
> >> >> po automatizaci :)
> >>
> >> Pavel
> > DD,
> > 
> > nad tím jsem samozřejmě přemýšlel, zkoušel
> > jsem i něco zpatlat
> > > v php. Ale má to hodně JS a je to odolné proti
> > BOTům, tedy snaží
> > > se to být odolné ...
> > Používá to session a programování BOTů je přímo
> > zakázáno a
> > > chci to respektovat.
> > 
> > takže radši volím cestu 150klik a zpracovat uložená
> > data, je to
> > > 10 nepříjemných minut ale výsledná analýza
> > mi ušetří mnohem
> > > více času.
> > 
> > - Dejma
> >> On Wednesday 27 February 2008 14:33:49 dejma na volny.cz
> >> >> wrote:
> >>> Dobrý den všem,
> >>>
> >>> situace:
> >>> PHP aplikace generuje stránky, tabulky po 20 řádcích.
> >>> >>>> Aplikaci nemám pod kontrolou.
> >>> Ručně přecházím ze stránky na stránku a musím
> >>> "očmo" kntrolovat
> >>>> udaje.
> >>> Moje představa:
> >>> Squid zachytáva trafic, který přes něj běží
> >>> a podobně jako wget
> >>>> ukládá stránky, které přes něj tečou, já
> >>> musím pouze 150x zmáčknout
> >>>> další.
> >>> Zmíněných 150 stránek bych pak spojil do jedné
> >>> dlouhé tabulky a
> >>>> při troše skriptování bych to importoval do
> >>>> SQL
> >>>> >>> kde se s tím dá
> >>>> pohodlněji pracovat, než ručně projíždet 150
> >>> tabulek s 20 řádky,
> >>>> kdyý mě zajímají jenom některé.
> >>> Je squid cesta jak na to nebo tcpdump.
> >>> Tak nějak nevím jak se zeptat pana Gůgla, jak
> >>> na to.
> >>>> Za případnou radu budu rád, s pozdravem Dejma
> > 
> > 
> > _______________________________________________
> > Linux mailing list
> > Linux na linux.cz
> > http://www.linux.cz/mailman/listinfo/linux
> > 
> 
> _______________________________________________
> Linux mailing list
> Linux na linux.cz
> http://www.linux.cz/mailman/listinfo/linux





Další informace o konferenci Linux