Na początku chcialbym podziekowac redaktorowi Rzeczy Kołobrzeskiej za szybkie wskazanie problemu, ktory mozna bylo usunac natychmiast. Pozwolilem tez sobie napisac o tzw. walce z wiatrakami. Moze wy macie jeszcze jakies pomysly na lepsze zabezpieczenia naszych serwisow.
"Co by nie zrobil administrator serwisu nigdy nie wygra ze zlosliwym oprogramowaniem. To wieczna walka. Nawet system zabezpieczen CAPTCHA - blokowanie automatów stosowanych przez spamerów, wykorzystujące zaszumione obrazki, z których rejestrujący się uzytkownik musiał przepisać kilka liter, by założyć konto na forum lub umieścić komentarz do tej pory spisywało się rewelacyjnie. Niestety spisywało się. Test CAPTCHA działał obosiecznie - odfiltrowywał zarówno spamujące automaty, jak też niedoświadczonych użytkowników.
Dziś jego siła znacząco osłabła: użytkownicy nauczyli się czytać coraz bardziej powykręcane litery, a spamerzy stworzyli wystarczająco inteligentne automaty. Jak donosi blog PandaLabs, za 450 dolarów można kupić program XRumer, który zdoła się zasypać spamerskimi odsyłaczami większość popularnych forów dyskusyjnych, modułów komentarzy, itd. Zasada jest prosta: XRumer rejestruje się jako legalny użytkownik - rozpoznając znaki w teście - a następnie zaśmieca forum odsyłaczami do witryny kogoś, kto go zakupił. Na jego ataki nie są odporne exBB, IconBoard, Invision Power Board, phorum.org, phpBB, PHP-Nuke, UltimateBB, VBulletin oraz yaBB. Potrafi generować do 1100 odsyłaczy w 15 minut. Maskuje się wykorzystując serwery proxy, dlatego nie można go unieszkodliwić przez zastosowanie blokady [zakresów] adresów IP. Kolejną możliwością ochrony przed robotami jest odpowiednie przygotowanie pliku robots.txt i umieszczenie go w katalogu głównym serwisu. Tam można ustawić jakie katalogi i strony i przez jakie roboty mają byc indeksowane. Jednak przy tej ogromnej ilości powstawania nowych robotow jest to bardzo mozolna praca. Mozna oczywiscie ustawic zakaz indeksowania calej zawartosci strony:
User-agent: *
Disallow: /
Ale wtedy strona przestanie istnieć serwisach takich jak google, i inne a pozycjonowanie idzie w pole. Mozna tez blokowac zakresy adresow IP, ale to też działa obosiecznie. Przy okazji zatrzymania największych spamerów, blokuje się często w zakresie adresów IP roboty indeksujące nasze serwisy, takie jak: google, yahoo, MSN, WP, itd, ponieważ czesto ataki sa wykonywane z serwerow tych firm. Nic tu nie daje nawet blokowanie adrsow .ru i innych. Dlatego wazna jest wiedza uzytkownikow i chec niesienia wsparcia. Jesli widzimy komentarz w ktorego tresci zawarte jest sekwencja: casyno seks poker, to nie klikajmy w ten link, a poinformujmy administratora, zeby takowy komentarz usunal i dodal do bazy kolejny adres IP do zablokowania. To bedzie odwieczna walka, ale innego wyjscia nie ma. Prognozy specjalistow mowia jasno, ze za kilka lat korzystanie z internetu stanie sie nie mozliwe, a zagrozenia ze strony spamerow, tworcow wirusow beda globalna epidemia nie do rozwiazania".