Pentru a scăpa de copiii care vă copiază tot în HTML, parcurgeți următoarele:
Intrați în public_html, și căutați fișierul .htaccess ( dacă nu apare, solicitați printr-un ticket să vă editeze ei. Unele firme au acces restricționat).
Dați edit la .htaccess și sub tot ce aveți acolo ( sau dacă nu aveți nimic) inserați acolo, următoarele:
RewriteCond %{HTTP_USER_AGENT} ^HTTrack [OR]
RewriteCond %{HTTP_USER_AGENT} ^SiteSucker [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZip [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebCopier [OR]
RewriteCond %{HTTP_USER_AGENT} ^Zeus
RewriteRule ^.*$ no_download.html [L]
Apoi, tot în public_html, creați un fișier nou: robots.txt (adică numele robots, extensia txt, de la fișier text) . Sau îl faceți întâi în PC și-i dați upload.
În robots.txt inserați următorul cod:
User-agent: AhrefsBot
User-agent: Baiduspider
User-agent: EasouSpider
User-agent: Ezooms
User-agent: YandexBot
User-agent: MJ12bot
User-agent: SiteSucker
User-agent: HTTrack
Disallow: /
Robots.txt poate fi pus și pe subdomenii, însă trebuie neapărat să fie în public_html, alături de .htacccess.
Și-apoi gata. Nu se mai poate folosi HTTrack și nici câteva programe similare.
Succes!
Lasa un comentariu