德国蜘蛛爬虫 compatible; DataForSeoBot/1.0; +https://dataforseo.com/dataforseo-bot


compatible; DataForSeoBot/1.0; +https://dataforseo.com/dataforseo-bot

最近看日志无意间发现这个蜘蛛爬虫,看样子应该是国外的,毕竟带了链接地址。也去了解了下是国外的seo运营公司的,然后百度了下,相关资料比较少,算了,既然是国外的蜘蛛爬虫,应该是遵循robots协议吧,就去robots里面加了

User-Agent: DataForSeoBot
Disallow: /

,然后过了1天1晚,我擦执行了

cat www.xuenarui.com | grep -E ' DataForSeoBot/1.0; '|wc -l,居然有好几万。好家伙!

那我就封禁该ip吧,立竿见影,日志没有出现该蜘蛛日志。欣喜若狂!

又过了一晚上,早上来了还是老套路

cat www.xuenarui.com | grep -E ' DataForSeoBot/1.0; '|wc -l

我的乖乖,又出现了几万,对方ip更换了,好吧,实在不行的话只能出必杀技了

nginx配置文件,
Server {
……
if ($http_user_agent ~ "DataForSeoBot/1.0" )
{
      return 403;
}
……
}

只能user-agent封杀了,经历了该事件,发现国外蜘蛛也没有那么所谓讲武德!看样子robots和ip封杀也不行,只能说遇到一个尽可能的通过user-agent进行封杀吧。

欢迎大家分享下自己的心得!