网站生成静态页面攻略3:防采集策略

目前防采集的方法有很多种,先介绍一下常见防采集策略方法和它的弊端及采集对策:

一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问

    弊端:

    1、此方法只适用于动态页面,如:asp\jsp\php等...静态页面无法判断某个IP一定时间访问本站页面的次数。

    2、此方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎蜘蛛收录时,浏览速度都会比较快而且是多线程。此方法也会拒绝搜索引擎蜘蛛收录站内文件

    采集对策:只能放慢采集速度,或者不采

    建议:做个搜索引擎蜘蛛的IP库,只允许搜索引擎蜘蛛快速浏览站内内容。搜索引擎蜘蛛的IP库的收集,也不太容易,一个搜索引擎蜘蛛,也不一定只有一个固定的IP地址。

    评论:此方法对防采集比较有效,但却会影响搜索引擎对其收录。

    二、用javascript加密内容页面

    弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容

    采集对策:建议不采,如非要采,就把解密码的JS脚本也采下来。

    建议:目前没有好的改良建议

    评论:建议指望搜索引擎带流量的站长不要使用此方法。

    三、把内容页面里的特定标记替换为”特定标记+隐藏版权文字“

    弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集

    采集对策:把采集来的含有隐藏版权文字内容的版权文字替掉,或替换成自己的版权。

    建议:目前没有好的改良建议

    评论:自己感觉实用价值不大,就算是加上随机的隐藏文字,也等于画蛇添足。

    四、只允许用户登陆后才可以浏览

    弊端:此方法会严重影响搜索引擎蜘蛛对其收录

    采集对策:目前落伍已经有人发了对策文章 ,具体对策就看这个吧《ASP小偷程序如何利用XMLHTTP实现表单的提交以及cookies或session的发送》

    建议:目前没有好的改良建议

    评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。

    五、用javascript、vbscript脚本做分页

    弊端:影响搜索引擎对其收录

    采集对策:分析javascript、vbscript脚本,找出其分页规则,自己做个对应此站的分页集合页即可。

    建议:目前没有好的改良建议

    评论:感觉懂点脚本语言的人都能找出其分页规则

    六、只允许通过本站页面连接查看,如:Request.ServerVariables("HTTP_REFERER")

    弊端:影响搜索引擎对其收录

    采集对策:不知道能不能模拟网页来源。。。。目前我没有对应此方法的采集对策

    建议:目前没有好的改良建议

    评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。

    从以上可以看出,目前常用的防采集方法,要么会对搜索引擎收录有较大影响,要么防采集效果不好,起不到防采集的效果。那么,还有没有一种有效防采集,而又不影响搜索引擎收录的方法呢?那就请继续往下看吧!

相关推荐