如何避免网站page的页面被重复抓取
观察分析网站的日志,发现网站page的页面被蜘蛛重复抓取很多,这样子对网站的优化并不是很好。那么我们要如何避免网站页面被蜘蛛重复的抓取呢?重庆网页建设
一、通过robots文件来把这个页面来屏蔽掉,具体做法语法格式:
Disallow: /page/ #限制抓取Wordpress分页如查你的网站有需要也可以把下面的语句一并写上,避免出现过多的重复页面。
* Disallow: /category/*/page/* #限制抓取分类的分页 * Disallow:/tag/ #限制抓取标签页面 * Disallow: */trackback/ #限制抓取Trackback内容
* Disallow:/category/* #限制抓取所有分类列表 什么是蜘蛛,也叫爬虫,其实是一段程序。这个程序的功能是,沿着你的网站的URL一层层的读取一些信息,做简单处理后,然后返馈给后台服务器进行集中处理。我们必需了解蜘蛛的喜好,对网站优化才能做到更好。接下来我们谈谈蜘蛛的工作过程。
二、蜘蛛遇到动态页面
蜘蛛在处理**页信息是面临的难题。**页,是指由程序自动生成的页面。现在互联网发达程序开发脚本语言越来越多,自然开发出来的**页类型也越来越多,如jsp、asp、php等等一些语言。蜘蛛很难处理这些脚本语言生成的网页。优化人员在优化的时候,总是强调尽量不要采用JS代码,蜘蛛要完善处理这些语言,需要有自己的脚本程序。在进行网站优化,减少一些不必要的脚本代码,以便蜘蛛爬行抓取,少导致page页面的重复抓取!
三、蜘蛛的时间
网站的内容经常变化的,不是更新就是改模板。蜘蛛也是不断地更新和抓取网页的内容,蜘蛛的开发者会为爬虫设定一个更新周期,让其按照指定的时间去扫描网站,查看对比出哪些页面是需要进行更新工作的,诸如:主页的标题是否有更改,哪些页面是网站新增页面,哪些页面是已经过期失效的死链接等等。一个功能强太的搜索引擎的更新周期是不断优化的,因为搜索引擎的更新周期对搜索引擎搜索的查全率有很大影响。不过如果更新周期过长,便会使搜索引擎的搜索精确性和完整性降低,会有一些新生成的网页搜索不到;若更新周期太过于短,则技术实现难度加大,而且会对带宽、服务器的资源造成浪费。
四、蜘蛛不重复抓取策略
网站的网页数量非常大,蜘蛛进行抓取是一个很大的工程,网页的抓取需要费非常多线路带宽、硬件资源、时间资源等等。如果经常对同一个网页重复抓取不但会大大的降低了系统的效率,还造成精确度不高等问题
所谓“病毒广告”,就是没有被“投放”的广告,依靠观众自己去传播。投放的意思是花钱购买广告位,或者放在视频网站首页,使观众被迫看到它。
企业网站建设解决方案 营销型网站建设解决方案 行业门户网站建设解决方案 外贸网站解建设决方案 品牌形象网站建设解决方案 购物商城网站建设解决方案 政府网站建设解决方案 手机网站建设解决方案 教育培训网站建设解决方案 珠宝高端奢饰品网站建设解决方案 房地产、地产项目网站建设解决方案 集团、上市企业网站建设解决方案 数码、电子产品网站建设解决方案 美容、化妆品行业网站建设解决方案
10年专业互联网服务经验 重庆最专业网站团队 资深行业分析策划 B2C营销型网站建设领先者 最前沿视觉设计、研发能力 时刻最新技术领先研发能力 具有完备的项目管理 完善的售后服务体系 深厚的网络运营经验
中技互联一直秉承专业、诚信、服务、进取的价值观,坚持优秀的商业道德,以用户最终价值为导向,向用户提供优质产品和优质服务,从而赢得了用户的信赖。始终以不懈的努力、更高的目标来要求自己。
主营业务:网站建设 | 重庆网站建设 | 重庆网站设计 | 重庆网站制作 | 重庆网页设计 | 重庆网站开发
CopyrightZJCOO technology Co., LTD. All Rights Reserved.
渝ICP 备11003429号