咨询电话:023-88959644    24小时服务热线:400-023-8809
NEWS CENTER ·
新闻动态
关注中技互联 关注前沿

浅析网站不能完整被收录的原因

发表日期:2013-05-02    文章编辑:降生    浏览次数:18    标签:

www.zjcoo.com

   中技互联考虑很多新站长总是在抱怨自己的网站不能被完整收录,所以就为大家分析了几个原因,希望对大家有帮助。

  第一:无人访问我们的网站,特别对于一些大型的内容型网站来说,网站上的内容页面特别多,网站之间如果不能很好的建立内链,很多页面可能就会面临着被沉底不收录的现象,这些页面大多数离网站首页深度比较深,蜘蛛无法对页面进行爬行,导致不能被蜘蛛收录。或者是链接到此页面的链接都是加了nofollow标签,不传递任何权重的链接。因为这种原因导致网站不被充分收录比较冤枉,对于网站的建设来说,最好不要在网站上使用nofollow标签、JS代码、或者蜘蛛不能识别的转向等。对于网站页面深度比较深的情况,站长们可以完善网站的内链建设,不要网站的页面变成独立的页面,建立好导航和内链,或者给想要收录的页面增加外链,提高页面在搜索引擎中的权重值。

  第二: 垃圾站点内容,一个重要的不可忽视的就是页面本身的问题,搜索引擎识别能力逐渐加强,对于非高质量非原创的内容,蜘蛛有一定的识别能力,不管是本身网站的重复内容,还是网站从外部获得的重复内容,蜘蛛都能一定程度的对其识别,对于重复的内容页面,蜘蛛不会继续放入自己的数据库,甚至会对一些低权重的网站,进行删除索引的操作。在互联网垃圾泡沫的时代,要想真正的做到收录充分,网站权重高,还是要坚持去做高质量的内容,这样才能长久在业界生存。

  第三: 被robots.txt文件屏蔽。在分析网站日志时发现蜘蛛每天都会在网站抓取,但是网站依然是收录不充分,这时我们很有必要检测网站的robots文件,站长们都知道蜘蛛来网站抓取时,首先会检索网站是否存在robots文件,查看网站是否已经存在不需要抓取的页面,看文件中是否阻止了网站中某部分内容,很多站长因为不会正确的写robots文件,导致网站不能被充分的收录。对于很多新手站长不知道如何写文件,可以利用百度站长工具robots文件功能,可以检测你的文件写法是否正确,或者可以直接帮你生成文件,需要你填写屏蔽的文件路径即可。如下面的例子:

  User-agent: *

  Disallow: /news / 不允许所有的搜索引擎抓取news路径下的内容

  如果某网站上添加了上面的文件,蜘蛛并不会抓取网站上在news路径下的内容,网站在news目录下更新的文章永远不会被收录,网站更新再多的文章,访问日志中蜘蛛每天都来抓取,但是对于这些内容还是不会给予收录。但是对于网站来说news下的内容是很重要的,这样错误的robots文件并是网站不能被充分收录的幕后黑手。

  第四:robots meta标签禁止,网站在诊断的过程中,发现网站的实际收录率很低,网站有的栏目页可以被收录完整,但是有的栏目页更新原创的文章,也不会被收录,之后在检查网站代码时才发现,页面上使用了 noindex标签告诉蜘蛛不允许索引这个页面,显然保护这段代码的栏目页不会被收录,更新的内容即使质量再高也不会被抓取。同时,nofollow标签告诉蜘蛛此页面上的链接不传递权重,如果网站上的页面链接都带有nofollow,那这就是明显的告诉搜索引擎此页面没有任何价值。如果你的站遇到不能被充分收录,检查下meta标签,是否存在错误的标签。

  第五:  被蜘蛛当做是作弊的内容,网站中大量的使用黑帽SEO,作弊的手法优化页面,这样的页面蜘蛛是不会给予收录的。网站上长期使用隐藏文字在页面上进行关键词堆积,网站上对蜘蛛检索到存在隐藏文字和链接,这时你的网站很有可能会被蜘蛛从索引中删除,不会再次出现在搜索页面中。很简单的比如把链接变成和背景相同颜色,这就算作弊了。

  这五点并不能完全涵盖所有的站点不能完全被收录的原因,只是中技自己的一些看法和网上收集的一些比较有用的办法,但大多数应该是这几点了,所以我们可以从这几点中去找出路,或许你会有意外的收获。

重庆中技互联网信息咨询有限公司 www.zjcoo.com

如没特殊注明,文章均为中技互联原创,转载请注明来自www.zjcoo.com
上一篇:视频推广方法详细介绍 下一篇:已经是最后一篇了
相关新闻

CopyrightZJCOO technology Co., LTD. All Rights Reserved.    

渝ICP 备11003429号

  • qq客服
  • 公众号
  • 手机版
  • 新浪微博