排名推广
排名推广
发布信息
发布信息
会员中心
会员中心
 
 
当前位置: 首页 » 资讯 » 网络知识 » 正文

加快新站的收录速度?

放大字体  缩小字体 发布日期:2012-03-21  浏览次数:154

       刚上线的新站点,最为忧伤的无非就是被搜索引擎收录莫属。有的站长会想,收录这个应该非常简单,去搜索引擎入口提交就能被度娘和谷哥加入索引库了。诚然,站点被收录是迟早的事,但是你是否有想过通过自己的总结将收录的速度加快呢?

  百度放出快照的时间少则一天,多则一个月。谷歌在一般情况下5天内就会放出快照。下面笔者分析如何将上述两个搜索引擎加速规则。

  第一,在百度和谷歌的搜索引擎入口进行站点的提交。注意:入口提交的描述这块最好填写一下,有一点好处。

  第二,新站写上robots.txt和制作网站地图

  如果你经常查看IIS日志你会发现不管是baiduspider还是googlebot爬取一个站点首先光临的都是robots.txt,这个协议貌似已经成为站点和搜索引擎蜘蛛之间的一个潜规则。而网站地图是一个站点所有链接的容器,它是作为搜索引擎爬虫的“菜”而存在。网站地图分为xml和html两种格式,据说谷歌比较喜欢爬取xml的地图,百度没说明。如果你是做谷歌优化的那么需要迎合谷歌机器人的口味,如果是百度优化,随意选择一种都行。笔者个人建议html格式的地图,因为更为美观。

  第三,外部链接的支持。

       李彦宏的超链分析是通过分析链接网站的多少来评价被链接的网站质量(当然,并不是说外链在SEO优化工作中所占的比例是主导)。多让蜘蛛在爬取权重高的站点时看到你的链接从而进行爬取,百利无一害。当然这个数量上需要把握好,最好是每天都坚持在一个差不多的基数上。外链平台的选择也很重要,不能只去某一个高权重秒收平台发,不能去不收录不怎么样的平台发。需要多元化,一方面是为了诱惑爬虫爬取,一方面为站点以后的外链方向做好导航。

  第四,每天定时查看IIS日志

       百度的蜘蛛爬取新站通常只会爬取robots.txt、网站地图和首页,爬取的频率很小,所以如果IIS日志上显示的都是200状态码,那么恭喜,如果出现类似404、503的状态码,需要进行解决。谷歌的机器人爬虫爬取的频率会比较频繁,只要出现上述不好的状态码,需要即使解决。为爬虫们留下好印象。

   第五,站点的空间稳定性。

      这个是一个小因素,一般情况下不是问题,但是建议seo们还是使用百度统计进行访问速度检测更为保险。

  上述应该是一个新站为了搜索引擎收录加速而能“牺牲”的问题大综合了。如果你的站点做到了,那么正常情况在上线的第二天就能被谷歌收录,百度则需要一个礼拜左右。

 
 
[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 关闭窗口 ]

 
0条 [查看全部]  相关评论

 
推荐图文
推荐资讯
点击排行
 
网站首页 | 招贤纳士 | 关于我们 | 联系方式 | 使用协议 | 版权隐私 | 网站地图 | 排名推广 | 广告服务 | 网站留言 | RSS订阅 | 粤ICP备10022894号-3