或者

从搜索引擎蜘蛛的考核标准提高SEO优化技巧

作者:dongky 浏览:1522 发布时间:2015-12-08
编辑 分享 评论 0

做SEO优化的都希望网站对搜索引擎蜘蛛友好,希望蜘蛛能在自己的网站多待会多抓取点网页。可是你们可曾想过,蜘蛛又何尝不想多抓取点页面,多更新点页面呢,无奈于互联网信息庞大,有时候蜘蛛实在是力不能及。其实蜘蛛每天也是像我们这些优化人员一样干着苦逼的活,它们也是需要考核评价的。那么蜘蛛在日常抓取中有哪些考核的标准呢?从考核标准的三个方面分析我们SEO优化技巧。

一、抓取网页覆盖率

目前搜索引擎蜘蛛按照常规方式很难抓取到的互联网页面,蜘蛛是依赖页面中的链接发现新的页面,进而抓取索引,但是很多页面内容是以数据库方式存储的。这样蜘蛛很难或无法抓取这些信息,结果就是用户也无法在搜索引擎搜索得到搜。所以搜索引擎不能能抓取互联网上出现的所有网页,所有搜索引擎只能索引互联网的一部分而已。

 抓取网页覆盖率指的是蜘蛛抓取的网页数量占互联网所有网页数量的比例,很明显,这个覆盖率越高,搜索引擎所能索引排名的数量级也就越大,能够参与比较展现的搜索结果也就越多,用户搜索体验也越好。所以为了让用户在搜索时可以得到更精准、更全面的结果,抓取网页覆盖率至关重要,而除了抓取方式的提高,对暗网数据的抓取已成为各大搜索引擎的重要研究方向。

二、抓取网页的重要性

蜘蛛抓取了很多内容,也及时更新了,但如果抓取的都是一些低质量内容,那肯定是不行的。尽管要多抓勤抓,但是每个网页重要性差异很大,这就是矛盾的地方,搜索引擎蜘蛛不仅要干得多、干得快、还要干得好。所以必然会优先照顾部分能经常更新高质量内容的网站,特别是定时定量更新的,这样才能最大程度上保证优质内容不被漏掉。如果搜索引擎蜘蛛抓回的网页大都是比较重要的网页,则可说其在抓取网页重要性方面做得很好。

三、抓取网页时效性

对于用户的搜索体验,网页的时效性相对覆盖率句更加直观了,比如你在搜索结果搜索到了一个结果,当你点击后页面是不存在的,这时对这个网站的信任度直线下降。搜索引擎是在努力避免这些的,所以蜘蛛抓取网页时效性同样是一个重要考核点。互联网信息比较多,蜘蛛抓取一轮需要较长的时间周期,这个时间内之前建立索引的很多网页可能已经发生变化或者被删除,这就导致搜索结果中有一部分是过期的数据。

蜘蛛不能在网页变化后第一时间将这些变化反映到网页库中,这样问题就来了,首先比如页面只是内容发生变化,搜索引擎不能及时的去重新比较这些变化,给予用户更合理的排名。其次,如果排在搜索结果前面的页面已经被删除了,由于没有及时抓取更新,还排在重要位置,那么无疑对用户是一种伤害。最后,很多人会在页面收录后另外加一些不好的信息,这样用之前的排名展现现在的信息,下次蜘蛛更新才会处理。

所以对于搜索引擎而言,最希望数据库内网页能及时更新的,网页库过期的数据越少,则网页的时效性越好,这对用户体验的作用不言而喻。

总而言之,目前的搜索引擎蜘蛛由于种种原因限制,只能抓取互联网部分网页的,所以在努力抓取尽可能多页面的同时会尽可能选择比较重要的那部分页面来索引,而对于己经抓取到的网页,也会尽可能快地更新其内容。注意所有的这些都是尽可能而已,所以这是各大搜索引擎努力的方向。如果这3个方面都做得好,搜索引擎用户体验肯定会更好。

词条统计

  • 浏览次数:1522
  • 编辑次数:0次历史版本
  • 最近更新:2015-12-08
  • 创建者:dongky
  • 相关词条

    相关问答

    相关百科

    相关资讯