或者

网页抓取

作者:数风流人物 浏览:1100 发布时间:2017-11-03
编辑 分享 评论 0

  搜索引擎派出一个能够在网上发现新网页并抓取文件的程序,这个程序通常被称为蜘蛛或机器人。搜索引擎蜘蛛从数据库中已知的网页开始出发,就像正常用户的浏览器一样访问这些网页并抓取文件。

  并且搜索引擎蜘蛛会跟踪网页上的链接,访问更多网页,这个过程就叫爬行。当通过链接发现有新的网址时,蜘蛛将把新网址记录入数据库等待抓取。跟踪网页链接是搜索引擎蜘蛛发现新网址的最基本方法,所以反向链接成为搜索引擎优化的最基本因素之一。没有反向链接,搜索引擎连页面都发现不了,就更谈不上排名了。

  搜索引擎蜘蛛抓取的页面文件与用户浏览器得到的完全一样,抓取的文件存入数据库。


评论(0人参与,0条评论)

发布评论

最新评论

词条统计

  • 浏览次数:1100
  • 编辑次数:0次历史版本
  • 最近更新:2017-11-03
  • 创建者:数风流人物
  • 相关词条

    相关问答

    相关百科

    相关资讯