山川云数据欢迎您!

郑州做网站:Robots在SEO中的作用是什么?

作者:创始人 日期:2020-06-12 人气:5018

 

      百度,360,搜狗等搜索引擎在访问一个网站的时候,最开始做的动作是检查该网站的根域名下是否有一个叫robots.txt的纯文本文件,该文件用于指定搜索引擎蜘蛛在网站上的抓取范围。由于很多网站的一些页面存在隐私或者是敏感内容,因此需要告诉搜索引擎蜘蛛网站中的哪些页面是不允许抓取的,这就是Robots文件的作用。

      一、Robot指令:

     1,User-agent: 该指令定义了此指令下面的内容对哪些蜘蛛有效。默认所有蜘蛛都允许抓取,如果此指令指定了特定的蜘蛛,那么此指令下跟的内容就对特定蜘蛛有效。

     2,Disallow: 该指令定义了禁止蜘蛛抓取哪些页面,有些人可能认为,做网站当然都希望被抓取了。但是如果是后台或是隐私文件,相信谁都不愿意被抓取的。

     3,Allow: 该指令定义了允许蜘蛛抓些哪些内容,如果是某些内容允许,其它全部拒绝,则可以用这个指令,大多数网站只用到禁止指令。

     4,Sitemap:就是我们常说的网站地图了,把站点地图放在Robots下面,可以方便蜘蛛直接在访问Robots时就访问到你的地图位置。

 

 

      二、robots的作用:

      1、屏蔽死链接。由于改版等原因,我们网站会产生死链接,那么这个时候我们就需要通过robots来屏蔽这些死链接。我们可以通过下载网站日志来查看我们的404页面,用txt打开网站日志,通过搜索“404”,如果你网站有404页面,并且被访问到了,那么这个时候就会被网站日志给记录。

      2、把没有价值的页面屏蔽掉。很多网站都有一些没有价值的页面,比如说SEO指导中心的用户个人中心页面,这个个人中心页面不会对网站产生价值,在百度上面的展现也不会给网站带来权重。因此我们需要利用robots来屏蔽这样的页面。又比如说:一个企业网站的联系我们页面,这种页面不会给网站带来权重,用户也不会去搜索“联系我们”来找他想要的产品。因此我们需要把这种页面同时屏蔽。

      3、把重复路径屏蔽掉。当你网站出现重复路径的时候,百度将会对我们的网站进行直接降分,比如说:一个网站做了伪静态,同时他的动态页面也可以访问,这个时候就会出现重复路径。因此我们需要通过robots屏蔽这些重复路径。

      郑州知网软件,郑州软件开发公司,郑州软件开发,郑州软件定制,郑州微信开发,郑州进销存定制开发,郑州OA系统开发,郑州软件开发公司

你觉得这篇文章怎么样?

00

快捷导航

网络推广的内容 互联网网络推广 托管网络营销 营销方案网站 新公司如何做网络推广 哪里网络推广好 网络平台营销 定制化软件开发公司 农场游戏定制 找推广平台 营销网络托管 网络营销与策划 广州直销系统开发 网站公司建设 如何做网络推广 网络推广新手 郑州分销 直销 软件 制作 郑州网络推广营销 软件开发过程 北京网络营销服务 河南软件开发 买手机app 哪家app开发公司好 网络营销内容 直销软件开发开发的 app手机软件开发公司 郑州app软件开发公司 制作分销商城 网络营销策划联系电话