山川云数据欢迎您!

郑州做网站:Robots在SEO中的作用是什么?

作者:创始人 日期:2020-06-12 人气:5012

 

      百度,360,搜狗等搜索引擎在访问一个网站的时候,最开始做的动作是检查该网站的根域名下是否有一个叫robots.txt的纯文本文件,该文件用于指定搜索引擎蜘蛛在网站上的抓取范围。由于很多网站的一些页面存在隐私或者是敏感内容,因此需要告诉搜索引擎蜘蛛网站中的哪些页面是不允许抓取的,这就是Robots文件的作用。

      一、Robot指令:

     1,User-agent: 该指令定义了此指令下面的内容对哪些蜘蛛有效。默认所有蜘蛛都允许抓取,如果此指令指定了特定的蜘蛛,那么此指令下跟的内容就对特定蜘蛛有效。

     2,Disallow: 该指令定义了禁止蜘蛛抓取哪些页面,有些人可能认为,做网站当然都希望被抓取了。但是如果是后台或是隐私文件,相信谁都不愿意被抓取的。

     3,Allow: 该指令定义了允许蜘蛛抓些哪些内容,如果是某些内容允许,其它全部拒绝,则可以用这个指令,大多数网站只用到禁止指令。

     4,Sitemap:就是我们常说的网站地图了,把站点地图放在Robots下面,可以方便蜘蛛直接在访问Robots时就访问到你的地图位置。

 

 

      二、robots的作用:

      1、屏蔽死链接。由于改版等原因,我们网站会产生死链接,那么这个时候我们就需要通过robots来屏蔽这些死链接。我们可以通过下载网站日志来查看我们的404页面,用txt打开网站日志,通过搜索“404”,如果你网站有404页面,并且被访问到了,那么这个时候就会被网站日志给记录。

      2、把没有价值的页面屏蔽掉。很多网站都有一些没有价值的页面,比如说SEO指导中心的用户个人中心页面,这个个人中心页面不会对网站产生价值,在百度上面的展现也不会给网站带来权重。因此我们需要利用robots来屏蔽这样的页面。又比如说:一个企业网站的联系我们页面,这种页面不会给网站带来权重,用户也不会去搜索“联系我们”来找他想要的产品。因此我们需要把这种页面同时屏蔽。

      3、把重复路径屏蔽掉。当你网站出现重复路径的时候,百度将会对我们的网站进行直接降分,比如说:一个网站做了伪静态,同时他的动态页面也可以访问,这个时候就会出现重复路径。因此我们需要通过robots屏蔽这些重复路径。

      郑州知网软件,郑州软件开发公司,郑州软件开发,郑州软件定制,郑州微信开发,郑州进销存定制开发,郑州OA系统开发,郑州软件开发公司

你觉得这篇文章怎么样?

00

快捷导航

网络推广服务商 直销行业软件 长沙企业网络推广 app分销商城 为什么要网络推广 郑州软件制作公司 网络营销具体内容 app软件开发需要价格 如何推广企业网络 安卓软件开发入门 营销型网站建设公司 软件开发怎么收费 网络推广有什么方式 公司直销软件 网络推广做的好的公司 电影网站建设公司 网络推广的具体方式 网络营销管理 直销系统开发直销系统软件 想做个网络推广 如何在网络进行推广 网络营销推广工具 网络推广具体是做什么 专注软件开发 网站网络营销 佛山网络推广 网络推广具体做什么 双轨直销系统定制 qq农场这样的游戏开发 软件开发需要具备什么