山川云数据(河南)有限公司欢迎您!

郑州做网站:Robots在SEO中的作用是什么?

作者:创始人 日期:2020-06-12 人气:5002

 

      百度,360,搜狗等搜索引擎在访问一个网站的时候,最开始做的动作是检查该网站的根域名下是否有一个叫robots.txt的纯文本文件,该文件用于指定搜索引擎蜘蛛在网站上的抓取范围。由于很多网站的一些页面存在隐私或者是敏感内容,因此需要告诉搜索引擎蜘蛛网站中的哪些页面是不允许抓取的,这就是Robots文件的作用。

      一、Robot指令:

     1,User-agent: 该指令定义了此指令下面的内容对哪些蜘蛛有效。默认所有蜘蛛都允许抓取,如果此指令指定了特定的蜘蛛,那么此指令下跟的内容就对特定蜘蛛有效。

     2,Disallow: 该指令定义了禁止蜘蛛抓取哪些页面,有些人可能认为,做网站当然都希望被抓取了。但是如果是后台或是隐私文件,相信谁都不愿意被抓取的。

     3,Allow: 该指令定义了允许蜘蛛抓些哪些内容,如果是某些内容允许,其它全部拒绝,则可以用这个指令,大多数网站只用到禁止指令。

     4,Sitemap:就是我们常说的网站地图了,把站点地图放在Robots下面,可以方便蜘蛛直接在访问Robots时就访问到你的地图位置。

 

 

      二、robots的作用:

      1、屏蔽死链接。由于改版等原因,我们网站会产生死链接,那么这个时候我们就需要通过robots来屏蔽这些死链接。我们可以通过下载网站日志来查看我们的404页面,用txt打开网站日志,通过搜索“404”,如果你网站有404页面,并且被访问到了,那么这个时候就会被网站日志给记录。

      2、把没有价值的页面屏蔽掉。很多网站都有一些没有价值的页面,比如说SEO指导中心的用户个人中心页面,这个个人中心页面不会对网站产生价值,在百度上面的展现也不会给网站带来权重。因此我们需要利用robots来屏蔽这样的页面。又比如说:一个企业网站的联系我们页面,这种页面不会给网站带来权重,用户也不会去搜索“联系我们”来找他想要的产品。因此我们需要把这种页面同时屏蔽。

      3、把重复路径屏蔽掉。当你网站出现重复路径的时候,百度将会对我们的网站进行直接降分,比如说:一个网站做了伪静态,同时他的动态页面也可以访问,这个时候就会出现重复路径。因此我们需要通过robots屏蔽这些重复路径。

      郑州知网软件,郑州软件开发公司,郑州软件开发,郑州软件定制,郑州微信开发,郑州进销存定制开发,郑州OA系统开发,郑州软件开发公司

你觉得这篇文章怎么样?

00

快捷导航

上海网络营销策划 网络营销的内容 开发双轨直销系统 ios客户端开发公司 pc端软件开发 会员分销商城 手机常用app 直销平台软件 石家庄互联网营销 企业如何进行网络推广 app软件开发需要价格 软件开发定制 网站推广与网络推广 长沙企业网络推广 网络营销的要点 怎么样才能做好网络推广 管理信息系统开发管理 推广网络平台 如果进行网络推广 软件开发版本管理工具 直销奖金软件开发 河南有哪些直销公司 开发共享软件 策划营销市场 直销软件开发哪里好 专业营销网络 公司网站建设外包 建设公司网站 双轨直销软件大全 双轨制直销系统软件