温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

如何进行robots.txt 中的robots优化设置

发布时间:2022-01-14 22:48:09 来源:亿速云 阅读:322 作者:柒染 栏目:互联网科技

本篇文章为大家展示了如何进行robots.txt 中的robots优化设置,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

1。你是否知道robots.txt中文的意思?
  2。你是否知道404页面应该屏蔽?
  3。你的企业站,每个页面是否都有“关于我们”,并且还得没屏蔽掉?
  4。你是否知道设置好robots.txt,是有利于提升网站整体权重?
  5。你想知道robots.txt基本写法?
  6。robots.txt该如何写,才优化最佳。
  1。robots.txt的中文意思是:搜索引擎公共协议。搜索引擎到你的网站,是先看robots.txt,按照上面写好的协议再抓取你的网页。
  2。每个网站都应该要有404页面,假如没有,会导致 1)减少网站PV 2)减少流量 3)搜索引擎对你的网站不有好,因为你的网站用户体验度不好。
  每个网站都有很多错误页面,每个错误页面都应该做一个404页面,那么每个404页面都是一样的。一旦你的404页面太多,你还让搜索引擎去收录,就会导致网站把权重分给这些404页面,这值得吗?因此我们必须要屏蔽掉404页面。
  3。企业站的导航栏上面,往往会有“网上赚钱博客介绍”“联系九月”“关于我们”这些页面。这些页面,可以说是全站显示,网站的每个页面几乎都要分权重给这些页面,但是这些页面值得网站分权重给他们吗?因此我们也必须屏蔽掉这些“不重要内容”的页面,不让搜索引擎抓取。
  4。从3.4点,我们可以得出一个结论:网站如果有太多无关的页面被收录,而你又不想用户直接从搜索引擎进入这些页面,那么网站就会把权重分给这些“毫无意义”的页面,这样就会降低整体网站的权重。
  简而概之,就是网站被这些垃圾页面所拖累了。
  5。robots.txt的基本写法。
  在桌面上建立一个叫robots.txt文档
  以下内容按顺序写:
  User-agent: *
  Disallow: /wp-admin/
  Disallow: /wp-content/
  Disallow: /feed
  Disallow: /comments/feed
  Disallow: /trackback
  Disallow: /guestbook
  User-agent: #表示允许的搜索引擎。*代表允许所有,如果仅允许百度蜘蛛,就写baiduspider
  Disallow: #是禁止收录的意思
  Disallow: / #表示禁止所有收录。直接再Disallow:后面加一个斜杠。
  Disallow: /网站后台目录/ #屏蔽目录的格式
  Disallow: /404.html #屏蔽404页面
  robots.txt里面,任何空格,换行都是被忽略的。robots.txt只看命令的顺序,空格、换行都是为了我们看的方便。
  6。robots.txt该如何写,才优化最佳?
  看完了前面5点,相信你对如何优化最佳应该有一个很好的理解了。
  1)屏蔽掉对网站没用的垃圾页面,比如404
 2)思考一下,你的哪些页面虽然必须出现,但是你觉得没必要让用户“从搜索引擎过来看”。比如福州SEO的“关于我们”。那么就不必被收录。
 

上述内容就是如何进行robots.txt 中的robots优化设置,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注亿速云行业资讯频道。

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI