如何使用 robots.txt 优化你的 WordPress 站点

评论513字数 623阅读2分4秒阅读模式

如何使用 robots.txt 优化你的 WordPress 站点

很多建站新手对robots.txt文件的重要作用不是很清楚,利用这篇文章普及一下WordPress站点robots.txt文件编写知识。

Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。

搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。

知道Robots协议的作用后,下面具体说一下WordPress站点如何编写robots.txt文件。

WordPress站点默认在浏览器中输入:http://你的域名/robots.txt,会显示如下内容:

User-agent: *

Disallow: /wp-admin/

Disallow: /wp-includes/

这是由WordPress自动生成的,意思是告诉搜索引擎不要抓取后台程序文件。但这是远远不够的,比较完整的WordPress站点robots.txt文件,可参考本站:https://defcon.cn/robots.txt

使用方法:新建一个名称为robots.txt文本文件,可参考本站:https://defcon.cn/robots.txt,然后上传到网站根目录即可。

原文链接:https://defcon.cn/2574.html

部分文章来源于网络  如有侵权请告知本人立即删除!

站长邮箱447800330@qq.com

匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定