Hello,嗨,大家好,我是哈喽猿。
这里是哈喽猿网
今天推送的是wordpress教程的文章,感谢您宝贵的时间阅读
WordPress SEO优化目录:
13.WordPress 新窗口打开文章/站外链接-添加nofollow属性
17.WordPress 网站压缩,批量调整上传图片的最大宽高
与SEO有一点接触的站长朋友应该知道robots协议(也称为爬虫协议、爬虫规则、机器人协议等),这些协议通常会添加到网站的根目录中robots.txt文件,它的作用是告诉搜索引擎哪些页面可以爬网,哪些页面不能被爬网,从而进行优化网站的结果和权重。
如果您还没有根目录robots.txt你可以创建一个。具体写作方法请参考百度百科全书。以下是基本的WordPress机器人协议:
User-agent: *
Disallow: /feed/
Disallow: /trackback/
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /wp-
Allow: /wp-content/uploads/
Sitemap: http://example.com/sitemap.xml
假如网站的根目录不存在robots.txt然后你可以让WordPress自动创建一个虚拟的robots.txt(文件不存在,但访问http://yoursite.com/robots.txt可以显示)
将以下代码添加到functions.php
**
* 为你的 WordPress 站点添加 robots.txt
* https://www.wpdaxue.com/add-robots-txt.html
*/
add_filter( 'robots_txt', 'robots_mod', 10, 2 );
function robots_mod( $output, $public ) {
$output .= "Disallow: /user/"; // 禁止收录链接中包含 /user/ 的页面
return $output;
}
注意:如果您想添加更多的规则,请复制上面代码的第7行并进行修改。
访问http://yoursite.com/robots.txt我们可以看到以下内容
User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /user/
也就是说,WordPress默认添加了前三行规则。robots.txt它涉及到网站的收集,所以请确保你理解它的写作方法,并确保每一条规则都是正确的!
0 评论