请选择 进入手机版 | 继续访问电脑版

谈股论金股票论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索

利用robots文件做seo优化 让蜘蛛更好的抓取网站

已有 199 次阅读2018-4-6 10:13 |个人分类:网站运营| robots, seo优化, 抓取网站

robots文件存在于网站根目录,是用来告诉百度蜘蛛那些应该抓取,那些不应该抓取。正确使用robots文件有助于做好seo优 化,robots文件的核心词汇就是allow和disallow用法。百度官网是认可这个文件的,在百度站长平台上也有robots这个栏目,点击进 入,就可以看到你网站robots文件是否编写正确了。

百度robots文件使用说:

1、robots.txt可以告诉百度您网站的哪些页面可以被抓取,哪些页面不可以被抓取。

2、您可以通过Robots工具来创建、校验、更新您的robots.txt文件,或查看您网站robots.txt文件在百度生效的情况。

3、Robots工具暂不支持https站点。

4、Robots工具目前支持48k的文件内容检测,请保证您的robots.txt文件不要过大,目录最长不超过250个字符。

上图我给的一个例子中,disallow语句有问题,原因是把英文的冒号写成了中文的冒号。

当然直接输入网站根目录加上robtots.txt文件也可以

User-agent:*是用来置顶那些搜索引擎蜘蛛可以抓取的,一般默认设置

Disallow:/category?s=*搜索结果页面和分类目录搜索结果页面,这里没必要再次抓取。

Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/这三个目录是系统目录,一般都是屏蔽蜘蛛抓取

Disallow:feed Disallow:/comments/feed订阅链接

Disallow:/?p=*文章短链接,会自动301跳转到长连接

例如,朱海涛博客之前就被收录过短连接

Disallow:comment-page-*

Disallow: page/

Disallow: feed

Disallow: /comments/feed

Disallow: /?s=*

Disallow: page/

Sitemap: /sitemap.xml


路过

鸡蛋

鲜花

握手

雷人

评论 (0 个评论)

facelist

您需要登录后才可以评论 登录 | 立即注册

QQ|谈股论金股票论坛 ( 皖ICP备13004459号 )

GMT+8, 2019-8-20 23:49 , Processed in 0.086623 second(s), 17 queries .

Powered by www.estong.com X3.4

返回顶部