Robots的完整写法

文章类型:常见问题    发表2015-02-12   文章编辑:怒熊网络 · 一站式互联网+技术服务商!   阅读:331

作为SEO人Robots的写法作为必须了解的内容之一,错误的写法可能给你带来不被搜索引擎收录的恶果。

Robots文本中,因先写出对什么搜索引擎生效,然后是禁止抓取目录,允许抓取目录。

User-agent: 语句表示对什么搜索引擎的规则,如果内容是'*”,则表示对所有搜索引擎生效。

Baiduspider表示百度蜘蛛;

Googlebot 表示谷歌蜘蛛;

360Spider 表示360蜘蛛;

写了针对的蜘蛛后,就需要写具体的禁止抓取哪些目录,允许哪些目录。

Disallow: 表示禁止抓取后面的目录;

Allow: 表示允许抓取后面的目录。

* 是个通配符,可以代替任意内容。

$ 字符指定与网址的结束字符进行匹配。

例如,要拦截以 .asp 结尾的网址,可使用下列条目:

User-Agent:*

Disallow:/*.asp$

例:

Disallow:/admin/  禁止访问/admin/目录的内容。

Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。

Disallow: /*?* 禁止访问网站中所有包含问号(?) 的网址。

Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片。

Allow: /cgi-bin/这里定义是允许爬寻cgi-bin目录下面的目录。

Allow: .htm$ 仅允许访问以".htm"为后缀的URL。

完整写法:

User-agent:*                      /**以下内容针对所有搜索引擎

Diasllow:/admin/                   /**禁止访问/admin/目录的内容

*****

Allow:/html/                                   /**允许访问/html/目录的内容

*****

作为新手对Robots不是很明确的朋友,可以不写Robots.txt文件,以免错误的写发导致内容的不收录。

Robots最多的用途是屏蔽网站的后台目录,以免被收录后,被heike所利用;以及保护自己的版权资源,以免被搜索引擎收录了以后,展示在搜索结果里。