RELATEED CONSULTING
相关咨询
选择下列产品马上在线沟通
服务时间:9:30-18:00
你可能遇到了下面的问题
关闭右侧工具栏

技术支持

谷歌推广 > 技术支持 > 外贸推广 >

谷歌seo如何做, robots.txt文件设置方法

  • 作者:谷歌推广
  • 发表时间:2020-05-08 12:16
  • 来源:迅龙网络

(允许所有搜索引擎抓取任何内容)

Allow:/aaa/bbb/

Disallow:/bbb/

User-agent:*

User-agent:*

User-agent:*

User-agent:googlebot

(告诉所有搜索引擎不爬行aaa跟bbb目录下的这是一个神奇的网站。。。内容和123.html文件)

Disallow:/aaa/

User-agent:*

User-agent:baiduspider

Disallow:/这是一个神奇的网站。。。/123.html

这个文件能够帮我们很大的忙,在服务器下面没有,我们可以在本地编写好之后上传到服务器根目下,下面给大家举例它的有关功能以及编写方法。(注意我的语句大小写,大小写必须要一致,因为这个文件区分大小写。)

Disallow:/

Disallow:.jpg$

Disallow:/aaa/

Disallow:123.htm

(禁止所有搜索引擎抓取任何内容)

User-agent:*

(告诉除百度意外所有搜索引擎不准爬aaa目录下的123.htm文件)

Disallow:

Disallow:

robots.txt文件设置方法

由于现在免费的网站程序越来越成熟,利用网站程序一天就可以做很多个网站,大家也都喜欢在线做网站,就是直接把网站程序通过FTP工具上传到服务器空间,安装设置好后就开始添加内容,但是由于网站在规划设计阶段总还不是那么完美,一些东西还没有完全确定下来之前网站经常需要修改一些东西,而做SEO的人都知道,百度或者谷歌对于经常变动的新网站通常的做法都是放入观察期,因为搜索引擎会觉得你的网站还不稳定,所以很多人就想到了设置robots.txt文件来禁止搜索引擎对于网站更新的内容进行抓取,等网站完全设计好后再进行相应的设置或者直接删除这个文件,允许搜索引擎抓取我们的网站页面。

User-agent:*

(告诉蜘蛛禁止抓取任何带.asp后缀的文件)

Allow:.html$

(告诉搜索引擎不准爬aaa目录和文件,但是可以爬aaa目录下bbb的内容)

以上是robots.txt文件在网站中作用,供大家借鉴。

Disallow:.html$

User-agent:Baiduspider

Disallow:/*.asp

(告诉谷歌允许抓取所有.html为后缀的URL,不允许百度抓取所有以.html为后缀的URL,禁止所有所有搜索引擎抓取.jpg格式的文件)

谷歌seo收录查询,

原标题:谷歌seo如何做, robots.txt文件设置方法