如何使用robots禁止各大搜索引擎爬虫爬取网站

1、搜索引擎在爬取网站前会做什么?

一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

2、robots.txt文件的内容和结构是怎样的?

1).robots.txt文件必须是放在文件根目录上:
例如:

├─admin

│ └─templates

│ header.tpl.php

│ task_add.tpl.php

│ └─robots.txt

2 ) .首先常用的命令为

User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配

Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取

Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时

Allow : 允许爬取指定页面, 为 / 时爬取整站

3) 搜索引擎别称

Googlebot 谷歌

Baiduspider 百度

等等

3、搜索引擎的好处和坏处是什么?

不好的地方会增加网站的访问负荷;有时,还会涉及到用户的隐私;

好的地方也是增加了访问流量;

4、一般彻底防止爬虫用什么方法?

如果需要防止的话,就需要监测网站,把一些不良网络爬虫的给堵止掉,一般是封IP。

robots.txt只能防止有品的爬虫来爬

5、如何使用robots禁止各大搜索引擎爬虫爬取网站

1.原来一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)

2.下面我们就来说一说如何设置robots.txt文件

1).robots.txt文件必须是放在文件根目录上:
例如:

├─admin

│ └─templates

│ header.tpl.php

│ task_add.tpl.php

│ └─robots.txt

2 ) .首先常用的命令为

User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配

Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取

Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时

Allow : 允许爬取指定页面, 为 / 时爬取整站

3) 搜索引擎别称

Googlebot 谷歌

Baiduspider 百度

等等

类似我们测试环境就设置了

User-agent : / 所有搜索引擎

Disallow : / 禁止整站

总结

  • User-agent: *
  • Disallow: /

就可以了..

[新春采购季]京东云 服务器2核2G 51元起/年 点这里优惠购买
[新春采购季]阿里云 服务器2核2G 61元起/年 点这里优惠购买
[新春采购季]腾讯云 云服务器2核2G 61起/年 点这里优惠购买
感谢您的来访,获取更多精彩文章请Ctrl+D收藏本站。
更多精彩文章,请收藏本站
版权声明:本文依据知识共享署名4.0国际许可协议(BY-NC-SA)进行授权。
文章标题:如何使用robots禁止各大搜索引擎爬虫爬取网站
文章链接:https://app.qiip.cc/407.html
本文为【软件乐园】原创文章,转载请附上原文链接。
免责声明:根据我国《计算机软件保护条例》第十七条的规定,为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。本网站特此声明,所有内容资源均来源于网络,仅供用户进行交流、学习与研究之用,若涉及侵权问题,请联系站长进行删除处理。版权归属原版权方所有,本网站不承担任何版权争议。用户下载后,不得将内容用于商业或非法用途,并需在24小时内删除。否则,由此产生的一切后果将由用户自行承担。
THE END
分享
二维码
打赏
< <上一篇
下一篇>>