如何使用robots禁止各大搜索引擎爬虫爬取网站
1、搜索引擎在爬取网站前会做什么?
一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)
2、robots.txt文件的内容和结构是怎样的?
1).robots.txt文件必须是放在文件根目录上:
例如:
├─admin
│ └─templates
│ header.tpl.php
│ task_add.tpl.php
│ └─robots.txt
2 ) .首先常用的命令为
User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配
Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取
Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时
Allow : 允许爬取指定页面, 为 / 时爬取整站
3) 搜索引擎别称
Googlebot 谷歌
Baiduspider 百度
等等
3、搜索引擎的好处和坏处是什么?
不好的地方会增加网站的访问负荷;有时,还会涉及到用户的隐私;
好的地方也是增加了访问流量;
4、一般彻底防止爬虫用什么方法?
如果需要防止的话,就需要监测网站,把一些不良网络爬虫的给堵止掉,一般是封IP。
robots.txt只能防止有品的爬虫来爬
5、如何使用robots禁止各大搜索引擎爬虫爬取网站
1.原来一般来说搜索引擎爬取网站时都会,先读取下robots.txt文件,并依照里面所设定的规则去爬取网站(当然是指没用登录限制的页面)
2.下面我们就来说一说如何设置robots.txt文件
1).robots.txt文件必须是放在文件根目录上:
例如:
├─admin
│ └─templates
│ header.tpl.php
│ task_add.tpl.php
│ └─robots.txt
2 ) .首先常用的命令为
User-agent : 可以具体制定User-agent适用,即搜索引擎的名字,如果为 * 的话则为通配
Disallow : 可以设定档案或文件夹,不允许被爬虫爬取,且为 / 时禁止爬取整站 ,也可以指定文件路径,不可爬取
Crawl-delay: 延时爬取,防止爬虫短时间内爬取网站过快导致网站崩溃,则可以设置该延时
Allow : 允许爬取指定页面, 为 / 时爬取整站
3) 搜索引擎别称
Googlebot 谷歌
Baiduspider 百度
等等
类似我们测试环境就设置了
User-agent : / 所有搜索引擎
Disallow : / 禁止整站
总结
User-agent: *
Disallow: /
就可以了..
[新春采购季]阿里云 服务器2核2G 61元起/年 点这里优惠购买
[新春采购季]腾讯云 云服务器2核2G 61起/年 点这里优惠购买
感谢您的来访,获取更多精彩文章请Ctrl+D收藏本站。
本文为【软件乐园】原创文章
转载请附上原文链接:https://app.qiip.cc/archives/551
本网站的文章部分内容可能来源于网络,仅供大家学习与参考,如有侵权,请联系站长删除处理。
本站一切资源不代表本站立场,并不代表本站赞同其观点和对其真实性负责。
本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报
本站资源大多存储在云盘,如发现链接失效,请联系我们我们会第一时间更新。
共有 0 条评论