Robots文件写法+3个实战经验分享 小白看过来

2021-09-22T12:35:36 Robots Robots写法 实战经验 小白

最近看到高端SEO社群里有同学讨论Robots相关问题,我们从实战的角度,给大家讲讲怎么写Robots写法,以及在实战中可能遇到的问题,都给大家讲一下!希望可以帮助更多不懂的同学!


Robots定义


什么是Robots,简单来讲,其实Robots就是放在网站根目录下的一个TXT文件,但是这个TXT文件对搜索引擎规定,哪些页面可以访问,哪些页面不行。


Robots一般放在网站根目录下,文件名固定为robots.txt的(全部小写)、当搜索引擎要爬取我们网站的时候,会先读一下robots.txt里面的内容,判断哪些URL可以访问,哪些不行,然后进行爬取、收录。


Robots规则


常用的几类语法:


User-agent: 定义搜索引擎的类型


google蜘蛛:googlebot


百度蜘蛛:baiduspider


yahoo蜘蛛:slurp


alexa蜘蛛:ia_archiver


msn蜘蛛:msnbot


Disallow: 定义禁止搜索引擎收录的地址


举个例子来讲:User-agent: * Disallow: /


禁止所有搜索引擎访问网站,(*)为通配符


Allow: 定义允许搜索引擎收录的地址


User-agent: * Disallow: /a/ Allow: /a/b


如上面例子,限制搜索引擎抓取a目录,但允许搜索引擎抓取a目录下的b目录


$通配符


User-agent: * Allow: .htm$


匹配URL结尾的字符。如下面代码将允许蜘蛛访问以.htm为后缀的URL:


*通配符


User-agent: * Disallow: /*.htm


告诉蜘蛛匹配任意一段字符。如下面一段代码将禁止所有蜘蛛抓取所有htm文件:


Sitemaps位置


Sitemap: http://www.xxx.com/sitemap.xml


Robots心得


1、许多朋友都喜欢让搜索引擎不抓取自己的后台,于是将自己的后台地址写到robots.txt里面,其实个人不建议这样做,因为考虑到网络安全,许多Hack都喜欢通过robots.txt看大家的后台,方便攻击!



2、网站必须要有robots.txt,如果网站没有robots.txt,搜索引擎随意抓取的话,可能会抓取到一些低质量页面,从而导致网站收录、流量受到影响,如上图是没有robots.txt。


3、当我们做完robots.txt后,一定要去【百度站长工具平台】抓取、测试robots.txt,以及测试URL是否可以抓取。


本文地址: https://www.q16k.com/article/79.html
天天舒服论坛

天天舒服论坛-打造最专业的百度资源分享社区!

绿色免费电脑软件下载

520下载站是一家专门为广大网友提供免费软件下载的网站,为网友提供最新最全的绿色免费软件、手机游戏、手机软件、行业资讯,是电脑爱好者最佳的软件下载站。

灯社演唱会下载

灯社演唱会提供——蓝光演唱会下载——高清音乐会下载——高清MV下载——高清综艺下载——高清演示纪录片下载。灯社演唱会下载的官方网址是——DengShe.com

一车网

本站为所有汽车相关人员提供大众,奥迪,宝马,汽车诊断软件,固件升级及改装教程。

分类目录

【绿都收录网】ldhjyc.com专注于优秀网站整理,分享国内外、各行业优秀网站,把网站提交给绿都收录网,让需要你的人从此不会错过你。

陈默营销外推

该站点未添加描述description...

兀云资源网

兀云资源网为您提供优质的商业源码资源,致力于全国最好的商业源码论坛,为站长建站添动力!

FairGuard

该站点未添加描述description...

杭州19楼本地论坛

19楼是中国热门的本地生活论坛社区,致力于为各地用户提供便捷的生活交流空间和体贴的本地生活服务,在这里,你可以轻松搞定相亲、结婚、装修、育儿这几桩人生大事,还可以获得租房、求职、美食、旅游、房产、教育、二手交易等本地生活服务信息。

吾道幻灯片

「吾道幻灯片」是一款全新的office生产力工具,支持演示文稿、PPT模板、协同办公,可以帮助用户轻松创建具有视觉吸引力的幻灯片,作为一款办公软件,吾道具备了简洁,易用,功能强大的特点,通过云端技术实现在线编辑设计,让分享过程更加方便、高效。