txt文件怎么创建_刘连康:网站robots.txt文件怎么写?

news/2024/5/20 0:50:38/文章来源:https://blog.csdn.net/weixin_39731782/article/details/111115064

网站robots.txt文件对于SEO来说是非常重要的,如果你参加过正规的SEO培训,你就会知道,当搜索引擎蜘蛛第一次来访问你网站时,它首先要做的第一件事情就是要看看你网站根目录里面有没有robots.txt文件。

如果你的网站有robots.txt文件,那么搜索引擎蜘蛛就会按照robots.txt文件里面的协议进行工作;如果你的网站没有robots.txt文件,那么搜索引擎蜘蛛就会随意的抓取你网站内容。

有很多SEOer工作了好些年,至今连网站robots.txt文件都还不会写,这些人也真的是大有人在。

也有做事情比较粗心大意的SEOer,他们在建设网站之前,总是喜欢在robots.txt文件写着禁止任何搜索引擎蜘蛛访问的命令,然后等网站建设好之后,往往会忘记解禁,导致网站迟迟不见收录。找遍了所有会出现问题的地方,可就是不知道问题到底出现在哪里。

当然,我们做网站SEO,其目的就是需要让搜索引擎收录,这样才能更好地增加网站的访问量。

但是也有个别行业的网站,比方说:安全性要求较高银行和企业的内部管理系统等等,他们这种网站的安全性和私密性会比较高,肯定是不希望把数据随意的暴露出来。

不管是什么样的需求,我们都需要正确的书写网站robots.txt文件。今天康哥就来给大家分享一下网站robots.txt文件到底该怎么写?有哪些需要注意的地方?

1、如果我们想让所有搜索引擎访问我们网站的所有内容,那么我们就可以建立一个空白的文本文档,命名为robots.txt放在网站的根目录下就可以了,robots.txt写法如下:

User-agent: *

Disallow:

或者是

User-agent: *

Allow: /

2、如果我们禁止所有搜索引擎访问网站的所有内容,那么网站robots.txt就可以这样写:

User-agent: *

Disallow: /

3、如果我们需要禁止某一个搜索引擎来抓取我们的网站,比如百度搜索引擎,网站robots.txt就可以这样写:

User-agent: Baiduspider

Disallow: /

4、如果我们想要禁止谷歌抓取我们的网站,其实也跟刚才一样,我们只需要把User-agent:头文件的蜘蛛名字改成谷歌的Googlebot 即可,robots.txt写法如下:

User-agent: Googlebot

Disallow: /

5、如果我们想要禁止除了谷歌以外,不想让其他搜索引擎来抓取我们的网站,那么我们的网站robots.txt就可以这样写:

User-agent: Googlebot

Disallow:

User-agent: *

Disallow: /

6、如果我们想要禁止除了百度以外,不想让其他搜索引擎抓取我们的网站,robots.txt就可以这样写:

User-agent: Baiduspider

Disallow:

User-agent: *

Disallow: /

7、如果我们需要禁止任何搜索引擎蜘蛛访问某个目录,比方说,我们想要禁止搜索引擎蜘蛛抓取admin、css、images等目录,robots.txt就可以这样写:

User-agent: *

Disallow: /css/

Disallow: /admin/

Disallow: /images/

8、如果我们允许搜索引擎蜘蛛访问我们网站的某个目录中的某些特定网址,robots.txt可以这样来写:

User-agent: *

Allow: /css/my

Allow: /admin/html

Allow: /images/index

Disallow: /css/

Disallow: /admin/

Disallow: /images/

9、我们在做SEO优化时,会常常去浏览别人做得比较优秀的网站,取长补短。当你看到某些网站robots.txt文件里的Disallow或者是Allow里会出现有很多的符号,比如:问号或者是星号什么的。

你不要觉得奇怪,其实这也是网站robots.txt文件的一种写法,并没有什么错误之处。

如果使用“*”,主要是限制访问某个后缀的域名。

废话不多说,我们还是直接上干货吧。如果我们想要禁止任何搜索引擎蜘蛛访问网站/html/目录下的所有以".htm"为后缀的URL(当然也包含了子目录)。robots.txt可以这样写:

User-agent: *

Disallow: /html/*.htm

10、如果我们看到一些网站robots.txt文件使用了“$”,那么他们所表达的意思就是仅仅允许搜索引擎蜘蛛访问某个目录下某个后缀的文件。

robots.txt需要这样写:

User-agent: *

Allow: .asp$

Disallow: /

11、如果我们想要禁止搜索引擎蜘蛛访问网站中所有的动态页面(也就是带有“?”的URL,例如index.asp?id=1)robots.txt写法如下:

User-agent: * Disallow: /*?*

当你SEO优化过很多网站,SEO实战经验非常丰富时,尤其是优化那些大型网站,搜索引擎蜘蛛来访问很频繁的那种,你就会发现我们的服务器每天都必须要承受着非常大的压力。

所以,这时候我们为了节省服务器资源,需要禁止各类搜索引擎来抓取我们网站上的图片,这里的办法除了使用“Disallow: /images/”这样的直接屏蔽文件夹的方式之外,我们还可以采取直接屏蔽图片后缀名的方式。

12、如果我们禁止谷歌搜索引擎蜘蛛抓取我们网站上的所有图片(注意:如果你的网站使用了其他后缀的图片名称,在这里也可以直接添加) robots.txt写法如下:

User-agent: Googlebot

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

13、如果我们禁止百度搜索引擎蜘蛛抓取我们网站上的所有图片,robots.txt可以这样写:

User-agent: Baiduspider

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

14、除了百度搜索引擎蜘蛛和谷歌搜索引擎蜘蛛之外,你想要禁止其他搜索引擎蜘蛛抓取你网站的图片(注意:在这里为了让大家能够看的更明白,我们就使用一个比较笨的办法,对于单个搜索引擎单独定义。) robots.txt写法如下:

User-agent: Baiduspider

Allow: .jpeg$

Allow: .gif$

Allow: .png$

Allow: .bmp$

User-agent: Googlebot

Allow: .jpeg$

Allow: .gif$

Allow: .png$

Allow: .bmp$

User-agent: *

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

15、我们只允许百度搜索引擎蜘蛛抓取网站上的“jpg”格式文件,仅仅需要修改一下搜索引擎的蜘蛛名称就可以了。

网站robots.txt文件可以这样写:

User-agent: Baiduspider

Allow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

16、我们想要单独禁止百度搜索引擎蜘蛛抓取网站上的“jpg”格式文件,robots.txt可以这样写:

User-agent: Baiduspider

Disallow: .jpg$

17、如果?表示一个会话ID,那么我们就可以排除所有包含该ID的网址,确保谷歌搜索引擎蜘蛛不会抓取重复的网页。

但是,以?结尾的网址可能是你网站要包含的网页版本。

在这种情况下,我们就可以与Allow指令配合使用。robots.txt写法如下:

User-agent:*

Allow:/*?$

Disallow:/*?

在这里我们就可以看到,Disallow:/ *?这一行命令将会拦截包含?的网址。说具体点,它将会拦截所有以你网站的域名开头、后接任意字符串,然后是问号(?),而后又是任意字符串的网址。

那么呢,这个Allow: /*?$这一行命令将会允许包含任何以?结尾的网址。也就是说,它将允许包含所有以你网站的域名开头、后接任意字符串,然后是问号(?),问号之后没有任何字符的网址。

18、如果我们想要禁止搜索引擎蜘蛛对一些目录或者是某些URL的访问,我们就可以截取URL部分的名字。

robots.txt可以这样写:

User-agent:*

Disallow: /plus/feedback.php?

网站robots.txt文件的写法康哥已经给你们分享的非常详细了,不管是什么样的网站,以上这18种robots.txt文件写法,总有一个适合你。

但是康哥想要提醒一下大家,其实robots.txt文件并不需要写的太复杂,只需要把不需要参与SEO排名的一些乱七八糟的东西给禁止掉就行了,比方说:网站里面的css、js、网站安装路径和网站后台路径等等。

对了,文章开头康哥就已经给你们讲过:当搜索引擎蜘蛛第一次来访问你网站时,它首先要做的第一件事情就是要看看你网站根目录里面有没有robots.txt文件。

既然搜索引擎蜘蛛第一个要访问的是我们网站里面的robots.txt文件,那么我们这时候就可以将网站地图链接地址放在这个robots.txt文件里面。

比方说,我们可以这样写:Sitemap: https://www.liuliankang.com/sitemap.xml

如此一来,我们网站很多内页URL就可以快速被搜索引擎蜘蛛发现和抓取到了。

82d9f369444e716c671ee75851183538.png

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_794997.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

插入网站连接_选择射频连接器,必须考虑的因素

射频连接器就是射频传输系统中能够以小的损耗和反射传输射频信号,并提供快速和反复的连接的一种连接器件。主要由接触件、绝缘体、壳体、附件组成。射频连接器应选择接触可靠,有良好的导电绝缘性能,有足够的机械强度,插拔次数满足…

网站的数据库怎么上传到服务器,网站的数据库怎么上传到服务器

网站的数据库怎么上传到服务器 内容精选换一换本教程旨在演示使用GDS(Gauss Data Service)工具将远端服务器上的数据导入GaussDB(for openGauss)中的办法,帮助您学习如何通过GDS进行数据导入的方法。在本教程中,您将:生成本教程需要使用的CSV…

龙腾传世变态服务器网站,龙腾传世 变态版

开局一条狗,满级一群狗,见谁咬谁!《龙腾传世》变态版是一款传奇类手游,万人在线激情pk,各式装备全靠爆!进服送特戒散人必玩!永远的传世永远的兄弟!热血重燃激情不灭,再创…

jQuery返回顶部和在线客服网站侧边栏

效果图&#xff1a; 全部代码&#xff1a; <!DOCTYPE html> <html> <head><title></title><style type"text/css">*{margin:0;padding:0;}ul{list-style: none;}.slide{position: fixed;right:0;top:200px;z-index: 100;width…

Java字符串网站,初探Java字符串

String印象String是java中的无处不在的类&#xff0c;使用也很简单。初学java&#xff0c;就已经有字符串是不可变的盖棺定论&#xff0c;解释通常是:它是final的。不过&#xff0c;String是有字面量这一说法的&#xff0c;这是其他类型所没有的特性(除原生类型)。另外&#xf…

新站软件快速排名_SEO优化方法总结新站快速上排名

今天我花了一下午时间&#xff0c;总结了新站快速排名的优化方法&#xff0c;从网站的建站、上线到后期的维护&#xff0c;步步为营&#xff0c;让你的网站不再愁没有收录&#xff0c;没有排名&#xff0c;哈哈&#xff0c;希望对大家有所帮助哦!一、新站优化与老站优化的区别(…

优化网站响应时间tomcat添加gzip

优化网站响应时间tomcat添加gzip author YHC tomcat版本要求:5.0 step 1:找到你的${tomcat}/conf/server.xml 注:${tomcat}代表你的tomcat安装路径 step 2:打开文件,添加以下红线圈住选项: 以上代码解释: [plain] view plaincopy compression"on" 打开tomcat压缩…

html网页打开慢的解决方法,真实案例讲述导致网站打开速度慢的原因及解决方法...

听到旁边的同事在说域名实名制的问题&#xff0c;我决定打开域名服务商的网站查看下qiuingseo.com这个域名有没有做实名认证。结果之前已经做了实名认证了&#xff0c;而且上次做实名认证时还有另外一个问题没有得到解决&#xff0c;今天决定再试一下能不能有办法解决。前段时间…

个人摄影网站 服务器,云摄影平台服务器

云摄影平台服务器 内容精选换一换当用户已在ECS服务购买GPU加速型云服务器&#xff0c;并且想在该云服务器上运行应用时&#xff0c;可以通过纳管的方式将该云服务器纳入VR云渲游平台管理。登录控制台&#xff0c;在服务列表中选择“计算 > VR云渲游平台”。在左侧导航栏&am…

IIS日志-网站运维的好帮手

感谢原博主&#xff01;原博客地址&#xff1a;http://www.cnblogs.com/fish-li/p/3139366.html 对于一个需要长期维护的网站来说&#xff0c;如何让网站长久稳定运行是件很有意义的事情。 有些在开发阶段没有暴露的问题很有可能就在运维阶段出现了&#xff0c;这也是很正常的…

网站全局变灰操作方式及实现CSS代码

网站全局变灰操作方式及实现CSS代码 04-03,2020 为表达全国各族人民对抗击新冠肺炎疫情斗争牺牲烈士和逝世同胞的深切哀悼&#xff0c;国务院决定&#xff0c;2020年4月4日举行全国性哀悼活动。 为响应国务院办公厅关于为新冠肺炎疫情牺牲烈士和逝世同胞举行全国性哀悼活动的…

php spider 参数详解,利用phpspider爬取网站数据

在我们的工作中可能会涉及到要到其它网站去进行数据爬取的情况&#xff0c;我们这里使用phpspider这个插件来进行功能实现。1、首先&#xff0c;我们需要php环境&#xff0c;这点不用说。2、安装composer&#xff0c;这个网上教程很多&#xff0c;这里不多做赘述&#xff0c;一…

Hexo搭建个人博客网站

文章目录0.首先介绍一下hexo是怎么搭建的博客?一、搭建但是我在这里遇到了两个问题1.命令行报错:YAMLException: can not read a block mapping entry; a multiline key may not be an implicit key at line 10, column 7:2.登陆博客之后中文乱码二、修改主题以 hexo-theme-ne…

计算机大赛网站设计,【计算机设计大赛】网站设计类决赛圆满落幕

原标题&#xff1a;【计算机设计大赛】网站设计类决赛圆满落幕【计算机设计大赛】网站设计类决赛圆满落幕为引导学生正确使用和认识网络&#xff0c;提高我院学生的网页设计和制作水平&#xff0c;12月12日晚19点我院在学校c103b教室举行了以川藏旅游为主题的网站设计比赛的决赛…

将 Hexo 静态博客网站部署到阿里云服务器

本文建立在 Hexo搭建个人博客网站 基础之上。 本来是不打算将博客部署到阿里云服务器的&#xff0c;之前只是用服务器备案了域名然后转而投奔鹅厂的存储桶&#xff0c;然后用的挺爽的时候收到了一封邮件&#xff1a; 。。。。 好吧&#xff0c;我部署。 一、域名解析 (可跳过…

使用 Django + Vue.js 开发个人博客网站(完整版附源码)—— Python-课程设计-期末项目

页面展示&#xff1a; 源码 首页 不同板块 注册页面 登录页面 个人信息 写文章页面 文章详情页面 文章评论 本文主要讲解 Python 后端部分&#xff0c;由于仅仅用到了 vue 作为 js 框架并非前后端分离项目&#xff0c;故前端不单独介绍。 一、项目内容&#xff08;做…

系统检测到您正在使用网页抓取工具访问_SEO优化:搜索引擎蜘蛛抓取异常,原来是这个原因!...

有一些网页内容优质&#xff0c;用户也可以正常访问&#xff0c;但是搜索引擎蜘蛛却无法正常访问并抓取&#xff0c;造成搜索结果覆盖率缺失&#xff0c;对搜索引擎对站点都是一种损失&#xff0c;百度把这种情况叫“抓取异常”。对于大量内容无法正常抓取的网站&#xff0c;百…

python爬取一条新闻内容_Python爬取网站新闻

准备### 本实例使用辅助工具Fiddler抓取网页数据和使用文档查看工具sublime正则过滤&#xff08;也可使用其它文档编辑工具&#xff09;&#xff0c;python开发工具使用Pycharm编辑 我们选取搜狐网的新闻页面进行爬取&#xff0c;对搜狐新闻以列表的形式显示出来。首先我们打开…

windows论坛_《鸡站群组》-教你建站(1.1) 下载并配置windows宝塔面板

&#xff08;Linux请自己参考官网教程哈&#xff09;欢迎访问 鸡站论坛各位站长们好呀 欢迎来到由鸡站群组独家呈现的建站教程 本教程会围绕各大站长的需求 以各种建站源码的使用以主要内容进行教学“工欲善其事&#xff0c;必先利其器” 作为一位站长 我们需要建站环境对网站进…

htm怎么让图片和搜索框在同一行_【浙江四为网络】单页网站如何优化搜索引擎优化?...

【浙江四为网络】相信网站管理员会看到一个单一页面的网站&#xff0c;网站排名也很好。他们是怎么做到的&#xff1f;他们一定很好奇。事实上&#xff0c;单页网站比多页网站难得多。页面太固定&#xff0c;太简单。没有锚链接&#xff0c;没有内部链。所以你可以想象出难度因…