博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
博客刚建好一定要做好SEO基本工作,方便各大搜索引擎收录!!!
阅读量:6225 次
发布时间:2019-06-21

本文共 584 字,大约阅读时间需要 1 分钟。

hot3.png

seo工作者应该不陌生,robots.txt文件是每一个搜索引擎蜘蛛到你的网站之后要寻找和访问的第一个文件,robots.txt是你对搜索引擎制 定的一个如何索引你的网站的规则。通过该文件,搜索引擎就可以知道在你的网站中哪些文件是可以被索引的,哪些文件是被拒绝索引的,我们就可以很方便地控制 搜索索引网站内容了。
robots.txt文件的作用:
1、屏蔽网站内的死链接。
2、屏蔽搜索引擎蜘蛛抓取站点内重复内容和页面。
3、阻止搜索引擎索引网站隐私性的内容。
因此建立robots.txt文件是很有必要的,网站中重复的内容、页面或者404信息过多,搜索引擎蜘蛛就会认为该网站价值较低,从而降低对该网站的“印象分”,这就是我们经常听到的“降低权重”,这样网站的排名就不好了。
robots.txt文件需要注意的最大问题是:必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt文件的基本语法只有两条,第一条是:User-agent,即搜索引擎蜘蛛的名称;第二条是:Disallow,即要拦截的部分。
内容比较多这里只写了一部分,希望刚建好博客的童鞋们,希望各大搜索引擎尽快收录的,一定要去我的博客看完全文,并且有我的博客robots.txt的写法。

转载于:https://my.oschina.net/u/1168883/blog/138905

你可能感兴趣的文章
Autodesk FBX SDK Program 中文 (一)
查看>>
我攻克了oom
查看>>
关于http和https淘宝支付宝跨域解决方法研究
查看>>
perl 入门知识(1)
查看>>
开源调度框架Quartz最佳实践
查看>>
css样式大全(整理版)
查看>>
在mac osX下安装openCV,used for python
查看>>
图的遍历算法
查看>>
Oracle 表空间管理
查看>>
自然界事物的组织形式
查看>>
对double数据类型的数据保留两位小数,并且进行四舍五入
查看>>
using the easy connect naming method 简单连接測试
查看>>
STM32系列ARM单片机介绍
查看>>
基于commons-net实现ftp创建文件夹、上传、下载功能
查看>>
解Linux SSH命令大全,新手必看SSH命令
查看>>
java多线程之线程池
查看>>
《程序猿面试宝典》学习记录6
查看>>
EJB是什么
查看>>
我感觉prometheus这种日志收集模式不错
查看>>
[Winform]Media Player com组件应用中遇到的问题
查看>>