在SEO优化中,Robots协议有什么用?
在SEO优化中,Robots协议有什么用?Robots.txt文件主要用来管理web爬虫等好机器人的活动,因为不好的机器人不太可能按照这些指令来。
Robots.txt文件可视为贴在健身房、酒吧或社区中心墙上的“行为准则”标志:标志本身无权强制执行所列规则,但有“好”的赞助商会遵守规则,“坏”的规则可能会破坏规则并被禁止。
机器人是一种与网站和应用程序交互的自动化计算机程序。有好机器人,也有坏机器人。一种好的机器人叫做网络爬虫机器人。这些漫游者“抓取”网页并索引内容,以便在搜索引擎优化的搜索引擎结果中显示。Robots.txt文件可以帮助管理这些Web爬虫的活动,这样就不会增加托管网站的Web服务器或者SEO优化索引页面的负担,这些都不适合公众查看。
robots.txt文件是如何工作的?
Robots.txt文件只是一个没有HTML标记代码的文本文件(因此,扩展名是。txt)。Robots.txt文件就像网站上的任何其他文件一样,托管在网络服务器上。实际上,您通常可以通过输入主页的完整网址,然后添加/robots.txt来查看任何给定网站的/robots.txt文件。该文件没有链接到网站上的任何其他位置,因此用户不太可能偶然找到该文件,但大多数网络爬虫机器人会在爬行网站的其余部分之前找到该文件。
在SEO优化中,robots.txt文件虽然提供了关于火星车的指令,但实际上并不能执行这些指令。一个好的导航器,比如Webcrawler或者newsfeednavigator,会在查看域中的任何其他页面之前尝试访问robots.txt文件,并且会按照说明进行操作。坏行者会忽略robots.txt文件或对其进行处理以找到被禁止的网页。
网络搜索器导航器将遵循robots.txt文件中最具体的指令集。如果文件中有冲突的命令,导航器将遵循更详细的命令。
需要注意的一点是,在SEO优化中,所有的子域都需要有自己的robots.txt文件。比如blog.cloudflare.com虽然有自己的文件,但是所有的Cloudflare子域(blog.cloudflare.com,community.cloudflare.com等。)也需要自己的文件。
robots.txt文件中使用了哪些协议?
在网络搜索引擎优化优化中,协议是提供指令或命令的格式。Robots.txt文件使用几种不同的协议。主要协议称为机器人排除协议。这是一种告诉机器人避开哪些网页和资源的方法。robots.txt文件包含为此协议格式化的指令。