首页 - 每日一评 - 文章正文

疯狂的SEO:阻止Robots.txt被索引

时间:2019-08-10 00:51:04 作者:黑曼巴 分类:每日一评 浏览:172

网站管理员世界正在讨论一种防止百度对SERP中的Robots.txt文件进行排名的方法。百度目前索引62,100个robots.txt文件。当然,您不必在robots.txt文件中使用元标记。

 

网站管理员世界正在讨论一种防止百度对SERP中的Robots.txt文件进行排名的方法。

百度目前索引62,100个robots.txt文件。他们中的许多人有一个体面的公关,而其他人根本没有反向链接(至少根据Yahoo Site Explorer):

具有讽刺意味的是:

你不能使用robots.txt来阻止robots.txt(这真是疯了,因为在这种情况下,搜索引擎无法抓取robots.txt文件,从而发现它无法做到这一点);您无法在robots.txt文件中使用元标记;您可以使用百度网站管理员工具删除该文件,因为您需要在robots.txt中阻止它或使用元标记(您无法执行此操作)或返回404标头,这也是不可能的(因为它确实存在)。

根据论坛成员:

无论如何,这确实提出了一个疯狂的问题,如何从百度的索引中删除robots.txt文件?如果您使用robots.txt来阻止它,那就意味着百度bot甚至不应该请求robots.txt–一个疯狂的循环。当然,您不必在robots.txt文件中使用元标记。

有意思,不是吗?

另一位董事会成员建议在HTTP标头:中使用X-Robots-Tag

< FilesMatch“ robots \ .txt”> 标题设置X-Robots-Tag“ noindex,nofollow” </FilesMatch>

这个解决方案看起来非常不错,并且很高兴SEOZui终看到了X-Robots-Tag的价值,这个价值模糊不清。

另一个问题是为什么在地球上你需要阻止你的机器人.txt文件被索引和排名(一个更容易的解决方案是完全删除文件)。但在这种情况下,这根本不重要。事实上,:网站管理员应该具备相同的真实性,并了解从搜索抓取工具中隐藏任何网页或阻止其出现在SERP中的方法。

CategorySEO

上一篇:Fox Supoenas YouTube用户标识的百度

下一篇:Firefox 1.5 Alpha 2版本: Deer Park

猜你喜欢
发布评论
登录后发表评论
登录后才能评论

AI 新用户?

免费使用内容重写服务

开始新的写作