如果被意外搜索引擎地索引了怎么办
如果您的登台服务器上有一个指向您的主站点的规范设置,那么基本上所有的信号都应该被正确地整合。在内容中可能会出现不匹配的问题,可能会导致一些问题,就像屏蔽页面索引标签一样,谷歌将不得不爬行和抓取额外的页面。网站管理员也倾向于在robots文件中添加一个不允许的。所以谷歌再一次不能爬行和抓取到页面上,也不能尊重权重,因为他们看不到。
您还可能在从生产服务器迁移到现场时,这些标记不会发生变化,这可能会导致您不想显示的版本是规范化的版本。
不好的选项:袖手旁观,不做任何事情
没有做任何事情来阻止建立测试站点的索引,通常是因为有人认为没有人会链接到这个区域,所以他们认为没有必要去做任何事情。我也听说谷歌将会“搞清楚”这些,但是我不会用我重复的内容问题来信任他们。那么你会这样做吗?
这可能是人们试图保持一个测试站点不被索引的常见的方式。因为robots文件的禁止指令,你告诉搜索引擎不要爬行和抓取页面,但这并不妨碍他们索引页面。他们知道有一个页面存在于那个位置,并且仍然会显示在搜索结果中,即使不知道那里有什么。他们有来自链接的提示,例如通过访问你的独立主机cn.blu***。
当谷歌索引一个页面被阻止爬行和抓取时,你通常会在搜索结果中看到以下信息:“因为这个站点的robots文件,所以这个结果的描述是不可用的。”
如果你还能回想之前提到过的,这个指令也会阻止谷歌在页面上看到其他标签,比如屏蔽页面索引和规范化标签,因为它阻止了他们在页面上看到任何东西。所以你也有可能不记得在网站上线时删除这些不允许的内容,这样可以防止页面在启动时爬行和抓取。
如果被意外地索引了怎么办?
爬行和抓取可能需要时间,这取决于URL的重要性(可能在测试站点的情况下很低)。可能需要几个月才能重新爬行和抓取URL,因此任何块或问题都可能不会被处理很长一段时间。
如果你认为你的索引是不应该被索引的,那么你办法就是在Google Search Console中提交一个网址删除请求。这就应该在90天内,这就给你足够的时间采取纠正措施了。
如果被意外搜索引擎地索引了怎么办
北京其他生活服务相关信息
22小时前
22小时前
23小时前
23小时前
1天前
1天前
1天前
1天前