谷歌站长robots文件不更新
大家好, 谁能帮我看看我的robots文件不更新的问题。
建站期间使用的disallow,后来网站做好就上传了新的robots文件到根目录,开放所有网页收录了。
但是20多天后,谷歌站长工具里的robots检测工具显示还是disallow的那个状态。
后来我甚至把robots文件删除了, 过来一段时间站长工具检测的robots还是最初的disallow状态。
我在谷歌里搜索 site:www.我网站.com, 显示还是有些网页是收录的。
问题是我网站几乎没什么流量, 除了一些垃圾流量就没其他途径流量。
我怀疑是不是 robots 的问题, 让别人搜不到我网站。
谁懂的帮我看看啊, 私下给你谷歌站长后台也行。
很捉急。。。。
谢谢