更新时间2021-11-15 21:55:57
我有一个被百度收录的网站,加了robots.txt禁止搜寻引擎收录的代码,但网站内容不能删除,因为需要给网址让访客直接访问User-agent:*Disallow:/过二个星期后,百度搜寻的结果变这样(下方截图),但网站还能正常点开浏览 因此想问,这样是否只需要时间等百度下架我这网站吗?还是我可以采取什麽做法?
三种原因你排除一下吧1.你没有放在根目录下,相信对你这样会做robots的人来说应该不会出现2.命名没有小写,相信也不会出现3.百度不能通过你的网站收录,但如果有其他网站链接你的首页,你的首页一样被收录,因为那个时候百度不直接访问你的网站文件。例如淘宝网淘宝网首页能在百度搜到,但内容被淘宝设置为了 User-agent: Baiduspider Disallow: / 请采纳我为最佳答案,我自信我快乐,我助人为乐