网站上线前把robots写了全部蜘蛛严禁抓取,撤销

2021-03-07 21:41


网站上线前把robots写了全部蜘蛛严禁抓取,撤销后還是这样如何办


短视頻,自新闻媒体,达人种草1站服务

不知道道有木有别的站长跟我1样,技术性部把网站后台管理构建好了,随后网站還是许多物品必须改动的,非常是TDK改了1遍又1遍,可是这时候候我沒有去百度搜索站长申请办理闭站维护,确是在网站根文件目录提交了robots文档,里边写着:

User-agent: *

Disallow:/

这表明我的网站严禁全部蜘蛛来抓取,那末这类状况有甚么伤害呢,蜘蛛来了1次两次之后都满头灰,那末之后惠顾的也就愈来愈少了。本来我是准备严禁2~3天,前端开发跟美工相互配合我进行网站的改动,第3天编写录入文章内容便可以的。可是由于美工那里拖了进度,我就没管先,還是这样写。

等网站宣布改好以后那是两个礼拜后的事儿了,当天那会我就把robots改了,随后再次递交给百度搜索。并且还再加网站地形图

 

robots写法

而由于网站构架非常好的缘故吧,在上线第2天品牌词就排在了主页,可是很显著的1个是,百度搜索检索网站品牌词的情况下,显示信息出来的仅有网站题目,别的那些呢,坚信大伙儿也猜到了:该网站的robots.txt文档存在限定命令,系统软件没法出示该网页页面的內容叙述。

 

百度搜索显示信息限定命令

那末意料到有这类状况如何办呢,实际上我用robots严禁蜘蛛抓取两个礼拜的话比不上立即申请办理闭站维护来的好,可是那会恰好忙别的事儿去了,就沒有顾上。那末针对1个草根站长来讲遇见这类状况毫无疑问很慌,实际上能做的也没是多少,那末我是如何做的呢。上面也说了,起先做了网站地形图,随后写在robots上,随后递交到百度搜索站长服务平台的sitemap地形图递交,随后把exmple/robots.txt 积极递交到百度搜索去。跟随便是升级文章内容,公布外链。新站来讲,靠当然升级,确保原創,高品质外链来讲,即使每天升级也必须1定时执行间,可是第2天我就无论了,看下有甚么能刺激性下百度搜索,随后我去百度搜索寻找个方式,这里共享出来给大伙儿看下:

 

百度搜索提醒解决方法

我是弄的,要做1件事儿长期沒有意见反馈的情况下,我挑选的是第4部,去百度搜索意见反馈管理中心,意见反馈是由于误实际操作致使了这类状况产生,写明我的状况,蜘蛛抓取频率的降低,随后表明百度搜索沒有抓取我网站內容,可是我是对百度搜索对外开放的,配上3张截图,全是来源于于百度搜索的,这个很关键,直接证据来源于于百度搜索的话可靠度会大大的提升。递交意见反馈以后,缘故我还准备再加1个数据信息积极消息推送(即时)的,可是百度搜索意见反馈提示我两分钟就会有結果,我就细心等个几分钟吧,結果搜1下品牌词,百度搜索主页第2,随后看下是不是有显示信息叙述。立即上图吧:

 

一切正常显示信息結果

尽管百度搜索沒有依照他说了两分钟就给我搞定,可是也不长,10分钟的事儿吧,还真的搞定了。并且由于网站构架,內容都非常好的状况下,升级了快照,随后上线两天的网站既然有了重要词排名,两个词排在百度搜索第3、4页,大大出乎我的预料。

此原創文章内容由 君之诺感情,首发于A5,转载请注明来源于!




扫描二维码分享到微信

在线咨询
联系电话

020-66889888