怎么屏蔽百度已收录的不必要二级目录
怎么屏蔽百度已收录的不必要二级目录
成都创新互联公司主要从事网页设计、PC网站建设(电脑版网站建设)、wap网站建设(手机版网站建设)、响应式网站设计、程序开发、网站优化、微网站、微信小程序开发等,凭借多年来在互联网的打拼,我们在互联网网站建设行业积累了丰富的网站设计制作、成都做网站、网站设计、网络营销经验,集策划、开发、设计、营销、管理等多方位专业化运作于一体。
前些日子碰到一个冤家他问了我一个成绩:咱们的网站只收录abc.XXX.com,的二级目次类域名,不收录www.xxx.com的怎么办?我看到这个成绩时分我过后下意识的说了句robots屏障就好了,而后我更具他们各个二级站点比方写了一个robots文件发给她如下:
User-agent: *
Disallow: /abc/
然而紧接着方法都被逐个保持了,由于通通行不通.由于他们的网站一切二级目次以及主目次在ftp中都是在一致文件夹下,而后我又总结了他们网站呈现的成绩.
1.网站不带www的二级域名曾经收录过万,且逐日都有蜘蛛爬取,但带www的主域名至今只收录二三十个,且另有降落的趋向,以是想让网站收录带www的主域名页面.
2.网站一切页面在一致个文件夹下无奈应用robots屏障门路形式屏障页面.
尽管我在baidu查问了很久然而却并未查到过量有效信息,大多都是以及我第一次给出的谜底同样,但最初咱们仍是想出了方法处理了这个成绩,那关于屏障二级目次收录成绩,总结了如下几点可供抉择.
1.假如需求屏障的页面以及主页面是在分歧的文件夹下咱们能够间接采纳我上面提到的间接robots文件屏障,写法比方Disallow: /abc/之类的间接robots屏障方法.
2.无奈应用robots制止搜索引擎收录某个二级域名的,最佳的方法便是301,关于有效的页面将一切的二级目次类域名重定向,无用的就间接删除.
3.法,将而与目次调配到分歧的空间下应用robots屏障.
4.个判别顺序,让要屏障的二级域名上面有一个robots.txt文件.abc.xxx.com/robots.txt,而后在应用robots屏障.此方法我没有试过我是看到夫唯教师很久前给他人的一个倡议,就实践而言是能够行的通的.
1.虚拟主机时空间自带了二级域名地点且地点曾经收录的话最间接的方法便是站内凋谢的链接上要一致url标准不要给不想收录的二级域名任何的进口.
2.须分二级目次时,将主目次以及二级目次离开在分歧的文件夹.
3.名剖析时分间接采纳三W的的域名采纳主域名.
名称栏目:怎么屏蔽百度已收录的不必要二级目录
标题来源:http://hbruida.cn/article/dghihdh.html