设为首页收藏本站

推广之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 6684|回复: 0
打印 上一主题 下一主题

[知识讲解] 蜘蛛为什么会抓取我网站中不存在的路径?

[复制链接]

434

主题

471

帖子

2973

积分

网站编辑

Rank: 8Rank: 8

金币
0
银币
0
铜币
13
推点
2020
贡献值
696
人气值
244
跳转到指定楼层
楼主
发表于 2017-7-27 17:42:34 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 sky 于 2017-7-27 17:43 编辑

做seo我们需要经常性的去看我们网站的服务器日志,也就是iis日志,因为我们需要很好的掌握蜘蛛爬取了我们网站的什么地方,哪个页面。但是有些朋友有的时候在进行例行检查的时候,却发现蜘蛛爬取了一些我们网站并不存在的页面,今天SEO管家中心就讲解下为什么百度蜘蛛会爬取我们网站没有的页面。

1、蜘蛛是怎么发现我们网站的链接的

我们都知道,蜘蛛是沿着链接爬来爬去的,他会自动提取网站中所有的链接,保存入库,然后进行爬取,这也就是为什么我们觉得网站的收录少了或者刚发布的文章没有被收录,我们就会说“引蜘蛛”了,其实引蜘蛛就是发外链了,当这条链接呗蜘蛛发现之后,他就会进行爬取,然后通过一系列复杂的算法之后,决定是否放出该页面的收录。

2、为什么会爬到不存在的页面

一般情况下,有这么几个问题

a、被对手恶意刷外链,也就是说竞争对手恶意的给你发了很多的不存在的页面链接,当蜘蛛发现之后就会来爬取

b、以前做的外链,后来由于网站改版而某些链接没有及时的去除,蜘蛛定期回访的时候爬取了这条链接

c、此种仅限老域名,之前的网站结构和我们现在的网站结构不一致,也类似于b中的说法

d、robots文件没有对蜘蛛进行限制

e、程序的原因,导致搜索引擎蜘蛛掉入黑洞

f、url提交或者ping给百度地址有误

蜘蛛爬取不存在的页面,一般情况下都是由于这些问题导致的,其中最主要的原因就是外链部分,所以我们要经常性的去检查下我们网站的外链情况。

下面提供解决办法:

这些方面综合来讲,一般我们只需要这么做,基本就能够减少这种情况的发生,如果是链接导致的,那么就去百度站长平台使用外链拒绝工具拒绝掉,并提交网站的死链接,同时使用robots屏蔽蜘蛛抓取这些内容;如果是程序问题,就修复程序。。。



手机扫码浏览
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享淘帖 顶 踩
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|推广之家 ( 苏ICP备14026707号  

GMT+8, 2024-12-22 17:34

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表