设为首页收藏本站

推广之家

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 4559|回复: 0
打印 上一主题 下一主题

[知识讲解] 死链接处理

[复制链接]

434

主题

471

帖子

2973

积分

网站编辑

Rank: 8Rank: 8

金币
0
银币
0
铜币
13
推点
2020
贡献值
696
人气值
244
跳转到指定楼层
楼主
发表于 2017-11-2 10:07:03 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式

某些类型的网站会频繁的产生死链,需要采用正确的方法予以处理,妥当的处理网站的死链,是有利于网站seo优化的。

死链对网站的seo优化结果有哪些负面影响?从用户的角度来讲,看似正常的链接确无法打开,会增加跳出率,降低用户对网站的黏度;从搜索引擎的角度来讲,死链会造成蜘蛛无法爬取网站更多的内容,直接的影响是百度收录网站文章内容,从而影响网站本身的seo排名,影响网站给搜索引擎传递的友好度。

对于死链,有如下方面的说明:

通过robots协议能否禁止蜘蛛爬取死链?

可以肯定的讲是能禁止的,百度方面会严格遵循robots协议。如果对此有怀疑,建议先核对是否是百度的蜘蛛在爬取死链。

如果有死链被蜘蛛爬取了,是否还可以使用robots协议来让蜘蛛屏蔽,删除这些无效的链接?

这个方法有效但不建议使用,最好的方法是使用百度站长平台的死链提交工具,通知搜索引擎这些链接是死链。

有些seo优化人员发现一个问题,那就是死链已经通过相关工具进行处理,但在分析网站日志时,依旧发现有蜘蛛爬取的痕迹,这是什么情况?

并不是说将死链提交给搜索引擎就完事了,搜索引擎蜘蛛也没有那么智能。产生这个问题的原因在于蜘蛛会再次判定提交的死链是否为真正的死链,会抽取其中的一部分进行再次验证,通过结果在做下一步的处理。

蜘蛛抓取网站的死链会影响对正常内容的抓取么?

这要分情况,如果网站的死链数量特别巨大,且没有利用robots协议,这种情况下蜘蛛会耗费大量的资源来抓取死链,从而减少正常内容的抓取配额;反之亦反。

网站产生的死链以哪种方式向百度提交更好?

现目前,提交死链的方式有协议死链,内容死链和跳转死链,百度官方建议的提交方式是协议死链。

有没有相关的工具,帮助seo优化人员发现站内的死链?

通过人工的方式查找网站产生的死链接,不齐全且耗时费力,在百度站长平台中有专门的死链分析工具,另外,抓取异常工具也可以帮助我们发现网站的死链接。还有就是,浏览器端有相关插件,也能批量查询网站的相关链接情况。

既然死链对网站的seo结果有消极影响,我们就要立即使用正确方法来处理死链,这些,都是seo的组成部分。



手机扫码浏览
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 分享淘帖 顶 踩
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|小黑屋|手机版|Archiver|推广之家 ( 苏ICP备14026707号  

GMT+8, 2024-5-7 22:36

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表