解决方法:定制各类url的索引查询规则;定位索引量下降的特型url;排查该类url当日、前一日、本周、历史索引情况;找出未被入库的数据可能存在的问题;处理完后,增强该类url与百度数据沟通(途径有sitemap、批量提交url、数据推送等)。
(4)、站点被搜索引擎信任度下降
A、非法投票嫌疑(链接工厂等)
解决方法:珍惜自己页面的投票权,对于劣质网页坚决不投票,尽量减少站点的导出链接(具体可查看马海祥博客《如何做好网站的高质量链接》的相关介绍)。
B、主题变动(如从教育领域跨入医疗领域)
解决方法:将旧领域的网页进行死链处理后向百度进行提交,封禁相关旧url的被访问权,然后再上线新主题相关内容,加强对百度的数据提交。
C、受牵连
相同ip下非法站点偏多,同一域名所有人举办的网站大都被惩罚且情况恶劣等。
解决方法:离开恶邻,获取搜索引擎的各产品的相关反馈方式,请求给予解禁,等待恢复正常索引。
D、政策性原因
如香港主机、国外主机站点由于各种你懂的原因,稳定性可能较差。
解决方法:国内主机备案,合法符合政策经营。
3、网页模板相关
从SEO的角度,网站的网页也会影响到百度索引,具体来说有以下3点:
(1)、主体内容区域对蜘蛛的限制
解决方法:取消登陆查看信息等限制,让蜘蛛便捷畅快的“采集”到己站数据(具体可查看马海祥博客《搜索引擎蜘蛛的基本原理及工作流程》的相关介绍)。
(2)、启用了对蜘蛛不友好的技术
解决方法:对需要蜘蛛识别的内容,不要启用对蜘蛛不友好的技术来调用(具体可查看马海祥博客《抓取网站的搜索引擎蜘蛛是不是越多越好》的相关介绍)。
(3)、响应式模板干扰蜘蛛识别页面类型(pc、移动)
解决方法:提交特定的url对应关系(尽量parrten级);meta标记移动版本url及适合浏览的设备;自主适配;增强pc、移动不同模板源码标签的区分度,帮助百度识别页面类型。
4、源码相关
源码错误较严重,如编码错误、标签使用错误等;源码改动严重,蜘蛛“采集”数据后重新观察分析;某类url下的TD(网页title、description)变化,如变化比例大、变化页面量大,页面进行更改后会重走建索引库流程,如果页面质量达不到建索引库标准会从线上消失。
解决方法:校验源码,准确的源码是蜘蛛“采集”数据进行分析的基础;link内链结构、url地址形式、页面主题、页面各区域html标记等尽量维持改动前的情况;逐步、分期更换TD(网页title、description),结合页面主题、用户实际需求来制定合理的TD,不欺骗不误导用户。
5、已入库的url对蜘蛛状态有变化
关于这方面,主要有以下4点需要分析的:
(1)、robots声明,禁止蜘蛛抓取
解决方法:查看百度站长工具robots及抓取情况(具体可查看马海祥博客《robots协议文件的写法及语法属性解释》的相关介绍)。
(2)、url规则变化,原有url无法访问
解决方法:特别是linux和win服务器之间的数据迁移,可能会出现大小写url支持变化,确保各类url规则不变化,url必须重构的时候,做好旧新url的301重定向,站长工具提交改版需求。
(3)、提示错误页面
解决方法:由于误删,则可以数据恢复,并维持url对应网页内容的更新变化,提高抓取频次,如果确定要删除,那么提交死链,删除死链后,再robots禁止,马海祥觉得这种情况的索引下降无需担忧。
(4)、被入侵
解决方法:防止url对蜘蛛进行非法跳转操作;防止url对应的网页内容对蜘蛛出现内容大变化,特别是一些违法乱纪的内容。
6、DNS、服务器问题
最后,导致百度索引量下降的常见原因,还有DNS和服务器的原因,具体来说,有以下几点:
(1)、DNS问题
关于DNS问题,主要就是:DNS不稳定;DNS不安全。