网站更改为https后,数据统计不到了

网站不收录就不要再提排名和流量了,所以SEO从业的过程中解决网站不收录的问题是非常重要的,下面赵彦刚利用案例的形式想你解读如何解决网站不收录的问题。

解决网站不收录的必备思路「案例解读」

网站不收录可谓说是老生常谈了,太多SEO从业者有遇到这样的问题而无从下手,导致苦恼万分。我们解决网站不收录的问题前,应该思考一个问题:“让网站收录的影响因素都有哪些呢?”,先弄明白这件事情,然后再去解决收录的问题就会变得很有头绪。

下面我以一个案例的形式针对性的描述下如果一步一步解决网站不收录。

我在刚加入环球网校的时候,他们的网站()已经将近1年的时间在百度的收录少之又少。在我去应聘的时候,CEO知道我在SEO方面有些能力,就令我尽快解决网站不收录的问题。

首先,我只是听到公司的人和我说这个网站不收录,那到底是哪里不收录、怎么不收录我完全不清楚,所以我开始了数据整理和问题排查的工作。

将网站按照类型做分类,分为了频道页、列表页、专题页、聚合页以及新闻页5类。然后核技术沟通将这5类URL全部导出给我(新闻页,由于很多考试相关的新闻具有时效性,所以我只导出了30天的数据),然后我按照不同的分类开始收录查询工作。最后收录查询的结果如下:

解决网站不收录的必备思路「案例解读」

如上图,我发现公司人员和我反馈的网站不收录,具体的问题是在新闻页。而环球网校的新闻是面向考试的信息发布、资料发布等。是具有一定时效性的文章,按理说这么大的网站应该秒收才对。

于是,我和相关人员要了网站最近7天的网站日志,技术给我的是原始的网站日志,既包含了爬虫数据也包含了用户数据等等,没办法,只能自己清洗一下这些数据了。

SEO清洗网站爬虫日志的流程

1、我先按照user-agent包含baiduspider的进行过滤,只保留包含baiduspider的数据,这样我就拥有了百度爬虫的数据;

2、但百度爬虫数据中,也有很多假爬虫,按照ip反查的思路,我先把所有baiduspider的ip地址拿下来,然后去重;

3、得到600多个不重复的唯一ip地址。我对这些ip地址通过程序批量识别真假爬虫,最后是真爬虫的ip地址有82个;

4、我再在第一步的所有爬虫数据中进行过滤,只保留ip地址为真的百度爬虫的这82个。最后得到的数据就是真的爬虫数据了;

5、我将最近7天内发布的url在这个清洗后的日志中进行查询,最后发现所有的新页面在发布后的1分钟内爬虫都有抓取,可想抓取是多么的及时,并且在第二天、第三天都还会有对这篇文章的抓取。

最终我看到爬虫抓取的行为数据表现很好,应该不是抓取上出了问题。

然而,在我分析日志之前,也和技术、产品、运维同步了一个需求,我需要1年前网站突然开始不收录那个大概时间节点他们各部门都做了什么改动。就在我分析完日志的晚上,技术老大找到我说,他想起来当年是因为网站被攻击,大量注入了很多的垃圾数据后,网站收录才出现异常的。

我可能知道问题就出在这里,但为了更全面的考究问题,我还是让他们按规定把之前做的一些改动同步给我。

第二天早上我就开始围绕网站被攻击的问题与技术进行了彻底的排查,看网站之前被注入的垃圾信息有没有清除干净。最后确认垃圾信息早就彻底清除了,且正确返回了404状态码和404错误页面。

然后我怀疑是不是百度没有修正我们的状态,被攻击的时候开始不收录正常,毕竟检测到了我们网站的风险,那时隔一年还是如此,一定是百度的问题。我通过百度的反馈中心详细的说明了问题的始末,然后百度的技术也在一直排查,我等了有一周时间没见回复,其他部门也把之前的一些调整和改动都给我了,我也确认那时大家的做法没有问题。

于是,我主动联系了百度站长平台的朋友,希望他们能够尽快处理,查明问题。

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/2d7cc6b90d83b8a4b6ab5a78777c31f2.html