网络SEO"减法运算"你都了解哪些?

2020-06-05

网站推广期间,很多的工作内容都是属于SEO的"加法运算",比如:文章内容增加、外链数量增加、内链数量增加等等,而我们在长时间这样操作的时候,不难发现,很多时候网站流量不增反降。但网站优化遇到瓶颈的时候,我们就得 适当做做"减法运算"了。

 

  那么SEO推广的减法运算都有哪些方式呢?

  一、网站代码做"减法运算"

  1、js代码外部调用化

我们知道当前的搜索引擎还是不能够识别js代码的,倘若在网站中出现大批量的js代码网站在收录上就会出现困难。而我们要做的就是将用到javascript代码用外部调用的形式放在网站中,这样可以简化搜索引擎的工作,也不会在无形中衍生出无效代码累及网站。不仅如此,可以采用外部调用的还有css代码,建站之初可以将网站的文字、颜色定义在css代码文件中,尽量不要在页面代码内出现过多的样式代码。

  2、代码注释省略化

打开页面代码我们经常会看到一些注释代码,这是程序员为了表明代码意义而做的注释,其实这些不必打开。因为对于搜索引擎而言,它们是不存在任何意义的,只是会增加了页面代码的容量,这样对于网站不会有什么利处,不如直接省略。

  3、head部分代码规范化

head部分代码是搜索引擎爬行网站的入口部分,现在很多网站的头部代码都相当统一化,刻板效应明显十足,这样的网站代码是像模板框架一样是不被spider喜欢的,而我们要做的就是将网站的代码规范化,建立起网站独一无二的head部分,让搜索引擎有新鲜感,这样才能够吸引spider爬行。

  4、table标签减少化

table标签是现在大多数上线网站中最为常见的代码形式,根本原因在于table在建立网站时比较快捷,但是这也就影响了网站的后期优化。相对于div+css布局的精简代码网站来说,它的占位比较大。所以在建站时候,尽量是少用表格,即便是要使用表格时,嵌套式表格也要尽量少用,以免产生冗杂代码。

 

  二、SEO优化技巧的"减法运算"

  1、减少死链数量

很多时候由于网络推广过程中需要改版,或是对一些内容的删除等操作,就很容易出现死链,也许一两个没什么问题,而一旦死链数量积少成多了就很容易出现问题了。

一般情况下,如果是改版比如改变URL带来的死链,那么就最好做301重定向;如果批量删除的页面,能够找到规律的那么做301或者直接在robots.txt文件里disallow掉,没有规律的那么可以把死链整理出来提交给谷歌死链工具。

  2、减少多入口页面数量

其实就是一个页面可以通过多个URL访问的问题,这点对于静态页面生成的网站倒不会有什么问题,但不是所有程序都支持静态页面生成,比如做了伪静态的动态程序就会出现一个页面对应了两个URL,那么屏蔽掉其中一个是肯定要做的。

  3、减少页面打开时间

这个就是涉及到网站加载的问题了,网站加载和蜘蛛的爬行索引有很大关系,网站访问速度过慢不仅影响了网站用户体验,加载过慢也很容易导致蜘蛛爬行存在问题,以及抓取不全等,除了需要有稳定快速的服务器支持之外,网站程序的减负也是很关键的。

  4、减少低质量的页面收录

收录数量对于SEO来说当然是需要增加的,但是需要增加的是有价值的高质量内容页面的收录。有的网站会把新闻评论单独放到一个页面里,以达到增加收录数量的目的,对于一个评论活跃度较高的网站来说这当然没什么问题,毕竟这都是原创页面,对搜索引擎而言是高质量的,但如果本身评论就很少,或者绝大部分新闻都没有评论,那么就生成了大量空白评论的垃圾页面,如果不及时解决也很容易出问题的,最好的办法是取消这些页面的存在,如果非要存在那也必须要disallow掉。

 

  5、减少低质量外链

一般情况下网站存在垃圾外链是很正常的事情,毕竟外链不是站长能够完全控制的,但如果外链质量都很低或者存在大量垃圾外链,那对网站的SEO也是有很大影响,所以减少低质量外链也是需要注意的问题,对于这一点谷歌推出了否认链接工具,谷歌方面暂时似乎没有很快捷的办法,除了手动寻找删除之外,另一方面就是通过增加高质量外链来达到此消彼长的效果。

  6、减少蜘蛛无意义的抓取

一般搜索蜘蛛会根据程度给予一个网站一定范围的抓取次数,这点可以从IIS日志里观察到,蜘蛛抓取次数一般不会有太大的波动,但我们可以提高蜘蛛抓取的质量,比如减少一些无意义页面的抓取,增加一些页面的抓取机会。

总之,在日常做网站推广的时候,不仅仅只靠加法,同时也得兼顾网站的减法运算,如此才能够保证网站SEO能够良性发展。就好比人每天大鱼大肉总是会吃腻的,偶尔还是的吃一吃清粥小菜,调剂调剂。

--- END ---