中大型网站该如何进行SEO?

中大型网站该如何进行SEO?

中大型网站SEO工作应该如何开展是很多从从企业站转到中大型网站(比如电子商务站,B2C,B2B网站)的朋友首先关心的问题,因为过去的经验无从复制,而现在的出境却又非常的无助,虽然公司会有相应的培训,但是远水解不了近渴,总体来说,所有的焦虑是没有一个很好的指导方向。下面CK就以工作中的一些经验来说一下,在操作中大型网站的SEO时应该有的策略。


既是策略就是对不同情况下的一系列的解决方案的总体,那么优化工作也是如此,也一样会出现各种不同的状况,问题的发生就会有解决方案提出,废话不多说,总的SEO策略按照时间来排序;

优化初期

优化中期

优化后期

优化初期的重点方向有三:

URL规范化,页面元素优化,站内核心资源抓取效率。

重点讲解一下,其实中大型网站有一个特点,这个特点就是“中大型”,换言之就是网站的内容体量大,url层级深,并且会因为技术的原因造成url的形式多样。

URL规范化:此为优化之根本,解决的是SE网页库,索引库,URL库中的key的问题,规范化影响着网站核心资源被抓取及索引效率,权重等等因素。

页面元素优化:页面元素的优化决定着网站未来流量上升的高度,TD的描述在不同的场景使用不同的模块,这个会跟分词及一些用户需求相关联;H\B\P\strong\alt\nofollow等的正确使用。

核心资源抓取效率:优化的初期如果没有清晰地指导,我们总会找最显眼的数据来去观察,比如说网站的关键词排名等等,但是中大型网站的SEO初期优化工作却是要将重心放在整站的收录率上来的,一般情况下中大型网站优化初期的收录率会在70%左右为最佳。

URL规范化和robots禁止策略是最易操作也是做有效的。

优化中期所遇到的问题:

URL老旧:多域名;全静态化、全动态化、半静态化等多套URL规范;url层级太深,url解析代码复杂冗余,性能低维护成本高。

问题与挑战:

参数全静态化,但是本质上还是动态化,SEO效果差;跟前端工程师的合作效率低,如:js拼接静态url问题;url中特殊字符解析问题如:%2F(/),%4E(N);form表单提交产生多余的301跳转,增加前端性能负担20ms左右

URL规范化的问题及其对策:

noindex,nofollow标签,301跳转,canonical标签;webmaster可设置动态参数处理方式。

核心资源的抓取率如何优化呢?

其实站点的扁平结构在后期优化时已经非常的难改变了,所以就先从面包屑导航上来优化,增加相关性等;sitemap每天全量的更新补充spider url库;页面部分推荐模块如是异步则改成同步加载,核心资源的url部署到权重高的页面。

减少无效URL的抓取

robots.txt中直接禁止无效url的抓取和索引,无意义的url可以直接添加nofollow标签,已告知蜘蛛别在这条URL上花心思了,换个有意义的去爬吧。

提升网站的抓取量

避免SE的蜘蛛被安全软件拦截,逐步上调百度站长工具中的抓取压力,及时更新网站中的死链文档及sitemap.

优化中后期中应当注意的三点

搜索词收集整理,搜索词分析,搜索词需求提取,词库分库分档

调排名,针对2  3页的排名进行重点调优,3页之后的关键词的ROI低适当放弃

无论如何走正常的渠道进行优化!但是要研究anti-spam,防止不正确的优化被判作弊。

ckhero