SEO前端优化之一:缓存加速

时间:12-06-13 栏目:SEO优化 作者:kyle 评论:0 点击: 5,210 次

成都SEO小五认为前端优化是比较重要的一个SEO环节。越大的站,应该做得越仔细。这样站内容大了之后,SEO的每个细节才会体现它的功能作用。

前端优化所括多个方面。CSS和JS精简这些。代码精简,缓存,CDN加速。开启Gzip压缩提高传输数据的速率这些。都属于SEO前端优化的内容。至少我是这样认为的。

以前听夜息大虾的一个讲座里面有提到一个浅显的知识。

假设。我们只当假设。你的网站在百度的权重是1的时候。百度也许,清楚哦,是也许会派10个蜘蛛来每天抓取你的页面的内容。

假设你的网站权重在百度计算出来是4的时候。也许,也许每天有40个蜘蛛来抓取索引你的页面。

这里我们可以想像一下。蜘蛛抓取主要是抓取内容回到数据中心做复杂的排名计算。结果你网站一大堆无用的代码。一大堆JS。一大堆比较大的图片。

起码就会让20只蜘蛛浪费在这些资源的爬行上面。这是非常不利于收录的。

做好前端优化。可以有效的控制外部资源的载入速度。让蜘蛛抓取更有效率。把精力放在收录我们更多页面上来。

这样的好处当然 是不言而喻的。

今天成都SEO小五说的缓存加速就是其中一种前端优化的手法。

假设我们的网站有1000个页面。都是引用了同样的CSS和JS文件。每次蜘蛛抓取和用户访问的时候都会去载入CSS和JS文件的话,那是一件多么悲剧的事。

因此我们来让用户浏览器自动将这部分重复的CSS和JS资源缓存到用户的临时目录,这样访问多个页面,速度就会变快。同样,蜘蛛的抓取也将更有效率。

具体如何来操作呢。

第一步:将CSS和JS写成绝对路径。这样蜘蛛在抓取同样链接的时候就会跳好(这是我自己想的,具体情况如何无法考证。但是蜘蛛应该有这样一种机制在里面)

第二步:今天的主题,在Http头里面,强制用户缓存数据。其实也不算是强制。只是要求用户浏览器在访问页面的时候将CSS和JS这些重复数据,在本地做一个临 时备份而己。下次再访问的时候,直接从本地抽取数据,加快网络传递速度。

设置办法是通过设置数据包的数据头来实现的,这里又分为好几种办法。

1、Expires数据头:指定用户缓存的文件过期日期。这样没过期的,浏览器会自动从里面提取出来显示调用。格式为

Expires:Thu,13 June 2013 12:00:00 GMT

指定有效期为1年。最好不要超过1年。这个方法指明了页面组件内容的过期日期,只要还在日期范围内,就直接使用缓存中的文件 。算法是依赖系统时钟不断比较时间。

2、Max-Age数据头:同样指定有效期,格式为:

Cache-Control:max-age=31536000

指定有效为一年。当Expires和Max-Age同时存在里。Max-Age有较大的优先权。

3、Last-Modified和Etag这2个是属于弱缓存数据头,需要浪费http连接。而上面2个不会,所以不建议使用这个。

具体如何来程序实现

Apache是利用mod-expires模块在.htaccess里面定义。

IIS我还没遇到过。需要自己去尝试。

再说一下。对比不同类型的文件,最好设置不同的有效期限。比如图片,路径一般不会变化,可以设置为1年。CSS可以设置为30天,如果网站定型了,可以更久。

JS同样,30天,或者以后改动小,设置更久。

同样,后面有一个系列的前端优化文章来完善前端优化这一系列。

具体IIS和Apache设置方法。成都SEO小五后面会尽量做成图版发布。

PS:如何看设置生效没有。可以使用各种抓包工具看HTTP头部。

我这里使用Firefox的HttpFox插件。小巧强大。自己搜索下载吧。

 

 

成都SEO小五嚎2句: 本文是(成都SEO小五)辛苦弄出来的,转载成都SEO小五原创的请保留链接: SEO前端优化之一:缓存加速,3Q

SEO前端优化之一:缓存加速:等您坐沙发呢!

来给哥评论评论


------====== 小五公告 ======------
成都SEO小五,专注成都搜索引擎优化。
小五善长站内外优化,C#、PHP开发,中英文SEO,Google中英文和百度优化技术。欢迎群内交流。伸手党请绕路,求资源的请绕开,求问题解答的请进群内交流。开放了一个QQ交流群:160750032。加入验证时请标注任何SEO相交字眼。友情链接直接Q我,收录正常,内容大部份原创、SEO或者程序开发、网络营销、线上推广等相关行业即可。

常用工具

赞助广告

来看过哥的人