万源SEO教程:从入门到精通的搜索优化指南
一、搜索引擎抓取原理
当我们在搜索框输入"万源特产"这样的关键词,点击搜索按钮,然后看到结果列表。这背后发生的事情,搜索引擎可是忙活了好一阵子。
在搜索引擎的服务器里,有个特别庞大的数据库,里面存着数不清的关键词,每个关键词又对应着好多网址,这些网址都是搜索引擎派出的"蜘蛛"从互联网各个角落抓取回来的。这些勤快的"蜘蛛"天天在网上转悠,从这个链接爬到那个链接,把网页内容下载下来分析,找出里面的关键词,要是觉得这个词数据库里没有而且对用户有用,就存进数据库。反过来,要是"蜘蛛"觉得是垃圾信息或者重复内容,就直接扔掉,继续爬行,找那些新鲜的、有用的信息存起来等着用户来搜。
一个关键词对应那么多网址,自然就涉及到排序问题,相应的与关键词最匹配的网址就会排在最前面。在"蜘蛛"抓取网页内容、提取关键词的过程中,有个很关键的问题:"蜘蛛"能不能看懂网页内容。如果你网站全是flash和js动画,它就完全懵了,就算关键词再相关也没用。相应的,如果网站内容用的是它能理解的语言,它就能顺利抓取,这种语言就是SEO。
二、万源SEO基础
全称:Search Engine Optimization,搜索引擎优化。自从有了搜索引擎,SEO就自然而然出现了。
存在的意义:为了提高网页在搜索引擎自然搜索结果里的收录量和排名位置所做的优化工作。简单来说,就是希望搜索引擎能多收录我们精心优化过的网站,而且在用户搜索时网站能排在前几位。
分类:白帽SEO和黑帽SEO。白帽SEO,能帮助改进和规范网站设计,让网站对搜索引擎和用户都更友好,并且网站能从搜索引擎获得合理的流量,这是搜索引擎赞成和支持的。黑帽SEO,利用和放大搜索引擎规则漏洞来获取更多访问量,这类做法大多是蒙骗搜索引擎,一般搜索引擎公司是不支持也不鼓励的。本文重点说白帽SEO,那么白帽SEO要做什么呢?
- 认真设置网站标题、关键词和描述,体现网站定位,让搜索引擎知道这个网站是做什么的;
- 网站内容优化:让内容和关键词对应起来,增加关键词出现频率;
- 在网站根目录合理配置Robot.txt文件;
- 制作适合搜索引擎抓取的网站地图;
- 增加外部链接,到各个平台去推广;
三、万源网站优化实操
通过网站结构设计和网页代码优化,让网站既能让普通用户看得明白,也能让"蜘蛛"理解得了。
(1)网站结构设计优化:越简单越好,直截了当,推荐扁平化结构。
一般来说,网站结构层级越少,越容易被"蜘蛛"抓取,也就越容易被收录。普通中小型网站目录超过三层,"蜘蛛"就不太愿意往下爬了,"要是爬太深迷路了怎么办"。而且根据调查发现:用户如果跳转3次还找不到需要的信息,很可能就离开了。所以三层目录结构也是用户体验的需要。为此我们要做到:
- 控制首页链接数量
网站首页是权重最高的地方,如果首页链接太少,没有"通路","蜘蛛"没法继续爬行到内页,直接影响网站收录数量。但是首页链接也不能太多,一旦太多,都是没实质内容的链接,很容易影响用户体验,也会拉低首页权重,收录效果反而不好。
所以对于万源本地企业网站,建议首页链接控制在100个以内,链接类型可以包括主导航、底部导航、文字链接等,注意链接要建立在提升用户体验和引导用户获取信息的基础上。
2.扁平化目录层级,尽量让"蜘蛛"跳转3次就能到达网站任意内页。扁平化目录结构,比如:"万源服务"--> "万源旅游" --> "万源景点",通过3级就能找到八台山景区介绍了。
3.导航优化
导航最好用文字形式,也可以配合图片导航,但是图片代码一定要优化,img标签必须加上"alt"和"title"属性,告诉搜索引擎导航的具体用途,做到就算图片显示不出来,用户也能看到提示文字。
其次,每个页面都要加面包屑导航,好处:从用户体验角度,能让用户知道自己现在在哪以及这个页面在网站中的位置,帮助用户快速理解网站结构,形成清晰的位置感,同时提供了返回各个页面的入口,操作更方便;对"蜘蛛"来说,能清楚掌握网站结构,还增加了大量内链,方便抓取,减少跳出率。
- 网站结构布局--要注意的细节
页面顶部:logo和主导航,还有用户登录信息。
页面主体:左边放正文,包括面包屑导航和主要内容;右边放热门内容和相关推荐,好处:留住用户,让用户多待会儿,对"蜘蛛"而言,这些内容属于相关链接,既增强了页面关联性,也提升了页面权重。
页面底部:版权说明和友情链接。
特别注意:分页导航的写法,推荐这样写:"首页 1 2 3 4 5 6 7 8 9 下拉框",这样"蜘蛛"可以直接根据页码跳转,下拉框直接选页跳转。而不推荐这种写法:"首页 下一页 尾页",特别是分页特别多的时候,"蜘蛛"要爬很多次才能抓取,会很累、很容易放弃。
5.控制页面大小,减少http请求,提升网站加载速度。
一个页面最好不要超过100k,太大,页面加载慢。速度太慢时,用户体验差,留不住用户,而且一旦超时,"蜘蛛"也会离开。
(2)网页代码优化
1.标题:突出重点就行,尽量把重要关键词放前面,关键词不要重复出现,尽量做到每个页面标题都不一样。标题中不要出现相同内容。
2.标签:关键词,列出几个页面重要关键词就好,千万别堆砌。
3.标签:网页描述,要高度概括网页内容,切记不能太长,不要堆砌关键词,每个页面也要有所区分。
4.中的标签:尽量让代码语义明确,在合适的地方用合适的标签,用对的标签做对的事。让看代码的人和"蜘蛛"都一看就懂。比如:h1-h6 是专门用来写标题的。
5.超链接标签:站内链接,要加"title"属性说明,让用户和"蜘蛛"都明白链接指向。而连到其他网站的外部链接,则需要加上 rel="nofollow" 属性, 告诉"蜘蛛"别爬了,因为"蜘蛛"一旦爬去外部链接,可能就不回来了。
6.正文标题要用h1标签:"蜘蛛"认为这个最重要,要是不喜欢h1的默认样式,可以用CSS调整。尽量做到正文标题用h1标签,副标题用h2标签, 其他地方不要随便用 h 标签。
7.换行标签:只用于文字内容换行
8.表格要用表格标题标签
9.图片要加"alt"属性说明
10.加粗,强调标签 : 需要强调时使用。加粗标签在搜索引擎那里很受重视,它能突出关键词,显示重要内容,强调标签的强调效果仅次于加粗标签。
10、文本缩进不要用特殊符号 应该用CSS设置。版权符号不要用特殊符号 可以直接用输入法,打"banquan",选第5个就是版权符号。
12、巧妙运用CSS布局,把重要内容的HTML代码放在最前面,最前面的内容被认为是最重要的,优先让"蜘蛛"读取,进行内容关键词抓取。
13.重要内容不要用JS输出,因为"蜘蛛"看不懂
14.尽量少用iframe框架,因为"蜘蛛"通常不读里面的内容
15.谨慎使用 display:none :对于不想显示的文字内容,应该设置z-index或者移到浏览器显示范围外。因为搜索引擎会过滤掉display:none里的内容。
- 持续精简代码
17.js代码如果是操作DOM的,应该尽量放在body结束标签前,html代码后。
发表评论