舟山搜狗SEO算法、规则与玩法全解析

一、搜狗搜索引擎工作原理
当我们在搜狗搜索框输入关键词,点击搜索按钮时,然后得到结果。仔细想想这个过程,搜狗搜索引擎在后台做了很多准备工作。
在搜狗搜索引擎后台,有一个特别庞大的数据库,里面存着数不清的关键词,每个关键词又对应着很多网址,这些网址是搜狗程序从浩瀚的互联网上一个个抓取过来的,这些程序我们称之为"搜索引擎蜘蛛"或"网络爬虫"。这些不知疲倦的"蜘蛛"整天在互联网上爬来爬去,从一个链接跳到另一个链接,把看到的内容下载下来,仔细分析提炼,找到其中重要的关键词,如果"蜘蛛"觉得这个关键词在数据库里没有而且对用户有用就会存起来。反过来,如果"蜘蛛"认为是垃圾信息或者重复内容,就会扔掉不要,继续爬行,寻找新鲜的、有价值的信息保存起来等着用户来搜索。当用户搜索的时候,就能把和关键词相关的网址找出来展示给用户。
一个关键词对应很多网址,所以就出现了排序问题,相应的与关键词最匹配的网址就会排在最前面了。在"蜘蛛"抓取网页内容,提炼关键词的过程中,存在一个问题:"蜘蛛"能不能看懂。如果网站内容是flash和js,那么它就看不懂,会犯糊涂,就算关键词再合适也没用。相应的,如果网站内容是它能理解的语言,那么它就能看懂,这个语言就是SEO。

二、搜狗SEO简介
全称:Search Engine Optimization,搜索引擎优化。自从有了搜狗搜索引擎,SEO就自然出现了。
存在的意义:为了提高网页在搜狗搜索引擎自然搜索结果中的收录数量以及排名位置而做的优化工作。简单来说,就是希望搜狗搜索引擎能多收录我们精心优化后的网站,并且在别人搜索时网站能排在前几位。
分类:白帽SEO和黑帽SEO。白帽SEO,起到了改善和规范网站设计的作用,让网站对搜索引擎和用户更加友好,并且网站也能从搜索引擎获得合理的流量,这是搜狗搜索引擎鼓励和支持的。黑帽SEO,利用和放大搜索引擎政策漏洞来获取更多用户访问量,这类行为大多是欺骗搜索引擎,通常搜狗搜索引擎是不支持与鼓励的。本文主要讨论白帽SEO,那么白帽SEO需要做什么呢?


  1. 对网站的标题、关键词、描述进行精心设置,体现网站的定位,让搜狗搜索引擎明白网站是做什么的;

  2. 网站内容优化:内容与关键词要对应,增加关键词的密度;

  3. 在网站上合理设置Robot.txt文件;

  4. 制作对搜狗搜索引擎友好的网站地图;

  5. 增加外部链接,到各个网站上去宣传;

三、舟山搜狗SEO前端优化
通过网站结构布局设计和网页代码优化,让前端页面既能被浏览器用户理解,也能被"蜘蛛"理解。
(1)网站结构布局优化:尽量简单、直截了当,推荐扁平化结构。
一般来说,建立的网站结构层次越少,越容易被"蜘蛛"抓取,也就容易被收录。通常中小型网站目录结构超过三级,"蜘蛛"就不太愿意继续往下爬了,"万一迷路了怎么办"。而且根据相关调查:用户如果经过3次跳转还没找到需要的信息,很可能就离开了。所以,三层目录结构也是用户体验的需要。为此我们需要做到:


  1. 控制首页链接数量


网站首页是权重最高的地方,如果首页链接太少,没有"桥梁","蜘蛛"无法继续爬行到内页,直接影响网站收录数量。但是首页链接也不能太多,一旦太多,没有实质性的链接,很容易影响用户体验,也会降低网站首页的权重,收录效果也不好。
所以对于舟山地区的企业网站,建议首页链接在100个以内,链接的类型可以包括页面导航、底部导航、锚文字链接等等,注意链接要建立在用户良好体验和引导用户获取信息的基础上。
2.扁平化的目录层次,尽量让"蜘蛛"只需要跳转3次,就能到达网站内的任何一个内页。扁平化的目录结构,比如:"舟山"--> "海鲜" --> "带鱼"、"黄鱼"、"螃蟹",通过3级就能找到螃蟹了。
3.导航优化
导航应该尽量使用文字方式,也可以配合图片导航,但是图片代码一定要优化,标签必须添加"alt"和"title"属性,告诉搜狗搜索引擎导航的定位,做到就算图片显示不出来时,用户也能看到提示文字。
其次,在每个网页上都应该加上面包屑导航,好处:从用户体验角度来说,可以让用户知道当前所在位置以及当前页面在整个网站中的位置,帮助用户快速了解网站组织结构,从而形成更好的方位感,同时提供了返回各个页面的入口,方便用户操作;对"蜘蛛"来说,能够清晰了解网站结构,同时还增加了大量内部链接,方便抓取,降低跳出率。

  1. 网站的结构布局--不能忽略的细节


页面头部:logo和主导航,以及用户信息。
页面主体:左边是正文,包括面包屑导航和正文内容;右边放热门文章和相关文章,好处:留住访客,让访客多停留,对"蜘蛛"来说,这些文章属于相关链接,增强了页面相关性,也能提升页面权重。
页面底部:版权信息和友情链接。
特别注意:分页导航的写法,推荐写法:"首页 1 2 3 4 5 6 7 8 9 下拉框",这样"蜘蛛"能够根据相应页码直接跳转,下拉框直接选择页面跳转。而不推荐的写法是,"首页 下一页 尾页",特别是当分页数量特别多时,"蜘蛛"需要爬很多次才能抓取,会很累、会容易放弃。
5.控制页面大小,减少http请求,提升网站加载速度。
一个页面最好不要超过100k,太大,页面加载速度慢。当速度很慢时,用户体验差,留不住访客,并且一旦超时,"蜘蛛"也会离开。

(2)网页代码优化
1.标题:只强调重点就行,尽量把重要的关键词放在前面,关键词不要重复出现,尽量做到每个页面的。标题中不要设置相同的内容。
2.标签:关键词,列出几个页面的重要关键词即可,记住不要过分堆砌。
3.标签:网页描述,需要高度概括网页内容,记住不能太长,过分堆砌关键词,每个页面也要有所不同。
4.中的标签:尽量让代码语义化,在合适的位置使用合适的标签,用正确的标签做正确的事。让看代码的人和"蜘蛛"都一目了然。比如:h1-h6 是用于标题类的。
5.超链接标签:页内链接,要加 "title" 属性加以说明,让用户和 "蜘蛛" 知道。而外部链接,链接到其他网站的,则需要加上 el="nofollow" 属性, 告诉 "蜘蛛" 不要爬,因为一旦"蜘蛛"爬了外部链接之后,就不会再回来了。
6.正文标题要用h1标签:"蜘蛛" 认为它最重要,如果不喜欢h1,h1的默认样式可以通过CSS设置。尽量做到正文标题用h1标签,副标题用h2标签, 而其他地方不应该随便乱用 h 标题标签。
7.换行标签:只用于文本内容的换行
8.表格应该使用表格标题标签
9.图片应使用 "alt" 属性加以说明
10.加粗,强调标签 : 需要强调时使用。加粗标签在搜狗搜索引擎中能够得到高度重视,它能突出关键词,表现重要的内容,强调标签强调效果仅次于加粗标签。
10、文本缩进不要使用特殊符号 应当使用CSS进行设置。版权符号不要使用特殊符号 可以直接使用输入法,拼"banquan",选择序号5就能打出版权符号。
12、巧妙利用CSS布局,将重要内容的HTML代码放在最前面,最前面的内容被认为是最重要的,优先让"蜘蛛"读取,进行内容关键词抓取。
13.重要内容不要用JS输出,因为"蜘蛛"看不懂
14.尽量少使用iframe框架,因为"蜘蛛"一般不会读取其中的内容
15.谨慎使用 display:none :对于不想显示的文字内容,应当设置z-index或设置到浏览器显示器之外。因为搜狗搜索引擎会过滤掉display:none其中的内容。


  1. 不断精简代码


17.js代码如果是操作DOM操作,应尽量放在body结束标签之前,html代码之后。

发表评论

评论列表