哈尔滨搜狗SEO排名优化实战:从基础到进阶的完整指南
做哈尔滨地区的搜狗SEO排名优化,说简单也简单,说难也难。今天就聊聊最近做的一些实战经验,从基础到进阶,尽量说得明白点。
TDK优化
TDK就是title、description、keywords的统称。title肯定是最重要的,得好好优化;keywords现在对搜狗来说没啥用,就不多说了;description会直接显示在搜索结果里,影响用户点不点,所以得认真写。
title优化
title的分隔符一般用,、、-这些,搜狗对和-都挺友好的,空格的话中文站少用。长度的话,PC端大概30个中文,移动端20个,超过会被截断。
我们主要做搜狗优化,所以分享点搜狗的建议:
title格式:
- 首页:网站名称 或者 网站名称服务介绍or产品介绍
- 频道页:频道名称网站名称
- 文章页:文章title频道名称网站名称
如果文章标题不长,还可以加点关键词,比如文章title关键词网站名称。
推荐做法:
- 每个页面标题要独一无二,别都用默认的。
- 标题要明确,包含最重要的内容。
- 简明精练,别堆砌不相关的信息。
- 重要内容放前面,用户从左到右看。
- 用用户熟悉的语言描述。
description优化
description不影响网页权值,但会影响搜索结果摘要。长度PC端大概78个中文,移动端50个,超过会被截断。
搜狗推荐做法:
- 首页、频道页等适合用description。
- 准确描述网页,别堆砌关键词。
- 每个页面description要不同。
- 长度合理,别太长也别太短。
举个例子,第一个没加meta description,第二个加了,可以看出第二个摘要更可读,用户更了解网站内容。
页面内容优化
使用html5结构
如果条件允许,比如移动端,兼容ie9+,可以考虑用html5语义化标签,比如header、footer、section、aside、nav、article等。
唯一的H1标题
每个页面应该有个唯一的h1标题,但不是每个页面的h1标题都是站点名称。首页h1标题是站点名称,内页h1标题是各个内页的标题,比如分类页用分类名字,详细页用详细页标题。
哈尔滨SEO优化
哈尔滨搜狗排名优化
哈尔滨SEO快速排名技巧
img设置alt属性
img必须设置alt属性,如果宽度和高度固定,请同时设置固定的值。
nofollow
对不需要跟踪爬行的链接,设置nofollow。可以用在博客评论、论坛帖子、社会化网站、留言板等地方,也可用于广告链接、隐私政策、用户条款、登录等。
no follow 链接
正文
内容方面考虑:- 自然写作,别刻意堆砌关键词。
- 高质量原创内容,别抄袭。
- 吸引阅读的写作手法,比如用点故事、案例。
- 突出卖点,让用户知道你能提供什么。
- 增强信任感,比如展示客户评价、案例。
- 引导进一步行为,比如引导用户咨询、购买。
用户体验方面考虑:
- 排版合理、清晰、美观,字体、背景易于阅读。
- 实质内容放在页面最重要位置,用户一眼就能看到。
- 实质内容与广告能够清晰区分。
- 第一屏就有实质内容,别让用户下拉页面才能看到。
- 广告数量不宜过多,位置不应该妨碍用户阅读。
- 如果图片、视频有利于用户理解页面内容,尽量制作图片、视频等。
- 避免过多弹窗,影响用户体验。
URL优化
URL设计原则:- 越短越好,别太长。
- 避免太多参数,参数多了不好记。
- 目录层次尽量少,别太深。
- 文件及目录名具描述性,一看就知道是啥。
- URL中包括关键词(中文除外),有助于排名。
- 字母全部小写,别大小写混用。
- 连词符使用
-而不是_,搜狗对-更友好。 - 目录形式而非文件形式,比如
/category/而不是/category.html。
URL静态化
虽然搜狗的爬行能力可以不用做静态化,但从收录难易度、用户体验及社会化分享来说,静态简短的URL更有利。URL规范化
1、统一连接http://www.domainname.com
http://domainname.com
http://www.domainname.com/index.html
http://domainname.com/index.html
以上四个其实都是首页,但对搜狗来说就是四条网址,内容相同,可能会被误认为是作弊手段。所以最好自己规范好。
2、301跳转
第一种是URL发生改变,一定要把旧的地址301指向新的,不然之前做的一些收录权重就白搭了。
第二种是一些cms系统,可能会造成多个路径对应同一篇文章。比如drupal默认的路径是以node/nid,但如果启用了path token,就可以自己自定义路径。这样一来就有两条路径对应同一篇文章。所以可以启用301,最终转向一个路径。
3、canonical
这个标签表示页面的唯一性,用在平时参数传递的时候。比如:
//:example.com/download/app.html
//:example.com/download/app.html?from=123
//:example.com/download/app.html?from=456
以上三个表示三个页面,但其实后两个只是想表明从哪来的而已。所以为了确保这三个为同一个页面,我们在
head上加上canonical标签。
robots
robots.txt
搜狗蜘蛛访问网站时会第一个访问robots.txt文件,robots.txt用于指导搜狗蜘蛛禁止抓取网站某些内容或只允许抓取那些内容,放在站点根目录。以腾讯课堂的robots.txt为例:
- User-agent 表示以下规则适用哪个蜘蛛,表示所有。
- # 表示注释。
- Disallow 表示禁止抓取的文件或目录,必须每个一行,分开写。
- Allow 表示允许抓取的文件或目录,必须每个一行,分开写。
- Sitemap 表示站点XML地图,注意S大写。
下面表示禁止所有搜狗蜘蛛抓取任何内容:
User-agent:
Disallow: /
下面表示允许所有搜狗蜘蛛抓取任何内容:
User-agent: *
Disallow:
注意:被robots禁止抓取的URL还是可能被索引并出现在搜索结果中的。只要有导入链接指向这个URL,搜狗就知道这个URL的存在,虽然不会抓取页面内容,但是索引库还是有这个URL的信息。
meta robots
如果要想URL完全不出现在搜索结果中,则需设置meta robots。
上面代码表示:禁止所有搜索引擎索引本页,禁止跟踪本页上的链接。
SEO工具
- 搜狗搜索风云榜:看看热门关键词。
- 搜狗指数:分析关键词趋势。
- 搜狗站长平台:提交网站、查看收录情况。
- meta seo inspector:检查标签的,谷歌插件。
- seo in china:搜狗收录的各种数据,谷歌插件。
- check my links:检查链接,谷歌插件。
- seo quake:统计各种数据,谷歌插件。
发表评论