请选择 进入手机版 | 继续访问电脑版
楼主: sitemapbbs

【高手招募令】百度“网站运营优化实例分享”征文大赛

   关闭 [复制链接]
发表于 2013-4-20 15:50:44 | 显示全部楼层
应该顶的
回复 支持 反对

使用道具 举报

发表于 2013-4-20 15:57:28 | 显示全部楼层
能发帖太好了,一会发
回复 支持 反对

使用道具 举报

发表于 2013-4-20 16:14:25 | 显示全部楼层
site首页终于到第一页了
回复 支持 反对

使用道具 举报

发表于 2013-4-20 16:14:58 | 显示全部楼层
但是在第七位,很郁闷啊,都一个月了
回复 支持 反对

使用道具 举报

发表于 2013-4-20 16:02:56 | 显示全部楼层
支持一下百度童鞋的工作 http://bbs.zhanzhang.baidu.com/thread-10327-1-1.html
回复 支持 反对

使用道具 举报

发表于 2013-4-20 16:46:54 | 显示全部楼层
本帖最后由 百搜搜 于 2013-4-22 09:43 编辑

标题:目前各大网站过度SEO方法汇总及增加优质外链的方法
正文:

     最近几年SEO越来越为人熟知,很多网站也非常重视SEO。为了从搜索引擎获得更多的免费流量,各位SEO大神也绞尽脑汁,无所不用其极地使用SEO方法。这就造成了目前很多网站都有过度SEO的现象,而且互相效仿,过度SEO的现象越来越严重。Google早就开始打击过度SEO,而百度最近一年多也在逐步打击各种过度SEO现象。写本文的目的是列出一些过度SEO方法,让SEO从业者能认识到这些方法是有过度SEO的嫌疑的,以后也有被惩罚的可能,请远离这些方法。
     本文写作过程中得到了中英SEO专家的建议,尤其是增加优质外链的方法得到了从业10多年的英文SEO专家的指导,可能有些难以理解,不过如果你理解的够透彻,就能体会其用心。


一、各大网站过度SEO方法
     这里所提的过度SEO方法都是以用户需要为判断标准,如果不是用户需要的,就会被判断为过度SEO。

1、过度罗列关键词链接
     很多网站定位了很多热门关键词,为了提高这些关键词的排名,在全站绝大部分页面都放了这些关键词的链接,无视用户需要。尤以汽车网站为甚,以易车网为例,其多级页面在底部都有100个左右关键词链接(图1),试想哪个想买科鲁兹的用户会去看这么多其他的车和信息?也许只有做网站的人才会去看这些链接,点击的可能性就更小了。
     这样只为了SEO才去做的链接,肯定属于过度优化的范畴。而这样对排名就真的很有帮助吗?多个SEO人的心里感觉是不同的站效果不一样,但基本都帮助很小。汽车之家就没有这样的链接,但其排名是汽车网站里最好的。
图1

     其他有这种情况的网站还有汽车点评网(图2):
图2

      爱卡汽车网(图3):
图3
      搜狐汽车(图4)
图4

    其他汽车网站还有太平洋汽车、新浪汽车、万车网、车天下等等网站。
    非汽车类的有如:

    前程无忧(图5):
图5

    智联招聘(图6):
图6


    搜房网(图7):
图7

    58同城网(图8):
图8


     其他如百姓网、赶集网等等还有很多,就不一一列举了。以上这些基本都是为了SEO做的,算是过度优化。

2、刻意加大关键词密度
      还以易车网为例,在其车系频道页面(图9),把所有车的信息都加上了关键词如“科鲁兹”,这样看关键词密度大幅度提升,但很明显看着很啰嗦,明显是刻意的SEO动作。而这对排名提升有多大帮助呢?在一些百度的Bad case里确实有因为关键词密度很高而排名很高的,但那都是垃圾小站的行为,而且转瞬即逝,还是奉劝各位不要做这种过度优化。
图9


  黄页88网(图10):
图10

     地区太阳能网版块内,如果是产品人员设计肯定就把各地名称一写就行了,不会在后面都跟上“太阳能”。
     这种情况也非常普遍,这里就不再列举了。

3、搜罗所有关键词形成数百万、数千万的低质量页面
    越来越多的网站在用这种方法,把本网站相关的关键词全部以某种形式列在网站上,形式大量的关键词聚合页面,并造成大量的低质量页面,很多以“ABCDEF……”形式链接,纯粹的为搜索引擎而做。
       如:黄页88:


     马可波罗:
      红框的链接打开后是空页面。


      百才网:

      在百度搜索“北京家乐福招聘”,第一页就有百才网的链接,打开后发现一条关于家乐福的信息都没有,纯碎为搜索引擎做的,如图:


      还有数字英才网,可能是这样做的始作俑者,很多关键词都排名很靠前,但打开后都风马牛不相及,极度影响用户体验,如:




      以上提到的三点都是目前非常常见和流行的过度SEO做法,很多网站都互相效仿,这样做的网站越来越多。前两点只是刻意SEO做的太过,但至少还可以看,但第3点就制造了很多跟关键词不相关的内容,用户讨厌的垃圾页面,这也影响了搜索引擎的用户体验。如果你的内容真的是跟关键词很相关的,对用户有用的,那无可厚非。如果你制造了很多垃圾页面,那是不应该被纵容的。

二、增加优质外链的方法
上面谈的都是站内的过度SEO方法,站外的过度SEO方法也有很多网站在做,百度最近打击了很多外链作弊方法,很多人也深有感触,而且还在不断打击中。很多人就疑惑于怎样增加不被百度打击的高质量的外链,下面我就把一位做了12年英文SEO的老外的方法和其他多位SEO人员的建议汇总起来,供大家参考!
1、加入网址导航
中国有上万个网址导航网站,知名大站几乎在所有网址导航站都能找到。你的站被几个网址导航站收录了?几个、几十个、几百个?你觉得够了吗?如果不到几千个,那肯定不够,所以不要觉得这个方法很无聊。去找到一万个网址导航,然后挨个申请加入,如果成功几千个,你一定会发现它的能量。
2、替换竞争对手的死链接
如果你的竞争对手在网址导航或其他网站有很多死链接,那你可以告诉对方有死链接,让其替换成你的链接,成功几率也不会太小。
3、让相关的政府网站、黄页网站链接过来
不要以为政府网站就很难做链接,找到对应的负责人,可能是一个编辑,一个技术,就可以搞定,但要注意相关性。
4、跟较大的网站合作,互相链接内容
这不是简单的交换链接,而是内容的互相链接合作,当然是相关的内容,互相促进提高。不是简单的罗列一些链接,而是出于内容需要的真正合作,合作的越多越好。
5、当有赞助活动时,让对方网站链接过来
如果你的网站有一些赞助或线下活动时,一定要让合作网站链接过来,无论是在文章里还是首页。
6、制作高质量的图片放在文章里,吸引人转发
图片内容要很有内涵,其实标准也很简单,就是你得觉得很有用就行。一个高质量的图片,可能会获得上千次的转载,非常有效。
7、撰写高质量的文章,吸引人转载
高质量的文章什么时候都缺,一周做500篇伪原创文章,不如一周作一篇高质量文章。
8、为其他网站提供定制内容
很多网站需要一些内容,但自己又没有人做,我们就可以把这些内容做出定制的栏目让对方可以方便的引用,类似于把百度搜索风云榜放到自己网站。
9、采访行业内的人物,形成视频和文章,吸引转载
很多人都希望露露脸,可以经常采访内页人物,无论是录音还是视频,都可以最后做成文章放在网站上,吸引人转载。
   以上9条是在中国比较有效的方法,还有20多条,感觉在中国会收效甚微,所以就不赘述了。
   以上所写文字都是出于提醒SEO人员,为网友和搜索引擎提供更高质量内容,净化SEO环境的目的!一家之言,仅供参考!





本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2013-4-21 11:24:16 | 显示全部楼层
从搜索用户来看SEO
SEO是个奇怪的东西,一方面因为SEO流量往往占到网站流量几十个百分点,而且看上去它是免费的,因此许多人认为SEO无所不能;而另一方面,也有很多人因为看了网上的一些SEO资料,觉得SEO无非是改改关键词、发发外链的体力活,于是对其很不耻。这两种极端,都是由于对SEO没有全面的了解所致。
SEO最重要的之一,是要站在搜索用户的角度去看问题。但这方面经常被人所忽视。
1. 同样一个词的背后,有着不同的意图
比如说“宜家地址”,这个词在百度上面大约有每天近百的搜索量。在搜索这个词的时候,搜索结果页面上可以看到大众点评:


file://localhost/Users/zero/Library/Caches/TemporaryItems/msoclip/0/clip_image002.png
这个页面本身拥有非常好的用户体验,不仅能找到宜家的具体地址,还能看到对应的地图、公交信息等,顺带还可以看下人们对宜家是如何评价的。
但是,比如我现在在北京,但这个页面却是天津的,对于我而言没有任何价值。如果我想继续在大众点评上面寻找北京宜家的地址,因为它没有提供现成的渠道,所以只能进行城市切换,再由站内搜索去搜索宜家……——显然多数用户的选择,会是返回百度的搜索结果页面,寻找大众点评之外的页面。
对于大众点评而言,这些SEO流量看着虽也是流量,但对于网站并没有价值。且在这种情况下,损失的流量至少是90%——因为北京是全国最大的城市、且北京通常情况下对于非地域性词占全国10%不到的搜索量。
2. 被忽视的用户常常搜索的词
既然前面举了大众点评的例子,后面顺带继续借用一下它来说其它几个话题。
大众点评的地标类目页面,如:
http:// www. dianping .com/search/category/2/30/g132r17
它的TITLE为“北京海淀区咖啡厅”,存在至少两类严重问题:
(1)  URL定义不合理,使得搜索引擎容易认为这类页面是无关紧要的页面,最终导致了其收录比例极低;
(2)  TITLE里面没有出现用户最常搜索的词,“附近”。
下图是百度推广客户端的一些关键词数据,可以发现,地标+“附近”+类别,这种形式的搜索词的量非常巨大。


file://localhost/Users/zero/Library/Caches/TemporaryItems/msoclip/0/clip_image004.png
或许有人觉得,上述搜索量都是<5,这么小无视也罢。但这些词的可变组成部分,是地标与类别。常见类别比如“宾馆”、“酒店”、“咖啡厅”、“电影院”可以数出几十几百种;全国有人可能搜索的地标信息,更至少是数以千计的。搜索总量由此可估算。
下图是一个网站重视此类搜索量后,新增的流量:
file://localhost/Users/zero/Library/Caches/TemporaryItems/msoclip/0/clip_image006.png

3. 用户的搜索习惯,和我们平时的用词习惯也不尽相同
比如说大众点评的商家页面,描述消费均价时用的词是“人均¥60”,但用户搜索的时候,极少会搜索“XX人均”,一般会是“XX菜价”、“XX价格”或更偶尔使用的“XX人均消费”等。
这些词,哪怕只在页面出现一次,就能让预定的着陆页(此处为商家页面)有机会出现在SERP中。且因为竞争度很小,往往能拿到非常好的排名。
商铺名+后缀,建立这样一个词库,然后依词库里面各后缀的搜索量和对应竞争力,就可以用明确的数据来指导哪些词应该放到页面上、哪些词应该放到title上加以强化了。
下图是考虑到用户如何搜索的最简单的例子——将程序自动生成的title“干洗公司”,改成了有用户会搜索的“干洗店”,从而得到的流量效果:
file://localhost/Users/zero/Library/Caches/TemporaryItems/msoclip/0/clip_image008.png

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

发表于 2013-4-20 17:15:54 | 显示全部楼层
使用Robots.txt引导百度爬虫合理分配抓取资源

我所在的网站算是一个大型网站,百度收录3000万,每天百度爬虫抓取总次数在500w次左右,单页的百度收录率 80%,看起来已经是一个相当不错的数据,但分析一下详细的日志文件,还是可以发现一些问题,

1.大型网站的列表页为了方便用户查找所需信息,通常会设置多重的筛选条件(Facet Navigation),但爬虫并没有智能到可以自主判断哪些条件可以组合,哪些条件组合起来没有意义,只要在代码里面有链接就会去抓取,导致百度爬虫耗费了大量资源在列表筛选页上。分析了一个月的数据,发现百度的抓取量有30%消耗在列表页,但是列表页带来的百度自然流量仅占所有百度自然流量的2%,所以对网站的列表页来说,爬虫的投入产出非常低。

2.重复抓取现象严重。 我个人觉得,对网站来说,只被爬虫抓取过1次的页面(Distinct Crawl)最有价值,因为对一张本身内容质量还可以的页面来说,只要被抓取过一次,收录的几率就超过80%。如果页面本身质量不行,即使被抓取过几十次,也依然不会被收录。 继续分析我们网站的数据,发现在百度爬虫一天500w的抓取中,有超过一半的抓取是对相同页面的多次抓取,如果能把这些重复的抓取转移到那些一次都没被抓过的页面上,对网站的价值无疑更大。

如何解决这两个问题?

先说第一个,针对筛选页消耗爬虫资源问题,很多人都建议使用nofollow标签告诉爬虫,不要继续给这些页面分配权重,我们也这么做过。但事实证明百度爬虫对nofollow并不敏感,使用之后爬虫依旧疯狂抓取,同时也没有把权重从筛选页面上转移到规范页面上。

无奈之下,我们只好考虑起用SEO的大杀器:Robots文件,把所有的筛选页面全部disallow掉,之前没有使用robots禁止抓取的原因是担心万一爬虫被禁止抓取列表后,会不会其他的页面也不抓了?毕竟列表筛选页还是会给单页贡献大量入口,但基于我们网站单页收录还不错的现状,还是决定尝试一下。

事实证明,效果非常明显,新版的robots上线三天后,列表页的爬虫抓取量下降到15%;同时之前担心的问题也没有发生,爬虫的抓取总量不但没有下降,反而增长了10%左右,单页的抓取量也上升了20%,可以算是达到了我们的预期目标:把列表页浪费的爬虫资源转移到其他需要被抓取的页面上。

但是如何证明抓取资源是被转移到需要被抓取的页面上呢,这正好也是之前提到的第二个问题,我们看了唯一抓取率( 只抓一次的页面数/总抓取数)的变化,从50%增长到74%,可以说明爬虫在阅读robots文件后,对爬虫资源做了更合理的分配,更多的单页被抓取。

总结:Robots文件相比其他手段,可以在较短时间内优化百度爬虫的抓取资源分配,但这得建立在网站本身结构良好,内容过关的基础之上,同时最重要的还是得反复测试,通过日志分析实际情况来调整以取得最佳效果

点评

这样做是否有过度SEO之嫌呢 呵呵  发表于 2013-4-22 13:56
回复 支持 反对

使用道具 举报

发表于 2013-4-20 20:03:39 | 显示全部楼层
羡慕嫉妒恨呐
回复 支持 反对

使用道具 举报

发表于 2013-4-20 20:06:09 | 显示全部楼层
:):):)采访行业内的人物,形成视频和文章,吸引转载
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|Archiver|Baidu Inc.

GMT+8, 2021-6-22 06:51 , Processed in 0.283986 second(s), 16 queries .

Powered by Discuz! X3.2

© 2001-2011 Comsenz Inc.

返回顶部