页面质量影响SEO网站的收录情况

上篇日志《新建立网站为什么不会被搜索引擎收录》中提到了一个观点,新网站没有更多的爬虫抓取,是肯定不会被收录的,另外,除了爬虫抓取因素外,不收录的原因还有比较重要的一点,就是页面的质量。

最近一个刚学SEO的朋友联系我(丁大侠)说:我每天更新网站,每日一篇,我是做淘宝客的,在关键词xx专卖上用了21天优化到了第4名可是到现在百度还是只收录了一个页面。一天一篇文章只是简单地把买家的评论整合加了一个锚文本指向首页。

简单看了下他的网站,随便打开一个内容页面,复制了一部分放在百度里面搜索了下,发现问题了:

发现问题了没?

这位朋友复制了淘宝店铺里面的评论就组织文章,虽然这些评论是原创的,但是会被大量做淘宝客的用户通过采集、复制等方式进行更新文章,所以这部分内 容大量被搜索引擎已经收录了,未来在遇到此类型文章,就不会被收录了,因为搜索引擎数据库里面已经包含了这部分内容,搜索引擎不会大量收录重复内容。

那么有人说怎么看一篇文章在搜索引擎数据库里面有没有这篇文章呢?告诉个最简单的方法,就是把你准备好的文章复制其中一段落内容,粘贴在搜索引擎里面,看红色字体有多少,就可以看出有多少网站和你这个篇文章重复有多少了。比如上图中就可以简单的分清楚。

所以更新文章的时候,最好是注意下这个文章的质量,防止文章和互联网上面的大量文章重复而不收录你的页面,这点很多做淘宝客的朋友都会遇到。

另外,伪原创下可以么?实际上伪原创有一定的技巧,简单的替换关键词或者调换段落这些已经是徒劳无功了,搜索引擎根据算 法就可以识别出来,举个简单l例子:搜索引擎根据标点符号来判断文章,同样两篇文章不可能标调符号是一摸一样的,所以如果仅仅替换关键词或者调换段落这个 效果不大了,像根据标点这样的算法(这个算法名字为了方便理解起的,实际搜索引擎算法不是这个名字,但是意思是这样子的,注意区分哦)搜索引擎有非常多 的,比如最近搜索引擎根据买卖链接这样子的问题上线了绿萝算法,方法很简单:就是把买卖交易链接的中介或者网站全部通过程序监控起来,如果有网站和这个有 关系,就加入监控中,通过一系列条件,如果满足他大部分条件的网站就会被这个算法给命中,算法是死的,但是多个算法组合起来,就形成了比较厉害的防范措 施。当然有人问,要是不买卖链接和买链接的站点有友情链接是不是也被监控?不是的,只要和买卖链接的站点有关联,如果仅仅是管理很少,没问题的,很自然, 如果是买卖链接平台上大量和你网站有关系网站,就可以判断你有买卖链接的嫌疑,当然也误伤,误伤现在可以跟搜索引擎反馈的,这里仅仅讲了算法的原理。

实际上,最好的伪原创就是原创,自己不需要很好的文笔,不需要优美的语言,只需要能给用户解决需求就可以了,和搜索引擎一同给用户最好的搜索体验,搜索引擎本身是没有内容,只能和站长结合才能做好,就跟我这晋江SEO网站一样,专门写SEO技术类型文章,更新文章很简单,把自己身边一些朋友遇到的很多SEO问题总结出来,并且加入一些SEO基础知识,相信对很多新手搜索引擎优化人员有一定的帮助,这也是我建立这个博客的初衷。

http://xzh.i3geek.com

发表评论

电子邮件地址不会被公开。 必填项已用*标注