黑帽seo与google的反作弊方法
作者:晋城网站建设 日期:2011-01-22
<center></center>
以下的一个作弊方法,至今还能行得通的。 代码如下:
<o:p></o:p>
<o:p></o:p>
<v:shapetype id="_x0000_t75" stroked="f" filled="f" path="m@4@5l@4@11@9@11@9@5xe" o:preferrelative="t" o:spt="75" coordsize="21600,21600"><v:stroke joinstyle="miter"></v:stroke><v:formulas><v:f eqn="if lineDrawn pixelLineWidth 0"></v:f><v:f eqn="sum @0 1 0"></v:f><v:f eqn="sum 0 0 @1"></v:f><v:f eqn="prod @2 1 2"></v:f><v:f eqn="prod @3 21600 pixelWidth"></v:f><v:f eqn="prod @3 21600 pixelHeight"></v:f><v:f eqn="sum @0 0 1"></v:f><v:f eqn="prod @6 1 2"></v:f><v:f eqn="prod @7 21600 pixelWidth"></v:f><v:f eqn="sum @8 21600 0"></v:f><v:f eqn="prod @7 21600 pixelHeight"></v:f><v:f eqn="sum @10 21600 0"></v:f></v:formulas><v:path o:connecttype="rect" gradientshapeok="t" o:extrusionok="f"></v:path><o:lock aspectratio="t" v:ext="edit"></o:lock></v:shapetype>
<o:p></o:p>
这段代码,搜索引擎以为是一个黑色背景下有一些白色的文字,这是不算作弊的。但是用户看到的就是一片白色,不会看到里面的文字。原因就是用一张白色的图片作为了背景,而搜索引擎是读不出图片是什么颜色的。在以table布局的网页里,如果同时定义了一个table的背景颜色和背景图片,它是优先显示图片颜色的。这样,用户看到的是一片白色背景下的白色文字,当然就看不到这些文字了。这种作弊方法利用了一点:就是搜索引擎至今不能识别一张图片的颜色。
<o:p></o:p>
当然搜索引擎还有很多其他弱点。迈克·摩尔曾经说过:确实有办法愚弄搜索引擎,但是只有少数人能真正办到。其实他就是其中的一个,因为他自己做了20年的搜索引擎技术研究,在搜索引擎领域有很多专利,能从头到尾建立一个搜索引擎。
<o:p></o:p>
但是他那样的专家,是不会用一些作弊的方法来做黑帽SEO的,原因就是这样做太蠢了。这要从搜索引擎反作弊策略说起。
<o:p></o:p>
一个搜索引擎成功的反作弊策略一定是这样的:
<o:p></o:p>
1,允许算法被探测出来,而且即使算法被公布,搜索结果的公正性都不会受太大影响。要这么做的原因就是不希望和作弊的人陷入到一种猫捉老鼠的死循环当中。如果老是以堵漏洞的做法来修正算法,那永远都没有尽头。出于这样的考虑,搜索引擎会把那些无法被作弊的的因素在排序算法里放到比较重要的程度。
<o:p></o:p>
2,尽可能用一切技术手段自动检测,当技术手段不能解决问题,就用人工来解决。然后把人工发现的问题又反馈给自动检测机制,使自动检测越来越完善。
<o:p></o:p>
现在的google基本上就是这样来做的。在现有的排序规则中,那些无法作弊的和能精确反应内容的因素,都是很重要的排序因素。
<o:p></o:p>
当然Google也不排斥频繁的调整算法,这也有出于给用户一个最好的搜索体验考虑的。至于技术检测和人工审查,google也一直在做。
<o:p></o:p>
google很早就有匿名蜘蛛来检测一个网站是不是在作弊的。如果去分析网站的服务器LOG日志,就会发现它们。
<o:p></o:p>
你会发现,有的爬虫,通过IP查询是来自google,但是它没有自己的声明(user-agent),这就是google的匿名爬虫。它会判断你有没有对google爬虫特别对待,做一些隐藏页面,还会解析Javascript文件和CSS文件等等。有人用CCS文件来隐藏内容,这种事情现在是不用去做的,google都能查出来。
<o:p></o:p>
Google也有人工审核机制,从webmaster tool里提交的问题,都是有人工跟进审核的。以下就是号称google内部流传出来审核规则,可以点此下载。
<o:p></o:p>
既然google反作弊那么优秀,那文章一开始提到的那个作弊方法怎么解决呢?
<o:p></o:p>
那个方法google确实检测不出来,但是用这个方法的人,到最后还是会被google发现作弊。google的反作弊是“善意原则优先,是假设你这个网站是没有作弊的,但是用其他所有作弊的特征来检查。用了我提到的这个方法,在用颜色隐藏内容这一块是没事了,但是会在堆砌关键词,反向链接,以及其他很多方面路出马脚来。
<o:p></o:p>
google就是相信,一个在页面上隐藏内容的人,也一定会去做垃圾链接群发等等其他作弊的事情。就像现实生活中一个吸毒的人,当然也是爱打架的,或者爱偷东西的,总有一件事情让你进局子里。而你假设其他什么都不做,就是用那个方法隐藏一点内容,其实你也不能得到什么。因为你仅仅是隐藏内容的话也不会有排名的。
<o:p></o:p>
google就是这样捍卫了自己排名的公正性。对这些了解得越多,就越发现作弊实在是费力不讨好了。(作弊源于不了解,通过正常途径提升SEO流量的方法有的是,为什么放弃那么多好的方法而选择差的方法呢?在现在的SEO界,你会发现一个现象,越是SEO刚入门的人越喜欢搞一些作弊的事情,而SEO从业越久的人,就越不会参与这些。)
<o:p></o:p>
想做一个优秀SEOer的人,对所有这些因素都要有一定程度的了解的。这样做即可以避开无意中犯下的错,又可以避免不必要的恐慌。
<o:p></o:p>
比如沙盒效应,很多人总觉得很神秘,其实从搜索引擎的角度出发没什么好神秘的。你要是站在搜索引擎的角度考虑问题,就觉得这是一个很有必要的措施了。你也会知道如何发展自己的外部链接。
<o:p></o:p>
避免google的反作弊手段落到你网站上。还有,关于重复内容,google一定是“善意原则优先的,它甚至会帮你处理掉因为网站大量采用模板带来的重复问题。要做到了解这些,就是不断的实践,学习和实验。
<o:p></o:p>
这是一种非常好的研究程序。面对google,我们就像那些心理学家面对人类的心理一样,很多东西是你不了解的。(编选:中国搜索研究中心)
<o:p></o:p>
<center style="margin: 0cm 0cm 0pt" class="MsoNormal"><o:p></o:p></center>
以下的一个作弊方法,至今还能行得通的。 代码如下:
<o:p></o:p>
<o:p></o:p>
<v:shapetype id="_x0000_t75" stroked="f" filled="f" path="m@4@5l@4@11@9@11@9@5xe" o:preferrelative="t" o:spt="75" coordsize="21600,21600"><v:stroke joinstyle="miter"></v:stroke><v:formulas><v:f eqn="if lineDrawn pixelLineWidth 0"></v:f><v:f eqn="sum @0 1 0"></v:f><v:f eqn="sum 0 0 @1"></v:f><v:f eqn="prod @2 1 2"></v:f><v:f eqn="prod @3 21600 pixelWidth"></v:f><v:f eqn="prod @3 21600 pixelHeight"></v:f><v:f eqn="sum @0 0 1"></v:f><v:f eqn="prod @6 1 2"></v:f><v:f eqn="prod @7 21600 pixelWidth"></v:f><v:f eqn="sum @8 21600 0"></v:f><v:f eqn="prod @7 21600 pixelHeight"></v:f><v:f eqn="sum @10 21600 0"></v:f></v:formulas><v:path o:connecttype="rect" gradientshapeok="t" o:extrusionok="f"></v:path><o:lock aspectratio="t" v:ext="edit"></o:lock></v:shapetype>
<o:p></o:p>
这段代码,搜索引擎以为是一个黑色背景下有一些白色的文字,这是不算作弊的。但是用户看到的就是一片白色,不会看到里面的文字。原因就是用一张白色的图片作为了背景,而搜索引擎是读不出图片是什么颜色的。在以table布局的网页里,如果同时定义了一个table的背景颜色和背景图片,它是优先显示图片颜色的。这样,用户看到的是一片白色背景下的白色文字,当然就看不到这些文字了。这种作弊方法利用了一点:就是搜索引擎至今不能识别一张图片的颜色。
<o:p></o:p>
当然搜索引擎还有很多其他弱点。迈克·摩尔曾经说过:确实有办法愚弄搜索引擎,但是只有少数人能真正办到。其实他就是其中的一个,因为他自己做了20年的搜索引擎技术研究,在搜索引擎领域有很多专利,能从头到尾建立一个搜索引擎。
<o:p></o:p>
但是他那样的专家,是不会用一些作弊的方法来做黑帽SEO的,原因就是这样做太蠢了。这要从搜索引擎反作弊策略说起。
<o:p></o:p>
一个搜索引擎成功的反作弊策略一定是这样的:
<o:p></o:p>
1,允许算法被探测出来,而且即使算法被公布,搜索结果的公正性都不会受太大影响。要这么做的原因就是不希望和作弊的人陷入到一种猫捉老鼠的死循环当中。如果老是以堵漏洞的做法来修正算法,那永远都没有尽头。出于这样的考虑,搜索引擎会把那些无法被作弊的的因素在排序算法里放到比较重要的程度。
<o:p></o:p>
2,尽可能用一切技术手段自动检测,当技术手段不能解决问题,就用人工来解决。然后把人工发现的问题又反馈给自动检测机制,使自动检测越来越完善。
<o:p></o:p>
现在的google基本上就是这样来做的。在现有的排序规则中,那些无法作弊的和能精确反应内容的因素,都是很重要的排序因素。
<o:p></o:p>
当然Google也不排斥频繁的调整算法,这也有出于给用户一个最好的搜索体验考虑的。至于技术检测和人工审查,google也一直在做。
<o:p></o:p>
google很早就有匿名蜘蛛来检测一个网站是不是在作弊的。如果去分析网站的服务器LOG日志,就会发现它们。
<o:p></o:p>
你会发现,有的爬虫,通过IP查询是来自google,但是它没有自己的声明(user-agent),这就是google的匿名爬虫。它会判断你有没有对google爬虫特别对待,做一些隐藏页面,还会解析Javascript文件和CSS文件等等。有人用CCS文件来隐藏内容,这种事情现在是不用去做的,google都能查出来。
<o:p></o:p>
Google也有人工审核机制,从webmaster tool里提交的问题,都是有人工跟进审核的。以下就是号称google内部流传出来审核规则,可以点此下载。
<o:p></o:p>
既然google反作弊那么优秀,那文章一开始提到的那个作弊方法怎么解决呢?
<o:p></o:p>
那个方法google确实检测不出来,但是用这个方法的人,到最后还是会被google发现作弊。google的反作弊是“善意原则优先,是假设你这个网站是没有作弊的,但是用其他所有作弊的特征来检查。用了我提到的这个方法,在用颜色隐藏内容这一块是没事了,但是会在堆砌关键词,反向链接,以及其他很多方面路出马脚来。
<o:p></o:p>
google就是相信,一个在页面上隐藏内容的人,也一定会去做垃圾链接群发等等其他作弊的事情。就像现实生活中一个吸毒的人,当然也是爱打架的,或者爱偷东西的,总有一件事情让你进局子里。而你假设其他什么都不做,就是用那个方法隐藏一点内容,其实你也不能得到什么。因为你仅仅是隐藏内容的话也不会有排名的。
<o:p></o:p>
google就是这样捍卫了自己排名的公正性。对这些了解得越多,就越发现作弊实在是费力不讨好了。(作弊源于不了解,通过正常途径提升SEO流量的方法有的是,为什么放弃那么多好的方法而选择差的方法呢?在现在的SEO界,你会发现一个现象,越是SEO刚入门的人越喜欢搞一些作弊的事情,而SEO从业越久的人,就越不会参与这些。)
<o:p></o:p>
想做一个优秀SEOer的人,对所有这些因素都要有一定程度的了解的。这样做即可以避开无意中犯下的错,又可以避免不必要的恐慌。
<o:p></o:p>
比如沙盒效应,很多人总觉得很神秘,其实从搜索引擎的角度出发没什么好神秘的。你要是站在搜索引擎的角度考虑问题,就觉得这是一个很有必要的措施了。你也会知道如何发展自己的外部链接。
<o:p></o:p>
避免google的反作弊手段落到你网站上。还有,关于重复内容,google一定是“善意原则优先的,它甚至会帮你处理掉因为网站大量采用模板带来的重复问题。要做到了解这些,就是不断的实践,学习和实验。
<o:p></o:p>
这是一种非常好的研究程序。面对google,我们就像那些心理学家面对人类的心理一样,很多东西是你不了解的。(编选:中国搜索研究中心)
<o:p></o:p>
<center style="margin: 0cm 0cm 0pt" class="MsoNormal"><o:p></o:p></center>