搜索引擎蜘蛛是怎么判断网站是否关键词堆砌的?有哪些方式?

浏览:/ 2017-09-15

 搜索引擎对关键字堆砌的识别

 
  搜索引擎和搜索引擎优化(SEO)一直是一对矛盾,合理的优化有助于搜索引擎对网站内容的识别,有助于网站的推广。然而有正面,就有反面,一些SEOers通过各种欺骗手段来欺骗搜索引擎,以期达到增加页面收录数和页面排名的目的。
 
  早期的关键字堆砌SPAM作弊方式之一,是将中文词库中的单词直接用软件拼凑成文章,这样的文章没有实际的意义,只能给搜索引擎看。那么对于这样的文章,搜索引擎是通过什么方式来识别的呢?
SEO66.jpg
 
  我们知道,每个搜索引擎都有网页质量监控部门,对于百度等掺杂人工处理的搜索引擎而言,用户发现这样的网站,投诉到百度,百度直接封了这个网站了事。但对于Google这样的封站也是自动处理的搜索引擎而言,对关键字堆砌作弊的识别就显得更为重要了。
 
  对于关键字堆砌作弊方式的识别,搜索引擎一般采用统计分析的方法进行。
 
  搜索引擎首先将网页进行分词,分词完成后可以得到词的数量N和文章长度L,从大量文章的统计中发现文章的长度L和词的数量N两个数字之间存在一定的分布关系,一般而言L/N界于4至8之间,均值大约在5-6之间。也就是说一篇长度为1000字节的文章中,应该有125-250个分词,由于中文和英文的词的组成不一致,因此在英文和中文中这个比值的范围会有所不同。如果搜索引擎发现L/N特别大,那么这篇文章就存在关键字堆砌现象了,如果L/N特别小,则可能是这篇文章是由一些词所组成的没有意义的文章。
 
  进一步,通过大量正常文章统计发现,文章中密度最高的几个关键字出现的次数之和与N/L存在一定

阅读"搜索引擎蜘蛛是怎么判断网站是否关键词堆砌的?有哪些方式?"的人还阅读

上一篇:2017最新的东莞SEO技巧有哪些?发展趋势怎么样?

下一篇:怎样让第二页和第三页的网站关键词进入首页?有哪些方法?

  • =
  • 公司简介
  • 合作流程
  • 技术实力
  • 客户案例
  • 联系方式
  • 学习机会

微信在线咨询