网站优化的无效URL的爬行和索引!

  • 作者:admin
  • 发表时间:2018-02-07 18:08
  • 来源:未知

从SEO视点看的无效URL,这些URL并不能产生SEO作用,反倒有负面作用,所以这些URL不录入为好,原因包含:
  1、许多过滤条件页面内容重复或极为相似。
 
  2、许多过滤条件页面没有对应产品,页面无内容。
 
  3、绝大部分过滤条件页面没有排名能力,却糟蹋一定权重
 
  匍匐许多过滤条件页面极大糟蹋蜘蛛匍匐时刻,形成有用页面录入时机下降过滤条件页面组合起来是巨量的。
 
那么怎样尽量使这些URL不被匍匐和索引、录入呢?【杭州SEO
      榜首:不想录入的URL坚持为动态URL,乃至成心越动态越好,以阻挠被匍匐和录入。可是,搜索引擎现在都能匍匐、录入动态URL,并且技术上越来越不是问题。尽管参数多到必定程度的确不利于录入,但4、5个参数

一般还能够录入。咱们无法承认需求多少参数才能阻挠录入,所以不能当作一个牢靠的办法。并且这些URL接纳内链,又没有什么排名能力,仍是会糟蹋必定权重。

 
      第二:robots制止录入。相同,URL接纳了内链也就接纳了权重,robots文件制止匍匐这些URL,所以接纳的权重不能传递出去,页面成为权重只进不出的黑洞。
 
  连向这些URL的链接合作nofollow也不完美,和robots制止相似,nofollow在Google的作用是这些URL没有接纳权重,权重却也没有被分配到其它链接上,所以权重相同糟蹋了。百度据称支持nofollow,但权重怎样处理未知。
  将这些URL链接放在Flash、JS里也没有用,搜索引擎现已能够匍匐Flash、JS里的链接,并且估量今后越来越拿手爬。许多SEO忽略了的一点是,JS中的链接不仅能被爬,也能传递权重,和正常衔接相同。
 
  也能够将过滤条件链接做成AJAX方法,用户点击后不会拜访一个新的URL,仍是在本来URL上,URL后边加了#,不会被当成不同URL。和JS问题相同,搜索引擎正在活跃测验匍匐、抓取AJAX里的内容,这个办法也不稳妥。
 
现在比较好的办法之一是iframe+robots制止。将过滤部分代码放进iframe,等于调用其它文件内容,对搜索引擎来说,这部分内容不归于当时页面,也即躲藏了内容。但不归于当时页面不等于不存在,搜索引擎是能够发现iframe中的内容和链接的,仍是可能匍匐这些URL,所以加robots制止匍匐。iframe中的内容仍是会有一些权重丢失,但由于iframe里的链接不是从当时页面分流权重,而仅仅从调用的那个文件分流,所以权重丢失是比较少的。除了排版、浏览器兼容性之类的头疼问题,iframe办法的一个潜在问题是被以为做弊的危险。
  现在搜索引擎一般不以为iframe是做弊,许多广告就是放在iframe中,但躲藏一堆链接和躲藏广告有些奇妙的差异。回到搜索引擎判别做弊的总原则上,很难说这不是专门为搜索引擎做的。记得Matt Cutts说过,Google今后可能改动处理iframe的方法,他们仍是希望在同一个页面上看到普通用户能看到的所有内容。【杭州SEO
 

RELATEED CONSULTING
相关咨询
选择下列产品马上在线沟通
服务时间:9:00-18:00
你可能遇到了下面的问题
关闭右侧工具栏