有收录的域名,有历史建站记录域名,搜狗pr域名,搜狗权重域名,搜狗权重域名,高收录域名,百度权重域名,外链反链域名,景德镇网站建设
热门搜索: 网站 SEO 网站建设 建设
欢迎您,高收录域名 的忠实网友, , 希望你在本站能找到对您有用的东西。
0
2014-08-16robots.txt协议屏蔽掉重复的链接

  在我们进行网站优化的时候我们经常会遇到处理各种各样的重复页面,造成这些原因有很多,但大多是是由于程序错误而产生,所以我们在做网站的时候选择一套成熟的程序很有必要的,这会让你在做站的时候省去很多麻烦。天我们就结合我个人处理姐妹祛痘网的重复页面的经验来个大家讲讲如何处理重复页面。
  301跳转重复链接
  每个网站都难免会经历结构或者内容的调整。我在做姐妹祛痘网的时候也经历了这样的事,因为当初建这个站的时候,不是很注意目录结构的优化,导致后来用户体检不好,对搜索引擎也不是很好。所以决定改,而这一改就就需要吧旧的url变成新的,但是同时要保证旧的url可以访问,如果处理不好搜索就会导致有2个或者更多的url指向同一个页面,虽然对用户来讲是感觉不出什么,但是对搜索引擎来说确实个不好的体验,所以这个时候我们需要做的是用301将就得url跳转到新的url,这样既兼顾了用户体验,也照顾了搜索引擎,同时还还能将就得url权重转移到新的url上。所以在进行网站改版的时候一点要注意301跳转的处理。
  robots.txt屏蔽掉重复的链接
  这类问题多半是由于程序本身的漏洞,或者由伪静态而造成的,比如我的姐妹祛痘网论坛,用的是dz论坛程序,但是这个程序本身会有很多重复的url,所以如果处理不好那会造成很多的重复页面,我的处理方式,是先用吧url设置成伪静态的,然后用robots.txt 带有 “?”参数的页面,和以".php"结尾的页面。当然这只能避免大部分重复,如果你想细化,还需要分析网站日志,看看还有那些重复的url,然后屏蔽掉。
  link标签解决重复
  很多时候我们的,一些内容页比如产品页,只是在型号或者在颜色上有一些区别,而本身所指的是一种商品的时候,这个时候就需要规范url,< link rel="canonical" href="URL" / > 不过这个标签只对google有效,而百度却不支持此标签,针对百度我们只能屏蔽掉这个url< meta name="Baiduspider" contect= "noindex" > 。

分类:建站教程 | 超过 人围观 | 本文标签:robots.txt协议  屏蔽  重复的链接  
关于我
关于我

长期出售各种各样的域名
重点出售下面的类型:
1、5~15年的老域名。
2、各种类型的备案域名。
3、历史建站记录的老域名、权重域名。

在线QQ 新浪微博 我的邮箱
日历
控制面板
您好,欢迎到访网站!
  [查看权限]
最近发表
网站分类
网站收藏
图标汇集
  • 订阅本站的 RSS 2.0 新闻聚合
Tags列表
友情链接