服务器怎么固定ip地址描述::
大部分的网站都是小型的企业站点,一般这类西的站点页面不会超过40个,所以做链接也好,优化页面也好,就变得非常有针对性。
一旦网站的页面数量超过了上千上万级别,我们就不能逐个页面去进行优化了。
这里,我们就要考虑到批量性优化思维。什么是大型站点?
大型站点,一般定义为页面数量超过上千个,而且大部分页面结构相似度极高的站点。一般大型站点出没在电商站点、旅游类站点、还有一些与区域有关的,类似之前一位读者咨询我的,他们是租车类的站点。这些站点都有相似之处
- 页面数量超过上千个
- 大部分页面结构非常相似
像这样的站点我们应该如何来做SEO呢? 而这些站点又适合做哪些链接策略呢? 下面我来一一揭晓
大型站点通常会遇到的情况
一般大型站点都会遇到很多头痛的问题,如果前期没规划好,后面一改动就是一个大工程。
- URL结构混乱
- 常出现4层甚至5层链接的情况,这样是非常不利于蜘蛛爬行的。
- 网站收录困难
- Google的爬虫一天一个站点的爬行页面是有限制的,他不可能一次性爬完你站点的所有页面,所以很多大型站点的页面经常有收录不全的现象。
- 权重难提升
- 现阶段的SEO,都是尽可能的精简页面,而大型站点的页面数就算再怎么精简,页面数量还是非常的多。排名提升也比较困难。
针对这些问题,下面会一一进行讲解。
URL结构:选择二级域名还是二级目录?
区别:首先说下两者的区别,二级域名相当于是一个独立的网站,他的权重是单独的,二级目录则看成是网站下面的子目录能够继承主站的权重。
如何选择?关于选择二级域名和二级目录,需要考虑的因素比较多,首先使用的是新域名还是已经使用了多年的老域名?
新域名:对于电商站点来说,使用新域名的话建议选择二级域名,这样可以更好的做站点和团队绩效管理,因为各站点的权重是独立分配,不同站点由不同团队负责,这样哪个团队的效果比较明显就非常清楚了。
使用二级目录的话,都会出现出现 xxxjp, xxxzh ,无形中多了一层链接。那么到达你的产品详情页就需要多方面考量了,很多公司没考虑到这个因素,导致到达产品详情页已经4-5层链接这么多。
老域名:因为网站本身就有非常高的权重,那么这里就推荐使用二级目录。这样我们的不同语言的网站权重就能够得到提升。
特别是一些小语种,链接资源比较难获取的情况下,也能获取一个不错的排名。因为主站点能够导流权重到二级目录,我们可以给主站点做一些比较容易获取的链接。
下面是选择二级域名和二级目录的错误案例和优化演示:二级目录:xxxjpcategorysubcategoryxxxx-product
最优解决方案:
xxxjpxxx-product (除了语言层级之外,产品详情页就是第三层链接,去掉所有分类的层级)
二级域名:jpxxxcatrgorysubcategoryxxx-product
最优解决方案:
- jpxxxcategoryxxx-product
- jpxxxxxx-product
为什么二级域名的方案一会带有category层级?
因为使用二级域名的话,少了一个层级,使用category能够更好的进行分类,让搜索引擎知道你这个产品或者服务是属于哪个类别的,以增加搜索的相关性。
如果选择二级目录的话就不能这样,不然就超过四层。一般搜索引擎是建议链接层级不能超过3层,超过3层之后就非常难收录。
如何解决大型站点收录难的问题?
相信大部分的大型站点都会遇到类似的问题,还是要重复多一遍:Google Robots的爬行是有限制的,一天之内是不可能爬行你所有的页面。所以,如何引导爬虫去爬取你想要被收录的页面至关重要。
Nofollo标签的妙用很多人都知道Nofollo是不传递权重的意思,一般用于出站链接。但是在大型站点里,你会发现站内Nofollo标签使用的非常频繁。
因为他还有一个作用:限制Robots的爬行轨迹。比如,网页里面会有一些经常不更新的页面,比如terms of us,privacy policy等等页面,会占据我们的收录份额。
那么我们就可以不经常更新的页面使用Nofollo标签来限制Robots爬行,以使Robots去爬行其他重要的内容。