网站优化中的有哪些误区

在网站优化的过程中,只有拥有相对良好的索引,我们才能获得良好的排名。因此,在设计网站时,我们必须尽可能地使搜索引擎蜘蛛获得该网站的所有内容信息。如果网站程序或设计的具有蜘蛛陷阱,则将造成 搜索引擎蜘蛛无法获取网站的内容。

一些朋友为了网站美观、炫酷等等,可是却造成 了搜索引擎蜘蛛抓取困难,这在一定程度上就形式了蜘蛛陷阱,那么具体有什么情况会出现这种蜘蛛陷阱呢?

网站优化误区

一、JS

一些朋友为了让网站吸引用户的眼球,就把导航、网站的首页界面等等都使用了许多 的JS脚本,这针对蜘蛛抓取也是不利的。针对这一点可能存在一定的争议,问题在于到底该不该把它划到蜘蛛陷阱这一块。

JS在网站建设中有着不可或缺的作用,因为它能为网站完成许多 炫酷的效果,可是它依旧摆脱不了不利蜘蛛爬取的问题,就这一点来说它可以算是蜘蛛陷阱,可是它也可以用在网站的其他方面对咱们做SEO的还是有所帮助的,比如为了避免网站权重的分散,不想让一些对网站排名毫无意义的页面被收录,我们就可以用JS脚本阻止蜘蛛对该页面的抓取,而就这一点来说它又是我们做网站优化的好帮手,所以针对JS脚本这一点还是全凭自己且用且拿捏吧!

二、框架结构

框架结构里面的html通常情况下是可以被蜘蛛抓取的,可是一般情况下这里面的内容不是完整的,造成 的结果就是搜索引擎无法判断框架里面的内容到底是主框架还是框架调用的文件。

框架结构就现阶段来说算的上是网站制作界的老古董了,业界在刚开始制作网站的时候会用框架结构来设计相关的页面,在那时候而言确实提供了不少方便,但在现阶段建站越来越简单智能的时代,框架结构逐渐过时并且非常不利蜘蛛爬取网站的内容,所以框架结构是被逼成了搜索引擎蜘蛛陷阱,老实讲这不能怪它,可是也不得不怪它,这同时也验证了一句话:落后就要挨打。

三、有过多的flash

不得不承认Flash能为我们的网站增色不少,恰到好处的Flash能够让我们的网站看起来高端大气上档次,可是不要因为它有这些优点我们就可以滥用,不管什么地方都去整个Flash什么的,那样只会得不偿失,之所以这么说是由于搜索引擎对Flash的抓取很不理想,偶尔用到几乎没有什么影响,可是如果你的整个首页就只用了一个超大的Flash亦或是页面上面到处都是Flash,这就变成了蜘蛛陷阱。虽然搜索引擎一直在竭尽所能攻克这方面抓取的难题,但到迄今为止效果还是不太好,所以我们也只能主动地避开这类问题。

现阶段的flash也是蜘蛛难以识别的,这针对搜索引擎来说也是一种看不懂的东西,那么及时再好的视觉效果,也会让搜索引擎无法判断对应的相关性。

四、SessionID

SessionID用户跟踪访问,造成的现象就是用户每访问一个页面,就会出现不一样的SessionID,换句话说访问同样的页面,可是出现不一样的ID,这就造成了许多 重复性的内容,也不利搜索引擎优化的。

五、异常跳转

网站的跳转方法各种各样,常见的例如:JS跳转、Flash跳转、302跳转等,而301跳转要单独来说,因为它是搜索引擎推荐和认可的跳转形式,它主要用在网站域名更改后将此域名指向彼域名,并且还能够将老域名的权重全部继承给新域名。除此之外的乱七八糟的跳转对搜索引擎来说都是不友好的,因为跳转本身就不利蜘蛛的爬取,这也就是所谓的搜索引擎蜘蛛陷阱了。

普通情况下是不会做出这样的操作,一般灰帽或黑帽的朋友比较喜欢这种操作,采用变相引流的方法,让页面跳来跳去,可是实际上等于欺骗搜索引擎和用户。

六、动态URL

动态URL现阶段针对搜索引擎来说还是说可以识别的,可是如果许多 的动态URL是不利搜索引擎蜘蛛抓取的,时间长,也不利优化。

搜索引擎比较喜欢静态网站,所以许多 的动态网站都会使用伪静态设置。动态URL通俗的解释就是网站链接中带有各种参数、等号、问号或者其它符号而长度还很长的链接,针对那些有密集恐惧症的朋友来说这绝对是不能容忍的,恰巧的是搜索引擎蜘蛛也患有这种症状(哈哈哈),其实最根本的原因还是动态URL不利搜索引擎蜘蛛的爬取。

七、登录限制

有登录限制的内容,针对搜索引擎来说它即不会注册也不会登录,这样的内容蜘蛛是发现不了的。

八、强制使用cookies

现阶段非常少有网站采用这种限制了,为了想让用户记住网站、登录信息、跟踪访问路径等等情况,强制使用cookies等,造成的结果就是没有启用cookies的用户就访问不了,会提示页面无法正常显示,或者搜索引擎蜘蛛无法正常访问识别等情况。

九、许多 弹出式聊天窗口

一些网站为了跟用户交流就时不时的强出许多 聊天窗口,可是这类聊天窗口搜索引擎也是无法识别的。

2

发表评论