一、robots.txt的操作
robots.txt主要作用就在于对站内页面和路径的一个处理,能够帮我们屏蔽一些无内容页面和死链接等等,我们从三方面来看robots.txt
1.检查有没有robots.txt,robots.txt是我们网站优化中必须要做的,没有做robots.txt说明这个网站的seo做的很不好,检查有无robots.txt的方法很简单直接输入域名/robots.txt即可,一般robots.txt都是在根目录,如果有我们就能看到,如果没有那就要赶紧做。
2.检查其robots.txt是否写法正确,robots.txt的语法一般站长都应该明白了,这里要强调的是allow和disallow的排列问题,不要把allow放在前面,要把disallow放在前面,要先禁止在允许。
3.检查robots.txt屏蔽的页面和路径,我们站长要学会对网站一些常见文件夹的识别,我们逐个打开每一个屏蔽的页面和路径,看这些页面是否是无效页面是否真的该屏蔽,还是多此一举,同时我们也要site:域名检查他的收录,看收录中还有没有需要屏蔽的页面,这一点很重要。
二、网站路径的诊断分析
1.动态路径的参数检测 很多网站都是采用的动态路径,而每一个动态路径都是有参数的,如果一个动态路径的参数超过3个或者更多,那将直接导致该页面的收录困难,那么如何看动态路径的参数有几个呢,很简单只要看路径中的等号即可,有几个等号就有几个参数。
2.伪静态路径的好与坏 伪静态路径也是我们常用的,当时有很多伪静态路径做的并不好同样影响了其收录,我们在检查的过程中,如果他的伪静态路径中存在问号或者其他参数符号或者中文,那说明这个伪静态路径做的很失败,有些伪静态路径如wp的伪静态有时候会在域名后面出现一个/index.php/,这样的伪静态也是非常不好的,这个我们要注意。
3.检查路径的合理性 路径的合理性问题中要给大家强调一个,那就是中文路径和英文路径的问题,很多站长喜欢用中文路径觉得那样看起来直观,可是中文路径的收录要比纯字母的路径的收录要困难的许多,所以站长们要慎用中文路径,
三、常用优化元素的检查?
常用的优化元素包括:canonical标签、nofollow标签、h标记、alt标记等
1.这里给大家说一下nofollow和robots.txt的区别,nofollow主要是来禁止权重传递给站外网址的,而robots.txt主要则是用来屏蔽站内网址的,一个负责外面,一个则负责里面,分工明确。
2.canonical标签是我们经常用到的尤其是在论坛,这个标签一般适用于相似度较高的列表页和页面分页中,如果你的几个分页或者列表的相似度较高你需要告诉搜索引擎你用哪一个页面来参与关键词的排名
3.alt标签大家都很熟悉,我们网站的每一个图片都要加这个属性,告诉搜索引擎图片的内容,这点也很重要不要忽视。
4.h标签主要适用于内容标题较多的页面,如果你的内容页大标题下面有中标题又有小标题,标题较多,那就要加h标签,使页面具有条理性,一般首页没必要加这个。
四、网站页面相似度分析和网站优化硬伤的分析
1.网站的相似度主要看的就是网站的样板文字,看网站的样板文字占整个网站正文内容的比例,如果样板文字占用的比例过高,那么直接影响了网站的相似度,这时候就需要精简我们的样板文字。
2.网站优化硬伤,主要是网站的打开速度诊断和长标题、长路径等这些问题。网站的速度优化在这里给大家推荐一款工具那就是火狐浏览器的pagespeed他可以很好的发现你网站中影响速度的原因,并给予解决方案,长标题、长路径这些问题我们都要仔细分析,不容忽视,这些都是对优化扣分的事项。
五、网站外链方面的检查
主要询问有没有买过链接,详细询问什么时候开始买的链接、在哪买的链接,现在还有没有买链接,查看其百度相关域,检查出网站是否**过内容,查看谷歌link链接看网站高权重页面的处理。
六、网站降权原因分析
如果我们接手的网站遭遇降权了,我们需要询问和分析以下几点问题。
1.网站标题是否更改过、程序和路径是否更换、路径更换了有没有做相应的处理如robots.txt处理、有没有换过模板。
2.查看其iis日志,寻找是否是服务器问题或者其他问题造成降权。
3.分析其外链的稳定性,造成降权的外链因素主要有三个:第一、外链的大规模丢失,主要是账号被删除或者买的链接不稳定等。第二、网站存在大量的***外链。第三、友情链接中的牵连降权因素。