9.robots的书写 robots文件能够限定蜘蛛的抓取范围,但不同的搜索引擎对robots文件的支持也各不相同,比如谷歌是支持在robots中声明网站的地图的,而百度则不支持,所以说在写robots文件时需要针对不同的搜索引擎来写规则,有关写法方面的知识大家可以了解一下百度百科的《robots》。满意请采纳,谢谢!
如何利用seo搜素引擎优化针对源代码,进行9方面的优化
在SEO优化中,我们不仅要对关键字进行优化,代码优化也是必不可少的。
下面一些见解
网页代码优化的原因:
(1) 可以减少网页的体积,加快网页的下载速度;
(2) 提高蜘蛛对信息的抓取的速度和准确性
(3) 有利于减少错误的代码,提高页面的对蜘蛛的友好性
(4) 便于管理人员维护,提高工作效率
(5) 减少网页的噪音,突出页面的主题
那我们怎样对网页代码进行优化?
(1)对网页中存在多余的代码,我们要学会清除垃圾代码。网页中一般存在的垃圾代码会有空格符、空标签块、多余的嵌套标签、不必要的注释等。
如:在每行的开始或结尾都存在着大量的空格符,我们需要把这些冗余代码删除,还有空白行。清除空白行有一种简单快捷的方法:可以将代码转至html代码编
辑的模式按ctrl+A全选代码使用组合键shift+Tab删除。
(2)采用div+css排版。Div+css样式可以精简很多样式,将设计网页模版的部分脱离出来,放在一个独立的文件夹中,对于网站的维护
和更改都相当的方便。且可以提高页面的浏览速度,增加客户访问的友好性。在css进行布局时,要有良好的命名习惯,适当的代码注释。
(3)引用js文件,并不是页面的特效越多越好(先css后js)。
(4)对于图片的优化,网站的图片不是越多越好,但要有图片,要完善图片的ALT属性,最好使用带有目标关键词的描述。
(5)对于错误的代码,我们可以利用3w工具进行检查。
对于页面标签的优化,H1定义为正文标题,即一级标题,它具有唯一性。H2为二级标题,主要出现在正文的文章标题上。H3为三级标题,一般出现在页面的侧边栏,H4-H6一般出现较少。值得注意的是在页面中和的区别,对关键字起到强调作用,而仅仅是加粗的作用。2015-01-10
1.网站布局
一般是采用扁平化的树形结构,及将重要的文章和栏目布局到首页,然后通过首页点击栏目进入到列表页,在点击列表页中的标题进入最终页面,这样就给蜘蛛描述了一条相当于从树干到树枝在到树叶的抓取模式,这种方式有助于蜘蛛爬取到,另外根据网站的大小按需生成xml地图和HTML地图,目的是让蜘蛛能有更多渠道去抓取页面和为用户提供一个全面的地图导航,让用户了解网站的大体结构,当然如果是小型网站的话一般是不需要HTML地图的。
2.代码编写
采用DIV CSS的模式来进行代码的编写,TABLE表格布局已经是过去式了,当然有时候可能还会用到,但请不要以表格的形式为主来做网站的结构的布局,使用DIV CSS布局网站的话能使整个网站的代码和格式控制分离,从而达到减少首页体积的目的,这对网站的打开速度和抓取速度都有着极大的帮助。
3.alt属性设置
蜘蛛是不认识图片的,所以需要设置图片的ALT属性让蜘蛛明白这个图片是什么,并作为百度图片的索引的参数,通常将图片的这些参数设置完整,能带来更高的综合得分,另外alt的属性也要和页面相关,这能让主关键词的排名更稳定也更靠前。
4.内链建设
一个网站好不好,要看内部链接是否通畅而不混乱,而且要设置好相关性的链接,这有助于提高网站的阅读性和联系性,比如一篇介绍手机的文章,其可以再相关性链接下面增加手机的保养知识,手机的品牌,手机图片展示等等与之相关的信息,这对于读者和蜘蛛来说都是有好的。
5.空间购买
网站制作完成在本地测试无误后就需要按需购买空间或者是服务器了,对于个人网站而言往往是不需要单独的购买服务器的,只需要买一个价钱中等的空间即可,需要注意的是在选择共享IP时我们必须了解同IP下是否有垃圾站,一般同IP下 存在上百个网站的话往往风险是比较大的,建议大家在选择的时候最多选择同IP下几十个的空间,而且还要远离和图片、视频类型的网站放在一起,这样才能提高你网站的访问速度。
6.DNS防护
空间购买以后就需要解析域名,一般来说现在有很多的漏洞扫描程序会通过服务器的漏洞和DNS的漏洞或者网站程序的漏洞作为攻击的切入点,而一旦被添加了恶意代码将会造成排名降低甚至被K,所以我们通常在解析域名时都需要做DNS的防护,在百度站长资讯中也提到了《当心dns服务器不稳导致站点被屏》,大家可以去看看。
7.文章更新频率
文章更新不在多、而在于持续稳定的增加,不管是个人网站还是企业、门户网站都有一个内容更新频率策略,每天更新多少篇文章那都是需要计划好的,不能说今天发了几篇明天你就发100篇,总的来幅度不要太大,以持续稳定为前提。但也需要注意文章的质量、可读性、用户体验等方面,不然最终排名上去了也是会下来的,一般来说文章的更新频率往往和所在行业的竞争有关,竞争激烈的行业你必须跟上对手,不然你很快将被淘汰!
8.目标关键词和长尾关键词布局
不仅要合理的分配到页面标题、描述、以及页面正文中的重要位置,还要避免关键词堆砌的情况,一般可以利用语义变化词(如计算机和电脑)、同义词、完全匹配的出现、拆分出现等方式来解决这类问题,这样做的一个好处就是提高页面相关度的同时也避免了被搜索引擎惩罚的可能性!
9.robots的书写
robots文件能够限定蜘蛛的抓取范围,但不同的搜索引擎对robots文件的支持也各不相同,比如谷歌是支持在robots中声明网站的地图的,而百度则不支持,所以说在写robots文件时需要针对不同的搜索引擎来写规则,有关写法方面的知识大家可以了解一下百度百科的《robots》。
满意请采纳,谢谢!2015-01-10
你自己换个号来回答得分吧。这说的莫名其妙2015-01-10