如何运用搜索引擎优化技术针对源代码,实施9项优化策略:
1. 网站架构
通常采用简化的树状结构,将核心文章和栏目置于首页,通过首页点击进入列表页,再通过列表页点击标题进入具体页面,为蜘蛛构建了从主干到枝叶的抓取路径。这种方式有利于蜘蛛的抓取。同时,根据网站规模生成相应的XML地图和HTML地图,使蜘蛛有更多抓取渠道,并为用户提供全面导航,了解网站结构。对于小型网站,通常无需HTML地图。
2. 代码编写
采用DIV CSS模式进行代码编写,摒弃传统的TABLE表格布局,避免以表格形式为主进行网站结构布局。使用DIV CSS可以使代码和格式控制分离,减小首页体积,提高网站打开和抓取速度。
3. alt属性配置
蜘蛛无法识别图片,需设置ALT属性让蜘蛛理解图片内容,作为百度图片索引参数。完整设置图片参数可提高综合得分,ALT属性应与页面内容相关,有利于关键词排名稳定和靠前。
4. 内部链接建设
网站质量取决于内部链接是否畅通不混乱,并设置相关性链接,提高网站阅读性和联系性。例如,介绍手机的文章下可增加手机保养知识、品牌、图片展示等相关信息,有利于读者和蜘蛛。
5. 空间选购
网站制作完成后,需购买相应空间或服务器。个人网站通常无需购买服务器,只需选择价格适中的空间。选择共享IP时,需了解同IP下是否存在垃圾站,避免风险。建议选择同IP下空间数量不超过几十个,并远离图片、视频网站,提高访问速度。
6. DNS防护
空间购买后需解析域名,避免漏洞扫描程序利用服务器、DNS或网站程序漏洞攻击。解析域名时需进行DNS防护,防止恶意代码添加导致排名降低甚至被K。
7. 文章更新频率
文章更新关键在于持续稳定,个人网站、企业、门户网站都有内容更新频率策略。更新文章数量需计划,保持稳定。同时注意文章质量、可读性、用户体验等方面,避免排名波动。
8. 目标关键词和长尾关键词布局
合理分配关键词到页面标题、描述和正文,避免关键词堆砌。可利用语义变化词、同义词、匹配出现、拆分出现等方式解决关键词堆砌问题,提高页面相关度,避免搜索引擎惩罚。
9. robots文件编写
robots文件可限定蜘蛛抓取范围,不同搜索引擎对robots文件支持不同。编写robots文件时需针对不同搜索引擎编写规则,可参考百度百科《robots》。
SEO优化网页源代码,提升用户体验,运用夫唯“四处一词”理论,从以下方面入手:
1. title标签
title标签传达网页主题思想,是搜索引擎抓取重点。通常,搜索引擎抓取title标签出于两个目的:作为影响网页排名的重要因素和作为搜索结果页面显示信息。title标签中的单词保持在3~5个,包含关键字,简洁明了,与网页内容相关,每个页面都应有title标签。
2. meta keywords标签
meta keywords标签告知搜索引擎本页面优化关键词,包含关键字,用英文逗号隔开。
3. meta description标签
meta description标签对title标签的进一步解释,包含一句话或短语,每个页面都应有自己的meta description标签,包含与网站内容相关但未在title标签中提及的信息,与网页内容相关,可包含关键字,但不可过多。
4. h1标签
H1标签是搜索引擎识别页面信息的重要标记,合理使用H1使页面结构清晰,有利于搜索引擎抓取。H1用于文章标题,包含关键词。
5. strong标签
strong标签不仅加粗文字,还告知搜索引擎该部分文字较重要。文章正文开头合理出现关键词,并用strong标签。
Bold标签不仅是对文字加粗,而且这种形式的加粗能让搜索引擎识别出这部分文字较为关键。因此,在文章的开头合理地使用Bold标签来标注关键词。
6、Alt标签
图文结合。Alt标签是一种图片描述标签,它将图片的详细信息以文字形式呈现。对于Alt标签的使用没有严格的限制,只需在网页中图片出现的地方添加该属性即可。不过,其标签内容应与页面内容保持相关性,长度不宜过长,通常1至5个单词为宜。