一、网站日志分析:
主机管理台—文件管理—网站日志下载—可下载最近一天的网站日志文件—登录FTP服务器—下载网站日志文件—查看搜索引擎蜘蛛爬取网站记录(搜索蜘蛛名字)
作用:查看蜘蛛是否有来爬取网站(爬取了但是没收录—提高网站内容原创性没有爬行记录—检查robots文件提高网站更新频率提交网站连接/提交sitemap)
二、网站代码优化
1、使用精简的代码结构(DIV+CSS)
DIV+CSS将网站内容和样式分开管理。
使用外部调用来控制网页样式可以精简网站代码。
2、利用搜索引擎不识别的代码屏蔽特殊内容;
Iframe:
Iframe标记调用展示其他页面内容iframe标记调用的内容搜索引擎不识别!
Html文件命名不可使用中文。
图片不展示:路径下没有图片文件、路径书写错误。
target="_blank" 新页面打开链接。
Iframe标记在网站中的实际应用-屏蔽网站广告,减少权重的输出。
js:JavaScript
JavaScript—网页的脚本语言,实现网页的动态效果。
Js输出的内容搜索引擎不识别。
3、使用权重标记优化关键词。
H标记
H1:一个页面只能出现一次h1标记
关键词
h1中间写关键词,一个网站整站H1标签对应唯一的关键词;
三、网站内容优化:
1、伪原创的内容来源:
行业门户/论坛(需要深度伪原创)
自己原创内容(内容利用率高)
纸质书籍(版权问题效率较低)
robots禁止抓取的网站
1.标题伪原创
目的:使标题在互联网上没有重复(标题越短越容易重复)
方法:数字替换、同义词替换、颠倒顺序。
发布之前搜索确定文章标题是否有重复。
2.正文伪原创
首段文字自己创造(首段文字必须出现关键词)
文章末段文字出现关键词
文章主题内容可整合多篇文章内容。
影响不是很大,从其他更重要的方面来考虑。网站的内容,大量的原创是最好的,不然就多发伪原创(比如修改半个小时以内的门户新闻,注明来源。
内容为主的伪原创就修改标题,首段中间和末尾,幅度越大越好,采集工具和伪原创工具也可以适量的利用起来),还有就是大量的外链了,行业相关性越强越好。
接下类还有内部链接,把网站内部的内容都串联起来,让se蜘蛛在里面多爬爬。
css那些 毕竟只是很小的一部分优化方面;
but---除非是大量的css代码那种
这是我做seo的小小经验 就说这些了 希望有所助