每个人都是从一个新人过来的,开始的时候也是无从适应,但是慢慢的找到了方法之后就好了。主要需要学习了解以下这些:
1、最初的知识积累:了解SEO优化的专业术语,了解搜索引擎的工作原理。
2、学习资料要找准:一般基础的网上都有相关教程介绍,基础教程大多都差不多,但是思维上的教程却不一样,每一种方法都有不同的操作手法,学习的教程也有质量等级分成。
3、熟悉常用的工具:关键词优化工具、数据统计工具,包括百度统计、爱站网、站长之家等等。
4、善于与人沟通:前辈的经验阅历都是值得学习的,自己闭门造车是行不通的。
5、学会写原创文章:一篇有价值的原创文章带来的流量是其他文章不能比拟的。
很多人学会了一些SEO的常识,就觉得自己已经学会了SEO了,能够给很多网站提供意见,但是其实他们提出的意见,很多时候都是靠猜,靠感觉。至于实际上有没有效果,会不会给网站带来正面的影响,只能走一步看一步。
其实一个SEO做得如何,最了解的还是自己,好的SEOER,能够通过平时一点一滴的数据,进行汇总,通过数据指导,来看清SEO的方向。
SEO是什么,在我看来,SEO就是做搜索引擎的排名,而SEO最终的目的是什么,答案只有一个,那就是通过有排名的关键词,来获得流量,也就是说我们最终的目的就是流量。那么我们很多时候,SEO不要局限在自己的站点上面,我们要把思路拓展,拓展到各个不同的模块领域去。
那么作为SEO,如何科学的去分析自己做的效果如何,如何去更好的通过数据,来指导自己的思维呢?
我们都知道,流量跟排名点击率、排名数、收录数有关系,那么我们的数据,最主要的就是监控这三个维度。
1、排名点击率:
如果是自身网站的话,就比较简单,装个流量统计工具,就可以很好的监控到关键词的点击率。如果是外部的站点,可以通过关键词覆盖的查询,来预估自己的排名点击率。其实在站点和内容都不变的情况下,点击率一般不会有太大的变化。所以排名和收录的因素,就会影响比较大。
2、网站排名:
网站的排名主要看两大块,一块是重点词的排名,一块是看长尾的关键词覆盖率。
2.1、重点词的排名:
每天都要监控,重点词是你的核心词,这个主要用来监控自己站内的关键词变化情况,如果重点词排名出现大幅度的变化,要就意味着在这个周期,你的排名有有极大的波动。排名监控可以用分析牛关键词排名监控,可以记录一个月的排名数据,一个月内的排名变化情况清晰可见。如果发现排名有明显的变化,就要去分析近一个月内的网站日志,看看有什么变化,从而找出问题的原因。
2.2、长尾关键词覆盖率:
长尾词的关键词覆盖率,主要用来监控站外的排名。
之前跟一个做推广的聊,跟他说查一下关键词覆盖率,他反问我,什么是关键词覆盖?
关键词覆盖,目的就是把你的关键词尽可能的覆盖到搜索引擎结果中,比如百度搜索结果第一页有10个排名,10个都是你所发的排名,那么用户就只能点到你了,点不到别人。
而做医疗的长尾关键词,一般都是地域性的,都是尽可能长的关键词。
之前做的关键词覆盖,当你覆盖率达到60%的时候,一天有10个有效对话,当你的覆盖率达到50%的时候,你的有效对话只有8个,当你关键词覆盖达到30%的时候,你的有效对话只有4个。
那么长的长尾关键词能来对话吗?答案是肯定的,能,太能了。有的人说那么长,谁能搜索得到啊?对,那么长的词可能不一定有人搜,但是通过分词所带来的长尾呢?最重要的是,这种长尾有足够的量,当量大的时候,蚂蚁也能干过一个军团。
所以关键词覆盖率,能够很好的体现你关键词所做的情况。
有的人会问,站外推广那么难做,都没有什么地方可做的。其实有的平台,永远都是好的,只是你没去认真研究而已,为什么别人都在做,你却做不了呢?
3、网站收录:
站点的收录是非常关键的,当你排名、覆盖率比较稳定的情况下,收录越多,也就意味着你的长尾关键词能够越多。
而我们看收录,并不是看单个链接的收录,而是看整体的收录变化比。这时候可以通过链接权重查询,来查询网址的收录情况。
在排名率不变的情况下,当你的收录越来越高,你的流量就会越来越多。所以如何提高收录,也是一个非常重要的手段。
总结:
总体来看SEO的主要核心还是数据分析,具体的数据分析可以参考(百度排名只需分析关键词数据)。其实SEO只要观察细致,很多问题都会变得很简单,你要真正搞清楚你想要什么,你想要的流量,而流量跟网站的排名、网站的收录、排名的点击率是有直接关系。搞清楚这些关系,去逐一分析每一个细节,你会发现SEO会变得很简单。
2.建立robots.txt文件。seorobots文件是搜索引擎登录网站第一个访问的文件,robots可以设置允许被访问的搜索引擎,最主要的还是设置允许Allow和不允许Disallow访问的目录和文件,少写Disallow,多写Allow,用意是引导爬虫抓取网站的信息。另外,在robots文件底部指明网站的sitemap文件的目录,爬虫读取其中的sitemap路径,接着抓取其中相链接的网页。提高网站的收录量。
案例:??按住ctrl键点击:/robots.txt
3.建立网站的sitemap地图文件。sitemap是一个将网站栏目和连接归类的一个文件,可以更好地将网站展示给搜索引擎,提高爬虫的爬取效率。sitemap地图文件包含html(针对用户)和xml(针对搜索引擎)两种。当网站更新频繁的时候,sitemap文件要做到自动更新(程序实现),更新不频繁的可以手动更新提交。
4.图片img标签必须加上alt属性,并注明图片的含义。
5.h1~h6标签合理使用。按道理所有标签都需要根据自身的语气合理去使用,这里不展开讲述,这里只讲h标签的注意事项。h1标签一个页面只能出现1次,h2标签一般作为二级标题或者文章的小标题。最合理的使用时h1~h6按顺序层层嵌套下去,不可以断层或者反序。