SEO入门到提高全攻略

80酷酷网    80kuku.com

----------------------- 页面 1-----------------------

          SEO                                             2009

          SEO                                             2009

          SSEEOO入门到提高全攻略(22000099)

 

     在过去席卷全球的金融将对高校毕业生和社会待业青年的就业产生极大影响,当高文凭高学历不再

 

是卖点的时候,刚刚毕业和待业的你是否想到有一技之才能立足现今社会(并且赚到你人生的第一桶金)

 

           SEO

           SEO

为创业,广东SSEEOO,SEO优化,佛山优化。

 

进步自己在Google、百度中的排名,让正在寻找我们的客户找到我们,用网络网住机会,就是seo要解决

 

的题目

 

,也是本书中要讲的题目。Seo是寻找一种方法,获得更好的排名,根据搜索引擎的权重,对网站结构、

 

枢纽字

 

选择、网站内容规划进行调整和优化,从而进步网站在百度、Google、Yahoo!等搜索结果中的天然排名

 

和网页

 

收录数目。

 

Seo正在中国蓬勃发展,现在您预备好了么?用网络网住机会,现在就开始吧!

 

这篇电子书解析了seo的作用,影响搜索引擎排名的因素,优化一个网站的流程,学习完成之后,就可以

 

初步了

 

解如何寻找枢纽词,如何对一个网站进行seo优化,获得好的枢纽词排名并且获得流量了,假如你是seo

 

初学者的话,通过学习本文,把你的流量也进步2-5倍。

 

让网络网住机会,使用这个seo电子书,现在就开始学习seo吧。现在开始学习,超越竞争对手,现在开

 

始.

 

(SEO 入门到提高全攻略)           本书来自武汉 seo培训 

页不大会超过所有目标网页数量2的2/3。

 

    另外一种可能的方式是在第一次全面网页搜集后,系统维护相应的 URL 集合 S,往

 

后的搜集直接基于这个集合。每搜到一个网页,如果它发生变化并含有新的URL,则将它

 

们对应的网页也抓回来,并将这些新 URL 也放到集合 S 中;如果 S 中某个url 对应的


----------------------- 页面 15-----------------------

网页不存在了,则将它从S 中删除。

 

    这种方式也可以看成是一种极端的先宽搜索,即第一层是一个很大的集合,往下最多只

 

延伸一层。还有一种方法是让网站拥有者主动向搜索引擎提交它们的网址(为了宣传自己,

 

通常会有这种积极性),系统在一定时间内(2天到数月不等)定向向那些网站派出“蜘蛛”

 

程序,扫描该网站的所有网页并将有关信息存入数据库中。大型商业搜索引擎一般都提供这

种功能。

 

第三节、预处理

 

    得到海量的原始网页集合,距离面向网络用户的检索服务之间还有相当的距离。宏观地

看,服务子系统是一个程序。采用Wirth关于“程序=算法+数据结构”的观点来考察个

 

程序,一个合适的数据结构是查询子系统工作的核心和关键。这里只是指出:现行最有效的

 

数据结构是“倒排文件”(invertedfile) ;倒排文件是用文档中所含关键词作为索引,

 

文档作为索引目标的一种结构(类似于普通书籍中,索引是关键词,书的页面是索引目标)。

 

我们在第八章中有进一步分析。下面讨论从网页集合形成这样的倒排文件过程中的几个主要

问题,即我们所说的“预处理”。主要包括四个方面,关键词的提取,“镜像网页”(网页的

 

内容完全相同,未加任何修改)或“转载网页”(near-replicas,主题内容基本相同但可

 

能有一些额外的编辑信息等,转载网页也称为“近似镜像网页”)的消除,链接分析和网

 

页重要程度的计算。

 

    1.关键词的提取

随便取一篇网页的源文件(例如通过浏览器的“查看源文件”功能),我们可以看到其中情

 

况纷乱繁杂。除了我们从浏览器中能够正常看到的文字内容外,还有大量的HTML标记。根

 

据天网统计,网页文档源文件的大小(字节量)通常大约是其中内容大小的 4倍(例如

 

 

外将网页的公告部分转换为脚本并保存于js文件里。这样可以减少文件大小,加快下载速

 

速,同时也方便管理。不过不能将导航等优化的关键代码转换成js,否则搜索引擎搜索不

到。注意:有很多网站站长将对方的友情链接置于js中,是一件很不友好的事情。

 

三、慎用网页减肥工具

 

    通常的网页减肥工具,对htm减肥具有一定的破坏性,常常为了减肥将一对标签的后半

 

部分删除了,造成网页的不完整。如:

    处理前:<table><tr><td>第一行</td></tr><tr><td>第二行</td></tr></table>

 

    处理后:<table><tr><td>第一行<tr><td>第二行</table>

 

    处理后</td></tr> 被去掉了,使页面不完整。

 

四、删除空格和回车

    如果要更加苛刻的减肥,那最后一步就是删除空格了,还可以使文件大小下降很多。

 

不过删除空格后的页面由于没有阶梯排列,将很难读懂。

 

    例子:百度首页的代码就非常紧凑。

 

第六节Robert.tet设置

 

    搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页

 

信息。您可以在您的网站中创建一个纯文本文件 robots.txt, 在这个文件中声明该网站中

 

不想被 robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,

 

或者指定搜索引擎只收录指定的内容。robots.txt文件应该放在网站根目录下。

 

一、robots.txt文件的格式

 

"robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以 CR,CR/NL,or NL

 

作为结束符),每一条记录的格式如下所示:

 

"<field>:<optionalspace><value><optionalspace>"。

    在该文件中可以使用#进行注解,具体使用方法和 UNIX中的惯例一样。该文件中的记

 

录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:

 

User-agent:

 

    该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条 User-


----------------------- 页面 50-----------------------

agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-

 

agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,

 

"User-agent:*"这样的记录只能有一条。

 

Disallow:

     该项的值用于描述不希望被访问到的一个URL,这个 URL可以是一条完整的路径,也

 

可以是部分的,任何以 Disallow 开头的 URL 均不会被 robot 访问到。例如

 

"Disallow:/help"对/help.html 和/help/index.html 都不允许搜索引擎访问,而

 

"Disallow:/help/"则允许robot访问/help.html,而不能访/help/index.html。任何一条

 

Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少

要有一条 Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎

 

robot,该网站都是开放的。

 

二、robots.txt文件用法举例

 

三、Robot特殊参数: (Google)

1.允许Googlebot:

 

如果您要拦截除Googlebot 以外的所有漫游器访问您的网页,可以使用下列语法:

 

User-agent:Disallow:/

 

User-agent:Googlebot

 

Disallow:

Googlebot 跟随指向它自己的行,而不是指向所有漫游器的行。

 

2."Allow"扩展名:

 

Googlebot 可识别称为"Allow"的robots.txt 标准扩展名。其他搜索引擎的漫游器可能


----------------------- 页面 51-----------------------

无法识别此扩展名,因此请使用您感兴趣的其他搜索引擎进行查找。"Allow"行的作用原理

 

完全与"Disallow"行一样。只需列出您要允许的目录或页面即可。

 

您也可以同时使用"Disallow"和"Allow"。例如,要拦截子目录中某个页面之外的其他所有

 

页面,可以使用下列条目:

 

User-Agent:Googlebot

 

Disallow:/folder1/

 

Allow:/folder1/myfile.html

 

这些条目将拦截folder1 目录内除myfile.html 之外的所有页面。

 

如果您要拦截 Googlebot 并允许 Google 的另一个漫游器(如 Googlebot-Mobile),

 

可使用"Allow"规则允许该漫游器的访问。例如:

 

User-agent:Googlebot

 

Disallow:/

User-agent:Googlebot-Mobile

 

Allow:

 

使用*号匹配字符序列:

 

您可使用星号(*) 来匹配字符序列。例如,要拦截对所有以 private 开头的子目录的访

问,可使用下列条目:

 

User-Agent:Googlebot

 

Disallow:/private*/

 

要拦截对所有包含问号(?) 的网址的访问,可使用下列条目:

 

User-agent:*

 

Disallow:/*?*

 

使用$匹配网址的结束字符

您可使用 $ 字符指定与网址的结束字符进行匹配。例如,要拦截以 .asp 结尾的网址,

 

可使用下列条目:

 

User-Agent:Googlebot

 

Disallow:/*.asp$

 

您可将此模式匹配与Allow 指令配合使用。例如,如果?表示一个会话ID,您可排除所

有包含该ID 的网址,确保Googlebot 不会抓取重复的网页。但是,以?结尾的网址可

 

能是您要包含的网页版本。在此情况下,可对robots.txt 文件进行如下设置:

 

User-agent:*

 

Allow:/*?$

Disallow:/*?

 

Disallow:/*?一行将拦截包含? 的网址(具体而言,它将拦截所有以您的域名开头、后

 

接任意字符串,然后是问号(?),而后又是任意字符串的网址)。


----------------------- 页面 52-----------------------

Allow:/*?$一行将允许包含任何以?结尾的网址(具体而言,它将允许包含所有以您的

 

域名开头、后接任意字符串,然后是问号(?),问号之后没有任何字符的网址)。

 

第七节301永久性重定向和404错误页面

 

一、404 访问的页面暂时不存在

 

    当网站进行调整、页面进行修改的时候,便会有网页被删除、改名或移动位置,这时候,

 

虽然相应内容的网页还存在于网站中,但使用原来的地址访问则无法访问,或者由于拼写错

误导致一个无效的链接,都将使服务器返回404 状态码。

 

    但是,Web服务器默认的404错误页面,均十分简陋、呆板且对用户不友好,无法给

 

予用户寻找相应信息的更多线索,用户看到这类页面往往最直接的反应并是关闭浏览器窗口

 

离开,这在很大程度上给网站造成损失。毕竟,对网站来说,用户永远是最重要的资源,以

 

这种方式损失用户更意味着某种程度的失败。

    这也是许多网站使用自定义404错误页面的原因。通过良好的自定义 404页面,可以

 

包含对网站的相应介绍、用户可能感兴趣的内容链接或者网站内容导航链接、内容搜索功能

 

等,能够有效地帮助访问者找到其欲寻找的内容或相似的内容,提高用户在网站内浏览更多

 

信息的机会。

 

二、正确定义404 错误页面

 

1. 对于已经存在的信息由于路径改变而导致访问不了时,应该在IIS中定义404错误

 

指向一个动态页面,在页面里面使用301跳转到新的地址,此时服务器返回301状态码。

 

2. 当访问一个错误的链接时,将调用 404页面,但由于在 IIS里面设置的不同将导致返

回不同的状态码:

 

?   404指向的是一个htm文件,此时页面返回的404状态码,这是正确的。

 

?   404指向的是一个URL,例如/error.asp,如果不在页面里面进行设置,仅仅是返回

 

    提示的HTML代码,将导致页面返回200状态码,此时的危害在于,当很多页面找不

 

    到时,都返回和访问正常页面时返回一样的200状态码,将使搜索引擎认为该链接存

    在,并以错误页面的内容进行收录,当这样的链接很多时,将导致大量页面重复,使网

 

    站排名降低。处理方法:在显示完提示内容后,增加语句:Response.Status="404Not

 

    Found" ,这样就保证页面返回404状态码。

 

3. 避免在调用404页面的时候返回302状态码,容易被搜索引擎认为是重定向作弊。

 

4. 检测方法,使用HttpWatch 查看返回代码。参见:

在这个例子中,我请求的是 http://www.sina.com.cn/1223.html ,新浪返回错误页面,

 

然后5秒钟后,使用js跳转到新浪导航页。

 

第八节网站地图sitemap


----------------------- 页面 53-----------------------

    网站地图文件原本是为了方便访问用户更好的了解站点的架构而设置的,他能帮助用户

 

便捷的查阅到所需信息。网站地图有两种表现形式:WEB界面形式和XML文本形式:

 

    一、WEB界面形式

 

    它作为构成网站的诸多网页之一,以纯文本超级链接形式为最佳表现形式,用户和搜索

 

引擎机器人都可以识别。

    传统网站用来方便用户,现在更主要是帮助搜索引擎找到深层次的页面。大型网站可使

 

用Xenu等工具来制作。

 

    二、XML文形式

 

    不易于绝大多数用户理解阅读,专门为搜索引擎机器人而准备。可在Roberts.txt文件

中进行描述。目前,包括google在内的三大搜索引擎均支持sitemap协议。

 

    三、两种地图的截图 (更多相关知识到www.sitemap.org查看。)

 

                        第十二章 内容为王

 

第一节搜索引擎对网站内容的要求

 

   一、创造属于你自己的独特内容百度喜欢独特的原创内容,所以,如果你的站点内容只

 

是从各处复制而成的,很可能不会被百度收录。

 

                                       ——百度对网站内容的说明

   二、向访问者提供他们要查找的信息 在网页上提供高品质的内容,尤其是主页,这是

 

你要做的最重要的工作,如果你的网页包含有用信息,其内容就可以吸引许多访问者并使其

 

他网站管理员乐于链接到你的网站,要创建实用且信息丰富的网站,网页文字应清晰、准确

 

地表述要传递的主题,想一想,用户会使用那些关键词来查找你的网页,然后尽量在网站上


----------------------- 页面 54-----------------------

使用这些关键词。

 

                                       ——Google对网站内容的说明

 

第二节如何丰富我们的网站内容

 

    得我有一篇文章叫“链接制胜,内容为王”,简单的分析了内容为王不仅是网站运营人

 

员的金科玉律,他对 seo人员是否获得显著优化效果也具有十分重要的意义。任何一个网

 

站都需要内容来作为支撑点的。不过作为 seo我们研究的是怎么样的文章能更加具有吸引

 

力,吸引蜘蛛的频繁光临,吸引浏览客户的眼球。本节我们将就这个问题进行探讨。

 

一、网站内容的四大来源

 

1.原创和伪原创文章 原创文章的好处不言而喻,原创文章更加受到蜘蛛的青睐,在自己文

 

章里带上链接欢迎别人转载,将给你带来更多的外链。原创能让更多的人准确的了解和认识

 

你。不过原创也有他的不足,那就是很耗时间和精力。伪原创内容处于原创文章和直接复制

 

别人内容直接,这是一般网站快速丰富内容的首选。

 

2.复制别人的内容  当我们在网上看到不错的文章,对他进行转载是比较好的文章来源,

 

但是我们知道搜索引擎在对所有网友搜集之后是要对重复内容消重的,也就要要过滤那些重

 

复内容,一般情况下不要转载那些被大范围转载的内容。

 

   另外原创文章的站点只有在不断更新自己原创文章的同时提升自己的网站权重,只用这

样才能将自己原创文章被转载的负面影响降到最低。

 

3.翻译国外的原创文章 我们还可以翻译国外的一些比较有影响力的文章,比如我们网站

 

http://www.wh-seo.com里面的一篇文章:网络营销为什么可以两个小时赚别人一年的钱?

 

就是翻译的部分国外网站的内容。这篇文章为我带来了不少的外链和流量。

 

4.会员共享内容 很多的网站带上了BBS、Ask问答等板块或者具有同等功能,那么他们很

 

多程度上可以依靠会员的力量来不断更新文章。这是一个很不错的方式。

 

二、内容采集有哪些弊端

    目前网上流传着很多的自动采集文章的程序,我们也叫他小偷程序。通过小偷程序,一

 

般站长就可以让这个复制机器来免费为自己工作,不断往自己的数据库里面添加内容。虽然

 

这样减免了我们站长的许多事情,但是这样做存在不少的弊端。

 

    1.产生大量的相似性页面

 

    2.如果采集系统设置的采集量和自动发布量不加以控制,在短期内创建大批量的页面,

很有可能被谷歌丢进sandbox里面去了。

 

    3.这种采集和我们的复制黏贴别人的文章没有什么两样,他会导致搜索引擎对原网页权

 

重的定向判断,你再不断给这个网站增加权重。

 

    4.采集的设置都是有限的,很多的采集程序都不是很完美的,他们会丢失数据,造成文

 

章不完整,让用户的阅读体验打折扣.

 

三建立问答板块的重要性

 

    建立有效的问答模块,可以让更多的人吧对基于网站所在行业的问题在这里进行提问,

 

然后又跟给出专卖的答案,我觉得这种方式十分的不错,因为他既使得网站原创更新频繁同


----------------------- 页面 55-----------------------

时他在不断创建互联网上其他众多人群想高清楚的答案。这样他不仅对搜索引擎特别友好,

 

同时也具有很好的用户体验基础。

 

             第十三章 网站优化中的作弊行为

 

一:桥页跳页

 

    桥页跳页纯粹是为某个关键词搜索排名而设计的网页,一般不在网站的导航里出现。最

 

早使用在色情网站中。

 

二:关键词叠加

 

    关键词叠加是网页中过分重复使用关键词,最基本的就是在网页中访客看不到的地方添

 

加。如:标题标签、描述标签、图片的替代文字中,等等。比如:

 

    "网络营销策略 网络营销策略 网络营销策略 网络营销策略 网络营销策略 网络营销

 

策略网络营销策略网络营销策略网络营销策略网络营销网络营销网络营销网络营销

网络营销 网络营销网络营销 网络营销 网络营销网络营销 网络营销 网络营销网络营

 

销网络营销"

 

三:关键词堆积

 

    关键词堆积和关键词叠加常常指的是同一种情况,有些人将其分开,关键词叠加指写一

 

些垃圾句子,关键词堆积指这些垃圾句子放在图片上。比如使用Alt标签。有些人在网页中

 

插入透明图片。然后只要你将鼠标方在图片上,就会显示那些垃圾句子。

 

四:隐藏文字和透明文字

 

    隐藏文字是很多人比较喜欢的作弊方式。这些文字只让搜索引擎看见,而不让访客看见。

 

    透明文字就是将文字的颜色设置成与页面背景颜色一样的颜色。使访客不易看到。其实

 

这种方法并不巧妙。使用Alt+A就能清楚的看到文字。

 

五:细微文字

 

    这些文字一般都很小,放在页面的最上或最下面。这些颜色虽然不是和像隐藏字那样和

 

背景颜色一样,但也经常颜色接近。

 

六:障眼法

 

    障眼法是一种伪装网页的方式,就是用一种代码,判断来访者是搜索引擎还是一般游览

 

者,这是一个典型的欺骗搜索引擎的障眼法。搜索引擎看到的是一个非常严格的一片内容,


----------------------- 页面 56-----------------------

而一般浏览者看到的是另外的一个内容。与搜索引擎看到的截然不同。

 

                     第十四章 SEO常用术语

 

搜索引擎优化(SEO)                        搜索引擎营销(SEM)

 

关键词(keyword)                       权重(Weightinsee)

 

排名(Ranking)                        垃圾技术(spamming)

 

竞价排名(Paidlisting)                  反作弊(Anti-Spam)

 

自然排名(Organiclisting)               桥页(Cloaking)

PR值(PageRank)                      黑帽seo(BlackhatSEO)

 

相似网页(SimilarPages)                 白帽seo(WhitehatSEO)

 

补充材料(SupplementalResult)           搜索蜘蛛(Spider)

 

外部链接(ExternalLinking)              网站地图(sitemaps)

 

内部链接(InternalLinking)              链接工厂(Linkfarm)

外页优化(OffpageOptimization)  MFA(madeforAdsense)

 

内页优化(OnpageOptimization )  目录(directory)

 

收录(Embody)                         投资回报率ROI(ReturnOnInvestment)

 

信任级(TrustRank)                     搜索引擎结果页面(Search Engine Rseults

 

                                   page)

沙盒效应(sandbox)                      W3C(TheWorldWideWebConsortium)

 

     第十五章 如何制作完美的网站优化分析报告

 

一、了解网站背景情况

二、选择好网站的定位

 

三、按照139条对网站进行针对性分析分析每一项的优劣

 

四、针对网站的不足和网站的市场地位给出修改意见

 

五、成本预算

 

     

 

分享到
  • 微信分享
  • 新浪微博
  • QQ好友
  • QQ空间
点击: