网站推广术语

80酷酷网    80kuku.com

什么是搜索引擎推广?
搜索引擎推广是通过搜索引擎优化,搜索引擎排名以及研究关键词的流行程度和相关性在搜索引擎的结果页面取得较高的排名的营销手段。搜索引擎优化对网站的排名至关重要,因为搜索引擎在通过Crawler(或者Spider)程序来收集网页资料后,会根据复杂的算法(各个搜索引擎的算法和排名方法是不尽相同的)来决定网页针对某一个搜索词的相关度并决定其排名的。当客户在搜索引擎中查找相关产品或者服务的时候,通过专业的搜索引擎优化的页面通常可以取得较高的排名。


什么是博客?
中文“博客”一词,源于英文单词Blog/Blogger。Blog,是Weblog的简称。Weblog,其实是Web 和Log的组合词。Web,指World Wide Web,当然是指互联网了;Log的原义则是“航海日志”,后指任何类型的流水记录。合在一起来理解,Weblog就是在网络上的一种流水记录形式或者简称“网络日志”。Blogger或Weblogger,是指习惯于日常记录并使用Weblog工具的人。虽然在大陆早些时候或者台湾等地,对此概念的译名不尽相同(有的称为“网志”,有的称之为“网录”等等),但目前已基本统一到“博客”一词上来。该词最早是在2002年8月8日由著名的网络评论家王俊秀和方兴东共同撰文提出来的。博客也好,网志也罢,仅仅是一种名称而已,它的本义还是逃不过Weblog的范围。只是,通常我们所说的“博客”,既可用作名词Blogger或weblogger——指具有博客行为的一类人;也可以作动词用(相当于英文中的Weblog或blog),指博客采取的具有博客行为反映、是第三方可以用视觉感受到的行为,即博客们所撰写的Blog。因此,“他/她是一位博客,他/她天天在博客”及“博客博什么客?”在中文语法与逻辑上都是正确的。只是不同场合的用法不同罢了。

Blog究竟是什么?说了半天,其实一个Blog就是一个网页,它通常是由简短且经常更新的帖子(Post)所构成,这些张贴的文章都按照年份和日期倒序排列。Blog的内容和目的有很大的不同,从对其他网站的链接、评论,有关公司、个人构想的新闻,到日记、照片、诗歌、散文,甚至科幻小說的发表或张贴都有。许多Blogs只是记录着blog个人所见、所闻、所想,还有一些Blogs则是一群人基于某个特定主题或共同利益领域的集体创作。撰写这些Weblog或Blog的人就叫做Blogger或Blog writer。

博客存在的方式,一般分为三种类型:一是托管博客,无须自己注册域名、租用空间和编制网页,博客们只要去免费注册申请即可拥有自己的博客空间,是最“多快好省”的方式。二是自建独立网站的博客,有自己的域名、空间和页面风格,需要一定的条件。三是附属博客,将自己的博客作为某一个网站的一部分(如一个栏目、一个频道或者一个地址)。这三类之间可以演变,甚至可以兼得,一人拥有多种博客网站。

什么是搜索引擎?
搜索引擎是一个为你提供信息“检索”服务的网站,它使用某些程序把因特网上的所有信息归类以帮助人们在茫茫网海中搜寻到所需要的信息。

早期的搜索引擎是把因特网中的资源服务器的地址收集起来,由其提供的资源的类型不同而分成不同的目录,再一层层地进行分类。人们要找自己想要的信息可按他们的分类一层层进入,就能最后到达目的地,找到自己想要的信息。这其实是最原始的方式,只适用于因特网信息并不多的时候。随着因特网信息按几何式增长,出现了真正意义上的搜索引擎,这些搜索引擎知道网站上每一页的开始,随后搜索因特网上的所有超级链接,把代表超级链接的所有词汇放入一个数据库。这就是现在搜索引擎的原型。

随着Yahoo!的出现,搜索引擎的发展也进入了黄金时代,相比以前其性能更加优越。现在的搜索引擎已经不只是单纯的搜索网页的信息了,它们已经变得更加综合化,完美化了。以搜索引擎权威Yahoo!为例,从1995年3月由美籍华裔杨致远等人创办Yahoo!开始,到现在,他们从一个单一的搜索引擎发展到现在有电子商务、新闻信息服务、个人免费电子信箱服务等多种网络服务,充分说明了搜索引擎的发展从单一到综合的过程。

然而由于搜索引擎的工作方式和因特网的快速发展,使其搜索的结果让人越来越不满意。例如,搜索“电脑”这个词汇,就可能有数百万页的结果。这是由于搜索引擎通过对网站的相关性来优化搜索结果,这种相关性又是由关键字在网站的位置、网站的名称、 标签等公式来决定的。这就是使搜索引擎搜索结果多而杂的原因。而搜索引擎中的数据库因为因特网的发展变化也必然包含了死链接。

爬行类搜索引擎是如何工作的?
这类搜索引擎会爬行检索网站,提取信息建立网页数据库。搜索引擎的自动爬行网站网页功能分两种,一种是定期搜索,即每隔一段时间(比如Google一般是28天),搜索引擎主动派出“蜘蛛(Spider)”程序,对一定IP地址范围内的互联网站进行检索,一旦发现新的网站,它会自动检索网页,提取网站的信息和网址加入自己的数据库。

另一种搜索引擎需要您主动提交,它在一定时间内(2天到数月不等)定期向你的网站派出“蜘蛛”程序,扫描你的网站并将有关信息存入数据库。

当访问者键入关键词查找时,搜索引擎会在数据库中进行搜索,找到与用户要求内容相符的网站,根据自己的排名算法,如网页中关键词的匹配程度,出现的位置/频次,链接质量等,计算出各网页的相关度及排名等级,按顺序查询结果返回给用户。

恶意关键字(Keywords Spamming)
这里不是指垃圾邮件(Email Spamming), 如果在您的网页内容上或在META标记中多次重复堆放某个关键字,这就叫做恶意关键字(Keywords Spamming). 比如:Atlanta hotels, Atlanta restaurants, Atlanta movies, Atlanta parks, Atlanta motels, Atlanta recreation, Atlanta gabmling, Atlanta ...,搜索引擎会认为是恶意关键字,降低排名或将该网站删除。准确的写法为:Atlanta hotels, restaurants, atlanta movies, parks, motels, recreation, gambling ...。

搜索引擎机器人(robots)
机器人(robots)事实上是一个精心设计的网站爬行程序,依照网站的连接从一个网站游历到另一个网站。根据这种自动化程序基于预先设计好的网站排名标准及算法,对网站进行评估排名。虽然每个搜索引擎各有各的标准及算法,然而他们对搜索结果判定网站排名上也具有很多相似的地方。


一个搜索引擎机器人会先爬行一个网站,检索在它看来是重要的页面部件,这些检索的数据随后被分析,并赋予指定关键字在搜索结果中的排名。每个搜索引擎算法被设计成足以判断相应关键字和相关页面的相关程度。

搜索引擎分类目录(Directories)
搜索引擎分类目录是由人工预审后被编入的网站列表。较为主要的搜索引擎分类目录有 Yahoo, LookSmart, Open Source Directory 等,您付款后也未必真能被收录至它们的分类目录中。分类目录会因为您网站导航不明确、网站设计不佳、死链接、网站是否正常运转、文法错误、文字不流畅、没有联系电话、没有商业地址、多次重复提交某目录的原因拒绝您的网站收录。在提交网站前反复审视您的网站,确保网站在正常工作后方可提交。事实上,在您没有做好充分准备前提交您的网站对搜索引擎目录收录是非常不明智的。就算您进入了搜索引擎的目录中,对您网站的排名也会有很大的影响。

搜索引擎会基于很多标准,如关键字的相关性、出现的频率等,来决定您网站的排名,它还将查看您网站的标题及描述和网站所在目录的相关性来决定网站排名。在某些情况下,外部连接的数量及质量也会在排名中体现出来。有些分类目录也会跟踪访问者点击搜索结果中链接后停留在网站上的时间来作为衡量网站排名的一个因素。

有一点必须注意,分类目录的编辑人员有会改变您实现定义好的网站标题及描述。

什么叫关键字密度(Keyword Density)
关键字密度是指在一个页面中,关键字(keyword)或关键字段(keyphrase)占所有该页面中总的文字的比例,该指标对搜索引擎的优化起到关键的作用。为自然提高在搜索引擎中的排名位置,您网站中页面的关键字密度不能过高,也不要过低,一般在 1% 到 7% 较为合适。如果要达到 1% 的比例,那么您在平均 100 个文字中最好包含 1 个关键字或关键字段,如果在 1000 个文字中仅仅只包含 1 个关键字或关键字段,那么关键字密度就被稀释了。记住,您千万别把所有的关键字或关键字段堆积在一起,要不搜索引擎将人为是一种恶意行为(Spam), 直接降低您网站的排名位置。



什么叫坏链接(Bad Link)
在很多网站都可以看到各种和别的外部网站的链接,其实搜索引擎就是一个庞大的链接集合。这种链接成为外部链接(Link Popularity),高质量的外部链接在搜索引擎的排名算法中占据一席之地。然而要跟踪这些链接是否正常也非容易。您要慎重选择和您网站交换链接的网站。

Google是率先将这种外部链接列入排名算法中的。如果过多地和毫不相干的网站做外部链接,非单不会提高排名,反而会受到 Google 的惩罚。尤其是一味地和外界网站进行链接,而没有高质量的外部网站和自己链接。

您的网站要和外部网站做连接,一定要注意,这个外部网站是没有被处罚的。Google 有一个独创性的衡量网页信誉评估工具条,称之为 PageRank. 主要依据是该网页被其他网页链接的次数,级别越高表示该网页越可信。该工具条可以在 http://toolbar.google.com 上下载安装。

什么叫隐藏文本(Hidden Text)
几乎所有的搜索引擎都利用网站页面上的文字作为搜索结果排名的重要因素。也就是说包含关键字的网站页面在搜索结果中将有更大的机会获得较高的排名。许多webmaster都意识到了这一点,他们出于网站美观或者是否流畅,将大量包含关键字的文本颜色设置成和网页背景相同的颜色,访问者是看不到的,而搜索引擎的 Spider 可以看到,于是获得较高的排名。

在这里我们想告诉你这种做法有一定的效果,但很危险,随着搜索引擎的智能化程度的提高,这样的网站将受到惩罚,甚至被驱逐出搜索引擎。

我们不主张采用这样的作弊行为来提高排名。


什么叫 DoorPage
有时侯有人会建议 Webmaster 提交一个叫做“bridge page”或者叫做“Doorway page”到搜索引擎中去,以换取较高的访问量。Doorway page 实际上是为某些关键字特别制作的页面,有时也叫“portal page”、“jump page”、“entry page” 或其他名字。通过 Doorway page 再指向真正的网站。他很容易被鉴别是专门为搜索引擎设计的,而不是为访问者设计的。大多数搜索引擎不支持该方式,尽量少用。

什么是UTF8
UTF8并不算是一种电脑编码,而是一种储存和传送的格式,如前所述,每个Unicode/UCS字符都以 2或4个bytes来储存,看看以下的比较:

  以"I am Chinese"为例
   用ANSI储存:12 Bytes
   用Unicode/UCS2储存:24 Bytes + 2 Bytes(header)
   用UCS4储存:48 Bytes + 4 Bytes(header)

  以"我是中国人"为例
   用ANSI储存:10 Bytes
   用Unicode/UCS2储存:10 Bytes + 2 Bytes(header)
   用UCS4储存:20 Bytes + 4 Bytes(header)



  由此可见直接以Unicode/UCS的原始形式来储存是一种极大的浪费,而且也不利于互联网的传输(中文稍为合算一点^_^)。

  有见及此,Unicode/UCS的压缩形式--UTF8出现了,套用官方网站的首句话『UTF-8 stands for Unicode Transformation Format-8. It is an octet (8-bit) lossless encoding of Unicode characters.』,由于UTF也适用于编码UCS,故亦可称为『UCS transformation formats (UTF)』

  UTF8是以8bits即1Bytes为编码的最基本单位,当然也可以有基于16bits和32bits的形式,分别称为UTF16和UTF32,但目前用得不多,而UTF8则被广泛应用在文件储存和网络传输中。




编码原理

先看这个模板:


UCS-4 range (hex.) UTF-8 octet sequence (binary)
0000 0000-0000 007F 0xxxxxxx
0000 0080-0000 07FF 110xxxxx 10xxxxxx
0000 0800-0000 FFFF 1110xxxx 10xxxxxx 10xxxxxx


0001 0000-001F FFFF 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx
0020 0000-03FF FFFF 111110xx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx
0400 0000-7FFF FFFF 1111110x 10xxxxxx ... 10xxxxxx


编码步骤:
1) 首先确定需要多少个8bits(octets)
2) 按照上述模板填充每个octets的高位bits
3) 把字符的bits填充至x中,字符顺序:低位→高位,UTF8顺序:最后一个octet的最末位x→第一个octet最高位x
4) 解码的原理一样。


实例:(留意每个bit的颜色,粗体字为模板内容)

UCS-4 UTF-8
HEX BIN Bytes BIN HEX Bytes
0000 000A 00001010 4 00001010 0A 1
0000 0099 10011001 4 11000010 10011001 C2 99 2
0000 8D99 10001101 10011001 4 11101000 10110110 10011001 E8 B6 99 3




  不知大家看懂了没有,其实不懂也无所谓,反正又不用自己算,程式可以完全代劳。

  以UTF8格式储存的文件档首标识为EF BB BF。



效率

  从上述编码原理中得出的结论是:
   1.每个英文字母、数字所占的空间为1 Byte;
   2.泛欧语系、斯拉夫语字母占2 Bytes;
   3.汉字占3 Bytes。

  由此可见UTF8对英文来说是个非常诱人的方案,但对中文来说则不太合算,无论用ANSI还是 Unicode/UCS2来编码都只用2 Bytes,但用UTF8则需要3 Bytes。



  以下是一些统计资料,显示用UTF8来储存文件每个字符所需的平均字节:
   1.拉丁语系平均用1.1 Bytes;
   2.希腊文、俄文、阿拉伯文和希伯莱文平均用1.7 Bytes;
   3.其他大部份文字如中文、日文、韩文、Hindi(北印度语)用约3 Bytes;
   4.用超过4 Bytes的都是些非常少用的文字符号。



网络实名是什么?
是新一代的网络访问方式,一般网民能够记住的网址大概在20个左右,多的也在50个以内,网络实名功能有助于广大网民、特别是刚刚接触网络的网民迅速快捷的到达想去的地方和查找想要的资料。根据用户注册的网络实名的名称含义,网络实名分为两大类:

(1) 行业实名:又称网络王牌,特指表示行业、产品、类别、地域等范畴形式的名称或通用词。

(2) 企业实名:又称标准实名,行业实名之外的其他名称均称为企业实名。


Authority site(权威网站)
我们都知道google的PageRank算法中要考虑一个网站被其他网站链接的数量(inbound links),但并不是每个网站的链接都具有同样的权重(在搜索引擎发展的早期曾经对各种链接一视同仁地看待),也就是说,有些网站的链接对于增加网站的排名效果作用要明显一些,而另外一些链接并没有多大作用。这就说明了,google并不是仅仅依靠网站链接的数量来决定一个网站的排名状况,而是要考虑链接网站的质量,所以单凭链接数量并不能表明一个网站的搜索引擎优化状况。Aauthority sites就是一个用于描述推荐网站权重的一个术语。

在所有网站链接中,被google视为具有最高权重的网站称为“权威网站”(Authority site)。哪些网站才是“权威”呢?被google认为是权威的网站是指那些非常著名的、被人们普遍尊重的网站,例如英文网站中的主流新闻网站(CNN,TIME, NYTimes)、著名的分类目录网站、行业领先者(Macromedia, HP, Nike),以及一些区域性的机构网站(例如可以成为“Hub site”的区域性旅游网站,下文介绍)等。当然,一些有知名度的小型网站也有可能被作为权威网站,例如一些个人的博客网站、被作为google新闻源的网站等,不过这些小网站的权威地位并不稳定,并不总是能为链接的网站增加排名的优势。由于众多的网站无法成为google眼中的“权威”,为了提高自己的排名,借助于那些权威网站的推荐是很有必要的,这就是网站链接策略中的“链接质量”问题。



不过也不是说只有被google眼中的权威网站链接才能获得最好的排名结果,有些网站虽然不够“权威”,但仍然具有较高的链接价值,其实网站内容的相关性(link-relevance)比权威性更加重要,不仅google比较重视推广网站的相关性,而且从浏览者的角度来说,网站链接毕竟不是专门为了googleBot的,在相关的网站进行链接(如行业内的门户网站和有影响力的专业网站),其价值已经超出了是否可以增加在搜索结果中的排名优势,正如本文作者在《网络营销基础与实践》第1版中所描述的:


“交换链接的意义实际上已经超出了是否可以直接增加访问量这一范畴,比增加访问量更重要之处在于业内的认知和认可,因为一般来说,互相链接的网站在规模上比较接近,内容上有一定的相关性或互补性,只有经过对方的认可才可能将你的网站列为合作对象。”

Hub site(集线器网站)
Hub site也是一种被google认为具有较高链接权重的网站,顾名思义,这种具有“集线器”性质的网站也就是在一定范围内可以成为一个中心,从这个中心链接到许多相关的同类网站,比如行业资讯网站,该行业内的企业作为会员被链接到网站上,这个行业网站就类似于电脑网络的“HUB”,链接到HUB网站上的必然是相关的网站,google通过这个HUB网站可以检索到其他网站的信息,因此这个HUB网站链接的重要性就比较高。与Authority site相比,Hub site的知名度可能不够高,规模也不很大,在本行业或本地区之外没有多大影响力。从网站搜索引擎优化的角度来考虑,应从多方面入手增加链接广度(包括Inbound Link的数量和质量两个方面),尤其是在Authority site和Hub site方面多下点功夫。

link farming
在一篇有关搜索引擎优化的文章中看到“link farming”这个词汇,故事大概是这样的:一个网站委托某专门从事搜索引擎优化(SEO)服务的公司给自己的网站进行优化,作者注意到,那个SEO所采取的“优化”措施之一是把被“优化”的网站链接到一个被称为“link farming”的网站上。从这个故事中,我们大约已经知道这个术语的意思了,指的是那种专门为了给其他网站提供链接的网站,在这样的网站上有数量众多不相关的网站链接,其作用仅仅是为了给被优化网站增加一个“Inbound link”。故事作者对于这种链接所可能产生的副作用还是有一定了解的,因此,故事的结局是,立刻解除了和SEO公司的合作。


我们来看看互联网专业词典webopedia对“link farming”的解释:

“link farming”的名词格式是“link farm” ,指的是一个专门提供到其他网站链接的网页。对于搜索引擎优化有一定基础知识的人都知道,可以采用交换链接等方式增加网站被链接数量,“link farming”的初衷也是为了增加网站的被链接数量以增加在搜索引擎排名中的优势。理论上说,一个网站被其他网站链接的数量越多,在搜索结果排名位置越高,这很容易理解,因为网站被链接数量越多,就意味着在互联网用户中有更高的流行度。但是,如果网站为了利用这种排名规则来达到搜索引擎优化的结果而链接许多不相关网站的话,将被googoe等搜索引擎视为搜索引擎垃圾,对于这些搜索引擎垃圾网站将采取一定的惩罚措施,如果一个网站链接到这样的网站,也就是参与了“link farming”,同样会受到惩罚。因此,如果说一个网站“link farming”往往具有贬义。

有许多从事SEO的服务商承诺,通过他们的链接交换程序可以很快提高网站的链接广泛度,其实通常就是把你的网站链接到一些没有相关性的网站上,这样的链接实际上对于搜索引擎优化是没有意义的,即使暂时没有收到搜索引擎的惩罚,也不会带来实际的效果。

网络营销
市场营销作为一门学科,于20世纪初诞生于美国,它经历了以生产为导向的营销观念、以产品为导向的营销观念、推销观念、以市场为导向的营销观念以及社会营销观念等五个阶段。近年来,营销理论又有了较大的发展,这主要表现在随着互联网的普及,使得市场营销环境有了根本性的改变,从而对市场营销策略和理念产生了巨大的冲击。作为一种全新的信息沟通与产品销售渠道,互联网改变了企业所面对的用户和消费者、虚拟市场的空间以及竞争对手,企业将在一个全新的营销环境下生存。   菲利普.科特勒将营销定义为“个人和集体通过创造、提供并同他人交换产品价值,以获得其所需所欲物的一种社会和管理过程”。也就是说,营销是以满足人类各种需要和欲望为目的,通过市场变潜在交换为现实交换的活动总称。而网络营销(Cybermarketing)是指借助于互联网络、电脑通信技术和数字交互式媒体来实现营销目标的一种营销方式。从这两个定义来看,网络营销与传统的市场营销并没有根本的区别,它们都要实现其营销的目标,即将潜在的交换转化为现实的交换。

网络市场调研
市场调研是指以科学的方法,系统地、有目的地收集、整理、分析和研究所有与市场有关的信息,特别是有关消费者的需求、购买动机和购买行为等方面的市场信息,从而提出解决问题的建议,以作为营销决策的基础。

传统的市场调研一方面要投入大量的人力物力,如果调研面较小,则不足以全面掌握市场信息,而调研面较大,则时间周期长,调研费用大;另一方面,在传统的市场调研中,被调查者始终处于被动地位,企业不可能针对不同的消费者提供不同的调查问卷,而针对企业的调查,消费者一般也不予以反应和回复。

与传统的市场调研相比,网络市场调研虽然也存在这样那样的问题,但其优势也是非常突出的,主要表现在以下几个方面:一是它的互动性,这种互动不仅表现在消费者对现有产品的发表意见和建议,更表现在消费者对尚处于概念阶段产品的参与,这种参与将能够使企业更好地了解市场的需求,而且可以洞察市场的潜在需求;二是网络调研的及时性,网络的传输速度快,一方面调研的信息传递到用户的速度加快,另一方面用户向调研者的信息传递速度也加快了,这就保证了市场调研的及时性;三是网络调研的便捷性和经济性,无论是对调查者还是被调查者,网络调查其便捷性都是非常明显的。调研者只要在其站点上发布其调查问卷,而且在整个调查过程中,调研者还可以对问卷进行及时修改和补充,而被调查者只要有一台计算机、一个MODEM、一部电话就可以快速方便地反馈其意见。同时,对于反馈的数据,调查者也可以快速便捷地进行整理和分析,因为反馈的数据可以直接形成数据库。这种方便性和快捷性大大地降低发市场调研的人力和物力耗费。

4C与网络整合营销
传统的市场营销策略是由迈卡锡教授提出的4P组合,即产品(Product)、价格(Price)、渠道(Place)和促进(Promotion)。这种理论的出发点是企业的利润,而没有将顾客的需求放到与企业的利润同等重要的地位上来。而网络的互动性使得顾客能够真正参与整个营销过程,而且其参与的主动性和选择的主动性都得到加强。这就决定了网络营销首先要求把顾客整合到整个营销过程中来,从他们的需求出发开始整个营销过程。据此,以舒尔兹教授为首的一批营销学者提出了4C的市场营销理论,即消费者的需求和欲望(Consumer’s wants and needs)、成本(Cost)、便利(Convenience)和沟通(Communication)。因此网络营销的模式是从消费的需求出发,营销决策(4P)是在满足4C的要求的前提下的企业利润最大化,最终实现的是消费者需求的满足和企业利润最大化。在这种新营销模式之下,企业和客户之间的关系变得非常紧密,甚至牢不可破,这就形成了“一对一”的营销关系(One-to-one-Marketing),这种营销框架称为网络整合营销,它始终体现了以客户为出发点及企业和客户不断交互的特点。



网络直复营销
仅从销售的角度来看,网络营销是一种直复营销。直复营销的“直”来自英文的“Direct”,即直接的缩写,是指不通过中间分销渠道而直接通过媒体连接企业和消费者,网上销售产品时顾客可通过网络直接向企业下订单付款;直复营销中的“复”来自英文中的“Response”,即“回复”的缩写,是指企业与顾客之间的交互,顾客对这种营销努力有一个明确的回复,企业可以统计到这种明确回复的数据,由此可对以往的营销效果作出评价。


MIS
市场营销的MIS(Management Information System)是企业或组织整体MIS的一部分。MIS是一个信息系统,它通过程式化的程序从各种相关的资源(公司外部和内部的都包括)收集相应的信息,为经理们提供各层次的功能,以使得他们能够对自己所应该负责的各种计划、监测和控制活动等做出及时、有效的决策。 这个表明MIS的本质是一个关于内部和外部信息的数据库,这个数据库可以帮助经理们做分析、决策、计划和设定控制目标。因此重点是如何使用这些信息,而不是如何形成这些信息。

最有效的MIS能够反应随着时间的推移和内部程序的改变,外部的变量如何改变,也就是说,时间和内部变量是否会对外部的变量产生影响。这就建立了一个强大而且有效的知识库,它可以帮助进行预测。虽然建立和维MIS是非常耗时和昂贵的,但是与其带来的潜在利益和对决策准确性的提高相比,对一个组织来说这还是值得的。Internet为建立和维护MIS提供了一个理想的工具,而MIS也是网络营销中的一个重要的内容。



网上服务工具(FAQ)
FAQ(Frequently ASK ed Questions)是网上顾客服务的重要内容之一,它为顾客提供有关公司产品与服务等方面的信息。面对众多公司能够提供的信息以及顾客可能需要的信息,最好的办法就是在网站上建立顾客常见问题解答(FAQ)。FAQ主要是为提供有关产品、公司情况,它既能够引发那些随意浏览者的兴趣,也能帮助有目的的顾客迅速找到他们所需要的信息,获得常见问题的现成答案。

分享到
  • 微信分享
  • 新浪微博
  • QQ好友
  • QQ空间
点击: