SEO优化「新营销百科」
所谓“针对搜索引擎作最优化的处理”,是指为了要让网站更容易被搜索引擎接受。搜索引擎会将网站彼此间的内容做一些相关性的数据比对,然后再由浏览器将这些内容以最快速且接近最完整的方式,呈现给搜索者。搜索引擎优化就是通过搜索引擎的规则进行优化,为用户打造更好的用户体验,最终的目的就是做好用户体验。
对于任何一个网站来说,要想在网站推广中获取成功,搜索引擎优化都是至为关键的一项任务。同时,随着搜索引擎不断变换它们的搜索排名算法规则,每次算法上的改变都会让一些排名很好的网站在一夜之间名落孙山,而失去排名的直接后果就是失去了网站固有的可观访问流量。所以每次搜索引擎算演搜索引擎优化(英语:searchengineoptimization,缩写为SEO),是一种通过了解搜索引擎的运作规则来调整网站,以及提高目的网站在有关搜索引擎内排名的方式。由于不少研究发现,搜索引擎的用户往往只会留意搜索结果最前面的几个条目,所以不少网站都希望通过各种形式来影响搜索引擎的排序,让自己的网站可以有优秀的搜索排名。当中尤以各种依靠广告维生的网站为甚。
目录
1历史
1.1早期搜索引擎
1.2当代搜索引擎
2搜索引擎优化和搜索引擎之间关系
3搜索引擎入手
4白帽方法
5黑帽方法
5.1法律案例
6高质量网站通常可以获得优秀的搜索排名
7Google针对盖版广告进行算法打击
历史
早期搜索引擎
网站管理员以及网络内容提供者在90年代中期开始使用搜索引擎来优化网站。此时第一代搜索引擎开始对互联网分门别类。一开始,所有网站管理员得做的事只有提交所属网站到各家搜索引擎。这些引擎跑一些蜘蛛机器人(spider)──截取于网页程序中找到连至其他网页的超链接──并且存储所找到的数据。过程中同时包含了将网页下载并存储至搜索引擎拥有者的服务器中,这时有另外一个软件称为Indexer来截取页面中不同的信息——页面中的文字、文字的位置、文字的重要性以及页面所包含的任何链接,之后将页面置入清单中等待过些时日后,再来截取一次。随着在线文件数目日积月累,越来越多网站员意识到自然搜索(有机搜索)条目的重要性,所以较普及的搜索引擎公司开始整理他们的列表,以显示最恰当适合的网页为优先。搜索引擎与网站管理员的战争就此开始,并延续至今。
一开始搜索引擎是被网站管理员本身牵着走的。早期版本的搜索算法有赖于网站员提供信息,如关键字的基本定义标签(metatag)。当某些网站员开始滥用标签,造成该网页排名与链接无关时,搜索引擎开始舍弃标签并发展更复杂的排名算法。由于数繁不及备载,仅枚举数个分析目标如下:
在标题签里的文字,如
域名,如wikipedia.org
统一资源定位符下属的目录与档名,如
关键字密度
关键字接近度,如'软盘、软碟''硬盘、硬碟'
图形链接的Alt属性,如
但是经过多年的搜索引擎算法的调整,现在较重要的影响标签为:
中的alt属性
由于这些都还在网站人员的眼皮下打滚,搜索引擎陆陆续续碰到诸多滥用与操纵排名等难题。为了要提供较好的结果给用户,搜索引擎必须调适到让他们的搜索结果表现出最适当的结果,而非某些不道德的网络员产生的、只有塞满关键字的无用网页。由此,新种类的搜索引擎应运而生。
当代搜索引擎
Google由两名在斯坦福大学深造的博士生拉里·佩奇(LarryPage)和谢尔盖·布尔(SergeyBrin)开始。他们带来了一个给网页评估的新概念,称为“网页级别”(PageRank),是Google搜索引擎算法重要的开端。网页级别十分倚赖导入链接(incominglink),并利用这种每个导入某网页的链接相当于给该网页价值投一票的理论创建起逻辑系统。越多导入链接意味着该网页越有“价值”。而每个导入链接本身价值直接根据该链接从何而来的网页级别,以及相反的该页导出链接(outgoinglink)。而在2009年的10月,Google网站管理工具正式移除了PageRank,而紧接着Google在2011年移除了Firefox的GoogleToolbar,并在2016年正式除GooglePageRank。
在网页级别帮助下,Google在服务相关的结果上证明它相当优异。Google成为了最普遍和最成功的搜索引擎。由于网页级别纳入站点外因子,Google认为它们会比页内因子难以动手脚。
然而网站员们已经开发出对付Inktomi搜索引擎的链接操作工具和计划。这些方法证明对Google算法一样管用。许多站集中于交换、买卖大量链接。随着网站员寻求获取链接只单单要影响Google送更多流量给该站,而不管是否对站点访客有用否这种行为增加,网页级别对原始算法的信赖度渐渐被破坏了。
此时,是Google和其它查寻引擎对广大范围的站外因子仔细查看的时候。开发更加聪明的算法有其他原因。互联网已经膨胀到拥有非技术的广大族群。他们经常无法使用先进的提问技术来获取信息;而且他们得面对比起发展早期更庞大数据、更复杂的索引。搜索引擎必须开发具备预测性、语义性、语言性和启发性算法。
目前,网页级别的缩小版仍然被显示在Google工具条上,不过网页级别只不过是Google考虑在网页分级时超过100个因素里中的一个。
今天,大多数搜索引擎对它们的如何评等的算法保持秘密。搜索引擎也许使用上百因素在排列目录;每个因素本身和因素所占比重可能不断的在改变。
大部分当代搜索引擎优化的思路──哪些有效、哪些没效──这些很大部分在于观察与根据内线消息来的猜测。某些优化员得运行控制下的实验以获取不同最优化方法的结果。
尽管如此,以下是搜索引擎发展它们算法时的一些考虑,这份Google专利清单也许可让读者可猜出他们会走哪条路线:
站点的年龄
自该网域注册后过多久
内容的年龄
新内容增加的规律性
链接的年龄,连接站点的名誉和其相关程度
一般站内因素
负面站内因素(例如,太多关键字汇标(metatag),很显然被优化过,会对站点造成伤害)
内容的独特性
使用于内容的相关术语(搜索引擎关系到的术语的方式视同如何关系到网页的主要内容)
Google网页级别(只被使用在Google的算法)
外在链接、外部链接的链接文字、在那些和在站点/网页包含的那些链接
引证和研究来源(表明内容是研究性质)
在搜索引擎数据库里枚举的词根与其相关的术语(如finance/financing)
导入的逆向链接,以及该链接的文字
一些导入链接的负面计分(或许那些来自低价值页、被交换的逆向链接等)
逆向链接获取速率:太多太快意味着“不自然”的链接购买活动
围绕在导出链接、导入的逆向链接周围的文字。例如一个链接如果被"SponsoredLinks"(赞助商链接)包围,该链接可能会被忽略。
用"rel=nofollow"建议搜索引擎忽略该链接
在站点该文件的结构深度
从其他资源收集的网格表,譬如监视当搜索结果导引用户到某页后,用户有多频繁按浏览器的返回
从来源像:GoogleAdWords/AdSense、Google工具条等程序收集的网格表
从第三方数据分享协议收集的网格数据(譬如监测站点流量的统计程序提供商)
删除导入链接的速率
使用子网域、在子网使用关键字和内容质量等等,以及从这些活动来的负面计分
和主文件语义上的链接
文件增加或改动的速率
主机服务商IP和该IP旗下其它站点的数量/质量
其他链接站会员(linkfarm/linkaffiliation)与被链接的站(他们分享IP吗?有一个共同的邮递地址在"联系我们(ContactUs)"页吗?)
技术细节像利用301重定向被移除的网页、对不存在网页显示404服务器标头而非200服务器标头、适当的利用robots.txt
主机服务商正常运行时间
是否站点对不同类的用户显示不同的内容(称为“掩饰”(cloaking))
未及时矫正、无效的导出的链接
不安全或非法内容
HTML代码质量,以及错误出现数
由搜索引擎自他们搜索结果观察到的实际点击通过率评等
由最常访问搜索结果的人手动评等
搜索引擎优化和搜索引擎之间关系
于1997年,搜索引擎体认识到,网站管理员会努力的让自己的网站拥有较好的搜索排名,甚至于会将不相关的关键字塞在网页中,用来欺骗搜索引擎以得到较好的搜索排名。早期搜索引擎,譬如Altavista与INFOSEEK,就开始调整搜索算法以避免受到人为的操弄。于2005年召开的AirWeb年会,就希望把实务与研究者聚集起来,共同讨论关于搜索引擎优化等相关议题。
如果过度的操作搜索引擎优化,可能会导致操作的网站被搜索引擎封锁。在2005年,华尔街日报就曾经报导TrafficPower公司,据说使用高风险的方式,并且没有让客户了解这些操作的风险。Wired网站则报导了这家公司对部落客提起告诉,只因为提及该公司被取缔的事件。Google的克特斯(MattCutts)稍后确认Google确实取缔了TrafficPower以其他们的客户群。
某些搜索引擎对搜索引擎优化产业提供了援助,而且是常常是优化会议和研讨会的赞助商和来访贵宾。所有主要搜索引擎都提供信息/指南以协助站点优化:Google[8]、Yahoo,和MSN。Google提供了Sitemaps程序帮助网站员学习如果Google有任何问题检索他们的网站时该如何做,并且提供Google流量与您网站关系间无价的丰富数据。雅虎的AmbassadorProgram与Google的AdvertisingProfessionals提供专家级的认证。
搜索引擎入手
新站点不需要"提交"到搜索引擎才能登记上市。一个来自于已创建好的、其他站点的简单链接就会让搜索引擎拜访新站点,并且开始‘爬’过该站内容。它可能得花几天甚或几周从这样一个已创建站点获取链接,并使所有主要搜索引擎开始拜访并索引新站点。社交媒体及新闻发布网站是较容易吸引搜索引擎创建站点的方法。
一旦搜索引擎发现了新站点,它一般将拜访和开始索引该站,直到所有标准的超链接被链接的页索引到为止。只能通过Flash或JavaScript才能拜访的链接可能不会被蜘蛛机器人找到。
当搜索引擎的蜘蛛机器人爬过一个站点时会取决相当数量的不同因子,并且该站的许多页可能不会被索引到除非它们网页级别、链接、或流量增加到一个程度。从站点的根目录到该页的距离,以及其它比重考量,也许也是决定是否该页得到检索的因素。Choetal.(Choetal.1998)描述了哪些页会被拜访、哪些会收入搜索引擎索引的决定标准。
网站员可通过在网域根目录里标准robots.txt文件指示蜘蛛机器人不索引某些文件或目录。标准的实现要求是搜索引擎在拜访这个网域时参考这个文件,虽然搜索引擎的蜘蛛机器人当它拜访某站点网页时将保留这个文件的缓存拷贝,并且更新速度没像网站员那么快。网站发展人员可能使用这个特性防止某些页,譬如购物车或其它动态、特定用户的内容出现在搜索引擎结果中,并且防止机器人进入死循环和其它机器人陷阱。
对于某些有偿提交的查寻引擎(像雅虎),支付象征性费用提交也许会节省一些时间,虽然雅虎有偿提交方案不保证提交人/公司包括在他们的查寻结果中。中文的搜狐和新浪ask等需要支付一定费用,但免费的非商业网站可以提供,当然搜索引擎方并不保证一定收录相应的网站。
白帽方法
搜索引擎优化的白帽法包括遵循搜索引擎哪些可接受哪些不能接受的指导方针。他们的建议一般是为用户创造内容,而非搜索引擎、是让这些内容易于被蜘蛛机器人索引、并且不尝试对搜索引擎系统耍花招。网站员经常于设计或构建他们的网站时,犯下致命错误、疏忽“毒害”该站以致排名不会很好。白帽法优化员企图发现并纠正错误,譬如机器无法读取的菜单、无效链接、临时改变导向、或粗劣的导引结构。
因为搜索引擎是以文本为中心,许多有助于网页亲和力的同样手段同样便利于搜索引擎优化。这些方法包括最优化图形内容、包括ALT属性、和增加文本说明。甚至Flash动画可于设计该页时包括替代性内容──这本来用来给访客无法阅读Flash的环境用的──来帮助优化。
这里是一些搜索引擎认为适当的方法:
在每页使用一个短、独特和相关的标题。
编辑网页,用与该页的主题。有关的具体术语替换隐晦的字眼。这有助于该站诉求的观众群,在搜索引擎上搜索而被正确导引至该站。
在该站点增加相当数量的原创内容。
使用合理大小、准确描述的汇标,而不过度使用关键字、惊叹号、或不相关标题术语。
注意网址字眼,有助于搜索引擎优化。
确认所有页可通过正常的链接来访问,而非只能通过Java、JavaScript或AdobeFlash应用程序访问。这可通过使用一个专属列出该站所有内容的网页达成(网站地图)
通过自然方式开发链接:Google不花功夫在这有点混淆不清的指南上。写封电子邮件给网站员,告诉他:您刚刚贴了一篇挺好的文章,并且请求链接,这种做法很可能为搜索引擎所认可。
参与其他网站的网络集团(译按:webring指的是有相同主题的结盟站群)──只要其它网站是独立的、分享同样题目和可比较的质量。
黑帽方法
主条目:垃圾索引,斗蓬法,付费链接和链接农场
垃圾索引(Spamdexing)意指通过欺骗技术和滥用搜索算法来推销毫不相关、主要以商业为着眼的网页。许多搜索引擎管理员认为任何搜索引擎优化的形式,其目的用来改进网站的页排名者,都是垃圾索引。然而,随时间流逝,业界内公众舆论发展出哪些是哪些不是可接受的、促进某站的搜索引擎排名与流量结果的手段。
因为搜索引擎以高度自动化的方式运作,网站员通常可以利用某些未被搜索引擎认可的手段、方法来促进排名。这些方法经常未被注意,除非搜索引擎雇员亲临该站点并注意到不寻常活动、或在排名算法上的某个小变化导致站点丢失以过去方式获取的高排名。有时某些公司雇用优化顾问评估竞争者的站点、和"不道德的"优化方法向搜索引擎报告。
当这些不好的垃圾索引被发现时,搜索引擎也许会对那些被发现使用不道德的优化手段者采取行动。在2006年2月,Google拿掉了BMW德国站和Ricoh德国站,因为他们用了这些方法。
斗蓬法(cloaking)简单来讲就是网站站长用了两版不同的网页来达到最优化的效果。一个版本只给搜索引擎看,一个版本给人看。搜索引擎说这种做法是不正规,如发现,该网站会永远从搜索引擎名单中被剔除[16]。但是对于如AJAX所撰写的动态网页,Google也有提出名为HTMLSnapshot的作法,以方便搜索引擎进行收录;
关键字隐密字(hiddentextwithkeywordstuffing)是另外一欺骗搜索引擎的做法。通常是指设置关键字的颜色和网页背景颜色一样,或通过csshiddenattribute(隐密特性)来达到优化效果。这种做法一旦被Google发现,遭遇也会是该网站从Google的数据库中除名。
桥页(doorwaypages)也叫门页,是通常是用软件自动生成大量包含关键词的网页,然后从这些网页做自动转向到主页。目的是希望这些以不同关键词为目标的桥页在搜索引擎中得到好的排名。当用户点击搜索结果的时候,会自动转到主页。有的时候是在桥页上放上一个通往主页的链接,而不自动转向主页。
付费链接(paidlink)是利用支付费用方式要求其他网站提供链接至自身网站,借此伪装高信任网站来欺骗搜索引擎,付费链接类型多为锚点文字(AnchorText)类型,Google的质量方针也明确指出以金钱交换的链接将可能对网站造成负面影响[19]。
链接农场(linkfarm)是故意在一些低质量,内容跟自己内容无关的网站上获取大量链接,藉以提高排名。
法律案例
2002年,搜索引擎操作者SearchKing在俄克拉何马法院提出了诉讼,反对搜索引擎Google。SearchKing的要求是,Google防止垃圾索引的手段形成了一条不公正的商业惯例。这也许可想像为垃圾电子邮件营销者控告反垃圾电子邮件者,如同许多反对地图以及其他DNS黑洞表(DNSBL)的案例。2003年1月,法院发布了一个Google胜诉的判决摘要。
高质量网站通常可以获得优秀的搜索排名
对许多有心于最大化网站附加价值的网站管理员们,可阅读由搜索引擎出版的、以及W3C发行的编码指南。如果遵循该指南,站点经常地更新,有用、原创的内容,和创建几个实用、有意义的导入链接,获得相当可观数目的基本搜索流量不是什么难事。
当站点拥有有用的内容,其它站点员自然而然会链接至该站,进而增加访客它的网页级别和访客流。当访客发现一个有用的网站,他们倾向于利用电子邮件或者及时消息链接介绍给其它访客。
总括来说,增进网站质量的搜索引擎优化实现很可能比直接查找操控搜索排名手段的短期实现要活得长久。顶尖的搜索引擎优化员们找寻的目标与搜索引擎追求发扬光大的东西二者不约而同。他们是:相关性、对他们用户有用的内容。换句话说,即向用户提供优质有用,而且独特的数据,以内容营销的方法,软性地吸引潜在的客户,自自然然地找到你的网页。
Google针对盖版广告进行算法打击
在2017年1月10日,Google正式加入新的算法变化,将盖版广告(Pop-up,又称侵入性插页式广告)纳入算法因素之一。举例来说,当网站使用了大篇幅的侵入性插页式广告,导致用户在手机的用户体验非常不佳时,就会受到此算法的影响,从而影响排名。但Google也表示,并非所有的侵入性插页式广告都会遭到算法的影响,只要合理的正当使用,就不会受到此算法的惩罚。举例来说,要求Cookie访问权限与年龄验证的画面就不会受到此算法的影响。Google这次会针对侵入性插页式广告进行排名的打击,主要是为了针对移动设备的用户体验提升,促使采用大量侵入性插页式广告的网站从而调整广告篇幅与方式,进而达到提升用户体验的目的。
国内流传的SEO优化原则
“内容为王,外链为皇,内链为妃,代码为将,关键词为相,结构为城,更新为太子”!
内容为王:原创和伪原创,相关且有利于用户体验!
外链为皇:是seo工作中也是很重要的一环,外链也有很多种,简单来说,有论坛外链,问答外链,分类信息,收藏夹,博客外链,友情链接等
外链相当于别的网站给你投票,pr和权重可以通过外链得到大幅度提升,外链也讲相关性和高权重高PR,只有相关且权威,投票才有价值。外链就是其他网站带网址或者锚文本指向你的网站。比如你在百度知道发一个你们网站的网址就是外链。
内链为妃:内链是为了利于用户通过点击链接,在网站不同的内容之间切换,同时也利于蜘蛛爬向更深更多的页面。内链就是你网站内部的网页之间的链接。比如,知道页面同时有新闻、网页、贴吧这类的页面链接词,这就是内链。
源代码简单就好,关键词有经济价值竞争小又有百度指数为妙,结构简洁明了就OK,更新有规律保证频率也是SEO重要的一点!
一
本号致力于好文推送,内容仅供学习、交流之用,对文中观点保持中立。
文章版权归原作者或机构所有,若涉及版权问题,烦请联系。
您的新营销顾问《新零售决策内参》