61阅读

搜索引擎基本工作原理-利用搜索引擎提升网络品牌的基本方法

发布时间:2017-09-08 所属栏目:创业

一 : 利用搜索引擎提升网络品牌的基本方法

用搜索引擎提升网络品牌的基本方法——利用搜索引擎提升网络品牌的基本方法包括:尽可能增加网页被搜索引擎收录的数量;通过网站优化设计提高网页在搜索引擎检索结果中的效果,获得比竞争者更有利的地位等。
--------------------------------------------------------------------------------


  利用搜索引擎提升网络品牌的基本方法包括:尽可能增加网页被搜索引擎收录的数量;通过网站优化设计提高网页在搜索引擎检索结果中的效果,获得比竞争者更有利的地位等。这些方法实质上都是为了增加网站在搜索引擎的可见度,因此如何提高网站搜索引擎可见度成为搜索引擎提升网络品牌的必由之路。

  搜索引擎的网络品牌价值研究提出搜索引擎的网络营销价值不仅体现在网站推广和产品促销等基本层面,还表现在企业的网络品牌价值等方面。合理利用搜索引擎可以达到提升企业品牌的目的,如果对此不够重视或者方法不当,则有可能让企业品牌形象受到损害,因此有必要对利用搜索引擎提升网络品牌的基本方法有进行系统的认识。

  利用搜索引擎提升网络品牌的基本方法包括:尽可能增加网页被搜索引擎收录的数量;通过网站优化设计提高网页在搜索引擎检索结果中的效果(包括重要关键词检索的排名位置和标题、摘要信息对用户的吸引力等),获得比竞争者更有利的地位;利用关键词竞价广告提高网站搜索引擎可见度;利用搜索引擎固定位置排名方式进行品牌宣传;多品牌、多产品系列的分散化网络品牌策略等。这些方法实质上都是为了增加网站在搜索引擎的可见度,因此如何提高网站搜索引擎可见度成为搜索引擎提升网络品牌的必由之路。

  提高网站搜索引擎可见度也就是让用户在多个主要搜索引擎,利用相关关键词进行检索时,用户可以方便地获得企业的信息,主要措施包括基于提高搜索引擎自然检索结果的搜索引擎优化,以及在搜索引擎检索结果页面出现的不同形式的关键词广告等。

  搜索引擎化是通过对网站栏目结构、网站内容等基本要素的合理设计,使得网站内容更容易被搜索引擎检索,并且呈现给用户相关度最高的信息。利用搜索引擎自然检索方式增加网站搜索引擎可见度的基础,是让网站尽可能多的网页被主要搜索引擎收录,这也就是搜索引擎营销目标层次中的第一个层次。

  这里有必要提出的是,在实施搜索引擎优化方案时,如果采用不合理的方式,如被搜索引擎视为作弊的手段,则有可能造成网站被搜索引擎惩罚,轻者被视为低质量网页而在用户检索时发挥不良任何优势,重则网站被搜索引擎彻底清除。如果网站出现了这种结果,那么将严重影响企业的品牌形象,对整个网络营销策略也将是严重的打击。

  搜索引擎优化目前是一个比较容易引起误解的概念,往往与搜索引擎排名混为一谈,尤其是采用不正当手段的垃圾SEO。在搜索引擎优化应该重视什么”等文章对此进行过说明,并且在搜索引擎优化是非问题辨析”专题中用多篇文章分析了一些错误认识和手段。在新竞争力思想库也有多篇文章对此进行深度剖析,如“网站优化与搜索引擎排名SEO的本质区别搜索引擎优化不等于网站优化——网站优化设计的真正含义”等。搜索引擎优化包含许多细节内容,有关规范的搜索引擎优化的基本原则和方法,将在《搜索引擎营销》(冯英健著,机械工业出版社出版发行)中给予系统介绍。

  除了对网站进行必要的优化设计之外,通过付费广告的方式让企业信息出现在搜索结果页面的显著位置作为扩大品牌知名度的一种常用方式,并且具有更多的优点,作为自然检索的补充,可以方便地在更大范围内、以更灵活的方式展示企业的品牌形象和产品信息。付费搜索引擎广告的形式包括竞价排名广告、固定位置排名广告,以及出现在搜索引擎联盟网站上的基于内容定位的关键词广告(如goolge AdSense等)。搜索引擎关键词广告的优点及其操作手段等。

二 : 搜索引擎基本原理

摘要:最近读了《这就是搜索引擎:核心技术详解》一书,简要作个记录。[www.61k.com]

__________________________________________________

目录

【1】搜索引擎概述

【2】搜索引擎的基础技术

【3】搜索引擎的平台基础

【4】搜索结果的改善优化

__________________________________________________

【1】搜索引擎概述

过去的15年间,互联网信息急剧膨胀,靠人工的方式去筛选获取有用信息不再可能,因此搜索引擎应运而生。根据其发展,可以将其划为四个时代。

  • 分类目录。yahoo是这个时期的代表,采用纯人工方式收集,质量较高,但效率低。
  • 文本检索。采用了经典的信息检索模型,主要查询用户关键词语网页内容相似度,收录容量增加,但质量不是很好。如,早期的AltaVista.
  • 链接分析。典型:Google的PageRank,极大扩充了网页内容,质量有提高,随之而来各种作弊方法。
  • 用户为中心?现在的大部分搜索引擎对相同查询返回相同的结果,但是不同用户可能关注不一样,未来也许更多考虑用户的差异性。

说到发展,不得不提搜索引擎的三个主要目标,无论它往何方发展,以下三个目标总是一个很好的评估标准:

  • 更全:如何把更多相关的网页收录?
  • 更快:如何从数以亿计的网页中迅速返回结果?
  • 更准:如何把用户最感兴趣的结果呈现?

搜索引擎原理 搜索引擎基本原理

【2】搜索引擎的基础技术

这一部分主要从以下四个部分来讲述搜索引擎的基础技术,这四个部分也是搜索引擎的重要环节。

  • 网络爬虫
  • 建立索引
  • 内容检索
  • 链接分析

2.1 网络爬虫

网络爬虫是搜索引擎的下载系统,它的作用是内容的获取,手段就是在万维网中通过链接不断爬取收集各类网页。但是互联网的页面浩如烟海,而且每天不断有新的内容产生,根据爬取目标和范围,可以将爬虫简单分为以下几类:

  • 批量性爬虫:明确的抓取目标和范围,达到即停止
  • 增量型爬虫:应对网页不断更新的状态,爬虫需要及时反应。通用商业引擎一般都是这类
  • 垂直型爬虫:只针对某个特定领域的爬虫,根据主题过滤。

爬虫在爬取网页的时候,应该怎样确定下一步的目标呢?主要有以下策略:

  • 宽度优先:最简单的方式,即将某个页面中的链接依次加入待爬取队列
  • 局部PageRank:PageRank是一种网页重要性指标,这种方式根据一定时期内的局部PageRank值决定下一步爬取目标
  • OPIC:当下载当前网页后,将其重要性平均分给包含的链接,每次选取最重要的页面,不用迭代计算,速度较快
  • 大站优先:思想很简单,以网站为单位衡量页面重要性。

接下来,简要介绍一下搜索引擎中的一个重要问题:暗网抓取。所谓暗网,是指常规方式很难爬到的网页,而在网络中,这样的网是大量存在的。有的网页没有外链,有的主要内容存储于数据库中(如携程网),没有链接指向这些记录。暗网挖掘是商业搜索引擎的一大研究重点,Google是这样,百度的“阿拉丁”计划也在于此。

 2.2 建立索引

对于搜索引擎,索更是其中最重要的核心技术之一,面对海量的网页内容,如何快速找到包含用户查询词的所有网页?倒排索引在其中扮演了关键的角色。

对于一个网页,我们把它看做一个文档,其中的内容由一个个单词组成。为了对于用户的搜索词快速给出文档结果,我们要建立一个单词-文档的存储结构。倒排索引是实现单词—文档矩阵的一种具体存储形式。通过倒排索引,可以根据单词快速获取包含这个单词的文档列表。倒排索引主要由两个部分组成:单词词典和倒排文件。

单词词典主要是两种存储方式:哈希加链接和树形结构。

索引建立方法:

(1)两遍文档遍历

在第一遍扫描文档集合时,该方法并没有立即开始建立索引,而是收集一些全局的统计信息。比如文档集合包含的文档个数N,文档集合内所包含的不同单词个数M,每个单词在多少个文档中出现过的信息DF。在获得了上述3 类信息后,就可以知道最终索引的大小,于是在内存中分配足够大的空间,用来存储倒排索引内容。在第二遍扫描的时候,开始真正建立每个单词的倒排列表信息,即对某个单词来说,获得包含这个单词的每个文档的文档ID,以及这个单词在文档中的出现次数TF

(2)排序法

排序法对此做出了改进,该方法在建立索引的过程中,始终在内存中分配固定大小的空间,用来存放词典信息和索引的中间结果,当分配的空间被消耗光的时候,把中间结果写入磁盘,清空内存里中间结果所占空间,以用做下一轮存放索引中间结果的存储区。这种方法由于只需要固定大小的内存,所以可以对任意大小的文档集合建立索引。

(3)归并法

在分配的内存定额被消耗光时,排序法只是将中间结果写入磁盘,而词典信息一直在内存中进行维护,随着处理的文档越来越多,词典里包含的词典项越来越多,所以占用内存越来越大,导致后期中间结果可用内存越来越少。归并法对此做出了改进,即每次将内存中数据写入磁盘时,包括词典在内的所有中间结果信息都被写入磁盘,这样内存所有内容都可以被清空,后续建立索引可以使用全部的定额内存。

索引更新策略:

  • 完全重建
  • 再合并策略
  • 原地更新策略
  • 混合策略

2.3 内容检索

内容检索模型是搜索引擎排序的理论基础,用来计算网页与查询的相关性。

常用的检索模型

  • 布尔模型
  • 向量空间模型
  • 概率模型
  • 语言模型
  • 机器学习排序

检索系统评价指标

  • 精确率:搜索结果中相关文档的比例 A/(A+B)
  • 召回率:结果中相关文档占所有相关文档的比例 A/(A+C)

    只要操纵搜索引擎搜索结果能够带来收益,那么作弊动机就会始终存在,尤其是在网络营销起着越来越重要宣传作用的时代尤其如此。作弊与反作弊是相互抑制同时也是相互促进的一个互动过程,“道高一尺,魔高一丈”的故事不断重演。前述内容主要是以技术手段来进行反作弊,而事实上纯粹技术手段目前是无法彻底解决作弊问题的,必须将人工手段和技术手段相互结合,才能取得较好的反作弊效果。技术手段可以分为相对通用的手段和比较特殊的手段,相对通用的手段对于可能新出现的作弊手法有一定的预防能力,但是因为其通用性,所以针对性不强,对特殊的作弊方法效果未必好。而专用的反作弊方法往往是事后诸葛亮,即只有作弊行为已经发生并且比较严重,才可能归纳作弊特征,采取事后过滤的方法。人工手段则与技术手段有很强的互补性,可以在新的作弊方式一出现就被人发现,可以看做一种处于作弊进行时的预防措施。所以从时间维度考虑对作弊方法的抑制来说,通用反作弊方法重在预防,人工手段重在发现,而专用反作弊方法重在事后处理,其有内在的联系和互补关系存在。

    4.2 分析用户意图

     准确分析用户的搜索意图是目前搜索引擎的重点研究方向。

    用户的意图可以初略分为

    • 导航型
    • 信息型
    • 事物型

    搜索日志是挖掘用户意图的重要数据来源

    • 点击图:用户在查询结果出来后点击的链接可能更是他希望的结果
    • 查询回话:用户在短时间的连续查询词存在相关性
    • 查询图:构建用户查询之间的结构关系

    用户在搜索时可能想不到合适的搜索词,或者关键词输入错误,这时候就需要帮助用户澄清搜索意图。

    常见的方法是:

    • 相关搜索
    • 查询纠错

     4.3 网页去重

    经过统计,网络中有相当比例的网页是近似相同或者完全相同的,高达29%。如果搜索返回大量相似网页,显然降低了搜索结果质量。针对这一现象,网页去重就显得十分必要。

    网页去重一般是在爬虫抓取到网页后,对其建立索引之前。去重算法应该兼顾准确性和运行效率。

    典型的网页去重算法:

    • 特征抽取
    • 文档指纹生成
    • 相似性计算

    几种典型的去重算法:

    • Shingling算法:将文档中连续的单词序列作为特征
    • I-Match算法:先统计一个全局的特征词典,然后用单文档的特征与其比较
    • SimHash算法:可能是目前最优秀的去重算法
    • SpotSig算法

    4.4 缓存机制

    缓存机制可以加快用户相应速度,节省计算资源

    缓存系统的目标是最大化缓存命中率和保持缓存与索引的一致性

    缓存的对象主要是网页搜索结果和查询词对应的倒排列表

    缓存淘汰策略主要有动态策略和混合策略

    三 : 科普:搜索引擎的基本工作原理

    今天江西SEO曾庆平写篇科普文,讲讲搜索引擎的技术机理和市场竞争的一些特点。当然,作为从事或有兴趣从事流量运营的朋友,是可以用另一个角度去理解本文。

    搜索引擎的核心技术架构,大体包括以下三块,第一,是蜘蛛/爬虫技术;第二,是索引技术;第三是查询展现的技术; 当然,我不是搜索引擎的架构师,我只能用比较粗浅的方式来做一个结构的切分。

    1、蜘蛛/爬虫技术

     蜘蛛,也叫爬虫,是将互联网的信息,抓取并存储的一种技术实现。

    搜索引擎的信息收录,很多不明所以的人会有很多误解,以为是付费收录,或者有什么其他特殊的提交技巧,其实并不是,搜索引擎通过互联网一些公开知名的网站,抓取内容,并分析其中的链接,然后有选择的抓取链接里的内容,然后再分析其中的链接,以此类推,通过有限的入口,基于彼此链接,形成强大的信息抓取能力。

    有些搜索引擎本身也有链接提交入口,但基本上,不是主要的收录入口,不过作为创业者,建议了解一下相关信息,百度,google都有站长平台和管理后台,这里很多内容是需要非常非常认真的对待的。

    反过来说,在这样的原理下,一个网站,只有被其他网站所链接,才有机会被搜索引擎抓取。如果这个网站没有外部链接,或者外部链接在搜索引擎中被认为是垃圾或无效链接,那么搜索引擎可能就不抓取他的页面。

    分析和判断搜索引擎是否抓取了你的页面,或者什么时候抓取你的页面,只能通过服务器上的访问日志来查询,如果是cdn就比较麻烦。 而基于网站嵌入代码的方式,不论是cnzz,百度统计,还是google analytics,都无法获得蜘蛛抓取的信息,因为这些信息不会触发这些代码的执行。

    一个比较推荐的日志分析软件是awstats。

    在十多年前,分析百度蜘蛛抓取轨迹和更新策略,是很多草根站长每日必做的功课,比如现在身价几十亿的知名80后上市公司董事长,当年在某站长论坛就是以此准确的分析判断而封神,很年轻的时候就已经是站长圈的一代偶像。

    但关于蜘蛛的话题,并不只基于链接抓取这么简单,延伸来说

    第一,网站拥有者可以选择是否允许蜘蛛抓取,有一个robots.txt的文件是来控制这个的。

    一个经典案例是 https://www.taobao.com/robots.txt

    你会看到,淘宝至今仍有关键目录不对百度蜘蛛开放,但对google开放。

    另一个经典案例是 http://www.baidu.com/robots.txt

    你看出什么了?你可能什么都没看出来,我提醒一句,百度实质上全面禁止了360的蜘蛛抓取。

    但这个协议只是约定俗成,实际上并没有强制约束力,所以,你们猜猜,360遵守了百度的蜘蛛抓取禁止么?

    第二,最早抓取是基于网站彼此的链接为入口,但实际上,并不能肯定的说,有可能存在其他抓取入口,比如说,

    客户端插件或浏览器, 免费网站统计系统的嵌入式代码。

    会不会成为蜘蛛抓取的入口,我只能说,有这个可能。

    所以我跟很多创业者说,中国做网站,放百度统计,海外做网站,放google analytics,是否会增加搜索引擎对你网站的收录?我只能说猜测,有这个可能。

    第三,无法被抓取的信息

    有些网站的内容链接,用一些 特殊效果完成,比如浮动的菜单等等,这种连接,有可能搜索引擎的蜘蛛程序不识别,当然,我只是说有可能,现在搜索引擎比以前聪明,十多年前很多特效链接是不识别的,现在会好一些。

    需要登录,需要注册才能访问的页面,蜘蛛是无法进入的,也就是无法收录。

    有些网站会给搜索特殊页面,就是蜘蛛来能看到内容(蜘蛛访问会有特殊的客户端标记,服务端识别和处理并不复杂),人来了要登录才能看,但这样做其实是违反了收录协议(需要人和蜘蛛看到的同样的内容,这是绝大部分搜索引擎的收录协议),有可能遭到搜索引擎处罚。

    所以一个社区要想通过搜索引擎带来免费用户,必须让访客能看到内容,哪怕是部分内容。

    带很多复杂参数的内容链接url,有可能被蜘蛛当作重复页面,拒绝收录。

    很多动态页面是一个脚本程序带参数体现的,但蜘蛛发现同一个脚本有大量参数的网页,有时候会给该网页的价值评估带来困扰,蜘蛛可能会认为这个网页是重复页面,而拒绝收录。还是那句话,随着技术的发展,蜘蛛对动态脚本的参数识别度有了很大进步,现在基本上可以不用考虑这个问题。

    但这个催生了一个技术,叫做伪静态化,通过对web服务端做配置,让用户访问的页面,url格式看上去是一个静态页,其实后面是一个正则匹配,实际执行的是一个动态脚本。

    很多社区论坛为了追求免费搜索来路,做了伪静态化处理,在十多年前,几乎是草根站长必备技能之一。

    爬虫技术暂时说到这里,但是这里强调一下,有外链,不代表搜索蜘蛛会来爬取,搜索蜘蛛爬取了,不代表搜索引擎会收录;搜索引擎收录了,不代表用户可以搜索的到;

    site语法是检查一个网站收录数的最基本搜索语法,我开始以为是abc的常识,直到在新加坡做一些创业培训后交流才发现,大部分刚进入这个行业的人,或者有兴趣进入这个行业的人,对此并不了解。

    一个范例,百度搜索一下 site:qingpingseo.com

    2、索引系统

    蜘蛛抓取的是网页的内容,那么要想让用户快速的通过关键词搜索到这个网页,就必须对网页做关键词的索引,从而提升查询效率,简单说就是,把网页的每个关键词提取出来,并针对这些关键词在网页中的出现频率,位置,特殊标记等诸多因素,给予不同的权值标定,然后,存储到索引库中。

    那么问题来了,什么是关键词。

    英文来说,比如 this is a book,中文,这是一本书。

    英文很自然是四个单词,空格是天然的分词符,中文呢?你不能把一句话当作关键词吧(如果把一句话当作关键词,那么你搜索其中部分信息的时候,是无法索引命中的,比如搜索一本书,就搜索不出来了,而这显然是不符合搜索引擎诉求的)。所以要分词。

    最开始,最简单的思路是,每个字都切开,这个以前叫字索引,每个字建立索引,并标注位置,如果用户搜索一个关键词,也是把关键词拆成字来搜索再组合结果,但这样问题就来了。

    比如搜索关键词 “海鲜”的时候,会出现结果,上海鲜花,这显然不是应该的搜索结果。

    比如搜索关键词 “和服”的时候,会出现结果,交换机和服务器。

    这些都是蛮荒期的google也不能幸免的问题。

    到后来有个梗,别笑,这些都是血泪梗,半夜电话过来,说网监通过搜索发现你社区有淫秽内容要求必须删除,否则就关闭你的网站,夜半惊醒认真排查,百思不得其解,苦苦哀求提供信息线索,最后发现,有人发了一条小广告,“求购二十四口交换机” 。 还有,涉嫌政治敏感,查到最后 “提供三台独立服务器”,  看出其中敏感词了没?你说冤不冤。 这两个故事可能并不是真的,因为都是网上看到的,但是我想说,类似这样的事情真的有,并非都是空穴来风。

    所以,分词,是亚洲很多语言需要额外处理的事情,而西方语言不存在的问题。

    但分词不是说说那么简单,比如几点,1:如何识别人名?2、互联网新词如何识别?比如 “不明觉厉”。3、中英混排的坑,比如QQ表情。

    做一个分词系统,说到底也不难,但是要做一个自动学习,与时俱进,又能高效率灵活的分词引擎,还是很有技术难度的。  当然,这方面我不是专家,不敢妄言了。

    现在机器学习技术发达了,特别是google在深度学习领域拥有领先优势,以前很多通过人工做标定,做分类的工作可以交给算法完成,从某种意义来说,本地化的工作可以让机器学习去完成;未来,也许深度学习技术可以自己学习掌握本地化的技巧。 但我想说两点,第一,从搜索引擎发展历史看,在深度学习技术还没成熟的情况下,本地化的工作是非常重要的,也是很重要的决定竞争成败的要素;第二,即便现在深度学习已经很强大,基于当地语言的人工参与,标定,测试,反馈,一些本地化的工作依然对深度学习的效率和效果拥有不可替代的作用。

    索引系统除了分词之外,还有一些要点,比如实时索引,因为一次索引库的更新是个大动静,一般网站运营者知道,自己网站内容更新后,需要等索引库下一次更新才能看到效果,而且索引库针对不同权重的网站内容,更新的频次也不太一样。 但诸如一些高优先的资讯网站,以及新闻搜索,索引库是可以做到近似实时索引的,所以我们在新闻搜索里,几分钟前的信息就已经可以搜索到了。

    我以前经常吐槽一个事情,我在百度空间发表的文章,每次都是google率先索引收录,当时他们的解释是,猜测是因为很多人通过google阅读器订阅我的博客,而google阅读器很可能是google快速索引的入口。(然并卵,百度空间已经没有了,google阅读器也没有了。)

    索引系统的权值体系,是所有SEOER们最关心的问题,他们经常通过不同方式组合策略,观察搜索引擎的收录,排名,来路情况,然后通过对比分析整理出相关的策略,这玩意说出来可以开很长一篇了,但今天就不提了。

    但我说一个事实,很多外面的公司,做SEO的,会误认为百度里面的人熟悉这里的门道和规律,很多人高价去挖百度的搜索产品经理和技术工程师去做SEO,结果,呵呵,呵呵。 而外面那些草根创业者,有些善于此道的,真的比百度的人还清楚,搜索权值的影响关系,和更新频次等等,比如前面说到的,身价几十亿的那个80后创业者。

    基于结果反推策略,比身在其中却不识全局的参与者,更能找到系统的关键点,有意思不。

    3、查询展现

    用户在浏览器或者在手机客户端输入一个关键词,或者几个关键词,甚至一句话,这个在服务端,应答程序获取后处理步骤如下

    第一步,会检查最近时间有没有人搜索过同样的关键词,如果存在这样的缓存,最快的处理是将这块缓存提供给你,这样查询效率最高,对后端负载压力最低。

    第二步,发现这个输入查询最近没有搜索,或者有其他条件的原因必须更新结果,那么会将这个用户输入的词,进行分词,没错,如果不止一个关键词,或者是一句话的情况下,应答程序会又一次分词,将搜索的查询拆成几个不同的关键词。

    第三步,将切分后的关键词分发到查询系统中,查询系统会去索引库查询,索引库是个庞大的分布式系统,先分析这个关键词属于哪一块哪一台服务器,索引是一种有序的数据组合,我们用可以用近似二分法的方式思考,不管数据规模多大,你用二分法去查找一个结果,查询频次是log2(N),这个就保证了海量数据下,查询一个关键词是非常快非常快的。 当然,实际情况会比二分法复杂很多,这样说比较容易理解而已,再复杂些不是我不告诉大家,是我自己都不是很清楚呢。

    第四步,不同关键词的查询结果(只是按权值排序的部分顶部结果,绝对不是全部结果),基于权值倒序,会再汇总在一起,然后把共同命中的部分反馈回来,并做最后的权值排序。

    记住,搜索引擎绝对不会返回所有结果,这个开销谁都受不了,百度也不行,google也不行,翻页都是有限制的。

    再记住,如果你多个关键词里有多个不同品类冷门词,搜索引擎有可能会舍弃其中一个冷门词,因为汇总数据很可能不包含共同结果。搜索技术不要神话,这样的范例偶尔会出现。

    这是三大部分,多说一点,其实还有第四部分。

    4、用户点击行为采集和反馈部分

    基于用户的翻页,点击分布,对搜索结果的优劣做判定,并对权值做调整,但这个早期搜索引擎是没有的,后面才有,所以暂时不列为必备的三大块。

    此外,一些对搜索优化的机器学习策略,对易混词识别,同音词识别等等,相当部分也都基于用户行为反馈进行,这是后话,这里不展开。

    关于第四部分,我以前说过一个词,点击提权,我说这个词价值千金,我猜很多人并没理解。没理解就好,要不我要被一些同行骂死了。

    以上是单指搜索引擎的工作原理,和一些技术逻辑,当然,只是入门级的解读,毕竟再深入就不是我能讲解的了。

    但搜索引擎的本地化,并不局限于搜索技术的本地化。

    百度的强大,不只是搜索技术,当然有些人会说百度没有搜索技术,这种言论我就不争论了,我不试图改变任何人的观点,我只列一些事实而已。

    百度的强大还来自于两大块,第一是内容护城河,第二是入口把控。

    前者是百度贴吧,百度mp3,百度知道,百度百科,百度文库

    后者是hao123和百度联盟。

    这两块都是本地化,google进中国的时候,在这两块都有动作。

    投资天涯,收购265,以及大力发展google联盟,这些都是本地化。

    此外,重申一下,百度全家桶的出现以及,百度全家桶和hao123的捆绑,是360崛起之后的事情,hao123从百度收购到360崛起之前,一直风平浪静的没做任何推广和捆绑,从历史事实而言,请勿将本地化等同于流氓化。

    作者:江西SEO曾庆平(www.qingpingseo.com)

    版权所有。转载时必须以链接形式注明作者和原始出处。请大家尊重原创,珍惜别人的汗水!

    四 : SEO基础知识:搜索引擎的工作原理简析

      搜索引擎优化(SEO)的主要任务之一就是提高网站的搜索引擎友好性。而搜索引擎优化的每个环节都与搜索引擎存在必然的联系,研究搜索引擎优化实际上是对搜索引擎工作过程的逆向推理。因此,学习搜索引擎优化应该从最基本的搜索引擎的工作原理开始。

      搜索引擎的主要工作包括:页面收录、页面分析、页面排序及关键词查询。

      1.页面收录

      页面收录指搜索引擎通过蜘蛛程序在互联网上面抓取页面进行储存的过程,它为搜索引擎开展各项工作提供数据支持。

      2.页面分析

      搜索引擎首先对原始页面建立索引,实现对页面的快速定位,然后提取页面的正文信息,并对正文信息进行且次已经这些词建立索引,从而得到页面与关键词的对应关系,最后搜索引擎对关键词进行重组,并建立关键词与页面间对关系的反向所以列表,从而能够根据关键词快速定位至相应的页面。

      3.页面排序

      搜索引擎结合页面的内外部因素计算出页面与某个关键词的相应程度,从而得到与该关键词相关的页面排序列表。

      4.关键词查询

      搜索引擎接受来自用户的查询请求,并对查询信息进行切词及匹配后,再想用户返回相应的页面排序列表。

      以上是基本的搜索引擎工作原理,相信对大家学习SEO会有一定的帮助!

      SEO专题推荐:

      关键词优化专题:网站关键词优化没效果?来这里学习最实用的关键词优化技巧!

      内链优化专题:最能提升网站权重的内链部署优化技巧与方法

      外链建设专题:高质量自然外链怎么做?读完这些你将质的飞跃

      网站降权专题:2015年最有用的网站降权、被K、被黑、被攻击的解决方法

      用户体验专题:学习完这些,作为站长的你可以秒懂如何做网站用户体验

      行业网站专题:优化行业网站的“葵花宝典”看完后无优化压力

    本文标题:搜索引擎基本工作原理-利用搜索引擎提升网络品牌的基本方法
    本文地址: http://www.61k.com/1111472.html

61阅读| 精彩专题| 最新文章| 热门文章| 苏ICP备13036349号-1