在早期,搜索引擎最常见的做法就是直接对网站进行整个抓取,并且刚开始的时候一般只抓取网页的标题,这就像是将图书馆中所有书籍的名字都登记在自己的本地数据库中,别人要想查找相关内容,使用关键字在这个数据库中进行匹配,如果发现标题中含有这个关键字,那么就可以认为这本“书”就是用户所需要找的内容,便将这本“书”所在的“书架”告诉用户,让他去访问。
书即网站,书所在书架则就是网站的地址链接。
后来,搜索引擎规模化,公司化之后,财大气粗的公司拥有大量的资金,可以购置大量的服务器和硬盘,于是便开始了将网站上的所有网页都给抓取下来,也就是说,用户不但可以进行标题搜索,还可以进行全文搜索。这无疑是一种进步,因为标题通常情况下所包含的信息只有那么多,不可能涵盖所有内容。
但是,这是一个信息大爆炸的时代,互联网就是一个知识的海洋,网站成千上万,一个关键词搜索出来的结果往往也有成千上万,如果在这些结果中找到自己所需要的信息,又成为了一个难题。
这是所有搜索引擎都在研究的问题,归根结底,就是将网页进行排序,越好的网页应该越排前列,这样用户就不需要花费多少时间就能找到自己所需要的信息。
说起来容易做起来却是相当困难,各个搜索引擎公司都有自己的排序算法,这些都是商业机密,不对外公开。而用户都是非常现实的,如果你的产品好,的确可以带来便利,那么他就会使用,并且还会推荐别人使用。
林鸿所发现的这个bckrup就是看到别人推荐才发现的,并且一用之下,发现它的算法的确很强,通常情况下都能很快找到自己所要找的信息。
他经过研究发现,这个搜索引擎使用了一种名为pagerank的算法。
实际上,林鸿也不知道到底是不是叫这个名称,他之所以称之为pagerank,是因为这个名词多次出现在源代码中。
每一个网站都对应着一个pagerank值,服务器上专门有一个数据库,用来保存各个网站的pagerank值。 林鸿将整个源代码通读了一遍,他发现pagerank分为十一个等级,从0级到10级,级别越高就代表着质量越好,那么该网站的排名也就越高。
至于如何计算网站的pr值也非常巧妙,则是根据链接的数量而进行计算的。
简单说来就是统计所有蜘蛛所发现的那些网站上的链接,这些网站中通常都含有指向其他网站的链接,将其看成是一种投票,谁有一个链接,就得一分,谁的链接最多,谁的分数就越高,再将这个分数进行转换,便有了pr值,。
这个算法的核心思想是,如果你的网站质量好,那么别人就会喜欢给你做链接,向别人推荐。
林鸿猜测,这种算法思想,很可能是来自科学界的文献引用计算原则。
科学家写文献和论文的时候,通常需要查阅大量的资料,并且一般都会在自己的论文的末尾将查阅到的资料进行引用。一般认为,引用越多的文献,质量便越高。
这个backrub的网站正是使用这种方式来对网页进行评级,从而让用户获得了比较好的体验。
林鸿在这台服务器中,看到了一份商业计划书,这个网站的主任larrypage似乎打算将这个网站进行商业化,正打算寻找天使投资人。
看到这里,林鸿有些心动了。
他对这个项目非常看好,虽然目前仅仅只是一个雏形,还有很多不足,不过这并没有关系,还可以继续进行完善。
这个项目很符合他一直以来都在想的一个问题,那就是在信息大爆炸时代,如何对这些信息进行加工处理,并且从中发现商业价值。
而很显然,这个backrub正好非常符合。
林鸿思考良久,最终决定投资这个项目。
林鸿调出比特信使,给菲丽丝发了几段信息,让她关注一下斯坦福的这个项目,如果他们寻求投资,则以他的名义进行接触。
发完这些消息之后,他便给菲丽丝发了一条短信,让她有时间的话就上线查收一下。
没想到刚短信刚发完,对方就立刻回信了,说她马上上线,让他不要离开。
很快,比特信使上,菲丽丝便发来了消息。
其实林鸿也可以使用电子邮件和她进行通信,不过他已经习惯了使用比特信使,电子邮件如果需要进行加密的话,还需要使用诸如pgp这样的加密软件,而菲丽丝却对这些软件没什么使用天赋,并且也不愿意去学习。
... -->>
本章未完,点击下一页继续阅读