案例3:人工智能
这是最近几年非常火爆的话题。我们先来简单回顾一下整个人工智能的发展史。在17世纪、18世纪,贝叶斯理论被提出来,贝叶斯理论是现在机器学习和人工智能的理论根基。但是在60年代之前,其实人工智能的发展几乎都是基于统计学的原理做的,我们会设定一个方程,通过过去的数据产生拟合方程,用拟合方程结果预测以后发生事件的可能性。60年代到90年代之间,整个人工智能的发展几乎是停滞的,没有太大的创新,没有太大的激动人心的成果。一直到90年代、2000年的时候,科学家们才开始转向用数据驱动的方法去做机器学习的训练,也就是我们现在所说的深度学习。同时伴随着GPU的出现,提供了廉价的算力,使得大规模的并行计算变得可能,才推动了机器学习或者深度学习的迅猛发展。
通过这三个例子,我们可以真实地看到算力的增长给人类社会、给科学技术带来了非常巨大的变革。
虽然过去几十年我们看到了算力的巨大增长,但是我们人类对算力的需求可以说没有止境,或者说我们现在所拥有的算力其实还是非常渺小。为什么这么说?我们还是用几个数据来说话。大家比较熟悉的1880态的显卡,它的算力是11tera Flops,Flops代表每秒钟浮点计算的显卡。一张1080态显卡计算里是10的12次方。有人估算过全球算力的综合,它在10的21次方,折算下来全球算力综合大概是11张1080态。科学家也对我们人的大脑做了估计,这是一个估计的值,它是在1万个yotta Flops,像多于10个28次方,什么概念?人的大脑的算力是全世界算力加起来总和的1000亿倍。今天做机器学习或者人工智能的研究的终极目标,其实是想达到AGI(通用人工智能)。今天大家所看到的机器学习或者深度学习出来的人工智能,可以说是一个伪的人工智能,因为它们只能解决一个特定范围、非常特定场景下的小问题,然而通用人工智能其实是想要让机器去像人一样思考,能够在各个复杂的欢喜下解决不同的问题。大家可以从这几个数字看出,如果我们要实现AGI,我们的算力至少要有成千上亿倍的增长才行。
随着制造工艺的不断优化、计算架构的不断迭代,我相信在不远的将来,我们的算力还是会以指数级别的增长。另一方面,我们的存量算力也有非常大的优化空间。据估计,目前全世界高端显卡的保有量在千万张级别,每年有几百万张的显卡被矿工买去挖矿。再加上ACC芯片,其实区块链在推动算力的增长包括芯片的研发上起到非常大的作用。
这几天的会议里面,大家可能听到一个非常多的词汇是“产业区块链”,什么叫“产业区块链”?产业区块链就是要让区块链跟具体的行业结合,但是一个现实是其他行业的朋友可能对区块链的了解并不多,有时候甚至是带有偏见的。我就在想我们是否可以打算力打通,让区块链推动算力的发展、推动其他行业的发展,从侧面跟其他行业融合,让他们了解区块链,推动区块链的落地应用。
巴比特抱着这个愿景投入了很多研发力量做矩池云的产品。我们的目标是想打通算力流通的障碍,带来更多的社会价值。我在这里举两个数字,让大家有更直观的感觉:今天如果你有一张1080态显卡拿去挖矿,你一天收益大概在5.6元。但是作为一个科学家或者工程师,你想去做模型的训练,你去主流的云计算提供商那边租GPU的服务器,你要支付的费用是10-20元/时,一边是5.6元/天的收益,另外一边是10-20元/时的费用,大家简单算一下这里面的收益和费用支出之间有10-20倍的差距。如果我们能把算力流通起来,应该是大家乐见其成的一件事情。
为了实现这个目标,我们做了很多努力,我们做了很多技术上的创新,我们研发了自己的智能调度算法。因为有别于传统的云计算提供商,其实他们的服务器都部署在IDC里面,有非常好的非常稳定的网络环境、非常低的延时。但是我们这边的算力是通过公网连接进来,很多时候网络环境不可控。很多时候,其实这些机器通过内网、通过路由器接入到我们这个平台,这些机器是没有自己的独立IP。没有独立的公网IP,外部用户无法直接访问它们,我们也研发了自己独有的网络穿透技术,让我们的用户得以有非常低的延时访问这些硬件。之前举的几个例子,大家能感受到算力和存储不分家,我们业绩预开源的技术,研发自己特有的具有高速缓存的分布式存储。
此文由 中国比特币官网 编辑,未经允许不得转载!:首页 > btc是什么 » “2019块链大会(乌镇)” 区块链大事件:区块链怎么去跟具体行业实现落地应用