gpu之所以能取代cpu成为人工智能计算的主要工作,就是因为gpu主要是以处理并行计算为主。
而人工智能的神经网络算法趋势,所需要的就是并行计算,刚好和gpu相匹配。
一旦是并行计算了,就没法像流水线工人那样,靠着堆积数量去提高生产力了,这就得靠着实打实的硬实力了。
比如一个博士生和一个小学生算数学题,小学生根本不行。哪怕把一万、十万个小学生组合起来,也不可能是一个博士生的对手。
这就是高通、英特尔这些主要以销售cpu为主的公司,市值最高也就是几千亿美元,而以卖gpu为主的英伟达,市值却能冲上5000亿美元、1万亿美元、2万亿美元甚至更高的原因。
cpu再是核心技术,也有可替代性。
gpu却没法靠着堆量的方法来替代。
没有顶级的gpu,就无法提供顶级的算力,就不可能成为顶级的人工智能公司。
就像十年后的2023年国内的人工智能现状。
世界上最好的gpu芯片是英伟达的h100,售价4万美元一块。其次是英伟达的a100,售价1万美元一块。
再多的a100堆积,也无法量变产生质变,去达到h100的ai算力,这是由芯片结构的字符长度决定的。
32位的长度,在16位的长度面前就是可望而不可及。
就像一个人的逻辑层次可以达到32层,把1千个1万个16层思维逻辑的人聚合在一起,他们的思维层次也只能局限于16层以内。
同期国内的华为昇腾910b,单块售价4万美元……处理简单计算和线性计算的能力可以媲美英伟达的a100。但线性计算没意义,人工智能需要的是深度并行计算的能力,这可比a100差远了,更别说跟h100比了。
而这也就决定了国内ai产业的大趋势。
人工智能需要大量的算力,都需要由云计算平台来提供。阿里云有更强大的国际化背景,所以能购买到更多的英伟达的a100和h100芯片,就可以为用户提供国内最顶级的ai算力。
所以国内绝大部分的正经做人工智能产品的公司,要么向阿里云靠拢了,要么正走在向阿里云靠拢的路上。
百度云和企鹅云,国际化不如阿里,采购到的英伟达显卡数量就没阿里那么多,就会在这个领域逐步地被甩开。
那些没有国际资源,买不到英伟达的显卡,只能去打着营销、爱国的名义去支持国货的云计算平台,就只能玩一玩营销了,就只能通过营销去讨好当局和大众,去搞一搞政务云这类的靠着政商关系来生存的业务。
现在才2013年,还早着呢。
别说周不器跟唐天华这么一个外人讨论人工智能的计算解决方案了,就算是很多行业内的顶级科学家,都未必能在短时间内转过这个弯。
唐天华一脸茫然的问:“什么gpu?gpu不是显卡吗?”
周不器道:“用显卡来运行ai软件啊。”
“显卡不是渲染图像的吗?”
“呃……”
“好吧……”唐天华根本不知道这是怎么回事,不过他知道周总是科技行业的领袖级企业家,他不可能无的放矢,就摇了摇头,“具体我不太清楚,我只会使用这款软件。”
的确,卢卡斯影业不是软件公司。
他们开发出来的软件产品,都是专业级的,门槛很高。过去学习半年,能学会他们
的软件的使用方法,就算不错了。
周不器看这情况,也就基本上有了一个判断