() 公允地说,顾玩给麻依依安排的那些任务里面,“分布式编译架构”是最容易琢磨出来的一个突破点。
这玩意儿所需的知识结构,很契合计算机专业的资优生。
另一方面,地球人当年关注分布式编译,其实是跟摩尔定律瓶颈临近,有莫大的关系地球上,那条“cpu单位面积算力每过18个月就能提升一倍”的摩尔定律,其实早在2005~2006年前后,就逐步陷入瓶颈了。
当时,05年暑期档英特尔发布的最新款cpu,单位算力就根本达不到04年初版本的翻倍了,大约只有04年春版本的1.6~1.7倍。
到06年底/07年初的英特尔单核cpu版本推出时,距离05年暑期档版本又过去大约18个月,但是这一次,单位算力只有05年暑期档版本的1.5倍。
可见,算力倍增的速度,在逐步放缓。当时cpu的加工工艺大概还在四十个纳米的水平,瓶颈就已经凸显了。这不是英特尔喜欢挤牙膏,而是真的挤不动更快了。
但地球上的普通消费者,在05/06年那阵子,并没有感受到电脑性能的提升速度明显放缓这是因为,英特尔提前知道自己挤牙膏挤不动了,所以在那阵子推出了个叫“双核”的技术。
cpu单位算力提升速度不够,那就搞新的算力分布架构,用核心数量来凑。又过了两年,到08年前后,双核也撑不住了,就上四核。
至于后来的分布式编译架构/云计算,有个最大的外部诱因,就是“增加cpu核心”这条思路,也渐渐变得不划算了。
不可能无限堆砌32/128/512核,既然如此,不如直接搞分布式,把算力任务充分并行拆解的底层架构问题,给解决了。从此,咱也别纠结单台cpu的算力了,直接芯海战术堆规模。
蓝洞星上,基础科研落后于地球,商业模式创新领先于地球。
至于芯片工业,因为这玩意儿虽然受制于基础科研,但本身也属于能够赚钱养活研发的产业,所以两相抵消,差不多跟地球上发展还算同步。
因此,在99年的蓝洞星上,还要再过上三四年,才能感受到“摩尔定律即将失效”的危机。
既然如此,蓝洞星人目前对于“分布式编译”和其他算力分布架构的关注度,也就很低。
即使这玩意儿你真走心研究研究,发现并没有那么难,但偏偏就是没人去走这个心。
大家都觉得自己的努力,会因为英特尔的强大,而变得没那么大意义,就懒得琢磨了。
一个优美的漏,就这么摆在那里,等着一个只要有盟校计算机专业研究生水平的人,想捡就能捡走。
……
99年10月份,刚刚大二上学期才开始不久的时候,那个时间点的麻依依,当然是没有“盟校计算机系研究生”的水平的。
但是,在针对性的刻苦钻研之下,在顾玩的调教指导之下,孤注一掷挖掘,到了期末的时候,麻依依也差不多把这个问题琢磨得融会贯通了。
说到底,还是捡漏机会难得,天赐之便。
12月在自家学校实验室鼓捣架构成功、试跑了半个月,确认编译效率提升,数据搜集充分,她就开始写论文。
这篇论文,顾玩也不打算挂名,就让老婆一个人写了。毕竟后续能让麻依依自己独立完成的课题不多了,只会越来越难。让她的出道之作能独立完成,对她将来一辈子的名声也好听。
否则全程靠老公,还不被人说成是硬饭软吃。
另外,顾玩也不是什么喜欢送妹成果的人。他很有分寸,哪怕是自己合法的老婆,他也不会无原则地给成果。
首先得确保对方的能力真的做得出来,将来别人问起来也能聊得头头是道,这样才能把论文转化为学术威望。如果驾驭不住学术威望的话,那就适