第392章 液冷技术(第2页)
“三位教授。”
林渊目光诚恳地看向他们,“我虽然也懂点底层代码,但在大型实验室的顶尖硬件设备采购上,我那点常识肯定不如各位专家。
咱们这个实验室如果想出世界级的成果,到底需要配备什么级别的设备?”
李院长沉吟了一下,率先开口:“如果要搭建稳定的底层运算环境,我们院里之前的设想是,主要采购惠普或者IBM的塔式企业级服务器,求个安稳。”
周志华教授跟着补充道:“小林,既然你有自己的数据中心,我们的建议是上国产的‘曙光’系列刀片服务器集群。
做咱们这种机器学习的算法模型,传统的CPU阵列在并行处理上是业内最成熟的方案。”
林渊听完,摇了摇头问:“传统的CPU算力上限太低了。
既然咱们要搞最前沿的底层算法,为什么不直接搭建GPU显卡算力集群?”
王主任叹了口气,解释道:“林总,你可能对目前的硬件市场不太了解。
我们不是没想过用GPU,但是英伟达(Nvidia)今年刚推出的新一代架构,存在很严重的质量问题。”
第392章液冷技术
“是的。”
周志华接话道,“他们这一代核心的漏电率和发热量大得离谱,简直就是个火炉。
如果我们在实验室里满载高并发跑上几天,不仅散热是个大麻烦,甚至有直接烧毁主板的风险,这采购成本谁吃得消?所以大家现在都不建议搞英伟达,还是买曙光稳妥。”
林渊若有所思地点了点头:“原来是这样。
发热和次品率确实是个大问题。
但除了硬件本身,英伟达的CUDA并行计算架构生态,目前在市面上是不是没有任何替代品?”
周志华有些惊讶于林渊对专业名词的敏感度,点头确认:“确实,单论并行计算框架,CUDA确实是目前最好的选择。
但硬件缺陷摆在那,没办法硬上。”
林渊笑了笑:“如果只是发热问题,我们可以在机房基建的时候,直接抛弃传统的风冷,引入定制的液冷机柜系统。
同时,我这边可以带人写一套底层的功耗墙限制脚本,通过软件层面在它临界过热前自动降频调度。
这样就能完美规避烧毁风险。”
这下轮到对面三个人震撼了。
李院长瞪大了眼睛:“林同学……你连机柜液冷散热和显卡底层驱动调度都懂?这种技术性的难题,你真的可以解决吗?”
林渊笑着说,“其实我也不知道,反正试试看吧,正好我马上要去美国签一下合同。
这批设备我打算直接去硅谷,找英伟达原厂采购,专门定制一批企业级的TeSla加速卡,绝对比市面上的民用显卡靠谱得多。”
周志华若有所思地看了一眼林渊:“不要太为难自己。
如果你真的能把这个问题解决,那么小林同学,你可是牛大发了,你可比我们这几个人加起来都要厉害。”
随后,双方又在底层架构以及技术难题各方面探讨了一会,尤其是液态制冷这个超越时代的概念着重了解了一下。
本章未完,点击下一页继续阅读