1. XenForo 1.5.14 中文版——支持中文搜索!现已发布!查看详情
  2. Xenforo 爱好者讨论群:215909318 XenForo专区

科技 台积电:HPC芯片功率密度推动行业对1kW+散热系统需求增长

Discussion in '新闻聚焦' started by 漂亮的石头, 2022-06-28.

  1. 漂亮的石头

    漂亮的石头 版主 Staff Member

    Joined:
    2012-02-10
    Messages:
    488,179
    Likes Received:
    47
    近年来,超算等高性能系统的功率密度,始终保持着高速增长。不过台积电在其年度技术研讨会上表示 ——计算领域的一个明显趋势,就是每个芯片和机架单元的功耗,并不会坐等受到传统风冷散热的限制。显然,晶体管功耗的降低,并没有其尺寸缩减那样快。由于芯片制造商不会放弃性能上的定期增长,HPC 领域的晶体管功率正在飞涨。

    [​IMG]

    (viaAnandTech)​

    另一方面,小芯片技术正在为构建更强大的芯片铺平道路。但在性能与延迟优势之外,其在散热方面遇到的问题也不容忽视。

    以台积电为例,这家芯片代工巨头拥有 CoWoS 和 InFO 等现代技术,允许芯片制造商突破传统标线限制、构建集成更多芯片的系统级封装(SiP)。

    通过将四个标线大小的芯片结合到一起,其复杂性也会迎来巨大的增长 —— 每个 SiP 或拥有超过 3000 亿个晶体管。但在性能增长的同时,台积电及其合作伙伴也付出了功耗与发热方面的代价。

    至于英伟达的 H100 加速卡,此类旗舰产品的峰值性能功耗动辄超过 700W,所以在单封装系统里使用多个 GH100 芯片的难度也是可想而知。

    [​IMG]

    如果找不到更好的办法,未来我们需要为 1kW 及以上的多芯片 SiP 做好准备,以应对功耗 / 散热方面的严峻挑战。

    除了 700W 的英伟达 H100,英特尔Ponte Vecchio 和AMDInstinct MI250X 的故事也大致相同,且传统水冷散热方案也有其局限性。

    当芯片封装功率迈过 1000W 的关口时,台积电设想数据中心需要为此类极端的 AI / HPC 处理器使用浸没式的液冷散热系统,结果就是需要彻底重新改造数据中心的结构。

    尽管面临着短期和持续性挑战,英特尔等科技巨头还是相当看好浸没式液冷散热方案,并希望推动这项技术变得更加主流。

    [​IMG]

    此外去年,台积电有透露其已尝试过片上水冷方案,甚至据说可应对 2.6 kW 的 SiP 散热需求。

    对于愿意为此买单的客户(比如超大规模云数据中心的运营商们)来说,其有望推动究极 AI / HPC 解决方案的发展,但缺点是技术复杂性和成本都相当高昂。

    此前我们已经在 Cerebras 的大型“晶圆级”处理器产品上看到过相关演示(需要高功率压缩机来为芯片散热),但初期台积电还是会继续打磨 CoWoS 和 InFO 等封装工艺,以突破传统芯片设计的标线限制。
     
Loading...