基础硬件

去年年底,多家大厂爆出开发数据中心ASIC芯片的消息,包括传闻苹果与博通合作开发面向AI推理的ASIC,亚马逊也在年底公布了其AI ASIC的应用实例,展示出ASIC的应用性价比远超GPU,加上博通财报AI业务同比大增220%,掀起了AI推理端的ASIC热潮。
虽然如今,各大芯片公司开始研发各自的互联技术,例如NVIDIA的NVLink、AMD的Infinity Fabric以及以太网互联,但是截至目前,PCIe仍然是服务器机架中的首选接口,它们通过铜缆或背板将资源连接在一起。随着PCIe 6.0以上的部署以及PCIe 7.0规范即将获得批准,PCIe将继续成为高速互连的关键参与者。
对于AI大模型来说,尤其是开源大模型,私有化、本地化部署将会是未来的一大应用趋势,但现阶段而言,私有化部署的高成本,令普通消费者望尘莫及。可以看到现阶段的大模型一体机,以及近期跟随热点推出的DeepSeek一体机都主要面向企业用户。
在DeepSeek-V3的技术报告中,DeepSeek团队向人工智能硬件供应商提出了芯片设计建议,包括提高张量核心中FP8通用矩阵乘法的累加精度、支持分块和块级量化等。对于芯片企业来说,除了持续提升芯片性能,能够与大模型开发团队进行紧密协作、将工程化做好做精,会更有机会在“效率至上”的训练竞赛中站到前排。
在未来,光纤网络的部署将更加高效、灵活和经济。随着技术的不断进步和市场需求的持续增长,光纤通信行业将迎来更广阔的发展空间,为全球数字化转型提供坚实的基础设施支持。
确保适当资源分配和减少瓶颈的一种方法是采用存储分解。独立扩展存储允许GPU饱和,否则在使用超融合解决方案的许多AI/ML工作负载中可能会遇到挑战。这意味着可以在不影响性能的情况下有效地扩展存储。
随着数据中心和AI处理器越来越依赖这种存储器来处理海量数据并实现低延迟,HBM的出货量预计将同比增长70%。HBM需求的激增预计将重塑DRAM市场,存储器制造商将优先生产HBM,而非传统的DRAM存储器类别。
在现代芯片设计中,NPU往往被集成到SoC中,作为SoC的一个重要组成部分。这种集成方式使得SoC在保持其高集成度、低功耗等优势的同时,能够进一步扩展其在人工智能领域的应用能力。
BBU在特定领域内是储能的一个重要方向,特别是在需要高可靠性和快速响应的小型或分布式应用场合。不过目前BBU暂未能完全取代UPS,BBU与UPS在很多场景下能够实现互补。随着技术的进一步发展和社会对稳定电力供应要求的提升,BBU将继续发挥重要作用,并可能在某些细分市场上占据一席之地。
加载更多

活动