九游会ag永久网址:
AI集成至数据中心意味着服务供给商需求平衡规划、功率和运营复杂性,以支撑日渐增加的AI作业负载。高通技能公司在2026年国际移动通讯大会(MWC 2026)上展现机架级AI推理体系,将加快、内存、互联技能和办理软件集成至一个协同的、可随时布置的渠道。硬件、衔接和软件融为一体,构成单一的数据中心渠道,旨在跟着客户AI作业负载的演从而完结灵敏扩展。
AI对数据中心的影响不再停留在理论层面。跟着模型复杂度和处理量继续攀升,布置形式正在改变,服务供给商亟需在规划、功率和运营复杂性之间完结奇妙平衡,以坚持竞争力并保持盈余才干。高通技能公司一直聚集于以清晰方针应对这一革新时间,将通过验证的体系级优势应用于不断演进的AI推理根底设施需求。
高性能、高能效的AI加快;机架级体系模块规划;大规划布置和办理这些环境所需的软件。
这一体系级处理方案旨在完结继续运营、可靠性和规划化,相同构成了高通在工业和根底设施核算范畴更广泛地演进的根底。在MWC 2026,咱们将通过高通展台的展览展现共享这些范畴的实在发展。
一个最中心的部分将是Qualcomm AI200机架体系将加快卡、内存架构、互连技能和办理软件整合至一致的、可布置的体系。这一机架级处理方案体现出客户对AI根底设施的评价方法正日益改变不再将其视为孤立的组件,而是面向继续运转而规划的完好可保护体系。Qualcomm AI200机架体系供给了突破性的43 TB内存容量,使其成为运转最新、最大旗舰AI模型推理的抱负挑选。Qualcomm AI200机架体系将于本年开端布置,展现了高通技能公司怎么样才干处理核算和衔接瓶颈不仅在边际侧,现在更是深化数据中心的中心层面。
咱们还将演示在单个Qualcomm AI200加快卡上运转3500亿参数的生成式AI模型,展现现在可在单个板卡上完结的规划。Qualcomm AI200渠道旨在支撑扩展至1万亿参数的模型[1],进一步凸显体系平衡的重要性内存容量、数据传输和功率协同运作,以供给超大规划下真正可落地的生成式AI。
相同重要的是衔接和规划这些体系的才干。上一年12月,在完结收买Alphawave Semi后,高通技能公司将一系列关键技能归入其数据中心产品组合,包含但不限于高速有线衔接、定制芯片和Chiplet技能。这些高性能、低功耗数据传输技能特长,与高通的AI和核算渠道相辅相成,逐步增强咱们从体系层面应对日渐增加的AI作业负载需求的才干。
在MWC上,这样的整合将通过高通AI根底设施办理套件得以出现,这一套件现在正由HUMAIN在数据中心布置。该套件为机架级布置供给装备、监控、规划和毛病处理功用。硬件、衔接和软件一起构成一致数据中心渠道处理方案的根底,旨在跟着客户AI作业负载的演从而扩展。
高通技能公司的数据中心处理方案经精心规划并立足于履行,将AI加快、衔接和软件整合至专为实践布置规划的渠道中。MWC是一个展现这些体系化发展的关键。咱们等待供给更多信息,包含在接下来的活动中更新咱们的路线图,到时咱们将共享更多细节。