在当今数字化时代,云端算力技术正发挥着日益关键的作用,其发展趋势也备受瞩目。以下是关于未来云端算力技术发展的一些主要趋势分析。 一、算力规模持续增长 随着人工智能、大数据、物联网等领域的快速发展,对算力的需求呈现爆发式增长。大模型应用加速落地,多模态大模型快速演进,如 ChatGPT 等爆款人工智能大模型应用的出现,引发了对海量算力的强烈需求。为满足不断增长的计算任务需求,云端算力的规模将持续扩大。预计到 2024 年,全球前十大云计算服务商的资本支出将达到 2000 亿美元,新增投资聚焦人工智能领域,这将推动云端算力资源的进一步扩充。 二、智算算力云化程度不断提高 数字产业化与产业数字化催生了大量数据,挖掘这些数据的价值需要强大的算力支持。智算需求在人工智能训练推理、图形渲染、生物医药等应用场景极为普遍,并且具有较为明显的非持续型需求,而云化算力随取随用、弹性的特点与这些应用场景的需求高度契合。因此,智算算力的云化比例将稳步攀升。以广东、浙江、北京、上海等东部沿海地区为代表,其智算云化比例已领先全国,超过 50%,未来这一趋势将向更多地区扩展。 三、算力布局向纵深拓展 一方面,AI 大模型向边缘和终端延伸,促使智算基础设施加速向城市和边缘渗透。多模态大模型和算力底层技术的不断完善,使得大模型部署在边缘侧与移动端成为必然趋势。例如,智能汽车、电脑、手机等边缘端设备对边缘算力的需求将不断增加,以满足低时延 AI 应用的快速响应要求。另一方面,更多城市将推出针对算力高质量发展的政策文件,统筹城市级和行业类智算资源需求,提速城市算力基础设施升级,城市级的智算中心布局态势将愈加明显。 四、云智和训推一体化成为主流服务模式 以数据为主线,云计算为基础的一体化智算服务将成为主流,实现算力、数据和算法的高效协同。这意味着云主机、存储、数据库等一系列产品将面向 AI 全面升级,数据处理、训练、微调、推理等模型使用全流程将倾向于在同一服务环境中实现。加大 AI 与云计算的融合发展已成为头部云商的共识,例如 AWS 与英伟达开展 AI 基础设施、加速库、基础模型等全栈合作,阿里云推出大模型一键部署至数据库与函数计算等功能,百度将灵境矩阵平台升级为智能体平台等。 五、泛在算力网络加速发展 算力组网新技术将蓬勃发展,以解决算力中心互联和内部网络的带宽瓶颈问题。在算力中心互联组网方面,随着新一代高性能芯片的发布,算力互联将持续催生对更高带宽的需求,如 800G 及 1.6T 需求,同时远距 RDMA、百 P 级全光互联、新型光纤等关键技术将进一步突破,从而改善算力互联的低时延、确定性保障。在算力中心内部组网方面,无阻塞、高吞吐量是承接大模型训练的核心诉求,这将促使 RoCEv2 相关算法更加成熟,以提升算力中心内部的网络性能。 六、公共算力统一调度服务优化 以政府、运营商、云商等为运营主体的算力一体化调度平台、算力互联互通平台正在建设与试点运营,支撑算、网、云融合调度与一体化发展,实现从 “任务找算力” 到 “算力适配任务” 的转变,有效解决算力资源分散、主体多、供需匹配失衡和使用成本高等问题。2024 年,公共算力统一调度服务将呈现新的变化,一方面,依托 IXP 的公共算力平台将成为主要形态,附加算力调度、供需对接等功能将加速试点应用;另一方面,围绕枢纽节点的算力生态聚集效应进一步加强,区域级、城市级等公共算力服务平台初步显现,并形成具有行业影响力的联合运营体,从而提高算力资源的利用效率和服务质量。 七、芯片多元化和国产化提速 在新技术广泛应用与全球算力短缺的背景下,芯片类型、架构和提供商均呈现多元化趋势。除了传统的 CPU、GPU 等芯片,还将涌现出更多专门针对特定计算任务的新型芯片,如 DPU、NPU 等,以满足不同应用场景对算力的多样化需求。同时,国产芯片自主生态加快建设,我国将加大对芯片研发的投入,提高国产芯片的性能和竞争力,减少对国外芯片的依赖,保障国家的信息安全和产业发展。 八、算力成本逐渐降低 降低算力成本是未来云端算力技术发展的重要趋势。随着技术的进步和市场竞争的加剧,硬件设备的成本将不断下降,同时通过更高效的资源管理和调度算法,以及多模型组合底层的算力部署和技术变化,能够提高算力资源的利用率,从而降低单位算力的成本。这将使得更多的企业和个人能够负担得起云端算力服务,促进云端算力技术在更广泛领域的应用和普及。 总之,未来云端算力技术将朝着规模更大、智能化程度更高、布局更广泛、服务更一体化、网络更高效、调度更优化、芯片更多元以及成本更低的方向发展。这些趋势将共同推动云计算与算力服务的 “双螺旋” 增长,为各行业的数字化转型和创新发展提供更强大的支撑,也将深刻改变我们的生活和工作方式。我们应密切关注这些发展趋势,积极拥抱云端算力技术带来的变革和机遇。
注:文章来源于网络
|