第一线协同华为构建AI算网驱动大模型私域部署新引擎

第一线DYXnet 2025-03-24 17:32:57

近日,『华为中国合作伙伴大会2025』在深圳开幕,第一线DYXnet作为重要合作伙伴受邀出席本届峰会,第一线网络研发总经理张先国代表公司发表『新一代超互联城市算力网络底座实践和思考』,立足于AI大模型平权的大时代,重点讲解了第一线在算力网络方面的创新成果『AI原生超互联总线』。

网络研发总经理张先国先生发表演讲

大模型私域部署兴起

从闭源军备竞赛走向开源全面繁荣

张先国演讲指出,以DeepSeek R1开源为界,大模型发展步入 “开源主导的智能普惠时代”。此前大模型发展以闭源为核心,OpenAI 构建 “大型机时代” 生态,模型能力集中,基础设施呈 “封闭模式”,依赖大平台资源,头部机构主导竞争,开源模型性能远落后。如今到新阶段,DeepSeek等开源模型生态爆发,性能逼近甚至超越闭源模型,大幅降低模型部署和使用门槛,推动技术架构与创新向私域迁移。基础设施转向 “开放模式”,企业能依托私域数据+开源模型+超互联安全网络+共享算力架构,构建自主可控的 AI 服务体系,重构大模型应用的技术生态与产业逻辑 。

消除大模型部署难题

瞄准企业资源困境以创新协同破局

然而,技术迭代虽为大模型私域部署提供性能保障,但企业尤其中小企业仍面临大模型对算力资源依赖的挑战,在保障数据安全下利用共享算力降本、减少技术壁垒,是构建自主可控 AI 体系的关键矛盾。第一线联合世纪互联等正生态协同破局,打通算力、数据、模型的流通链路,构建基础底座。

第一线通过动态扩容和整合技术,将分散的计算资源逐步转化为统一管理的平台化资源池。这一过程从单节点扩展至区域级网络,结合城市级基础设施与广域网络基础设施,形成多区域、多节点的资源融合协同能力。核心目标是打破物理资源的空间界限,依托超互联的架构,在保障私域安全空间的基础上,实现资源的弹性调度与高效利用,为客户提供从分散到集中的资源整合服务。这一突破不仅推动了分布式算力资源的集约化利用,更通过生态协作重构了大模型部署的技术范式。

张先国表示,这一平台的核心在于消除客户对资源物理位置的感知。通过统一管理体系,客户无需关心资源分布,可直接按需调用算力,平台自动完成负载均衡、故障切换及集群部署,确保客户业务在毫秒级延迟下稳定运行,且资源扩展与迁移对客户完全透明。

承载智算资源全域协同

构筑AI 原生超互联总线架构

这一进程中,第一线正在加速构建的AI原生超互联总线架构,成为拉通算力+模型需求侧到供给侧,以及对枢纽型(Hub)、辐射型(Spoke)、边缘型(Edge)等不同形态的智算中心进行融合管理的关键脉络。

AI原生超互联总线凭借动态切片、加密技术以及安全网关产品的集成创新,可达成城域范围内各类算力主体(涵盖世纪互联AIDC、公有云AI算力、边缘算力等,以及园区、楼宇、企业乃至个人),均通过就近节点实现高速、安全接入总线,进而创建动态私有网络,无缝连接算力资源、私域数据及模型,构建完全契合自身需求的私有计算空间,真正实现网络与计算资源的按需定制与高效利用。

张先国具体讲解道,在AI原生超互联总线具体构建过程中,第一线结合母公司优势,以及生态伙伴的技术能力,对网络层、管理层等多方面进行了升级。

接入侧,第一线通过实施园区/楼宇网络改造重构,实现家庭/企业基于全光直连/F5G技术,移动终端基于5G网络切片技术,进行多终端差异化接入。同时,核心网络层,第一线合作运营商,打通了园区到算力、园区到5G UPF的链路,帮助企业实现高速、安全的私域组网。管理层面,第一线实现了园区网络控制面的上移,结合区块链等技术,支持企业进行整体私域网络的管理,简化日常维护和管理的复杂度。

底层网络采用二层VXLAN、FlexE、SRv6等技术,基于用户维度实现隔离,构建“一张网/不同用户专有空间”架构,通过叠加数字身份与密码学逻辑,为不同企业/业务提供安全隐私端到端能力。

值得一提的是,AI原生超互联总线架构还采用了华为星河AI广域网解决方案,基于加密流精准识别和智能流调度技术,实现增值体验保障。在算力网数据快递和存算拉远场景中,该方案能够根据流特征精准识别智算业务,并根据网络资源实现千万流的均衡调度,提升网络吞吐率,保证智算业务的传输可靠性,实现海量数据高效入算,构筑端到端弹性无损算力网。

从数据中心走向广域

基于远程RDMA创新应用

网络研发总经理张先国先生发表演讲

张先国称,第一线在升级园区网络时,正把数据中心结构扩展至城域及全球。实现这一目标,需在AI原生超互联总线架构中,创新应用远程RDMA等关键协议。当下,第一线正探索借远程RDMA协议,推动企业大模型数据与多区域异构算力互联协同,并通过多场景技术实证,揭示其在关键 AI 业务流程中的性能表现。

大模型文件传输场景下

基于远程RDMA技术的AI原生超互联总线,在2000公里以上的远程传输中,即使在小带宽切片下传输速度也可达TCP的20倍以上,较多线程多路TCP也有2倍以上速率优势,且CPU利用率更优。而物理带宽越大远程RDMA协议优势越突出。200Gbps网络实测中,即使在少量丢包的场景下,远程RDMA技术实现160Gbps以上速率,而受内核与系统限制的TCP多流模式仅达30Gbps。

跨节点模型微调训练场景

10km间距的两节点基于400Gbps双链路协同训练大模型,与同节点训练相比,总体差距控制在2%以内。

模型分发场景

大模型文件,在10Gbps非高速网络环境下,仍实现5~8倍的速度提升,凸显AI原生超互联总线在广域传输、模型训练及分发场景的高效性能。

企业私域AI落地方案

【某教育客户案例】

教育企业客户数据量高达300TB+,包含多种形式。第一线打通其原有存储与第一线边缘节点,从而形成安全网络互联,并调度 64 台算力资源为其进行模型微调训练,训练结束后进行多节点部署与模型分发,连接到线下体验节点等,实现端到端多点间至少100Gbps的高速“AI内网”,实现数据的拉远训练和模型的快速分布式部署。

这一过程可根据客户不同阶段的需求,动态调整资源。从训练期间的64台训练资源,可以在几分钟内快速完成资源切换和部署,调整为分布在不同区域的推理算力资源,并依托“AI内网”对接其内部知识库,构建分布式私域计算空间,实现网络与算力的精准整合创新。

随着AI原生超互联总线的规模化落地,企业级AI部署正从单一算力依赖转向多维资源协同。该架构通过高速安全总线实现网络资源按需分配,依托动态切片技术、弹性算力调度算法、安全加密技术等构建分布式计算网格,促进AI在私域场景下的快速落地和创新。

未来,AI原生超互联总线的进一步演进将加速多域协同计算的普及,最终推动智能计算从云中心向城市级算力网络的范式跃迁。

0 阅读:5

第一线DYXnet

简介:全球领先的云网安服务提供商,提供“AI+云网安”融合服务