1、vBRAS 技术在城域网部署的研究 郑强 肖禄 班瑞 中讯邮电咨询设计院有限公司 摘 要: 通过分析运营商业务控制设备 (BRAS) 目前在软硬件、业务承载和建设运维管理上存在的问题和不足, 对比研究目前业界的主流虚拟化解决方案和相关关键技术, 着重从技术角度分析探讨 vBRAS 部署的合理方案, 给出 vBRAS 技术在城域网部署的具体方案, 最后对 vBRAS 在城域网中规模部署所存在的难点和部署建议进行总结。关键词: 软件定义网络; 网络功能虚拟化; 城域网; vBRAS; vBNG; 作者简介:郑强, 工程师, 主要从事城域网规划和城域网演进研究工作;作者简介:肖禄, 毕业于北京邮电大
2、学, 工程师, 主要从事网络架构研究工作, 包括 IP 承载网和城域网演进方向研究;作者简介:班瑞, 高级工程师, 主要从事数据网规划、咨询设计工作。收稿日期:2017-08-22Research on the Deployment of vBRAS in MANZheng Qiang Xiao Lu Ban Rui China Information Technology Designing Abstract: By analyzing the problems and shortcoming of the operators BRAS in the current hardware and
3、 software, service bearing and constructing operation and maintenance management, it compares the mainstream virtualization solutions and related key technologies in the industry, focusing on the technical analysis vBRAS deployment of a reasonable solution in MAN, and finally it summarized the diffi
4、culties of vBRAS deployment and deployment recommendations in MAN.Keyword: SDN; NFV; MAN; vBRAS; vBNG; Received: 2017-08-22引用格式:郑强, 肖禄, 班瑞.v BRAS 技术在城域网部署的研究J.邮电设计技术, 2017 (10) :55-60.1 城域网 BRAS 现状及问题分析1.1 城域网架构及 BRAS 的业务承载现状现有城域网为 3 层扁平化的架构。汇聚层主要负责对各接入点进行汇聚分, 提供流量控制和用户管理功能;业务控制层在核心层和 IP 宽带接入网之间, 扩大
5、核心层的业务覆盖范围, 负责业务接入、业务控制, 能够对业务进行 Qo S 部署, 实现对用户的访问控制、服务质量控制、安全控制、流量整形等;核心层主要实现与骨干网的互联, 提供宽带 IP 城域网的高速 IP 数据出口。现有城域网业务种类多样, 包括宽带、IPTV、WLAN、互联网专线等业务。部分省分家庭宽带业务、WLAN 业务由 BRAS 设备实现业务接入;互联网专线业务由 SR设备实现业务接入;部分省分家庭宽带业务、WLAN、IPTV、互联网专线均由BRAS 综合承载。宽带及 IPTV 等大流量业务增长较快, 对设备能力提出更高要求。同时, 随着新业务的层出不穷, 如何适应对新业务的快速部
6、署, 增加网络弹性, 也将成为关注焦点。1.2 城域网 BRAS 现状通过对中国联通 300 多个城域网中的 BRAS 设备现状统计, BRAS 设备总体呈现出 3 个特点:总量大、流量低、负荷低。1.2.1 BRAS 设备规模截至 2016 年底, 中国联通全国 BRAS 总量大约 5000 台。其中, BRAS 设备平台能力占比分布如下:20G 及以下约 16%, 40G 约 16%, 100G 约 53%, 200G 及以上约 15%。中国联通全国宽带用户总共 7 523.6 万, 平均每万用户拥有 0.66 台 BRAS。1.2.2 BRAS 流量承载情况截至 2016 年底, 4 6
7、00 台 BRAS 获取到了有效流量数据。BRAS 上联链路峰值总流量 50 179G;上联链路总带宽约 135 770G, 总利用率37%。平均每台 BRAS 上联链路峰值流量约 10.9G。其中 10G 流量以下占比63%。1020G 流量以上占比 22%, 20G 流量以上占比 14%。1.2.3 BRAS 并发情况截至 2016 年底, 平均每台 BRAS 配置的最大并发用户容量为 4.5 万, 承载的并发用户数为 1.01 万。1.3 城域网 BRAS 问题分析1.3.1 IP 地址池及 NAT 设备资源使用不均现网各 BRAS 均独立配置 IP 地址池, 地址规划复杂, 同时预留所
8、承载业务所需地址资源, 在业务分布不均情况下, 容易出现地址使用不均、零散地址资源浪费情况。对于采用分布式部署 NAT44 板卡的 BRAS, 容易出现 NAT44 流处理能力利用率低问题。1.3.2 硬件资源利用不充分对于业务承载不均衡的节点 BRAS, 由于设备入网先后顺序不同且相互独立, 所承载业务量多少及类型不同, 造成设备使用不均衡。对于某些业务控制处理需求大于流量转发需求大的场景, 也会出现 BRAS CPU 利用率、Qo S 策略及队列数等达到瓶颈, 而转发能力未充分发挥的情况。1.3.3 业务创新和能力开放支持不足传统 BRAS 是软硬件一体化的专用设备, 是典型的控制与转发紧
9、耦合的网络设备, 这种架构在一定程度上束缚了网络和业务的发展。市场需要运营商不断推陈出新、促进发展, 而设备厂家软硬件紧耦合, 对于新业务的适配通常较困难, 同时设备能力开放无法达到预期效果, 缺乏面向业务的北向接口, 将影响运营商业务创新。1.3.4 业务部署、设备升级周期长新老业务融合难度大, BRAS 功能封闭, 造成软件复杂度越来越高, 与业务系统对接复杂, 新业务部署上线周期长, 软件开发成本急剧上升。由于设备无法感知应用层的需求变化, 导致业务控制层设备对业务的实现极不灵活, 一个业务的实现少则需要全网的配置修改、网络部署的调整, 多则需要网络设备的版本升级甚至硬件的更换, 所以一
10、个新业务的部署至少需要半年甚至更长的时间。1.3.5 缺乏业务精细化运营手段面对业务和网络需求的不断增长, 现有设备不能实现对单一用户进行精细化管理, 不具备对各类业务进行分类、区别服务的能力。现有网络及设备以粗放式带宽出租运营为主, 无法灵活有效提供宽带增值业务以及端到端的宽带管道精细化运营。1.3.6 网络建设成本居高不下随着用户带宽持续提速, BRAS 从 10G 升级到 40G、从 40G 升级到 100G、未来从100G 升级到 400G 或更高性能的硬件平台, 每一次硬件更新换代都投资巨大, 随着运营商规模引入 4K 等视频业务, 传统 BRAS 建设成本居高不下。为满足网络智能化
11、运营需求以及少数特殊业务承载需求, 除传统 BRAS 外, 还需增加不同增值业务功能设备或板卡, 这些设备功能和应用场景局限、部署分散、性能提升较慢、价格居高不下, 对运营商而言性价比较低。1.3.7 兼容性及可靠性不足异厂家 BRAS 设备兼容性差, 同厂家不同平台的 BRAS 设备也存在不兼容, 扩容限制条件较多。传统 BRAS 缺乏有效的备份保护机制, 或者备份成本高, 网络可靠性难以进一步提高。1.3.8 现网设备众多导致运维效率低随着 BRAS 在网络中的位置逐渐下移, 部署逐渐分散, 设备数量众多, 不利于集约化管理。而且每一个 BRAS 设备都是独立的系统, 实际使用中需要对每台
12、BRAS 单独配置大量而复杂的用户策略, 缺乏统一管理控制平台, 管理运维复杂, 效率低下。2 BRAS 演进路线分析2.1 BRAS 演进路线分析目前业界主流 BRAS 演进路线中, 分为转控统一和转控分离 2 个方向。2.1.1 转发与控制统一转发面与控制面均集中部署在 X86 通用服务器上实现, 主要负责用户管理、Radius、地址管理、AAA、PP-Po E、DHCP、组播、DB、Qo S、MPLS、ACL、路由协议、流量转发等。该方式易于实现, BRAS 功能验证已比较成熟, 厂家可快速实现。所有控制流量和业务流量均要流入到 DC 内进行处理。具体见图 1。图 1 转控统一方式业务流
13、量和控制流量流向 下载原图2.1.2 转发与控制分离控制面集中部署在 X86 通用服务器上, 主要负责用户管理、Radius、地址管理、AAA、DHCP、DB、OpenFlow 等。转发面采用分布式转发硬件, 主要负责组播、Open Flow、Qo S、MPLS、ACL、路由协议、PPPo E、流量转发等。转发面根据解耦情况又分为专用转发硬件 (与控制面紧耦合) 和通用转发硬件 (与控制面解耦) 2 个路线。根据转发面解耦程度, 转控分离又分为专用转发硬件 (与控制面紧耦合) 和通用转发硬件 (与控制面解耦) 2 个路线。具体见图 2。2.1.3 转发与控制分离的 2 种实现方式图 3 给出了
14、转控分离的 2 种方式。a) 专用转发硬件 (与控制面紧耦合) 。专用转发硬件具备以下特点:控制面与转发面为同厂家, 紧耦合;转发面可采用现有 BRAS, 构建 BRAS 转发资源池。图 2 转控分离方式业务流量和控制流量流向 下载原图图 3 转控分离的 2 种方式 下载原图b) 通用转发硬件 (与控制面解耦) (见图 4) 。通用转发硬件具备以下特点:控制面与转发面进行解耦;转发面使用通用转发硬件, 采用标准北向接口与控制互通;通用转发硬件分为 NP 交换机和 SDN 交换机, 需要 session 级精细化控制的业务建议使用 NP 交换机, 常规流量转发建议使用 SDN 交换机承载。图 4
15、 转控分离的通用转发硬件实现方式 下载原图2.2 转控分离的 v BRAS 功能架构转控分离的 v BRAS 功能架构更贴近 CUBE-NET2.0 网络重构目标, v BRAS 系统架构图如图 5 所示。控制面部署在中心机房, 由 NFV 技术实现灵活控制和弹性扩展, 与转发面采用标准化接口对接, 转发面部署在汇聚机房, 实现大流量卸载。图 5 v BRAS 系统架构图 下载原图3 v BRAS 部署方案、难点及建议3.1 v BRAS 部署方案结合前述对 BRAS 演进路线的分析, 以及目前已知 v BRAS 系统架构涉及到的关键技术研究进展, 针对运营商城域网络现状和开展业务情况, 建议
16、 v BRAS 部署方案分 3 个阶段, 逐步实现向目标架构演进。3.1.1 第 1 阶段试点转控分离v BRAS 部署初期可选择业务量不大的汇聚区或小型城域网进行试点 (见图 6) 。图 6 第 1 阶段 v BRAS 部署拓扑结构示意图 下载原图建议在核心机房集中部署 v BRAS 控制面, 控制面应考虑冗余备份。单独选取试点 BRAS 与控制器对接, 进行控制功能集中上收改造, 通过专用转发硬件构建转发资源池, 承载业务流量。为保证现有业务安全稳定, 建议转发面在试点部署中考虑安全性备份。3.1.2 第 2 阶段转发面过渡共存考虑到运营商现网 BRAS 数量较大, 改造周期较长, 运维模
17、式转变, 产业链逐渐成熟等因素, 在 v BRAS 部署中期, 建议在现网汇聚机房部署通用转发设备, 并与专用转发设备共存一段时间, 业务流量逐步向通用转发硬件迁移 (见图 7) 。上联至通用转发硬件的接入网设备应保留至现有 BRAS 的链路, 以备通用转发面故障时能快速切换承载业务。图 7 第 2 阶段 v BRAS 部署拓扑结构示意图 下载原图3.1.3 第 3 阶段目标网络功能云化部署v BRAS 部署目标架构将跟随 NFV 云的部署步伐, 城域网架构为核心层、汇聚层分流、接入层 3 层结构, 与传统城域网架构相比少了业务控制层 (移到 NFV 云中) (见图 8) 。核心层:城域网网络
18、功能部署在 DC 内, 每个 DC 部署数据中心交换机, 疏导业务流量至骨干网, 控制流量至 NFV 云。图 8 第 3 阶段 v BRAS 部署拓扑结构示意图 下载原图汇聚层:通用转发硬件部署在汇聚机房, 汇集接入网设备端口, 通用转发硬件至数据中心交换机之间部署 Vx LAN, 根据业务场景选择 NP 交换机或 SDN 交换机。接入层:OLT 等接入设备部署在接入机房。通过对运营商 v BRAS 乃至城域网架构的演进, 最终实现简洁、灵活、开放、集约的网络重构目标。3.2 v BRAS 部署关键难点v BRAS 架构尚在软硬件、运维、国际标准及其他方面均存在一定难点, 将对实际部署方案产生
19、影响, 需运营商重点关注。3.2.1 软硬件方面难点系统集成难度大, 是 NFV 能否成功的关键因素。通用转发硬件目前还没有太成熟的产品, 生态产业链还没有形成, 需各方积极推动和促进 (见图 9) 。3.2.2 运维方面难点NFV 引入网络后, 系统运维将更加复杂, 对运维人员的能力要求更高, 短期来看必然会造成 OPEX 的增加 (见图 10) 。3.2.3 国际标准方面难点初期阶段, 在推进 BRAS 转控分离厂家解耦过程中将面临一定阻力, 运营商需加强引导力度, 提前进行接口标准化研究, 明确接口规范。图 9 NFV 系统架构对集成的要求和难点 下载原图图 1 0 系统架构对维护体系的
20、难点 下载原图而 NFV 部分接口标准化刚刚完成或还未完成;NFV 标准目前主体关键架构已经完成标准化, 但部分接口标准化进程还未完全完成, 多厂家接口对接、多厂家云网协同管理的实现还非常困难。3.2.4 其他方面难点3.2.4. 1 网络重构的内外部因素CUBE-NET 2.0 网络重构战略的实施需要大量的测试验证做基础, 目前中国联通网络技术研究院正在积极推进其标准化和测试等工作, 同时业界的产业链发展也是重要的外部因素。v BRAS 作为 NFV 架构中的一个 VNF, 建议统筹考虑使用相同技术的虚拟化项目共同实施 (v EPC、v IMS、v CDN、v CPE、v FAN、Servi
21、ce Chain 等) , 共用基础设施和 MANO 不仅是 NFV 架构的目标, 也是降低 CAPEX 和 OPEX 的关键。3.2.4. 2 业务管理模式采用 PPPo E 拨号为基础的宽带业务模式, 以目前产业链发展情况来看, SDN 交换机不能很好地支持 PPPo E 这类精细管控的业务, 同时业界又没有成熟的通用NP 交换机产品, 因此, 建议一方面进行宽带业务管理模式创新研究, 另一方面积极关注通用 NP 交换机的发展趋势, 与未来网络架构演进方向相匹配。3.3 v BRAS 规模部署建议v BRAS 技术规模部署落地步骤建议如下。a) DC 化改造:优先进行 DC 核心机房规范化
22、改造, 用于集中部署城域控制平面, 形成对各类业务网元 (包括 BRAS) 的控制面功能集中上收。控制面在部署中应按照虚拟化要求建设, 并采用通用硬件实现, 提高资源利用效率。b) 部署资源池:转发平面的部署方式需结合新业务发展需求、软硬件技术和产业链成熟度、对网络资源和投资的保护等多方面因素确定。初期建议可采用现网 BRAS 作为转发设备, 控制面集中到 DC 内, 构建转发资源池, 并与控制平面进行适配。c) 软硬解耦:应重点关注并积极推进转发面与控制面的解耦合, 提前进行接口标准化研究和制定, 抓住网络发展主导权。d) 云化部署:应以业务为驱动向目标架构演进, 逐步完成 v BRAS 的
23、云化部署, 扩展资源管控平面, 实现云网协同管理。e) 能力开放:未来进一步完善城域统一控制平面, 实现网络能力开放和多业务综合承载, 为 CDN 等应用类云业务的快速部署和迭代开发奠定基础。4 简要结论目前 v BRAS 相对传统 BRAS 性能、成本没有明显优势, 没有迫切的业务需求, 相关国际标准未完全完成, 产业链还不完善, CUBE-NET 2.0 还在研究验证中, 不建议规模部署 v BRAS。根据近年虚拟化技术产业的发展速度, 乐观预计未来 5 年左右可具备规模商用条件, 以业务发展、技术成熟和产业链完善为驱动, 根据集团统一部署逐步演进。参考文献1缪伟, 黄鹏.城域网 BRAS
24、 向 SDN 演进的方法及步骤探索J.邮电设计技术, 2016 (2) :78-83. 2郭爱鹏, 武成洁, 唐雄燕.v BNG 落地城域边缘部署方案及演进策略J.邮电设计技术, 2016 (11) :35-41. 3赫罡, 郭爱鹏, 郑毅, 等.基于 SDNNFV 的新型 IP 城域网架构及演进J.邮电设计技术, 2016 (11) :6-9. 4郭爱鹏, 赫罡, 唐雄燕.v BRAS 落地城域网分三步走, 未来值得期待J.通信世界, 2016 (4) :26-29. 5周光涛, 郭爱鹏, 唐雄燕.SDN/NFV 技术在宽带 IP 城域网中的应用J.信息通信技术, 2015 (4) :12-
25、15. 6朱鹏, 赵怀罡, 周光涛, 等.基于池组化技术的 BRAS 部署方案及组网策略研究J.信息通信技术, 2013 (10) :75-81. 7冯南梓.城域网 v BRAS 应用研究J.网络安全技术与应用, 2017 (4) :35-36. 8王熙.中国电信网络重构 v BRAS 是重要组成J.通信世界, 2017 (20) . 9孙同磊, 周余芯.基于 v BRAS 资源池构建新型城域数据网J.电信科学, 2016 (S1) . 10雷波, 解云鹏, 王波.v BRAS 应用场景及评估方法探讨J.中兴通讯技术, 2017, 23 (2) :23-26. 11武成洁, 郭爱鹏, 赫罡.基于 SDN/NFV 技术的 v BNG 演进方案研究J.邮电设计技术, 2016 (11) :42-46. 12徐海英.城域网 BRAS 备份模式研究J.中国新通信, 2016, 18 (7) :23-24. 13杨锋, 解冲锋, 史凡.城域网虚拟化方案及思路探讨J.中兴通讯技术, 2016, 22 (6) :36-39.