真实的5G功耗究竟是怎样的?

5G是当下最热门的话题之一 , 而5G功耗更是热门中的热门 。为了赢得运营商的青睐 , 各个厂商都在标榜自家产品的功耗性能业界领先 , 到底谁的说法是准确的呢?若要从纷杂的观点中直击问题真相 , 就必须要解答两个问题:第一 , 5G基站功耗到底与什么相关;第二 , 如何评估5G基站功耗才是准确的 。
【真实的5G功耗究竟是怎样的?】关于第一个问题的答案 , 我们从各厂商在MWC2019上海展上介绍的几种降低5G基站功耗的核心手段 , 就能发现一些端倪:
首先 , 基站功耗主要来自于射频单元 , 而射频单元中功耗占比最高的就是功放 。功放对一定范围内的输入信号能够进行线性放大 , 而超过这个范围的输入信号会被失真放大 , 从而导致功放效率降低 。为了提升功放效率 , 通过专门优化的数字预纠偏算法(DPD) , 对功放的非线性放大区进行预纠偏 , 能够使功放效率得到大幅提升 。那么不难看出 , DPD算法的优劣将会直接影响5G基站功耗效率 。
其次 , 基站功耗与工作温度也密切相关 。通常 , 工作温度越高 , 器件的漏电流越大 , 基站功耗也就越大 。通过引入先进的散热技术 , 能够有效控制基站工作在合理的温度范围内 , 保证基站的功耗效率 。
此外 , 基站的数据处理部分也占用了较多的功耗开销 , 这一部分也存在较大的优化空间 。通常 , 业内厂商针对成熟的商用产品 , 都会考虑采用专用集成电路(ASIC)芯片替代现场可编程门阵列(FPGA)芯片 , 用以降低功耗并提升运算效率 。
而第二个问题 , 如何评估5G基站功耗是准确的 , 关键点还是在于测试条件的统一 。因为5G基站功耗与多个测试因素相关 , 任一因素的改变就会导致结果出现较大的变化 。那么 , 5G基站功耗到底与哪些测试因素有关呢?
1. 发射功率:发射功率越低 , 基站功耗越低 。以20%的功耗效率为例 , 减少40W的发射功率将降低200W的功耗 。
2. 业务负载:基站的业务负载越高 , 调用的物理资源(PRB)就越多 , 功耗也就越大 。如业务负载为100%时的基站功耗就远大于业务负载为30%时的基站功耗 。
3. 环境温度:环境温度升高会导致基站工作温度升高 , 如前文所述 , 工作温度升高则导致器件的漏电流增大 , 进而导致基站功耗增加 。
4. 支持功能:基站支持的功能不同 , 也会导致基站功耗存在差异 。例如 , 如果厂商考虑了基站后续的扩展能力 , 对电源、散热以及计算能力等方面做了预留 。那么 , 相对于无扩展能力的基站 , 功耗也一定会有所提升 。
其实 , 厂商5G功耗的最优之争在集采测试时自然会有定论 。为了保证集采测试结果是公允可信的 , 运营商集团公司会集结大量资深专家 , 采取严格的环境和平台审查标准 , 用多样本多用例的测试来试探各厂家基站功耗的最真实水平 。这样不仅仅有助于运营商做出正确的判断 , 同时也将激励厂商不断创新 , 从而推进5G产业的正向发展 。

    推荐阅读