Skip to main content

Deep Learning at the Edge for Channel Estimation in Beyond-5G Massive MIMO

论文, 代码

文章提出了一种基于深度学习 (DL) 的信道状态信息 (CSI) 估计技术,以解决超5G (B5G) 大规模多输入多输出 (mMIMO) 系统中信道估计的挑战。

核心问题与挑战

  • mMIMO 是即将到来的5G无线部署的关键组成部分,可实现高数据速率通信。虽然增加天线数量可以提高数据速率,但同时计算CSI的成本也变得高昂
  • 信道估计是数据包解码处理链的第一步,旨在识别信道对发射信号造成的复杂变换,这对于优化信号能量至关重要。
  • 传统的信道估计方法,如最小二乘 (LS)线性最小均方误差 (LMMSE),在处理大规模天线阵列时存在局限性。LS 估计易受噪声失真影响,并在低信噪比 (SNR) 下产生高均方误差 (MSE)。LMMSE 虽能改进 LS 估计,但需要信道和噪声统计的先验知识,且其复杂度随着天线数量的增加而显著增加(例如,由于矩阵求逆步骤,复杂度可达 O(NTNRK3))。
  • 延迟或不正确的CSI计算会迅速降低mMIMO系统的性能,尤其是在CSI需要重复计算数十次的情况下。
  • 现有的DL解决方案通常使用复杂和深层架构来估计大型信道矩阵,这限制了它们在边缘设备上的部署,因为边缘设备通常在功耗和处理能力方面受限。

提出的解决方案 文章提出了一种使用多层感知器 (MLP) 架构的深度学习方法来估计信道。该方法的主要特点包括:

  • 固定计算成本:利用深度神经网络 (DNN) 固有的并行特性,无论天线元件数量多少,其计算成本是固定的。
  • 并行处理:通过将所有接收到的前导码分组在一个批次中并进行单次前向传播,同时计算所有配对信道的CSI。这使得该方法能够扩展到大型天线阵列
  • 优化架构:设计学习架构使其可在 GPU 或 FPGA 等大规模并行架构上实现。作者设计了一个紧凑的MLP模型,最初提出使用三层隐藏层,后来在实验中配置为仅有两层隐藏层。
  • 避免传统解调:模型直接以接收到的时域前导码序列作为输入,完全避免了正交频分复用 (OFDM) 系统中通常需要的解调步骤,从而进一步减少了计算负担。
  • 去噪训练:为了提高模型在低 SNR 水平下的鲁棒性,训练过程中加入了去噪步骤。通过对训练样本施加受控的额外高斯白噪声 (AWGN),使模型能够更好地适应不同的噪声水平,从而在低 SNR 条件下减少端到端传输的误差。
  • 独立处理实部和虚部:为了减少输入尺寸并捕获信道对接收信号幅度和相位分量的影响,将输入的实部和虚部分量独立处理,创建两个独立且相同的模型来接收和处理它们。

性能验证与结果 该方法通过模拟一个具有 32 个天线元件的基站 (BS) 和一个具有 4 个天线元件的用户设备 (UE) 在毫米波 (mmWave) 频段上的操作进行验证。仿真结果显示出显著的性能提升:

  • 比特错误率 (BER) 降低:相对于最快的 LS 估计,BER 降低了多达五个数量级;相对于最优 LMMSE 估计,BER 降低了两个数量级
  • 端到端系统性能提升:在低 SNR 区域显著改善了端到端系统性能。在低至 -19 dB 的 SNR 下实现了零 BER,而 LMMSE 仅在 -17 dB 才达到类似性能。
  • 空间分集与接收功率增益:为较低 SNR 区域提供了更高的空间分集,与通过 LMMSE 估计获得的性能相比,接收信号功率增益高达 4 dB
  • 预测准确性:该方法在未见过的信道条件下表现良好,并在信号受到大量噪声干扰时提供高质量的估计,在 [-15, 10] dB SNR 范围内接近甚至超过 LMMSE 的准确性
  • 可扩展性:通过大规模并行硬件加速器,该方法可以方便地扩展到更高阶的 mMIMO 系统。例如,使用 NVIDIA RTX 2080 Ti GPU,系统可以在 5.985 × 10^-4 秒内估计一个完整的 32 × 4 mMIMO 信道(包含 234 个可用子载波),这远低于中等移动场景下(例如,28 GHz 频率范围内的 1-10 ms)的信道相干时间。

未来研究挑战 文章也讨论了边缘智能在新兴通信网络中实现所面临的一些开放挑战:

  • 需要公开可用的、具有代表性的数据集,涵盖不同类型的导频、信道条件、天线配置和场景。
  • 深度架构的设计必须考虑对推理时间的影响,包括模型压缩和权重量化技术。
  • 需要使用迁移学习和联邦学习来应对随时间、地点变化的无线环境以及硬件/软件更新,以适应训练时未遇到的场景。

结论 文章提出了一种基于 DL 的 mMIMO 天线阵列 CSI 估计技术,该技术将促进 B5G 无线网络中更快的信道探测,并在极低 SNR 场景下实现更高的吞吐量,这对于毫米波和太赫兹频段尤其适用。该 DNN 模型通过仅有的两个隐藏 MLP 层和一个线性输出层,联合执行 OFDM 解调和 CSI 矩阵生成任务。