香港科技大学(广州)全奖博士项目(Ying Cui教授)

一、导师简介

香港科技大学(广州)全奖博士项目(Ying Cui教授)

Prof. Ying Cui于2007年获西安交通大学电子信息工程学士学位,2012年取得香港科技大学电子与计算机工程博士学位。攻读博士期间,她曾赴耶鲁大学(2011)与麦考瑞大学(2012)担任访问学者。博士毕业后,Prof. Cui先后在美国东北大学(2012.6-2013.6)与麻省理工学院(2013.7-2014.12)开展博士后研究。2015年1月至2022年7月,她任职于上海交通大学担任副教授。自2022年8月起,Prof. Cui加入港科大(广州)物联网学域任副教授,并在港科大清水湾校区电子与计算机工程系兼任副教授职务。

学术产出方面,Prof. Cui在IEEE旗舰期刊发表论文逾80篇,在IEEE重要学术会议发表论文70篇。荣誉层面,她于2014年入选国家青年人才计划,2020至2024年连续五年入选斯坦福大学全球前2%科学家榜单,并获IEEE ICC 2015与IEEE GLOBECOM 2021最佳论文奖。目前担任IEEE Transactions on Wireless Communications期刊编委。

二、近期文章和项目解析

香港科技大学(广州)全奖博士项目(Ying Cui教授)

Prof. Cui的2025年发表记录显示,其研究聚焦三大主线:物联网频谱资源优化、物理信息机器学习范式转换,以及6G自主网络架构。

2.1 非授权频谱的多小区物联网最优频段分配

发表于IEEE Transactions on Wireless Communications的文章探讨多小区物联网在非授权频谱上的最优频段分配策略。该研究直接回应物联网设备密度激增导致的频谱稀缺问题。传统授权频谱分配机制在规模化物联网场景下显现出灵活性不足,而非授权频谱(如ISM频段)的开放接入特性虽缓解容量压力,却引入跨系统干扰协调复杂性。Prof. Cui的研究将频段分配建模为优化问题,通过跨小区协同机制实现干扰最小化与容量最大化之间的权衡。技术层面,该工作可能采用博弈论或分布式优化框架,使各小区接入点在不共享完整信道状态信息前提下,仍能收敛至全局近似最优解。这一方向与港科大(广州)物联网学域强调的"大规模异构网络资源管理"高度契合。

2.2 物理信息机器学习向凸优化的范式转换

Engineering Applications of Artificial Intelligence刊载的文章提出将物理信息机器学习(Physics-Informed Machine Learning, PIML)转化为凸优化问题。PIML的核心思想是在损失函数中嵌入物理定律约束,使神经网络学习过程遵循质量守恒、能量守恒等先验知识。然而,非凸损失函数导致训练不稳定与解释性缺失。Prof. Cui与合作者通过数学变换,将特定物理约束下的学习问题重构为凸优化形式。此举带来三方面优势:第一,保证全局最优解存在性与唯一性;第二,显著降低计算复杂度,规避梯度消失与局部最优陷阱;第三,提升模型可解释性,使学习结果具备物理一致性。该工作应用于无线通信领域,可能用于信道建模、波束成形设计或功率控制,其中电磁波传播规律作为物理先验嵌入学习框架。这种"凸化"思路在工程应用中具有实际价值,因其可将复杂学习问题转化为成熟优化工具箱可求解的标准形式。

2.3 大规模无授权接入中的快速设备活动检测

IEEE Transactions on Wireless Communications与IEEE ICC Workshops接受的系列论文研究基于最大似然估计(MLE)与最大后验概率(MAPE)的快速设备活动检测算法,面向大规模无授权接入场景。无授权免调度接入(Grant-Free Access)是5G/6G支持海量机器类通信(mMTC)的关键技术,设备无需基站许可即可随机接入,大幅降低信令开销。核心挑战在于基站需从海量潜在设备中识别少数活跃用户,此问题本质上是压缩感知中的稀疏信号恢复。Prof. Cui提出的PSCA(Probabilistic Structured Compressed Aggregation)及其神经网络版本PSCA-Net,利用设备活动概率的先验分布与稀疏结构,将检测复杂度从O(n³)降至接近线性。PSCA-Net采用深度学习端到端学习稀疏恢复算子,避免传统迭代算法的重复计算。该工作获GLOBECOM 2021最佳论文奖,显示其在学术界的认可度。实际系统中,快速检测能力直接决定接入延迟与系统吞吐量,尤其在工业物联网、车联网等对时效性敏感场景中。

2.4 6G自主无线接入网络:AI与网络数字孪生赋能

Frontiers of Information Technology and Electronic Engineering刊登的综述文章"6G autonomous radio access network empowered by artificial intelligence and network digital twin"由Prof. Cui作为合作者参与撰写。该文提出6G自主RAN技术框架,以原生云、原生AI与网络数字孪生(NDT)为核心要素。网络数字孪生被定义为物理网络的虚拟镜像,通过实时数据流与双向交互接口,实现高精度仿真与预验证。区别于传统静态网络仿真,NDT具备动态建模、实时数据同步、闭环控制等特征。文章指出,6G网络将超越5G的通信单一定位,原生集成感知、计算、AI、大数据与安全能力,实现"万物即服务"(Everything as a Service)。AI与NDT结合形成闭环管理机制:NDT为AI算法提供安全的训练与预验证环境,避免直接在网络运维中部署未经测试的AI模型导致意外损失;AI则驱动NDT的持续优化与自主决策。该框架包括服务化架构重构RAN协议栈、原生AI框架协调通信与算力、NDT支持AI算法验证三层设计。此研究方向与工业界白皮书提出的6G数字孪生网络技术问题高度一致,包括构建通用化孪生内容、实现虚拟场景可控生成、提升真实数据利用效率等挑战。

三、未来研究预测

基于Prof. Cui的研究轨迹与当前6G技术演进趋势,其团队未来可能聚焦以下方向:

3.1 网络数字孪生的工程化落地

当前NDT研究多停留在概念与架构层面,Prof. Cui的优化理论背景使其具备推动工程化落地的独特优势。未来工作可能包括:第一,开发低复杂度孪生建模方法,解决无线网络高维状态空间带来的"维度灾难"。通过压缩感知或矩阵分解技术,从稀疏测量数据重构完整网络状态,降低孪生构建的数据采集成本。第二,设计孪生与现实网络的异步同步机制。由于实时全量数据同步开销巨大,研究事件驱动或周期性批量同步策略,在保证孪生保真度的前提下最小化信令负载。第三,构建NDT驱动的自主优化闭环。孪生不仅用于离线仿真,更作为在线决策的"影子系统",在物理网络运行同时,孪生中并行执行多种优化策略,通过A/B测试选择最优方案并推送至物理网络。这种"数字孪生即服务"模式或将成为6G网络自动化运维的标准范式。

3.2 大规模AI原生无线接入

6G网络将AI从附加功能提升为原生能力。Prof. Cui在分布式学习与联邦学习方面的积累可应用于RAN智能体的协同训练。具体而言,每个基站作为联邦学习客户端,在本地数据上训练AI模型(如流量预测、用户行为识别),通过模型聚合而非原始数据交换实现全局模型更新,保护用户隐私。挑战在于基站间数据非独立同分布导致模型偏差,以及通信开销与模型精度的权衡。未来研究可能探索分层联邦架构:宏基站负责粗粒度全局聚合,微基站进行细粒度局部微调。此外,AI模型本身的轻量化设计亦需优化理论支撑,如神经网络架构搜索(NAS)寻找最优层数与宽度,或知识蒸馏将大模型压缩至边缘设备可运行的小模型。

3.3 通感算一体化资源调度

6G愿景强调通信、感知、计算功能融合。基站不仅传输数据,还具备雷达式环境感知与边缘计算能力。Prof. Cui在移动边缘缓存与计算领域的经验可直接迁移至此场景。通感算一体化带来新型资源约束:感知波形设计需兼顾通信信道估计精度与目标检测分辨率;计算任务卸载需考虑CPU周期、内存带宽与通信时延的联合优化。可将其建模为多目标优化问题,采用分解法或帕累托前沿搜索获取均衡解。例如,在车联网场景中,基站通过感知获取车辆位置与速度,预测链路质量,动态调整波束方向与计算卸载策略,实现超低时延高可靠通信。此方向需跨学科知识整合,正是Prof. Cui多元化研究背景的用武之地。

3.4 后香农时代的信息论基础

现有研究多基于经典信息论框架,但6G引入AI使传统容量定义不再充分适用。 Prof. Cui的优化理论深度使其可能涉足"学习-centric"信息论,量化AI任务(如分类、检测)在端到端系统中的失真率函数。例如,设备活动检测的误差概率不仅取决于信道容量,更与压缩感知恢复算法的相干性、测量矩阵设计相关。未来或建立"任务导向"的通信优化理论,直接最小化学习任务损失而非最大化比特传输速率,形成后香农时代的通信-学习联合设计范式。此方向理论挑战性高,但一旦突破,将为AI原生网络提供第一性原理支撑。

【竞赛报名/项目咨询+微信:mollywei007】

上一篇

多国混申必看:美本和欧本有什么区别?

下一篇

美国申请流程攻略贴:如何把专业实践经历转化成申请优势

返回顶部